Helion, Gliwice 2025.
Planowanie
Ze sztuczną inteligencją dzisiaj jest tak, że jedni cenią ją jako narzędzie ułatwiające zwykłą pracę, inni boją się – z różnych powodów. Paweł Półtorak stawia na przestrogi, ale w wymiarze nieoczekiwanym. „(Nie)etyczna AI. Jak programować odpowiedzialnie w erze sztucznej inteligencji” to książka, która ma zwracać uwagę czytelników na aspekty zwykle spychane na margines w kontekście refleksji nad sztuczną inteligencją. Autor jednak bardzo chce przedstawiać się jako entuzjasta AI i jednocześnie sceptyk – jeśli chodzi o niejasność celów i zamiarów. Dostrzega bowiem to, co w wielu wypadkach może doprowadzić do katastrofy – czyli realizowanie za pomocą AI własnych wizji życiowych. Sztandarowym przykładem, do którego Półtorak wciąż wraca, jest motyw nadużywania możliwości przez polityków: jeśli uda się nauczyć LLM-y rozpoznawania konkretnych rodzajów wypowiedzi – i blokowania ich, co przecież pojawia się choćby w przypadku walki z hejtem, to można też wytrenować modele językowe tak, żeby ukrywały komentarze niepasujące do konkretnej opcji politycznej.
Jeden z tematów, który tu mocno jest akcentowany, to kwestia darmowych aplikacji, które pobierają dane o użytkownikach i wykorzystują je jako przedmiot handlu. Zwykle internauci nie zdają sobie sprawy z tego, że jeśli nie płacą za korzystanie z jakiegoś programu, sami stają się źródłem zarobku – i to już bez własnej zgody. Jedna sprawa to dopasowywanie reklam i ofert do indywidualnych preferencji, inna – udostępnianie danych choćby na temat kondycji zdrowotnej. Informacje takie mogą być wykorzystywane już przeciwko samym użytkownikom (choćby w przypadku ubezpieczenia) – i tu już zaczynają się pojawiać pytania o etyczność przeprowadzanych zabiegów. Paweł Półtorak idzie trochę dalej, zastanawia się na przykład nad etycznością działań AI w medycynie, ale najbardziej przyciągają go kwestie związane z bankowością i polityką – to tutaj znajduje się aktualnie chyba największe pole do nadużyć i to tutaj kryją się pułapki zastawiane na zwykłych, nieświadomych użytkowników. Raczej stara się autor pisać ogólnikowo, odwołując się jedynie do własnych doświadczeń ze start-upami. Dzięki temu chce uzyskać w miarę uniwersalny przewodnik po niebezpieczeństwach związanych z AI w kontekście nieetyczności. Dla odbiorców, którzy sami zajmują się włączaniem AI do swoich systemów, przygotowuje framework – zestaw pytań i uwag, które mają pomóc we wdrażaniu modeli sztucznej inteligencji w pracy. To także metoda na wyczulenie odbiorców na tematy etycznej AI – autor nie tylko kieruje się do czytelników, którzy wykorzystują w programowaniu sztuczną inteligencję. Trafi też do zwykłych odbiorców, tych, którzy potrzebują przestrogi lub wskazania obszarów, które stanowić mogą zagrożenie. Oczywiście spora część potencjalnych pułapek płynie właśnie z braku świadomości użytkowników, więc jeśli będzie się głośno mówić o niepożądanych mechanizmach i konsekwencjach – edukowanie społeczeństwa pomoże w ograniczeniu problemów. Jest to książka, która rejestruje etap zachłyśnięcia się nowymi technologiami i możliwościami.
Brak komentarzy:
Prześlij komentarz