Helion, Gliwice 2026.
Obrona
Sztuczna inteligencja to morze możliwości, a jednocześnie – mnóstwo zagrożeń, na jakie użytkownicy internetu jeszcze nie są przygotowani – i które będą przeważnie wyprzedzać szanse na obronę przeciętnego internauty. Perry Carpenter postanawia zatem uczulić czytelników na sztuczki i techniki pozwalające kreować fałszywe informacje, żeby w ten sposób zapewnić im przynajmniej pierwszy stopień ochrony przed atakami i manipulacją. I, jak często bywa w przypadku książek o AI, i tutaj mniej będzie technicznych informacji, a więcej odwoływania się do emocji i przeczuć odbiorców. Perry Carpenter każdy rozdział rozpoczyna od krótkiej fabularyzowanej historyjki, w której bohaterowie padają ofiarą cyberprzestępstwa – albo w ostatniej chwili zagrożenia unikają. To okazja do przypomnienia czytelnikom najczęściej stosowanych mechanizmów, a także do wyczulenia ich na sztuczki. Autor woli raczej wyliczać poszczególne rodzaje zagrożeń niż poddawać je długiej analizie – wie, że przez rozbudowaną teorię zwykli czytelnicy mogliby nie chcieć przebrnąć. Proponuje zatem zestaw narzędzi, które mają być przydatne w rozszyfrowywaniu internetowych nadużyć. Fake newsy czy pishing to wybrane zagadnienia, które pojawiają się tu wcale nie na pierwszym planie a jako jedne z wielu rodzajów zagrań, na które warto w sieci dzisiaj uważać. „FAIK. Sztuczna inteligencja w służbie fałszywej rzeczywistości. Jak przetrwać w epoce cyfrowych oszustw” nie jest jednak tylko i wyłącznie poradnikiem czy szczepionką na fałszywe wiadomości w sieci. Czytelnicy wyciągną z tej książki o wiele więcej, pod warunkiem, że zaufają autorowi i – że potrenują uważność dzięki wskazówkom pojawiającym się na końcu tomu. Może to być trudne – wymaga bowiem czasu i sporej energii, jednak Carpenter przekonuje, że wypracowanie sobie pewnych odruchów zaowocuje szybko lepszym orientowaniem się w ewentualnych manipulacjach i oszustwach.
Nie trzeba wiele, żeby zyskać dostęp do cennych danych – tu liczy się również psychologia, obok świadomości informatycznych chwytów. Ale w erze AI możliwości przestępców stają się o wiele większe – bo wspomagane przez dostępne powszechnie narzędzia. Nawet jeśli twórcy LLM-ów starają się wyposażyć je w umiejętność odsiewania potencjalnie niebezpiecznych treści, Carpenter pokazuje, jak łatwo jest obejść system i uzyskać potrzebne dane bez szczególnego wysiłku. Przypomina odbiorcom, że przestępcy będą korzystać z takich furtek i nie zawahają się przed nieetycznym wykorzystywaniem sztucznej inteligencji. Dlatego też warto wypracować w sobie nieufność do wiralowych treści czy materiałów, które stoją w sprzeczności z wartościami głoszonymi przez konkretne osoby: deepfake nie jest dzisiaj niczym niezwykłym, a może błyskawicznie wprowadzić w błąd szerokie rzesze odbiorców.
Co ciekawe, do napisania książki Perry Carpenter wykorzystuje sztuczną inteligencję: pokazuje, jak to narzędzie funkcjonuje i jak ułatwia pracę – tłumacząc jednocześnie, dlaczego nie można wierzyć we wszystkie treści przez nie tworzone. Ten autor próbuje nauczyć czytelników, że AI ma wiele twarzy i że warto korzystać z niej rozumnie, bez strachu, ale też bez nadmiernego zaufania. I to wszystko pojawia się w książce, która pozwala szerokiemu gronu czytelników lepiej poznać możliwości AI, a jednocześnie – jedynie zarysowuje tematy, które zasługują na pogłębienie. Tu nie ma czasu na rozbudowane analizy – najpierw trzeba zaprezentować odbiorcom podstawy. I to Perry Carpenter robi.
Brak komentarzy:
Prześlij komentarz