Minęły dwa miesiące. Sztuczna inteligencja od kalifornijskiego Open AI zawojowała umysły. Tak. Wgryzła się w nasze mózgi jak obcy z tanich horrorów SF. Co z nimi zrobiła, to inna sprawa. ChatGPT ma wrogów i to poważnych.
Jeśli ktoś jeszcze nie słyszał o generatywnych sztucznych inteligencjach a ściślej rzecz ujmując, o zaawansowanych modelach głębokiego uczenia maszynowego, to zapewne kiedyś i tak usłyszy. Może nawet zobaczy na własne oczy. Narzędzia tego typu potrafią już całkiem sporo. Stworzą grafikę w stylu Picassa, napiszą wypracowania na temat „Lalki” Prusa, pogadają z nami o nowej ofercie mleka w proszku. Zresztą kontakt głosowy to znak rozpoznawczy AI, choć kojarzone z nią narzędzia takiej jak Siri czy Alexa z inteligencją mają niewiele wspólnego. Są to raczej zaawansowane wyszukiwarki, sterowane głosem. Wydawać by się mogło, że modele generatywne powinny być przełomem, który wyniesie komfort życia na nowy poziom. Mimo chóralnych zachwytów, wywołują strach i sieją panikę? Kto się ich boi? Dlaczego? Przecież nie gryzą…
Dowiedz się więcej: Kto panicznie boi się ChatGPT?Popkulturowa papka
Zacznijmy od tego, że wzorce postrzegania SI w dużej mierze opierają się na popkulturze. Kto nie oglądał „Terminatora”, „Odysei kosmicznej” Kubricka czy seriali z rodziny „Star Trek”, ten może czuć się względnie bezpiecznie. Niszczycielska moc „SkyNetu” go nie dopadnie. Hybryda człowieka i maszyny, zwana Borg, nie przyjdzie i nas nie zasymiluje. Nie zamienimy się w poczwarę z kamerą zamiast oka oraz ramieniem wyposażonym w fikuśne śrubokręty zamiast palców. Koncepcje scenarzystów z Hollywood zrobiły swoje. Resztę napędzi algorytm Facebooka czy innego sociala. Sumarycznie to wystarczy, aby zasiać wątpliwości. A może jednak nie jest to dobrodziejstwo? Może komputery nas zabiją? To ich sukces. Wzmocni go publicystyka naukowców oraz youtubowych speców od etyki. Przecież stanowisko w sprawie zajęły największe umysły naszych czasów takie jak Steven Hawking. Swoje trze grosze dorzucił nawet Elon Musk (jest przeciw, ale jednocześnie inwestuje w jej rozwój ). Bazując na tym, ruch „Quanon” może stworzyć teorię spiskową, że tak naprawdę, to AI kontroluje nas już od dawna a rząd to ukrywa. Można to więc ciągnąc w nieskończoność. Bojących się jest sporo. Ostatnio dołączyli do nich nauczyciele, którym nie podoba się, że ChatGPT pisze uczniom wypracowania. O ile, w przypadku tych ostatnich, problem da się jakoś zracjonalizować i rozwiązać, to popkultury nie pokonamy. Trzeba zmierzyć się z faktami, a te są takie, że SI – w różnej formie – jest z nami od bardzo dawna. Świat nie został spopielony. Nie zmieniliśmy się w paliwo dla Matrixa. Edukacja też się dostosuje. Nie ma wyjścia. Tak samo było z Wikipedią, której klasyczna edukacja na początku nie akceptowała. W rzeczywistości to blady strach tak naprawdę padł na korporacje. Zwłaszcza na jedną.
Jak działa Google?
Gdy zapytacie przypadkową osobę na ulicy, z czego żyje Google, to możecie otrzymać serię zaskakujących i dziwnych odpowiedzi: z handlu telefonami, reklam, map. Może kogoś zdziwić, że do dziwnych odpowiedzi zaliczyłem reklamy. Reklama to produkt, który sprzedaje Google. Żeby on działał, potrzebne są dane, dużo danych. Naszych danych. Ktoś przecież tę reklamę musi zobaczyć. Dane pozwalają uczynić ją skuteczną. Oczywiście Google nam za to nie płaci. No bo i po co. To handel wymienny. W zamian za naszą cyfrową duszę dostajemy eleganckie mapy, śledzące nas 24/7. Fajną pocztę. Niezłą przeglądarkę. Serwis z filmami o wszystkim. Dysk za darmo oraz genialną, prostą i funkcjonalną wyszukiwarkę wszystkiego, co jest w Internecie. No, prawie wszystkiego. Biznes tej firmy, od wyszukiwarki się rozpoczął. Monetyzacja pomysłu również. Mało kto jednak zdaje sobie sprawę jak to działa i co powoduje, że Google to właściwie monopolista. Otóż wbrew pozorom, założenie technologii są bardzo proste. Opiera się na nich cały rynek narzędzi tego typu. Otóż Google ciągle skanuje sieć w poszukiwaniu nowych treści. Rejestr domen internetowych jest jawny i publiczny, więc każdy może sobie zbierać informacje o tym, co umieszczono w zakamarkach sieci. Potrzeba do tego ogromnych zasobów obliczeniowych, ale jednak nie aż tak wielkich, że nie poradziłaby sobie z tym duża firma w Polsce. Problem tkwi w czym innym. Jeśli pytamy wyszukiwarkę internetową o coś, to przeszukuje ona indeks na okoliczność naszego zapytania. Indeks to najkrócej rzecz ujmując, katalog możliwych odpowiedzi. Jeśli np. wpiszemy do wyszukiwarki słowo „Polska”, uzyskamy miliony rezultatów. Słowo użyto niezliczoną ilość razy, na ogromnej liczbie stron. Jak zatem ułożyć odpowiedzi. W jakiej kolejności je wyświetlić? Alfabetycznie? Zdecydowanie bez sensu. Bardzo długo szukalibyśmy interesujących nas informacji. Może jakoś zawęzić wynik, choćby w oparciu o kryterium czasu czy poprzez odrzucenie stron, na których występują wulgaryzmy? Można. To potrafią wszystkie wyszukiwarki, jakkolwiek wymaga to pewnego wysiłku. Zmniejszony zbiór i tak trzeba będzie jakoś przejrzeć. A gdyby tak wziąć pod uwagę jakieś inne kryteria, np. popularnośc strony, pojawianie się danego zasobu w innych ważnych miejscach (wydania elektroniczne poczytnych gazet), to surowy rezultat byłby znacznie bardziej zjadliwy i przyjemny w użyciu? Zdecydowanie tak. Jeśli do tego dorzucimy jakiś kontekst, w postaci informacji o tym, co ostatnio nas interesowało, gdzie byliśmy, co czytaliśmy to wyniki staną się bliższe naszym potrzebom. Tak właśnie działa cała firma. Google sprawdza nasz profil, patrzy, co nas kręciło ostatnio i takie rezultaty nam podsuwa. Także te, za które ktoś zapłacił. Kryteria sortowania wyników wyszukiwania to najściślej strzeżona tajemnica koncernu Alfabet. Tylko wąskie grono inżynierów i zarządzających ma szerszą orientację na temat tego, co dziś będzie wyświetlać użytkownikom ich ulubiona wyszukiwarka. Dzięki temu, tak z grubsza, nie potrzebują innej.
Koniec eksploatacji danych?
Dlaczego więc Google wpadł w panikę? ChatGPT wyświetla nam informacje, o które pytamy w sposób naturalny. Tak jak robi to człowiek. Zwyczajnie podsuwa nam to, czego oczekujemy, analizując kontekst pytania. Nie ma tam reklam ani miliona wyników do przejrzenia. Google w latach 90-tych też taki był, ale musiał zacząć zarabiać. Sens różnicy może tłumaczyć proste pytanie: poproszę o przepis na pizzę peperoni. Google wyświetli nam setki stron, zawierających ów przepis, w kolejności wskazanej przez algorytm oraz faktyczny przepis, z najpopularniejszej z nich albo opłaconej najpopularniejszej z nich. Co zrobi AI? Poda sam przepis. Umożliwi jego modyfikację. Jest duża szansa na to, że powstała receptura będzie względnie unikalna. Bez wszędobylskich reklam i dodatkowych zabiegów z naszej strony. Tysiąc witryn a’la książka kucharska mało kogo interesuje. Liczy się prosty konkret, który skróci czas. Google boi się, że biznes oparty o nasze dane i tradycyjne wyszukiwanie przestanie być tak dochodowy. Jeśli dołożymy do tego rosnącą świadomość eksploatacji naszej prywatności przez firmy takie jak Alfabet czy Meta, to okaże się, że długoterminowa perspektywa może być niewesoła. Generatywna AI dostarczy nam informacje w bardziej zjadliwej formie, komunikując się z nami. Nie oznacza to wcale, że nie pojawią się problemy. O ile mechanizm wyszukiwania Google’a czy Bing’a da się z grubsza jakoś wyjaśnić laikowi, to działanie generatywnego modelu SI takie już nie będzie. Oczywiście próbować trzeba. Zrozumienie zawsze minimalizuje strach. Doświadczeni jednak tym, co wydarzyło się przez ostatnie lata z dystrybucją treści w Internecie, zwłaszcza w kwestii faktów, dezinformacji czy agregacji przemocy, można mieć wątpliwości. W interesie gigantów technologii było… nic nie robić. Niech się dzieje. Co z tym zrobi SI? Jakie zaproponuje rozwiązanie?