Tak, to kolejny tekst o ChatGPT. Napisał go człowiek! #napisaneprzezczlowieka – tak będzie trzeba oznaczać swoje treści. Trzeba będzie robić „gópie będy”, aby odróżnić się od maszyny. Biorąc pod uwagę sposób działania modeli generatywnych, opierających się o zaawansowaną matematykę, to można być pewnym, że AI w pełni nauczy się podrabiać nawet to. Jak żyć? Co robić? Microsofcie, gdzie nas prowadzisz?
Zacznijmy od tego, że od czasu premiery Windows 95 i wykorzystania w niej piosenki The Reolling Stones „Start me up”, firmie z Redmond nie udało się zachwycić świat a przynajmniej jej mainstreamowej części. Mówimy oczywiście o świecie zachodnim, bo Chiny to inna bajka albo horror – jak kto woli.
Minęło więcej niemal 30 lat. Kolejne premiery jej produktów były na przemian sukcesem i porażką. Działo się to oczywiście w wyłącznie w warstwie księgowej. Przełomowych rzeczy, ważnych dla mas, próżno szukać. Innowacyjne technologie dla biznesu oczywiście powstały. Jako „microsofciarz” mógłbym się długo na ten temat rozpisywać. Powieliłbym tylko to, co już istnieje i co wiadomo. Nazywa się to Azure i M365. Reszta jest tłem. Tak prywatnie uważam, że nawet Windowsa, zarówno do domu jak i na serwery, koncern rozwija jakby od niechcenia. Trochę musi, bo jak dealer narkotyków uzależnił od niego firmy, wykończył konkurencję – choć jej nie zniszczył – więc od czasu do czasu trzeba coś podrzucić. Przełom nastąpił we wtorek, 7 lutego. We wtorki zwykle dzieje się dużo. We wtorki wybiera się w USA prezydenta, we wtorki ukazują się poprawki i aktualizacje. We wtorek ujawniamy światu, co zrobimy z ChatGPT. Od wtorku rozpocznie się nowa era wyszukiwania. Po latach dominacji Google, przejmujemy ster. Mamy coś innowacyjnego. Przełomowego. Tak ważnego, że napiszecie o tym miliony tekstów – w różnych językach. Zapomnicie o premierze Samsung Galaxy S23 a nadgryzione jabłko ze sławnego loga przestanie błyszczeć swym blaskiem. Wieczny ogień nad mogiłą Steve’a Jobsa wreszcie zgaśnie. No dobra, udało im się. Czy jednak jest to rzeczywiście przełom?
Dla mas bez wątpienia tak. Pisałem już kiedyś, że poszukiwanie informacji wymaga wysiłku. Klasyczne narzędzia tego nie ułatwiają, ponieważ są co najwyżej ulepszonym katalogiem. Tymczasem zamiast 100 przepisów na pizzę dostaniemy… przepis na pizzę. Jeden. Taki, jakiego szukamy. Tak nie było. Jest to jakościowy skok. Możliwy głównie dzięki temu, że Microsoft dysponuje ogromnymi zasobami obliczeniowymi. Bez nich modele OpenAI byłby uniwersyteckimi ciekawostkami. Dostępnymi dla nielicznych. Masowość ma wszakże swoją cenę i jest nią ogromna ilość energii elektrycznej, jaką pochłaniają hale z serwerami. Nie ma to jednak większego znaczenia, jeśli wyszukiwanie stanie się prawdziwie kontekstowe. Zaimplementowane do asystentów głosowych w telefonach, głośników, zmieni je diametralnie. Paradoks polega na tym, że Microsoft takich produktów nie ma. Cortana umarła jakiś czas temu. A konkurencja nie miała pomysłu i nadal nie ma, jak to dalej rozwijać. W Amazonię zwolnienia dotknęły przecież dywizję, związaną z Alexą. Głośnik Google – w Polsce ciągle gada po angielsku. Siri też. Jakość odpowiedzi obu urządzeń jest marna. Tymczasem Microsoft ma silnik rozpoznawania mowy, który jest genialny. Jest po polsku. Zaimplementowano go do Teamsa. W połączeniu z modelem GPT 4 tworzy silną podstawę dla nowej generacji urządzeń ponieważ możliwa będzie w miarę realistyczna rozmowa. Obecnie są to tylko komendy, które trzeba znać. Co więcej, jakość rozpoznawania mowy, bywa różna. Przyszłość jest więc już osiągalna. Model wykona za nas wiele żmudnych zadań, zamówi obiad, zaplanuje wycieczkę i zrozumie nasz nastrój, dobierając odpowiednią muzykę. Twórcy serialu „Star Trek – THe Neext Generation” widzieli to dopiero w XXIV wieku. Tablety zresztą też. Przyszłość jest dziś.
Nieco inaczej sprawa wygląda w biznesie. Parę lat temu przewidywano, że automatyzacja wypchnie z rynku wiele zawodów. Rozbudowane działy do wgrywania faktur, marketingowcy od kampanii internetowych… już dziś nie są potrzebni w takiej skali jak kiedyś. Po tym, co Microsoft pokazywał w aplikacjach biznesowych przez ostatnie 3-5 lat, można śmiało powiedzieć, że zniknie ich więcej. Analitycy, bez umiejętności programowania modeli SI, staną się zbędni. Automat wykona ich pracę w mniej niż minutę. Stworzy wizualizacje danych, opisze je i roześle decydentom. Prawnik? Droga sprawa, prawda? Po co nam prawnik? ChatGPT już teraz poda nam możliwe strategie obrony, zaproponuje draft umowy i określi ryzyka jakiegoś działania. Na razie za darmo. Wprawdzie bez gwarancji, że jest to poprawne ale skoro model zdał egzamin lekarski, to do palestry dostanie się tym bardziej i to w różnych krajach. Za nim to jednak nastąpi, na początek AI będzie generowała nam maile, teksty raportów i artykuły do firmowych serwisów. Microsoft jest pierwszy, a pierwsi biorą największy kawałek tortu.
Jest jednak pewna ścieżka, która w całym zamieszaniu z premierą nowego Binga, umknęła wszystkim. Amerykanie pokazali coś, co potencjalnie może zmienić sytuację społeczną. Na plus albo na minus. Na co bardziej? Zobaczymy. Można to tylko porównać z drenażem umysłów, który zawdzięczamy firmie Meta. Jej algorytmy, trochę od niechcenia, sterują masami. Decydują, co zobaczymy i jak zareagujemy na problem. Jeśli ktoś szuka świeżych wrażeń w tym zakresie, to polecam do analizy case Mamy Ginekolog. A co z AI? Ano to, że to jej algorytmy złożą nam odpowiedź na pytanie, dobiorą źródła i językowy format. Przejmą rolę autorytetu, chodzącej encyklopedii, księdza i lidera politycznego w jednym, niewidzialnym tworze. Spór o sposób doboru informacji pojawi się napewno. Algorytmy zostaną oskarżone o sprzyjanie lewicy, prawicy, kosmitom, Kaczyńskiemu, Tuskowi itp. Będą próbowały być poprawne politycznie. Co z tego wyjdzie? W końcu Microsoft będzie też musiał powiedzieć nam, jak będzie zarabiał na prąd do serwerownii i dywidendę Billa Gatesa. Ai będzie na abonament? Czy pojawią się reklamy? Ta druga opcja wydaje się potencjalnie mega zyskowna. Wracając do przepisu na pizzę… tak dostaniemy takowy, opatrzony tytułem – przepis sponsorowany, a na jego końcu pojawi się przycisk… Zamów. Po co się męczyć. Przywiezieny Ci właśnie taką. Ponieważ zobaczymy tylko jedną recepturę, to oprogramowanie dokona wyboru za nas. Opłacona odpowiedź, zupełnie jak w przypadku Google i Meta, stanie się… czymś normalnym. Obiektywną społeczną potrzebą jest jednak neutralność informacyjna, która da nam możliwość dokonania wolnego wyboru. Sprawdzenia faktów. Jeśli tego zabraknie, skutki mogą być tragiczne. Jakie? Warto pojechać do Chin. Zobaczyć. Pogadać z ludźmi albo obejrzeć trochę filmów dokumentalnych o social scoringu. Na razie cieszmy się tym co jest.
***
Ostatnia myśl, to kwestie czysto technologiczne. Algorytmy SI są energochłonne. Niekontrolowany rozwój tych narzędzi, w wypadku gdy nie dokona się istotny przełom w produkcji i utrzymaniu farm serwerów, może niekorzystnie odbić się na klimacie. Warto to wiedzieć. Sytuacja jest tym trudniejsza, że większość opinii publicznej nie ma pojęcia o jakich wolumenach mówimy. Przeciętne centrum danych, jakie posiada Amazon, Microsoft, AliBaba czy Google to nawet 100-150 MW. Ich zasilanie to kluczowy problem. Konsumpcja mocy w wypadku upowszechnienia rozwiązań SI, skokowo wzrośnie. Pewien klucz do rozwiązania problemu ma firma, która w branży SI nie ma osiągnięć. W produkcji chipów nie miała… ale już ma. To Apple. Ich układy zostały zoptymalizowane do pracy z sieciami neuronowymi i mają niezwykłą wydajność energetyczną. Co w tej sytuacji zrobi Tim Cook? Układy ARM trafiają wprawdzie powoli do serwerów, jest to jednak powolny proces, obsługiwany przez innych dostawców. Apple ma lepszą technologię, którą trzeba by się w tej sytuacji podzielić albo zacząć projekty, z którymi owocarski koncern od wielu lat nie jest kojarzony. Do tego, tak dla porządku, dodajmy to, że i tak wszystko wisi na tajwańskim TSMC. Tylko oni potrafią te układy wytwarzać. Jeden kaprys Chin i będzie duży problem…. To już jednak temat na inny tekst, z innej dziedziny.
***