O co chodzi z tym całym AI cz. 1, czyli czy ChatGPT jest świadomy?

Aplikacje takie jak ChatGPT czy Midjourney stały się w ostatnich miesiącach ogromnym hitem. Nic dziwnego! To niesamowite zabawki. Porywające wyobraźnie, ułatwiające wiele działań tak powtarzalnych („napisz wprowadzenie do oferty sprzedażowej podkreślające kryteria X i Y”), jak i kreatywnych („narysuj herbatkę szalonego kapelusznika z beholderami w roli głównej”). Narzędzia, które „same” narysują Ci to co chcesz, albo napiszą interesujący Cię tekst, odpowiedzą na pytania, itp. Wystarczy tylko odpowiednio sformułować zapytanie! Nic dziwnego, że jest o nich głośno. Tym bardziej, że twórcy bardzo mocno nastawili się na promocję drogą poleceń, mocno oszczędzając na marketingu.

Świetne zabawki. Użyteczne narzędzia. Ale argh, jak bardzo, bardzo chcę walić głową w ścianę czytając co drugą dyskusję w ich temacie! Jak bardzo chce mi się kląć przeglądając większość popularnych artykułów w tym zakresie!

Bo Midjourney czy podobne narzędzia są fajne. Ale nie są zapowiedzią, że już za chwilę pojawi się prawdziwa sztuczna inteligencja.

Bo ChatGPT może pisać przekonujące teksty, ale nijak nie ma opcji być świadomym.

Bo tak, są zagrożenia wynikające z rozwoju SAI*. Ale nie mają one nic wspólnego z AI niszczącym ludzkość, a wszystko z wielkimi korpo naruszającymi prawa maluczkich oraz seryjnym produkowaniem bzdur, których nie da się odróżnić od sensownych treści.

*Czym jest SAI i czym się różni od GAI zaraz sobie wyjaśnimy.

Argh. Na tyle często chciało mi się ostatnio walić głową w ścianę przy dyskusjach w tym temacie, że w końcu doczekaliście się wpisu. Zadowoleni?

 

A, dlaczego w tytule jest część pierwsza? Cóż, bo sztuczna inteligencja to duży temat i warto mu będzie kiedyś poświęcić kilka oddzielnych wpisów. Ten zaś będzie się w dużej mierze zajmował tym, czemu ChatGPT i podobne modele nie są żadną sztuczną inteligencją w typowym rozumieniu tego terminu, czego można się po tym modelu spodziewać, jakie są realne zagrożenia i jak im przeciwdziałać. Ale chętnie poświęciłbym kilka tekstów AI jako takiej. To jednak pieśń przyszłości.

 

Z drugiej strony, patrząc na te obrazki nie da się nie uznać, że Midjourney nigdy Beholdera na cyfrowe oczy nie widział… – Źródło grafiki: Midjourney

 

AI czy nie AI? Oto jest pytanie!

Używając terminu „sztuczna inteligencja” mamy typowo na myśli maszynę, która byłaby zdolna do myślenia na poziomie porównywalnym z ludzkim. Często do tego zestawu dodaje się też wymóg świadomości. (Choć w praktyce można się zastanawiać czy świadomość jest nawet nam w ogóle potrzebna, czy nie jest pewnym artefaktem.) Regularnie idzie się też o krok dalej i sugeruje, że taka sztuczna inteligencja szybko stałaby się nadludzka. (I faktycznie, są przesłanki sugerujące, że inteligencja zdolna do uczenia się w tempie zmian cyfrowych, a nie biologicznych bardzo szybko mogłaby wyjść ponad możliwości ludzkie.)

Tyle tylko, że taka AI jest czymś, co nazywamy „Ogólną” Sztuczną Inteligencją – General Artificial Intelligence. „Ogólna” w nazwie odnosi się do tego, że jest ona zdolna do realizowania zróżnicowanych działań, potencjalnie też adaptowania do zupełnie nowych. (Np. nikt z nas nie rodzi się z umiejętnością prowadzenia samochodu, ale możemy się tego nauczyć.) Taka AI miałaby faktycznie ogromny potencjał i mogłaby być zarówno niezwykle wartościowa, jak i szalenie groźna. Jej proces wnioskowania byłby bowiem  prawdopodobnie szalenie odmienny od naszego, pozbawiony wielu zakrzywień, które traktujemy jako oczywiste i domyślne, ale wcale takie nie są. (Np. w zakresie wartościowania.)

 

Tymczasem wszystkie te fajne rzeczy o których mówimy – ChatGPT, Midjourney, itp. – są przykładami „wąskich”, albo „specyficznych” AI (Narrow Artificial Intelligence/Specific Artificial Inteligence). W tym względzie termin „inteligencja” jest więc trochę na wyrost. To bowiem bardzo, bardzo wyspecjalizowane maszyny, budowane do jednej, bardzo konkretnej roli. Midjourney do rysowania grafiki, ChatGPT do pisania tekstu, kodu komputerowego, itp. W ramach tej roli mogą się uczyć i rozwijać, na podstawie otrzymanych danych. Nie są jednak w stanie w żaden sposób wykroczyć poza tą rolę**.

**

Jasne, czasem te ograniczone opcje mogą być w kreatywny sposób wykorzystane, przez pomysłowych ludzi. Takie zastosowania to jednak odpowiednik ludzi, którzy potrafią przygotować trzydaniowy obiad używając żelazka zamiast kuchenki. No da się, jasne, ale nie znaczy to, że żelazko jest narzędziem do gotowania.

 

Istnieje masa terminów, które opisują SAI dużo trafniej, niż „sztuczna inteligencja”. „Kalkulator słowny„. „Autouzupełnianie na sterydach„. „Stochastyczne papugi„. ChatGPT jest po prostu bardziej zaawansowaną wersją tego samego mechanizmu, który podpowiada Ci hasła wyszukiwania w Google.

Dlaczego więc mówimy o AI, choć z prawdziwym AI nie ma to wiele wspólnego?

Ka-ching! Odpowiedź jest prosta. Bo to się sprzedaje!

Bo łatwiej zdobyć rozgłos medialny „dramatycznym postępem w AI” niż „mamy dużo lepsze autouzupełnianie”. Bo łatwiej ściągnąć inwestorów nawet groźbami odnośnie konsekwencji AI (w końcu jeśli są tak groźne, to muszą być potężne!), niż przekonywać ich do inwestycji w „lepsze kalkulatory słowne”. Wbrew wszelkim fantazjom o racjonalności biznesu, wielki biznes, a zwłaszcza sektor venture capital są skrajnie irracjonalne. Cóż się dziwić? Decyzje podejmują w nich typowo ludzie skrajnie oderwani od rzeczywistości, żyjący w wyizolowanych bańkach praktycznego komunizmu. (Bo jak masz tyle kasy, że nie zastanawiasz się ile cokolwiek kosztuje, to jest to funkcjonalne doświadczenie komunizmu właśnie. Dla tych osób dalsza kasa jest po prostu sygnałem statusowym.) Nic więc dziwnego, że osoby i organizacje żyjące z Venture Capital próbują sprzedawać swoje pomysły w sposób dopasowany do odlecianych oczekiwań decydentów VC.

 

Nie zrozumcie mnie źle. ChatGPT, Midjourney i ferajna to naprawdę fajne narzędzia. Nie ma nic złego w byciu dobrym autouzupełnianiem na sterydach. Problem pojawia się, gdy oczekujemy od niego rzeczy, których nie może robić, albo przypisujemy mu funkcjonalności, które nie są możliwe. Bo wtedy boimy się nie tego co trzeba, ufamy nie tam gdzie trzeba i używamy tych narzędzi do rzeczy, do których się po prostu nie nadają.

Aby zrozumieć co jest możliwe, musimy zrozumieć jak działa większość współczesnych SAI. Użyłem wcześniej tajemniczo brzmiącego terminu „stochastyczne papugi”. Przyjrzyjmy się temu co znaczy. Stochastyczne – czyli oparte na prawdopodobieństwie***. Papugi – od papugowania, bezrozumnego powtarzania.

***

Tak, pełna definicja terminu „stochastyczne” jest deczko dłuższa, jej rozwinięcie nie wzbogaciłoby jednak raczej zrozumienia tematu większości osób. Bywa coś takiego jak „za dużo szczegółów”.

 

W swojej istocie ChatGPT czy Midjourney są właśnie takimi stochastycznymi papugami. Uczy się je w oparciu o ogromne bazy danych, które wiąże się (w dużej mierze powtarzalną ludzką pracą) z szeregiem terminów („promptów”). W efekcie program uczy się, że jeśli w zadaniu pada termin „czarny” to z prawdopodobieństwem np. 99.85% należy użyć koloru #000000. Uczy się też bardziej szczegółowych powiązań rzeczy – finalnie jednak „rozumuje” na poziomie „jakim kolorem wypełnić ten pixel, co będzie najbardziej prawdopodobne?” Nie „rozumie” co rysuje, wylicza po prostu, że jak jest takie polecenie, to najprawdopodobniej będzie dobrze, jak zachowa się w taki, a nie inny sposób. Nie „rozumie” co pisze, po prostu z kalkulacji prawdopodobieństwa wynika mu, że kolejne słowo w ciągu powinno brzmieć akurat tak – i zwykle trafia. SAI jest idealną ilustracją tzw. Chińskiego Pokoju. Właśnie dlatego, że jest to program działający na dużych mocach obliczeniowych, ten Chiński Pokój może funkcjonować. To wciąż bardzo użyteczne w wielu przypadkach, bo umożliwia np. przeanalizowanie dużo większej ilości danych, niż zdołałby to zrobić człowiek. Pod warunkiem, że mamy świadomość, że te dane nie są rozumiane, a przeliczane.

 

To dlatego przez tak długi czas mieliśmy problem „Midjourney hands”, problem, który został rozwiązany dopiero przez ręczną interwencje właścicieli. Midjourney zupełnie bowiem nie radziło sobie z generowaniem rąk, zwłaszcza dłoni, tworząc potworki. Dużo lepiej radziło sobie natomiast z twarzami. Dlaczego? Bo ludzcy użytkownicy Midjourney bardzo szybko reagowali na mocno nienaturalnie wyglądające twarze. Jako ludzie jesteśmy na nie szczególnie wrażliwi, rozpoznawanie twarzy jest u nas bardzo silnie rozbudowaną zdolnością. Dużo mniej zwracamy jednak uwagę na ręce, dlatego dużo więcej grafik z dziwacznymi rękoma przeszły wstępną ludzką kontrolę – czy to personelu wynajętego przez Midjourney, czy też użytkowników, którzy są dla takich aplikacji darmowa siłą roboczą. Ilekroć bowiem każesz SAI wygenerować jakiś wynik, po czym z zaproponowanych opcji wybierzesz jedną, uczysz AI. Jesteś jednym z wielu sygnałów pt. „na ten termin taka odpowiedź będzie prawdopodobnie dobra”.

Dlatego też ChatGPT potrafi niekiedy napisać błyskotliwe rzeczy, a niekiedy nie być w stanie rozwiązać problemu, który z naszej perspektywy wydaje się banalny. Dlaczego? Bo akurat nie miał dość danych, by odpowiednio dobrać prawdopodobieństwo.

 

Czemu niektórzy twierdzą, że ChatGPT jest świadomy?

Skoro to tylko kalkulator, to czemu ludzie, często całkiem bystrzy, dochodzą do takich wniosków? Cóż, tu mamy do czynienia z mieszanką kilku czynników.

Po pierwsze, my jako ludzie mamy silną skłonność do myślenia teleologicznego. Przypisujemy celowość i sprawczość otaczającym nas wydarzeniom. To przydatne dla gatunku społecznego, zwłaszcza tak kreatywnego jak nasz. Pozwalało nam to rozpoznać, że pewne wzorce i np. uniknąć zasadzki ze strony innych ludzi. W większości przypadków zaś może nie pomagało, ale przynajmniej nie przeszkadzało. Np. czy uznamy wylanie rzeki za naturalny proces środowiskowy, czy złość ducha rzeki, tak długo jak nie zużyjemy zbyt wielu zasobów na przebłaganie tego ducha, nie ma tu dla nas szkody. Tyle tylko, że tak to działało kiedyś, a od tego czasu świat stał się dużo bardziej złożony. Tendencje w myśleniu w nas zostały bez zmian. W efekcie często zdarza nam się przypisywać celowość i sprawczość rzeczom, które jej nie mają. Ludzie potrafią na poważnie twierdzić, że komputery ich nie lubią. Nic dziwnego, że gdy trafiają na program, z którym można wchodzić w złożoną interakcję, tym bardziej przypisują mu osobowość.

Kolejną kwestią jest to, że miażdżąca większość osób, na których SAI robi takie wrażenie, to laicy. Osoby, które niespecjalnie znają się na psychologii i  neurologii, a w szczególności nad badaniami w zakresie inteligencji czy świadomości. Często mogą być kompetentnymi dziennikarzami, programistami, itp. ale to inne obszary wiedzy. (Zwłaszcza ci ostatni potrafią mieć tendencję do przeceniania swojej wiedzy. Wraca tu niesławny problem „kodyzacji rzeczywistości” u techbrosów: założenie, że można rozwiązać dowolny problem na świecie, jeśli tylko opracuje się na to odpowiedni kod. A najlepiej jeszcze na tym zarobić w startupie.) W efekcie regularnie w temacie padają tezy, które przyprawiają mnie o zgrzytanie zębów. Np. deklarowanie jako wyjątkowo ludzką zdolność intelektualną rzeczy, które od kilkudziesięciu lat już wiemy, że robią zwierzęta. Albo definiowanie jako dowodów na świadomość coś, co ze świadomością nie ma nic wspólnego.

Ten problem potęguje niewypowiedziane społecznie założenie, że na psychologii to się tak naprawdę wszyscy znamy. Bo przecież wszyscy jej doświadczamy każdego dnia, nie może być więc tak trudna do zrozumienia. W efekcie nasze naiwne intuicje łatwo brane są jako trafne i pełne wglądu obserwacje. Co ciekawe, nie mamy takiego standardu np. odnośnie naszego ciała. W końcu też korzystamy z niego każdego dnia, a jednak niespecjalnie czujemy się gotowi do przeprowadzenia operacji chirurgicznej czy oceny stanu trzustki rozmówcy. W przypadku psychologii mamy dużo większe rozhamowanie. Nic więc dziwnego, że laicy, myśląc teleologicznie i zakładając, że ich rozumienie psychologii jest wystarczające do zrozumienia problemu świadomości, stwierdzają „Gada tak, jak sobie wyobrażam, że gadałby jakby był świadomy, to bezwzględny dowód, że jest świadomy!”

 

Potencjał, hype, ograniczenia i zagrożenia

W porządku. Ustaliliśmy sobie, że technologia nie ma nic wspólnego z „prawdziwym” AI. Że do GAI jeszcze daleka droga (jeśli w ogóle możliwa). Że wyobrażenia o świadomości ChatGPT są tylko wyobrażeniami. To jednak nie mówi nam jeszcze za dużo o samej technologii. Co najwyżej zepsuło ulubione technofuturystyczne fantazje. (No dzięki Artur, na ciebie zawsze można liczyć, żeby zepsuć ludziom zabawę…) Czy jednak sama technologia nie jest rewolucyjna? Czy nie zmieni zupełnie naszego trybu życia? Nie zlikwiduje szeregu zawodów? No cóż, jak mawia Ben Goldacre „Myślę, że odkryjecie, że to nieco bardziej złożone…”

 

Użyteczne, ale niekoniecznie rewolucyjne

Pamiętam, jak jakieś dziesięć lat temu był w mediach ogromny „hype”, ogromne nakręcenie na druk 3D. Miał być czymś absolutnie rewolucyjnym i zmieniającym świat. Wszyscy mieliśmy mieć w domu nie jedną, a nawet kilka drukarek 3D. Po co jechać do sklepu po jakiś gadżet? Ściągnij z netu wzór, odpal drukarkę i gotowe! Firmy miały rezygnować z magazynów na rzecz hal z drukarkami 3D. Drukarki 3D miały tworzyć domy w Afryce. Druk 3D miał być „nową rewolucją przemysłową”. (Brzmi znajomo? Mam wrażenie, że „nowa rewolucja przemysłowa” w ostatnich dekadach zapowiadana była tak średnio raz na dwa lata… Czasem jest to „druga”, czasem nawet „piąta”, ale jakoś nigdy finalnie się nie materializuje.)

Sam dałem się temu złapać i wierzyłem w potencjał technologii. Nieco otrzeźwił mnie komentarz na blogu Wojciecha Orlińskiego, który wskazywał, że większość obiecywanych funkcjonalności druku 3D już teraz spełniają tokarki i wtryskarki. I faktycznie, z biegiem lat z zapowiadanej rewolucji wyszło niewiele. Dla jasności, druk 3D ma obecnie szereg świetnych zastosowań. Tyle, że są to zastosowania specjalistyczne i hobbistyczne, nie masowe. Drukujemy indywidualnie dopasowane protezy. Drukujemy części dla domorosłych konstruktorów. Drukujemy statuetki kolekcjonerskie i figurki do bitewniaków. (Śliczne! Mój wewnętrzny kolekcjoner rzuca się tak, że niemal nie rozerwie klatki!)

Nie drukujemy natomiast całej ogromnej masy rzeczy, które drukowane być miały. Wciąż lepiej pójść do sklepu po kubek, niż zrobić go sobie na drukarce.

 

Mam silne podejrzenie, że z SAI będzie dość podobnie. No, na nieco bardziej masową skalę, gdyż ich obsługa nie jest tak upierdliwa, jak drukarki 3D.

Więcej tekstów w Internecie będzie powstawało z wykorzystaniem AI. (I doczekamy się pewnie wymogu jasnego deklarowania tego.) Przez jakiś czas wydawcy będą zarzuceni niskojakościową breją wyprodukowaną na AI. Self-publishing będzie miał problem z zapchanym rynkiem.

SAI staną się pewnie narzędziem wspomagającym pracę w korpo, bo po co ręcznie podsumowywać nudny raport, skoro może to za nas zrobić program? (Tu jednak pojawia się pewne ograniczenie, któremu przyjrzymy się w kolejnym punkcie.)

Tam, gdzie potrzebna jest niskojakościowa masówka, SAI „weźmie” to na siebie, tym samym uwalniając ludzi do pracy na wyższym poziomie. Nie tyle zastąpi ludzką pracę, co przesunie jej ciężar. Doprowadzi do sytuacji, w której młodszym specjalistom łatwiej może być pracować na poziomie średniodoświadczonych.

Uderzy w tych miejscach, w których praca była swego rodzaju zapchajdziurą i pracą bez sensu. Gdzie copywriter był nie od „Napisz dobry, przekonujący tekst, który trafi do klienta”, a „Panie Mareczku, mnie się nie chce pisać, Pan mi napisze coś na stronę. Nie, nie, Panie Mareczku, na maszynie do pisania, laptopy są dla zarządu.” Gdzie grafik był nie od „zaprojektuj dobrze skomponowaną, czytelną reklamę”, a od „Panie Mareczku, Pan tu wrzuci gołą babę, hehe i wielki napis TANIOCHA, taki zielony na pomarańczowym tle. No idealnie, błyskotliwy jestem, no nie wiem za co Panu płacę w sumie, jak sam tą robotę wykonuje, temi ręcami!”

 

Jeśli jednak oczekujemy kolejnej rewolucji na miarę internetu to… Nie, raczej nie. Za pięć lat będzie zapowiadana kolejna edycja „czwartej rewolucji przemysłowej”, w oparciu o nowy hype. Tym bardziej, że te wszystkie obecne AI mają jedną kluczową wadę.

Wszystko co tworzą zostaje na ich serwerach. Wszystko co tam wpiszesz zostaje z nimi na zawsze.

Co z perspektywy większości korporacji pracujących na danych poufnych lub bardzo poufnych jest, cóż, nie najszczęśliwszym rozwiązaniem.

 

Prawdopodobny kierunek – „lokalne” SAI

Ze względu na problemy z poufnością obecne SAI są w dużej mierze nie do wykorzystania dla korporacji. (I tak pewnie są i będą, bo szeregowi użytkownicy nie mają pojęcia o problemie. Ale prędzej czy później wybuchnie to bardzo popisowo.) No bo tak, ChatGPT mógłby wygodnie podsumować ten hipertajny raport dla zarządu… Ale to oznacza, że na serwerach ChatGPT znajduje się teraz treść tego raportu oraz podsumowania. Jeśli już ktoś nie siedzi i nie analizuje tego, to niedługo będzie. (Albo po prostu niedługo ktoś się do tych danych włamie i potem przemieli je hurtowo, wyciągając tonę takich perełek. To zbyt smaczny kąsek by go nie pożreć.)

Rozwiązaniem są tutaj „prywatne”, „lokalne” SAI. Funkcjonujące na własnych serwerach. Do tego w dużej mierze karmione własnymi danymi, dzięki czemu dużo mniejszym kosztem uzyskujemy efekty dużo bliższe oczekiwanym. Np. zamiast karmić AI wszystkimi wypowiedziami jak leci, kancelaria prawna karmi je tylko i wyłącznie własnymi dokumentami. To wpływa na rozkład prawdopodobieństwa i sprawia, że owoce pracy takiego LocalSAI są dużo bliższe stylistycznie temu, co kancelaria normalnie wypuszcza. Jeśli nawet wymagają korekty, to dużo mniejszej. Dla przykładu, gdybym miał szkolić takie LSAI do pisania treści za mnie, oprócz standardowego przeszkolenia „nakarmiłbym je” wszystkimi wpisami na blogu, historią na facebooku (lub być może tylko z niektórych grup, jeśli miałoby być np. bardziej trenersko, a mniej nerdowsko), częścią maili, wszystkimi książkami, itp.

Dzięki funkcjonowaniu na własnych serwerach wszystkie generowane wyniki są dostępne tylko wewnątrz firmy, nie ma więc problemów z poufnością. Wprawdzie takie SAI opiera się na dużo mniejszej ilości danych, ale precyzyjnie dopasowana mała baza danych kładzie na łopatki ogólną dużą. Jest wydajniejsza, tańsza w przygotowaniu oraz w utrzymaniu. Funkcjonuje w dużej mierze w oparciu na licencji open-source. Wciąż jest to pewien koszt, nie jest więc raczej tak, że będziemy mieli LSAI na każdym prywatnym komputerze. Wątpię jednak by jakakolwiek większa firma była za 5-10 lat bez własnego, oczekiwałbym też takiego usprawnienia tak w co 4-5 mikrofirmie w tym zakresie czasowym. (Trochę jak z CMSem, nawet dziś wiele firm nie potrzebuje CMSa, tylko statyczną stronę-wizytówkę.) Już teraz koszt wytrenowania takiego LSAI spadł – przy użyciu ChatGPT jako partnera – do około 100 dolarów. (Oczywiście nie licząc kosztu przygotowania takich treści i dokumentacji po swojej stronie. Rzadko kto ma wszystkie te rzeczy zebrane w jednym miejscu. )

Oczywiście takie LSAI mają swoje własne wady – np. jeśli są w korporacji, to uprawnione osoby w firmie mogą podejrzeć dokładnie jakie treści jaki użytkownik wrzucał w takie LSAI. Pozostawię Waszej wyobraźni jak to może być wykorzystane.

 

Oprócz tych ograniczeń, SAI mają też szereg innych problemów, które warto poruszyć. Np. ograniczenia wzrostu, czy problemy z trafnością.

 

Ograniczenia wzrostu, czyli AI pańszczyźniane

W mandze „Trillion Game” bohaterowie uruchamiają startup, pragnąc zarobić fortunę. Ich pierwszym produktem ma być kwiaciarnia internetowa, rzekomo używająca AI do podpowiadania odpowiednich kwiatów. W rzeczywistości, o czym nie wiedzą klienci, rozwiązania podpowiada jedna z pracowniczek startupu. Za rzekomym „AI” stoją ludzkie decyzje. Gdy firmę nabywa duża sieć kwiaciarni, po prostu skalują sytuacje, sadzając do obsługi większą grupę pracowników. Równocześnie zaś te odpowiedzi wykorzystywane są, by stopniowo nauczyć prawdziwe SAI faktycznych sugestii.

Oczywiście, ChatGPT nie działa dokładnie w ten sposób. To nie jest tak, że po drugiej stronie siedzi człowiek, który odpowiada na Twoje zapytanie. Ale rozwój SAI w ostatnich latach był pod wieloma względami podobny do powyższego scenariusza. Bo to nie jest tak, że nastąpił jakiś przełom. Że stworzono nowy, niesamowity algorytm, który umożliwił wielki skok technologiczny.

 

Nic takiego!

 

Po prostu rzucono w problem kupę pieniędzy. Co nie było trudne, bo pieniądze do niedawna były absurdalnie tanie i firmy rzucały nimi we wszystko co się dało, licząc, że coś się przyklei i da zyski.

Za te pieniądze rzesze nisko opłacanych pracowników w USA,  oraz dużo niżej opłacanych pracowników w Kenii, ręcznie korygowały masy danych, jakimi ChatGPT był karmiony. Ci w Kenii głównie usuwali najbardziej toksyczne aspekty. (Co w wielu wypadkach prowadziło do poważnej traumy, bo codzienne czytanie rasistowskich, mizoginistycznych czy po prostu głęboko okrutnych wypowiedzi przez cały dzień pracy jest niespecjalnie zdrowym zajęciem.) Ci w USA ręcznie opisywali treści, tym samym pozwalając AI lepiej kategoryzować dane.

To jest sekret tych postępów w SAI w ostatnich latach. Kolosalna, pańszczyźniana praca niezliczonych niskopłatnych ludzi, karmiących algorytm danymi i korygujących jego wytwory. Wszelkie dyskusje o tym, jak to ten postęp był tak niesamowity i jak to już zaraz, już za momencik doprowadzi to do GAI są więc absurdalne w świetle tej prostej wiedzy.

Bo w rzeczywistości, na poziomie technologii, nie dokonał się żaden istotny progres. Po prostu wrzuciliśmy w projekt tonę kasy. Co po pierwsze nie będzie już takie łatwe (bo i o łatwą kasę trudniej), a po drugie ma bardzo ograniczony poziom skalowalności. To źródełko nam wyschło, trudno więc oczekiwać podobnych skoków. Nieco mogą dać lokalne SAI, opisane powyżej, ale to wciąż ma pewien próg graniczny.

 

Problem trafności i „halucynacji”

Jak już mówiliśmy, SAI nie wie, czy pisze prawdę, czy nie. (Technicznie rzecz biorąc nie ma tam niczego co byłoby w stanie wiedzieć.) Po prostu wyrzuca takie wyniki, które w rozkładzie prawdopodobieństwa wychodzą najwyżej. To duża różnica względem ludzi. My bierzemy pod uwagę, że możemy się mylić. Do różnych stanowisk podchodzimy z różnym poziomem przekonania. Jasne, zwykle arogancko zbyt wysokim, ale jednak różnicujemy między naszym „na pewno”, „prawdopodobnie”, „być może”, „raczej”, itp.

SAI tego nie robi. SAI przedstawia każdy swój przekaz w ten sam sposób. Nic dziwnego. W końcu to tylko kalkulator słowny. Kalkulatory nie robią „2+2= no chyba 4, ale może nie.” Tyle tylko, że kalkulatory mają przynajmniej tą przyzwoitość, by czasem wyświetlić wiadomość „błąd”. SAI po prostu przedstawi to, co wygenerował rozkład prawdopodobieństwa z poznanych danych.

SAI „nie rozumie” też idei prawdy i fałszu. „Rozumie” prawdopodobieństwo. Jeśli najbardziej prawdopodobne jest, że w danym miejscu powinna umieścić fałszywą informację, to dokładnie to zrobi. Bo tak mówi rozkład prawdopodobieństwa.

SAI kłamie i zmyśla na potęgę. Potrafi tworzyć fikcyjne informacje, nawet wymyślać odnośniki bibliograficzne do nieistniejących badań.  W ramach trendu personifikacji AI zjawisko to nazywa się popularnie halucynacjami. Zapewne dlatego, że „błędne odpowiedzi”, „kłamstwo”, „generowane kłamstwa” itp. nie brzmią tak dobrze marketingowo.

„Halucynacje” AI są bardzo groźnym zjawiskiem. Są one bowiem podawane w dokładnie takiej formie, jak treści trafne. Rozróżnienie między halucynacjami AI, a trafnymi danymi podanymi przez AI bez ręcznej weryfikacji tych danych jest bardzo trudne. Eksperci mogą wyłapać, że coś jest nie tak, bo dany przekaz zazgrzyta, ale laicy są całkowicie zdani na fantazje AI.

Co ciekawe, istnieje dość proste rozwiązanie problemu halucynacji. Trzeba uczynić właścicieli AI odpowiedzialnymi sądownie za konsekwencje generowanych treści. Ktoś zrobi drinka z AI przepisu i się zatruje? Firma buli. To banalnie prosty motywator, który skłoniłby błyskawicznie firmy do ogarnięcia problemu. Gdyby ktoś sprzedawał książkę kucharską, w której jeden przepis miał tak dobrane składniki, by śmiertelnie truć ludzi, bez żadnego ostrzeżenia w przepisie, oczekiwalibyśmy od wydawcy i autora odpowiedzialności za opublikowanie tego w tej formie. Dlaczego od produktu jakim jest SAI mielibyśmy oczekiwać niższych standardów?

 

Problem halucynacji i prawdopodobieństwowego podejścia do generowania treści sprawiają, że bardzo bawią mnie różne studia przypadku tego jakie to „niezwykłe” rzeczy może robić SAI. Np. zachwyty nad tym, że z odpowiednimi poleceniami może od zera wygenerować analizę konkurencji na wybranym rynku. Brzmiało to fajnie, AI robi w mig coś, co zajęłoby kilkanaście godzin. Tyle tylko, że osoby tym się zachwycające nigdy chyba nie przeczytały wnikliwie tych wyników. Inaczej szybko by wyłapały, że owoce tej pracy są potwornie dziurawe. I to nie na poziomie głębokiej analizy i rzeczy, które wychwyciłby tylko ekspert. Na poziomie wewnętrznie sprzecznych treści w ramach pojedynczych przykładów, np. u tej samej firmy produkującej buty przewagą konkurencyjną było to, że nie przeciekają w żadnych warunkach, a słabością… że mają tendencję do przeciekania w szeregu sytuacji. Ups.

Jeśli potrzebujemy czegoś, co wygeneruje raport, którego nikt nie przeczyta, super. Jeśli potrzebujemy czegoś bardziej użytecznego, to mamy bardzo, bardzo silne Caveat Emptor. Serwis Stack Overflow już wprowadził tymczasowy ban na treści generowane przez SAI, właśnie ze względu na ponadprzeciętnie dużą tendencję do halucynacji i błędów w tych treściach.

Problem halucynacji wskazuje też czemu wiele sugerowanych zastosowań SAI jest po prostu groźnych. Pasjonaci już snują wizję świata, w którym jak nie stać Cię na prawdziwego prawnika, to SAI napisze Ci pozew. Albo poprowadzi terapię, jeśli prawdziwa jest za droga. Problem w tym, że taka dokumentacja może brzmieć odpowiednio, może sprawiać pozorne wrażenie „legaleese”. Ale tylko w ten sam sposób, w jaki w Gwiezdnych Wojnach gdy chciano zasymulować obcy język, kazano C-3PO użyć języka polskiego i zapytać „tutaj mieszka Jabba the Hutt?” Wystarczało, by brzmiało obco. Podobnie jak dokumenty „prawne” SAI „brzmią” prawnie, ale zostałyby zdemolowane przy realnej weryfikacji. (Tak, wiem, tu znajomy prawnik powiedziałby „Potrzymaj mi herbatę” i przytoczył nieco przypadków ze swojej kariery…) A już wystawianie osób we wrażliwej sytuacji psychicznej na autouzupełniacza to przepis na horror. Dlatego warto ostrożnie podchodzić do całego hype’u w temacie.

 

Szum informacyjny

Halucynacje to jedno, ale innym problemem jest możliwość wykorzystania SAI do istnego zasypania internetu celowo generowaną fikcją. Jeśli dotąd obalenie bzdurnej treści wymagało o rząd wielkości większego wysiłku (prawo Brandoliniego), to na obecnym etapie rozwoju SAI zmienia się to w dwa-trzy rzędy wielkości. Gdybym chciał, mógłbym w jeden wieczór przygotować i wypełnić treścią pięćdziesiąt rozbudowanych stron twierdzących określone bzdury, nawet generując do tego stosowne zdjęcia, itp. To jest realne i poważne zagrożenie wynikające z obecnego funkcjonowania SAI i tu musimy pomyśleć o rozwiązaniach. Inaczej bot-piekło z ubiegłej dekady będziemy niedługo wspominali jako raj.

Nawet jeśli nie zależy nam na prawdzie i edukacji społeczeństwa, to zjawisko powinno nas niepokoić. Dlaczego? Bo SAI karmimy głównie treściami z netu. Jeśli więc w necie zacznie się nagle masowo pojawiać dużo treści generowanych przez AI, to wpłyną one na rozkład prawdopodobieństwa w zbiorze danych na którym uczą się obecne i przyszłe SAI. To prowadzi do błędnej pętli informacyjnej. Jasne, da się to zatrzymać, odcinając zbiory uczenia się SAI mniej więcej na chwili obecnej. Ale język i wiedza ewoluują, więc takie „zamarznięte w czasie” SAI będą stawały się coraz bardziej oderwane od współczesności. Nawet karmienie ich wyselekcjonowanymi, nadzorowanymi przez ludzi danymi będzie miało ograniczenia, po prostu ze względu na mniejszą skalę tych danych.

Możliwe są tu też również dużo bardziej niefajne zagrania. Jeśli wiesz, że SAI uczy się z danych z netu i opiera się na prawdopodobieństwie, to możesz dziś „obsiać” internet przykładami kodu zawierającymi bardzo konkretną lukę bezpieczeństwa. Jeśli te dane wejdą do zbioru z którego SAI będzie uczone, to w kodzie, który będzie proponować zaczną się przewijać seryjnie te luki, otwierając Ci drogę do niezliczonych systemów. Może się okazać, że w krótkim czasie SAI zje tu własny ogon, ograniczając mocno potencjał rozwojowy tego narzędzia.

 

Uprzedzenia zaszyte w danych

SAI nie tworzy niczego samo z siebie. To stochastyczna papuga. Kalkulator słowny. Autouzupełnianie na sterydach. Wszystko co generuje, generuje na podstawie danych, które otrzymuje.

Sęk w tym, że dane te często zawierają ukryte uprzedzenia. Dla przykładu, jeśli szkolisz AI do przyznawania kredytu i nakarmisz je danymi historycznymi, to może się okazać, że w tych danych widać historyczne uprzedzenie do ludzi ze wsi, więc AI też wykazuje teraz takie uprzedzenie. Próbujesz nadrobić problem karmiąc je danymi z nowego zestawu, ale tam z kolei jest uprzedzenie w zakresie poziomu wykształcenia – i AI uczy się tego. Co gorsza, gdy AI już zacznie działać, demonstrując takie uprzedzenie, wpłynie ono na realną sytuacje ludzi, generującą nowe dane dla AI, tworząc błędne koło dyskryminacji. Nie są to tylko hipotetyczne sytuacje – programy takie jak COMPAS już wykazały tego typu problemy. Zresztą, akurat SF nerdzi powinni ten problem dobrze kojarzyć – pamiętacie „Raport Mniejszości”? Opowiada właśnie o takim problemie, uprzedzonym systemie przewidywania, którego działania prowokowały uzyskiwanie wyników, które system przewidział.

Jak sobie z tym radzić? Jak zapewnić dane szkoleniowe, które nie będą nasycone uprzedzeniami, lub korygować te uprzedzenia? Jak wychwytywać te wzorce? To duże i ważne pytania. Otwarte zbiory danych są tu istotnym czynnikiem, podobnie jak prawna odpowiedzialność firm odpowiedzialnych za programy SAI za konsekwencje uprzedzeń w ich oprogramowaniu. Czyli ponownie, przejrzystość i odpowiedzialność prawna.

 

Jak jesteś taki mądry, to czemu Musk czy Gates mówią co innego?

No dobra, Królu, mądrzysz się, że żadnej apokalipsy AI nie będzie. To czemu Musk, Gates czy inne tuzy świata biznesowego przestrzegają przed AI? Czemu wystosowali taką odezwę?

Cóż, część z tych osób (jak np. Musk) to po prostu idioci. Nie da się tego inaczej określić. (I jeśli ktoś po Twitter Saga wciąż uważa, że Musk nie jest ostatnim idiotą, to jest to poziom płaskoziemskiego oderwania od rzeczywistości.) Cwani, bezwzględni, psychopatyczni idioci, z mocnymi plecami. Ale wciąż idioci.

Praktycznie wszyscy zaś mają tu przede wszystkim interesy i to duże. Większość z nich ma mniejsze lub większe udziały w całym szeregu projektów tego typu. (Bo nie mają co robić z forsą, więc wrzucają ją w różne rzeczy jak w wirtualne kasyno.) Zaś czysto PR-owo, to wbrew pozorom fajnie wygląda. Ej, mamy technologię tak potężną, że musimy domagać się jej ograniczenia! No to jak jest AŻ TAK POTĘŻNA, to znaczy, że musi być masę warta. Drodzy wtórni inwestorzy, otwórzcie szeroko portfeliki na IPO. Przecież nie chcecie przespać kolejnego Facebooka! Co więcej, jeśli przyjrzymy się dokładnym treściom takich apeli, to są one bardzo niejasne. Np. mówią o ograniczeniu prac nad AI powyżej pewnego progu… Ale nie wiemy czy np. ChatGPT ten próg spełnia, bo wbrew nazwie OpenAI ukrywa tonę kluczowych informacji o swoim produkcie. Produkcie, bo w tzw. międzyczasie fundacja zmieniła się w spółkę… W praktyce takie ograniczenie byłoby co najwyżej radosną blokadą konkurencji, a najpewniej służy czystemu PR-owi. Wszystko to celnie punktuje dr. Emily Bender w swojej kontrodezwie.

Warto też wskazać, że większość osób powiązanych z takimi inicjatywami pochodzi ze środowiska tzw. longtermistów. To takie śliczne intelektualne bagienko mówiące „miejmy gdzieś realne cierpienie realnie istniejących ludzi tu i teraz, któremu moglibyśmy zaradzić, często niewielkim kosztem dla siebie, zamiast tego przejmujmy się hipotetycznym szczęściem hipotetycznych ludzi w hipotetycznej przyszłości, bo hipotetycznie będzie ich tak wielu, że przecież ich hipotetyczne szczęście hipotetycznie drastycznie przeważy realne nieszczęście tu i teraz. Nie zgadzasz się? To mi udowodnij, że moja hipoteza nie jest prawdziwa!” Longterminizm to utylitaryzm doprowadzony do absurdu przez ludzi, którzy może czytali SF, ale ni krzty z tego gatunku nie zrozumieli, zamiast tego jarając się estetyką. Sama przynależność do tego środowiska stawia pod wątpliwość argumentację danej osoby – bo albo jest skrajnym cynikiem, używającym tych hasełek do obrony swoich wpływów, albo osobą, która nie przemyślała swoich poglądów zbyt dobrze. Albo obydwa na raz. Względnie po prostu idiotą, od czego zaczynaliśmy ten wątek… Longtermizm skłania zaś do snucia oderwanych od rzeczywistości bajek.

 

Na spokojnie

Realne problemy z SAI to nie bajki o świadomym AI przejmującym kontrolę nad światem. To konkretne zagrożenia tu i teraz. Dezinformacja na wielką skalę. Podtrzymywanie dyskryminujących wzorców. Bezprawne wykorzystywanie pracy maluczkich przez wielkie korpo. To są rzeczy, którymi realnie powinniśmy się przejmować. To są rzeczy, na które mamy już dziś realne, możliwe do wprowadzenia rozwiązania: jawność danych oraz odpowiedzialność prawna za konsekwencje działania takich produktów.

Bo serio, to naprawdę fajne zabawki i użyteczne narzędzia. Sam doceniam ich zastosowanie. Po prostu podchodźmy do nich realistycznie i odpowiedzialnie – ale odpowiedzialnie wobec realnych zagrożeń, a nie bajek longtermistów.

 


Masz pytanie z zakresu kompetencji miękkich/soft skills? Kanał Self Overflow dostarcza odpowiedzi z tego zakresu, dostosowanych w szczególności do potrzeb osób z sektora IT. Co tydzień nowe filmy z odpowiedziami na pytania od naszych widzów!

Przykładowe pytania:

 

Podziel się tym tekstem ze znajomymi:
Następny wpis
Poprzedni wpis