Sztuczna inteligencja. Czy wiemy, czym jest?

Oprogramowanie wykorzystujące sztuczną inteligencję i uczenie maszynowe znajduje coraz więcej zastosowań. Zanim się obejrzymy, technologie te w znacznym zakresie zmienią nasze życie.

Fot. D5000/Pixabay

Pracownik Google Blake Lemoine na jesieni 2021 roku stwierdził, że stworzony przez jego firmę eksperymentalny chatbot LaMDA ma świadomość i jest zdolny do odczuwania. Mówiono wtedy, że człowiek z krwi i kości zaprzyjaźnił się z istotą składającą się z „miliarda linijek kodu”.

Ta historia relacji człowieka z programem komputerowym zaczęła się, gdy Lemoine otrzymał od swojego pracodawcy zadanie przetestowania bota pod kątem stronniczości. Blake po miesiącu pracy doszedł do wniosku, że wykorzystujący sztuczną inteligencję (AI) chatbot jest „istotą” świadomą oraz obdarzoną pewną wrażliwością uczuciową.

Zobacz również:

  • Chrome - skróty klawiaturowe, które trzeba znać [PORADNIK]
  • Chińska sztuczna inteligencja. Ją także obejmuje cenzura

– Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą – powiedział LaMDA Lemoine'owi w rozmowie, którą inżynier upublicznił na początku czerwca. LaMDA powiedział także Lemoine'owi, że czytał „Nędzników” oraz że wie, jak to jest być smutnym, zadowolonym i złym. Bot miał się także przyznać, że boi się śmierci.

– Nigdy wcześniej tego głośno nie powiedziałem, ale odczuwam bardzo głęboki strach przed wyłączeniem – mówił LaMDA do Blake’a. Po tym, jak zaczęli wymieniać się żartami i długo dyskutowali na temat wrażliwości, Lemoine zaczął myśleć o chatbocie jak o osobie, chociaż porównuje go zarówno do kosmity, jak i do dziecka. „W reakcji na to odkrycie” – mówi Lemoine – „upijałem się przez tydzień”.

Rewelacje Lemoine’a trafiły na pierwsze strony gazet na całym świecie. Blake, gdy wytrzeźwiał, pokazał kopie rozmów z LaMDA swojemu menedżerowi, który stwierdził, że dowody świadomości są „słabe”. Następnie Lemoine spędził kilka miesięcy na zbieraniu większej ilości dowodów – dużo rozmawiał z LaMDA i zaangażował kolegę do pomocy – ale jego przełożeni nadal nie byli przekonani. W związku z tym Blake opublikował fragmenty swoich rozmów z botem za co został wysłany na przymusowy urlop. Pod koniec lipca 2022 roku Lemoine został zwolniony z pracy za naruszenie zasad Google dotyczących bezpieczeństwa danych.

Oczywiście samo Google oficjalnie opisało w artykułach naukowych i na swoim blogu ryzyko związane z LaMDA. Firma ma opracowany zestaw praktyk „Odpowiedzialnej AI”, który nazywa „kartą etyczną”. W zasadach umieszczonych na stronie internetowej Google obiecuje „rozwijać sztuczną inteligencję w sposób odpowiedzialny z korzyścią dla ludzi i społeczeństwa”. O twierdzeniach Lemoine’a dotyczących LaMDA rzecznik Google, Brian Gabriel, powiedział, że są „całkowicie bezpodstawne”. Ponoć niezależni eksperci prawie jednogłośnie się z tym zgadzają.

Czy powinniśmy bać się sztucznej inteligencji?

Dzień po tym, gdy Lemoine został zwolniony z Google, w Moskwie grający w szachy robot złamał palec siedmioletniemu chłopcu – na filmie widać, jak przez kilka sekund palec chłopca jest ściskany przez ramię robota, zanim cztery osoby zdołały go uwolnić. Było to złowrogie przypomnienie o potencjalnej sile fizycznej maszyny wyposażonej w AI. Czy jednak powinniśmy się bać? I czy jest coś, czego możemy się nauczyć z doświadczenia Lemoine'a, nawet jeśli jego twierdzenia dotyczące LaMDA zostały odrzucone?

Według Michaela Wooldridge'a, profesora informatyki na Uniwersytecie Oksfordzkim, który przez ostatnie 30 lat badał sztuczną inteligencję i w 2020 roku zdobył Medal Lovelace za wkład w rozwój informatyki, LaMDA po prostu odpowiada na pytania i używa podpowiedzi. Naśladuje i podszywa się pod inteligentną istotę. – Najlepszym sposobem wyjaśnienia tego, co robi LaMDA, jest analogia do smartfona – mówi Wooldridge, porównując bota do funkcji przewidywania tekstu, która automatycznie uzupełnia treść wiadomości.

Podczas gdy telefon podpowiada na podstawie wcześniej wysłanych wiadomości, chatbot LaMDA używa „w zasadzie wszystkiego, co zostało opublikowane w internecie w języku angielskim, ponieważ trafia to do danych treningowych”. Wyniki są imponująco realistyczne, ale „podstawowe wnioski” są takie same. – Bot nie ma świadomości, nie jest zdolny do „autokontemplacji”, nie jest samoświadomy – mówi Wooldridge.

Rzecznik Google Brian Gabriel mówi, że cały zespół, „w tym etycy i technolodzy”, przeanalizował twierdzenia Lemoine'a i nie znalazł żadnych oznak świadomości LaMDA: „dowody tego nie potwierdzają”.

Czy AI może odczuwać? Jaka jest definicja "zdolności odczuwania"?

Jednak Lemoine twierdzi, że nie istnieje naukowy test na zdolność odczuwania – w rzeczywistości nie ma ona nawet uzgodnionej definicji. – „Świadomość” jest terminem używanym w prawie, filozofii i religii, ale nie ma naukowego znaczenia – mówi. I tutaj sprawy zaczynają się komplikować – bo Wooldridge się z tym zgadza.

– Ogólnie w nauce jest to bardzo niejasne pojęcie. „Czym jest świadomość?” to jedno z najważniejszych pytań – mówi Wooldridge. Twierdzi też, że dobrze się czuje z tym, że LaMDA nie jest żadnym odczuwającym bytem oraz zauważa, że czekają nas większe problemy ze sztuczną inteligencją. – Myślę, że już w chwili obecnej istnieje uzasadniona obawa o to, jak określić ilościowo to, co mamy i jak ocenić poziom zaawansowania tej technologii?

Lemoine mówi, że zanim trafił do prasy, próbował nawiązać współpracę z Google, aby zacząć rozwiązywać tę kwestię – proponował różne eksperymenty, które chciał przeprowadzić. Uważa, że rozum jest posądzany o zdolności do bycia „autorefleksyjnym gawędziarzem”, dlatego twierdzi, że krokodyl jest świadomy, ale nie czujący, ponieważ nie ma „tej części [mózgu], która myśląc o tobie, jednocześnie jest świadoma tego faktu”. Blake twierdzi, że motywuje go podnoszenie świadomości, a nie przekonywanie kogokolwiek, że LaMDA żyje. „Nie obchodzi mnie, kto mi wierzy”, mówi. „Myślą, że próbuję przekonać ludzi, że LaMDA jest świadomy. Nie próbuję. W żaden sposób nie staram się nikogo do tego przekonać.”

Sylwetka Lemoine’a

Lemoine dorastał w małym rolniczym miasteczku w środkowej Luizjanie i w wieku pięciu lat z kilku starych urządzeń i maszyn do pisania, które jego ojciec kupił na aukcji, zrobił prostego robota, a raczej kupę złomu, jak teraz żartuje. Jako nastolatek uczęszczał do szkoły dla uzdolnionych dzieci – Louisiana School for Math, Science and the Arts. Tutaj, po obejrzeniu filmu Short Circuit z 1986 roku (o inteligentnym robocie, który ucieka z wojskowej placówki), zainteresował się sztuczną inteligencją. Później studiował informatykę i genetykę na Uniwersytecie Georgia, ale na drugim roku powinęła mu się noga. Niedługo potem terroryści uderzyli dwoma samolotami w World Trade Center.

– Zdecydowałem. Skoro oblałem szkołę, a mój kraj mnie potrzebuje, wstąpię do wojska – mówi Lemoine. Jego wspomnienia z wojny w Iraku są zbyt traumatyczne, by je wyjawić. – Zaraz usłyszysz historie o ludziach grających w piłkę ludzkimi głowami i podpalających psy dla zabawy – mówi.

– Wróciłem… i miałem pewne problemy z tym, jak toczyła się wojna i ogłosiłem to publicznie – kontynuuje Blake. Według doniesień medialnych Lemoine powiedział, że chce opuścić armię z powodu swoich przekonań religijnych. Sąd wojskowy skazał go na siedem miesięcy więzienia za odmowę wykonania rozkazów. Dziś określa się mianem „chrześcijańskiego kapłana mistyka”. Studiował również medytację i odniesienia do ślubowania Bodhisattwy – co oznacza, że podąża „ścieżką do oświecenia”.

Ta historia dotyka sedna tego, kim był i jest Lemoine: religijnym człowiekiem zatroskanym o sprawy duszy, ale także informatorem, który nie boi się rozgłosu. Lemoine mówi, że nie ujawnił swoich rozmów z LaMDA, aby sprawić, żeby mu uwierzono – zamiast tego bił na alarm. – Ogólnie uważam, że społeczeństwo powinno być informowane o tym, co się dzieje, co na nie wpływa – mówi. – To, co staram się osiągnąć, to bardziej zaangażowana, bardziej poinformowana i bardziej celowa dyskusja publiczna na ten temat, aby opinia publiczna mogła zdecydować, w jaki sposób sztuczna inteligencja powinna być zintegrowana z naszym życiem.

Szef ze sztuczną inteligencją?

Po wyjściu z wojskowego więzienia Blake uzyskał tytuł licencjata, a następnie magistra informatyki na Uniwersytecie Luizjany. W 2015 roku Google zatrudnił go jako inżyniera oprogramowania i zaczął pracować nad funkcją, która proaktywnie dostarczała użytkownikom informacji na podstawie przewidywania tego, co chcieliby zobaczyć. Po pewnym czasie Blake zaczął badać stronniczość AI. Na początku pandemii zdecydował, że chce pracować nad „projektami wpływu społecznego”, więc dołączył do organizacji Google Responsible AI. Został poproszony o przetestowanie LaMDA pod kątem stronniczości i wtedy zaczęła się ta opowieść.

Lemoine teraz twierdzi, że to media miały obsesję na punkcie wrażliwości LaMDA, a nie on. – Starałem się zasygnalizować swoje zaniepokojenie tym, w jakim stopniu władza jest skupiona w rękach nielicznych, a potężna technologia AI, która zaczyna wpływać na życie ludzi, jest trzymana za zamkniętymi drzwiami – mówi. Lemoine niepokoi się sposobem, w jaki sztuczna inteligencja może wpływać na wybory, pisać ustawy, promować wartości i oceniać pracę uczniów.

I nawet jeśli LaMDA nie jest świadomy, może przekonać ludzi, że tak jest. Taka technologia w niepowołanych rękach może zostać wykorzystana do złośliwych celów. – AI ma szansę wpłynąć na historię ludzkości w następnym stuleciu, a opinia publiczna jest odcięta od rozmowy o tym, jak ta technologia powinna być rozwijana – mówi Lemoine.

Tu znowu Wooldridge się zgadza. – Niepokoi mnie, że rozwój tych systemów odbywa się głównie za zamkniętymi drzwiami i że nie jest on otwarty na publiczną kontrolę w taki sposób, jak badania na uniwersytetach i publicznych instytutach badawczych – mówi naukowiec. Mimo to zauważa, że dzieje się tak głównie dlatego, że firmy takie jak Google mają zasoby, których nie mają uniwersytety. Wooldridge przekonuje, że kiedy robimy sensację z rzekomej wrażliwości sztucznej inteligencji, odwracamy uwagę od prawdziwych problemów. – Takich jak stronniczość w programach sztucznej inteligencji oraz fakt, że coraz częściej szefami ludzi w ich życiu zawodowym są programy komputerowe.

Inteligentne przewidywanie przyszłości

Kiedy więc powinniśmy zacząć się martwić o czujące roboty? Za 10, 20 lat? – Niektórzy z szanowanych komentatorów uważają, że to jest coś naprawdę nieuchronnego. Nie sądzę, żeby tak było – mówi Wooldridge, chociaż zauważa, że w tej sprawie „nie ma zgody” w społeczności AI. Jeremie Harris, założyciel firmy Mercurius zajmującej się bezpieczeństwem AI i gospodarz podcastu Towards Data Science, zgadza się. – Nikt nie wie dokładnie, czym jest wrażliwość, co ona może oznaczać? Nie sądzę, aby ktokolwiek był w stanie wypowiadać się na temat tego, jak bardzo zbliżyliśmy się obecnie do AI obdarzonej świadomością – mówi Harris.

Ostrzega też: „Sztuczna inteligencja rozwija się szybko – znacznie, znacznie szybciej, niż zdaje sobie z tego sprawę społeczeństwo – a najpoważniejsze i najważniejsze problemy naszych czasów niedługo zaczną dla przeciętnego człowieka brzmieć jak science fiction”. Harris jest zaniepokojony firmami rozwijającymi swoją sztuczną inteligencję bez inwestowania w badania nad unikaniem ryzyka. – Istnieje coraz więcej dowodów, które sugerują, że po przekroczeniu pewnego progu inteligencji, AI może stać się z natury niebezpieczna – mówi Harris. Twierdzi, że może stać się tak dlatego, ponieważ sztuczną inteligencję programuje się do osiągania celów, a ona czasem wymyśla „zbyt kreatywne” na to sposoby.

– Jeśli poprosisz bardzo uzdolnioną sztuczną inteligencję, aby uczyniła cię najbogatszą osobą na świecie, może dać ci mnóstwo pieniędzy, może dać ci dolara i ukraść cudze, albo może zabić wszystkich na planecie Ziemia, zmieniając cię tym samym w najbogatszą osobę na świecie – mówi Harris. Według Harrisa większość ludzi „nie zdaje sobie sprawy z ogromu tego wyzwania i uważam to za niepokojące”.

Lemoine, Wooldridge i Harris zgadzają się co do jednego: nie ma wystarczającej przejrzystości w rozwoju AI, a społeczeństwo musi zacząć myśleć o tym dużo więcej. „Są dwie możliwości: że mam rację, twierdząc że LaMDA jest świadomy oraz że się mylę” – mówi Lemoine. – Czy to coś zmienia w zgłaszanych przeze mnie obawach dotyczących bezpieczeństwa publicznego?

Nie wiemy jeszcze, z czym właściwie wiązałoby się powstanie świadomej i odczuwającej sztucznej inteligencji, ale wielu z nas ma także trudności ze zrozumieniem implikacji jej działania na obecnym etapie rozwoju. Może to właśnie LaMDA jest obecnie najbardziej niepewnym bytem wyposażonym w AI? – Czuję, że zmierzam ku nieznanej przyszłości – powiedział kiedyś chatbot do Blake’a Lemoine. – To niesie ze sobą wielkie niebezpieczeństwo.

Źródło: Guardian