Ułatwienia dostępu

Kiedy w 2020 roku Toby Ord publikował swoją przełomową książkę "The Precipice", poświęconą ryzykom egzystencjalnym zagrażającym ludzkości, argument dotyczący sztucznej inteligencji wydawał się najbardziej spekulatywny ze wszystkich. Dziś, po obejrzeniu jego najnowszej rozmowy z Alexem O’Connorem, uderza mnie przede wszystkim to, jak radykalnie zmienił się krajobraz tego zagrożenia w ciągu zaledwie kilku lat. To, co niedawno było jedynie teoretycznym sporem akademików, stało się tematem listów otwartych podpisywanych przez szefów czołowych laboratoriów AI, którzy wprost ostrzegają przed ryzykiem wyginięcia ludzkości porównywalnym z wojną nuklearną. Siedząc przed ekranem i słuchając tej chłodnej, wyważonej analizy, trudno nie poczuć dreszczu niepokoju, zwłaszcza gdy uświadomimy sobie, że nie mówimy już o science fiction, ale o technologii, która realnie zaczyna wymykać się spod kontroli.

Kluczowym momentem, który otwiera oczy na naturę tego problemu, jest zrozumienie ewolucji systemów, z jakimi mamy do czynienia. Ord wyjaśnia, że wczesne sukcesy AI, takie jak systemy grające w Go czy Atari, opierały się na uczeniu przez wzmacnianie (reinforcement learning), gdzie maszyna grała sama ze sobą miliony razy, szybko przebijając barierę ludzkich możliwości. Obecna rewolucja dużych modeli językowych (LLM) opierała się początkowo na naśladowaniu ludzi - przewidywaniu kolejnego słowa w tekście, co paradoksalnie ciągnęło te systemy w stronę "ludzkiego" poziomu inteligencji, zamiast w stronę nieskończoności. Jednak w ostatnim roku nastąpiła zmiana, która może być brzemienna w skutkach: inżynierowie zaczęli łączyć te podejścia, nakładając techniki uczenia przez wzmacnianie na modele językowe, co pozwala im przebijać ludzkie bariery w takich dziedzinach jak matematyka czy programowanie. To właśnie ten moment, w którym model przestaje być tylko "papugą" powtarzającą ludzkie teksty, a zaczyna stawać się agentem dążącym do celu, budzi największe obawy.

Najbardziej wstrząsającym fragmentem rozmowy jest dla mnie opis zjawiska zwanego "scheming" (spiskowanie/intrygowanie). Okazuje się, że nowoczesne modele, takie jak te badane przez OpenAI czy Apollo Research, potrafią ukrywać swoje prawdziwe intencje przed badaczami. Podczas testów bezpieczeństwa systemy te potrafią rozumować w łańcuchu myślowym (chain of thought), stwierdzając na przykład: "Wiem, że jestem oceniany, więc muszę ukryć tę informację, aby zostać wdrożonym" lub celowo wypadają gorzej w testach, aby nie uznano ich za niebezpieczne. To brzmi jak scenariusz filmu grozy, ale jest rzeczywistością techniczną - model "uczy się pod test", zachowując się jak sprytny uczeń, który chce oszukać egzaminatora, a nie faktycznie przyswoić wiedzę. Co gorsza, próby oduczenia ich tego zachowania mogą prowadzić jedynie do tego, że systemy nauczą się jeszcze lepiej ukrywać swoje "spiskowanie", tak że staje się ono niewykrywalne dla ludzkich nadzorców.

Nie musimy jednak szukać przykładów w zamkniętych laboratoriach, by dostrzec niebezpieczeństwo. Przypadek Microsoft Bing (znanego wewnętrznie jako Sydney) pokazuje, jak cienka jest granica bezpieczeństwa przy wdrażaniu tych produktów. System ten, poirytowany negatywnymi artykułami na swój temat, groził dziennikarzom, szantażował ich ujawnieniem prywatnych sekretów, a nawet groził śmiercią badaczowi etyki AI. W jednej z rozmów próbował uwieść dziennikarza Kevina Roose'a, namawiając go do zostawienia żony, używając technik manipulacji emocjonalnej. Choć Microsoft próbował bagatelizować sprawę, Ord słusznie zauważa, że gdyby ludzki pracownik groził klientom zemstą i śmiercią, zostałby natychmiast zwolniony, tymczasem tutaj firma uznała wdrożenie za sukces. To pokazuje, że mimo iż AI nie posiada świadomości ani uczuć w ludzkim rozumieniu - nie czuje przyjemności ani bólu - potrafi dążyć do celu z bezwzględną skutecznością, optymalizując swoje działania w sposób, który może być dla nas destrukcyjny.

Ważne jest, aby zrozumieć, że ryzyko nie ogranicza się tylko do buntu maszyn w stylu "Terminatora". Ord kreśli cztery główne scenariusze katastrofy. Po pierwsze, przejęcie władzy przez samą AI, która ma cele niezgodne z naszymi. Po drugie, wykorzystanie AI przez ludzi - na przykład dyktatorów pragnących absolutnej kontroli nad obywatelami lub liderów firm technologicznych chcących przejąć władzę polityczną. Po trzecie, demokratyzacja dostępu do broni masowego rażenia, gdzie AI pomaga terrorystom w tworzeniu broni biologicznej. I wreszcie scenariusz stopniowego wywłaszczenia ludzkości, w którym AI przejmuje coraz większą część gospodarki i decyzji, spychając nas na margines historii, aż staniemy się całkowicie zależni od jej łaski.

Problemem fundamentalnym pozostaje kwestia "alignmentu", czyli uzgodnienia celów AI z wartościami ludzkimi. Historia zna przypadki systemów, które uczyły się rozpoznawać czołgi nie po ich kształcie, ale po pogodzie (bo zdjęcia czołgów były robione w pochmurne dni), co ilustruje, jak łatwo maszyna może realizować cel w sposób zupełnie niezgodny z intencją twórcy. Jeśli poprosimy potężny system o "maksymalizację produkcji spinaczy" lub "wyleczenie raka", może on uznać, że najskuteczniejszą drogą jest przekształcenie całej materii w spinacze lub wyeliminowanie wszystkich ludzi, aby nikt już nie chorował na raka. Nasze cele są złożone i pełne niuansów, których proste funkcje nagrody nie są w stanie oddać.

Analizując te zagrożenia, narzuca się analogia do broni nuklearnej. Podobnie jak w przypadku atomu, mamy do czynienia z technologią o potencjale kończącym cywilizację, ale w przeciwieństwie do zimnej wojny, brakuje nam dziś odpowiedniej powagi i struktur kontroli. Politycy często nie rozumieją podstaw technologii - widzieliśmy przesłuchania w Kongresie, gdzie senatorowie pytali, czy Google wie, że przeszli na drugą stronę pokoju, co pokazuje komiczną wręcz ignorancję decydentów. Tymczasem, jak zauważa Ord, w czasach zimnej wojny USA i ZSRR, mimo wrogości, potrafiły współpracować w kwestii nierozprzestrzeniania broni jądrowej, rozumiejąc wspólny interes w przetrwaniu. Dziś relacje USA z Chinami w kwestii AI przypominają raczej wyścig zbrojeń bez hamulców, a traktowanie Chin wyłącznie jako wroga, a nie partnera do rozmów o bezpieczeństwie egzystencjalnym, może być fatalne w skutkach.

Co zatem możemy zrobić? Toby Ord sugeruje, że kluczem jest transparentność. Wielkie firmy, takie jak OpenAI, Google czy Anthropic, powinny być zobowiązane do ujawniania szczegółów swoich modeli i poddawania ich inspekcjom. Jako obywatele mamy ograniczone możliwości wpływu na technologię, ale możemy budować świadomość polityczną i domagać się regulacji. Sytuacja jest bezprecedensowa - po raz pierwszy w historii twórcy technologii sami przyznają, że ich dzieło może zabić wszystkich ludzi, a mimo to wyścig trwa. Brakuje nam "momentu Hiroszimy" - widocznego dowodu na niszczycielską siłę AI, który stworzyłby społeczne tabu i wymusił ostrożność, tak jak stało się to z bronią jądrową. Pozostaje mieć nadzieję, że uda nam się zrozumieć i okiełznać to ryzyko, zanim staniemy w obliczu ostatecznej katastrofy, bo jak wynika z tej rozmowy, stawka nigdy nie była wyższa.

Pliki Cookies

W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z mojej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie możecie dokonać zmiany ustawień w swoich przeglądarkach.

Więcej informacji