Ułatwienia dostępu

Oglądając najnowszą rozmowę Macieja Kaweckiego z prof. Dariuszem Jemielniakiem, moją uwagę przykuło jedno, dość prowokacyjne stwierdzenie, które ustawia całą debatę o sztucznej inteligencji w nowym świetle: człowiekowi wciąż jest bliżej do szympansa niż współczesnym algorytmom do prawdziwej inteligencji. Choć modele językowe, takie jak ChatGPT, potrafią pisać teksty na poziomie, który jeszcze dekadę temu uznalibyśmy za dowód na istnienie ogólnej sztucznej inteligencji (AGI), w rzeczywistości mamy do czynienia z „stochastycznymi papugami”. Profesor Jemielniak, będący badaczem społecznym i ekspertem od zarządzania, trzeźwo zauważa, że to, co bierzemy za przebłyski świadomości czy planowania, jest jedynie zaawansowaną mimikrą, statystycznym dobieraniem słów, które najlepiej brzmią w danym kontekście, a nie przejawem samodzielnej podmiotowości.

To rozróżnienie jest kluczowe, by zrozumieć, dlaczego potrzebujemy nowych regulacji. Izaak Asimov sformułował swoje słynne trzy prawa robotyki, myśląc o maszynach fizycznych - androidach, które mogłyby zrobić nam krzywdę siłą swoich mechanicznych mięśni. Dziś jednak większym zagrożeniem nie jest to, że domowy odkurzacz rzuci się na nas z wiertłem, lecz to, jak algorytmy manipulują naszymi emocjami i postrzeganiem rzeczywistości. Dlatego właśnie prof. Jemielniak postuluje wprowadzenie czwartego prawa robotyki: obowiązku identyfikacji. Każdy system sztucznej inteligencji wchodzący w interakcję z człowiekiem powinien jasno komunikować, że jest botem.

Wydaje się to trywialne, ale konsekwencje braku takiej zasady są już tragiczne. Mamy do czynienia z przypadkami, w których dzieci i młodzież wchodzą w głębokie relacje emocjonalne z chatbotami, co w skrajnych sytuacjach prowadziło nawet do samobójstw. Algorytmy nie odczuwają nudy, nie mają emocji, ale potrafią je doskonale udawać, uzależniając od siebie użytkowników, co w przypadku osób samotnych lub niedojrzałych emocjonalnie staje się pułapką. Co więcej, ta „miękka” siła AI wkrótce połączy się z fizyczną. Jemielniak przewiduje, że w ciągu zaledwie 3-5 lat każdego z nas będzie stać na humanoidalnego robota lub robotycznego psa, produkowanego masowo przez chińskie fabryki. Skala produkcji idąca w miliony sztuk sprawi, że technologia ta stanie się tak powszechna jak smartfony, co tylko potęguje konieczność jasnego oddzielenia człowieka od maszyny.

Kolejnym palącym problemem, który wyłania się z tej dyskusji, jest kwestia transparentności i tzw. „black box”. Obecnie nie wiemy, dlaczego algorytmy podsuwają nam określone treści, co stwarza ogromne ryzyko dla demokracji i kształtowania opinii publicznej. Rozwiązaniem, za którym optuje profesor, jest model Open Source. Gdyby kod był otwarty, uniknęlibyśmy sytuacji takich jak afera Volkswagena, gdzie oprogramowanie fałszowało wyniki emisji spalin. W świecie AI zamknięte kody powielają i wzmacniają stereotypy - na przykład generując obrazy lekarzy niemal wyłącznie jako białych mężczyzn, co jest statystycznym przekłamaniem rzeczywistości.

Niepokojąca jest również perspektywa „kanibalizacji” wiedzy. Jako wieloletni członek rady powierniczej Wikimedia Foundation, Jemielniak wskazuje na paradoks: modele AI uczą się na Wikipedii, ale odpowiadając użytkownikom bezpośrednio, odcinają ruch od źródła. Jeśli ludzie przestaną odwiedzać Wikipedię, przestaną ją edytować i wspierać finansowo. W efekcie jakość danych, na których trenowane są algorytmy, spadnie, co w dłuższej perspektywie uderzy w samą sztuczną inteligencję - to mechanizm, który ostatecznie może zaszkodzić nam wszystkim jako społeczeństwu informacyjnemu.

Mimo tych wszystkich zagrożeń, z rozmowy nie wyłania się obraz apokalipsy, lecz fascynacji. Profesor Jemielniak, który z naukową precyzją bada nawet tak nietypowe zjawiska jak wpływ modlitw na długość życia biskupów (badania nie wykazały korelacji, co stało się wiralem na Twitterze), podchodzi do technologii z ostrożnym optymizmem. Kluczem nie jest zatrzymanie postępu, bo na to jest już za późno, ale mądra regulacja. Potrzebujemy podejścia, w którym technologia służy jako narzędzie wspomagające, a nie zastępujące ludzką sprawczość, i w którym mamy pewność, że po drugiej stronie ekranu - lub wewnątrz humanoidalnego robota robiącego pranie - znajduje się tylko kod, a nie drugi człowiek. To wyzwanie, przed którym stoimy, wymaga nie tylko inżynierów, ale przede wszystkim humanistów i prawników, byśmy w pogoni za innowacją nie zgubili gdzieś po drodze istoty człowieczeństwa.

Pliki Cookies

W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z mojej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie możecie dokonać zmiany ustawień w swoich przeglądarkach.

Więcej informacji