W świecie zdominowanym przez wyścig zbrojeń w dziedzinie sztucznej inteligencji, firma Anthropic – twórca popularnego modelu Claude – znalazła się w samym centrum politycznego i etycznego cyklonu. Spór, który właśnie przeniósł się na salę sądową, nie jest zwykłą kłótnią o kontrakt. To fundamentalna walka o to, kto powinien sprawować kontrolę nad potężnymi narzędziami AI: ich twórcy, dbający o bezpieczeństwo, czy rządy, dążące do maksymalizacji przewagi militarnej. Anthropic zdecydował się pozwać administrację USA po tym, jak Pentagon nadał firmie bezprecedensową etykietę „zagrożenia dla łańcucha dostaw”.
Punktem zapalnym okazały się dwie konkretne czerwone linie, których Anthropic odmówił przekroczenia. Firma konsekwentnie blokuje możliwość wykorzystania swojej technologii do masowej inwigilacji obywateli USA oraz tworzenia w pełni autonomicznych systemów uzbrojenia, zdolnych do zabijania bez udziału człowieka. Choć Anthropic od lat współpracuje z sektorem obronnym, argumentuje, że obecna technologia nie jest jeszcze na tyle niezawodna, by powierzać jej tak krytyczne i moralnie obciążające zadania.
Szantaż technologiczny czy bezpieczeństwo narodowe?
Reakcja rządu była natychmiastowa i niezwykle surowa. Sekretarz obrony Pete Hegseth oraz administracja prezydenta Donalda Trumpa postawili firmie ultimatum: albo Anthropic zgodzi się na „wszelkie zgodne z prawem zastosowania” (any lawful use) technologii, co w praktyce oznaczałoby usunięcie zabezpieczeń etycznych, albo zostanie wykluczony z federalnego ekosystemu. Gdy Dario Amodei, CEO Anthropic, odmówił ugięcia się pod presją, firma została wpisana na czarną listę, co de facto odcina ją od współpracy z jakimkolwiek kontrahentem wojskowym.
W pozwie złożonym w sądzie federalnym w Kalifornii, Anthropic podnosi mocne argumenty. Prawnicy firmy twierdzą, że działania rządu naruszają konstytucyjne prawo do wolności słowa oraz procedur due process. Podkreślają, że etykieta „zagrożenia dla łańcucha dostaw” – dotychczas rezerwowana dla wrogich zagranicznych podmiotów – została użyta jako narzędzie politycznej kary za posiadanie własnych standardów bezpieczeństwa.
Nowy porządek w Dolinie Krzemowej
Ten konflikt obnaża głębokie pęknięcia w branży AI. Podczas gdy Anthropic decyduje się na kosztowną walkę o zasady, inne firmy, jak OpenAI, zdają się zajmować wolną przestrzeń, deklarując większą elastyczność w rozmowach z Pentagonem. Sytuacja ta stawia przed nami kluczowe pytanie o przyszłość cywilizacji: czy w dobie globalnej rywalizacji o prymat w AI jest jeszcze miejsce na „bezpieczeństwo przez design”, czy też etyka zawsze przegra z potrzebami operacyjnymi wojska?
Wynik tego procesu może zdefiniować relacje między rządem a Doliną Krzemową na dekady. Jeśli sąd przyzna rację Anthropic, twórcy AI utrzymają prawo do decydowania o granicach użycia swoich „dzieł”. Jeśli jednak wygra Pentagon, możemy wkroczyć w erę, w której każda innowacja technologiczna będzie musiała być bezwarunkowo podporządkowana celom państwowym, niezależnie od ryzyka dla prywatności czy bezpieczeństwa ludzkości.
Źródło: https://www.theverge.com/ai-artificial-intelligence/891377/anthropic-dod-lawsuit