Kampania strachu? Dlaczego na obawach przed AI korzystają wielkie firmy

Czy w słynnym Bletchley Park powstał właśnie historyczny dokument o ryzykach związanych z bezpieczeństwem AI? Jak na razie, ryzyka te badają tylko ci, którzy tę technologię rozwijają.

07.11.2023

Czyta się kilka minut

Sesja plenarna AI w Bletchley Park. Anglia, 2 Listopada 2023 r. / Alastair Grant / AP / East News
Sesja plenarna AI w Bletchley Park. Anglia, 2 Listopada 2023 r. / Alastair Grant / AP / East News

Przedstawiciele 28 państw i firm przyjechali do Bletchley Park, gdzie w czasie wojny łamano szyfry Enigmy. I po dwóch dniach się rozjechali, zapowiadając, że niedługo wrócą do debaty nad „potencjalnie katastrofalnym zagrożeniem” dla ludzkości. Tak można podsumować brytyjski szczyt dotyczący bezpiecznego stosowania sztucznej inteligencji.

Rząd w Londynie zapewnia, że „Deklaracja z Bletchley” przejdzie do historii, bo to pierwszy dokument, w którym zapowiedziano identyfikację „ryzyk związanych z bezpieczeństwem AI”. Tyle że choć wśród sygnatariuszy są przedstawiciele m.in. USA, Kanady i UE, to już nie Chin – jednego z gigantów prac nad AI. Nie ma też niczego odkrywczego w twierdzeniach, że wielkie modele generatywne, jak ChatGPT, mają „potencjał poważnego, a nawet katastroficznego szkodzenia”.

Przed szczytem w Bletchley prezydent USA dekretem zobowiązał amerykańskie firmy m.in. do ujawniania wyników testów bezpieczeństwa swoich systemów AI. Joe Biden oczekuje, że Narodowy Instytut Standardów i Technologii opracuje „rygorystyczne” standardy testowania AI, by nie potęgowała ona zagrożenia dla infrastruktury krytycznej czy nie ułatwiała prac nad bronią masowego rażenia.  

Deklaracja z Bletchley i dekret Bidena spotkały się z krytyką ojców chrzestnych współczesnej sztucznej inteligencji, Andrew Nga z Uniwersytetu Stanforda (współzałożyciela Google Brain) i Yanna LeCuna z New York University (szefa sztucznej inteligencji Meta). Ich zdaniem dyskurs o AI jako zagrożeniu dla ludzkości to sprytna zagrywka… wielkich koncernów technologicznych. Strasząc hipotetycznymi, odległymi zagrożeniami, odwracają uwagę od szkód, jakie ich technologie powodują tu i teraz: plagi fake newsów czy drastycznej cyfrowej inwigilacji. Ich zdaniem nowe przepisy poskutkują tylko wycięciem konkurencji pracującej nad transparentną, otwartą AI.

Jeśli ta kampania strachu odniesie skutek, z pewnością doprowadzi do czegoś, co nazwałbym katastrofą: mała liczba firm będzie kontrolować AI”  – tweetował LeCun. 

Można uznać, że AI to zupełnie nowe pole, a każda technologia jest inna. Tyle że po dekadach doświadczeń w tworzeniu regulacji prawnych powstały pewne fundamentalne zasady, które pomogłyby uregulować także stosowanie sztucznej inteligencji. Są wśród nich wymóg przejrzystości czy stanowienia prawnie wiążących standardów monitorowania. Dobrym przykładem funkcjonowania takich ogólnych zasad jest… samochód. Choć zmienił życie miliardów ludzi, jego używanie może powodować także poważne szkody. By je minimalizować, producenci muszą stosować się do norm bezpieczeństwa, a kierowcy − ubezpieczać pojazdy i zdobyć uprawnienia do ich prowadzenia. 

Regulacje pozwalają technologiom się rozwijać i chronią ludzi. Poleganie wyłącznie na dobrowolnej współpracy jest niewystarczające. Szczególnie, że dziś mamy do czynienia z „potencjalnie katastrofalnym zagrożeniem” dla ludzkości, a jedynymi, którzy testują to ryzyko, są podmioty, które takie technologie rozwijają. 

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej

Artykuł pochodzi z numeru Nr 46/2023

W druku ukazał się pod tytułem: Kto korzysta na strachu przed AI