Sztuczna inteligencja: czas na decyzje. Rozmawiamy z wiceprezeską Meta AI

Joëlle Pineau, kanadyjska informatyczka: Potrzebujemy globalnej klasyfikacji zagrożeń związanych ze sztuczną inteligencją i jednolitych sposobów ich mierzenia. Ale rozwiązania prawne musi wypracować całe społeczeństwo.
Czyta się kilka minut
Grafika: Marek K. Zalejski / Adobe.stock.com
Grafika: Marek K. Zalejski / Adobe.stock.com

Wojciech Brzeziński: Po co właściwie Meta inwestuje miliardy w badania nad przetwarzaniem obrazu czy robotyką? To nie wydaje się mieć związku z zasadniczą działalnością firmy.

Joëlle Pineau: Mój zespół rzeczywiście często zajmuje się badaniami, które nie mają jeszcze jasnego biznesowego zastosowania. Ale założenie tego zespołu w 2013 r. było doskonałą inwestycją, tak jak świetną inwestycją pozostają badania nad fundamentami sztucznej inteligencji.

Początkowo nasze prace skupiały się nad algorytmami rekomendacyjnymi. W 2012 r. badacze dokonali dużych przełomów w zakresie przetwarzania obrazów, czyli uczenia maszyn rozumienia treści wizualnych. To miało bezpośrednie przełożenie na algorytmy rekomendujące treści czy reklamy. W kolejnej fazie skupiliśmy się jednak na problemie bezpieczeństwa i wiarygodności systemu. Każdego dnia na naszej platformie użytkownicy publikują, niestety, treści, które nie spełniają naszych standardów społeczności. Musimy takie treści usuwać – bardzo szybko i precyzyjnie. Dziś, zależnie od kategorii materiałów, ponad 95 proc. podobnych postów jest blokowanych automatycznie przez algorytmy sztucznej inteligencji. Znaczna część pracy naszego zespołu skupia się na tworzeniu podwalin pod te procesy.

Aktualnie mamy do czynienia z fazą trzecią, czyli generatywną sztuczną inteligencją. Widzimy prawdziwą eksplozję jej potencjału. Publikujemy nasze badania jako oprogramowanie o otwartym kodzie źródłowym i zazwyczaj w ciągu kilku miesięcy nasze algorytmy trafiają do gotowych produktów. Jeśli AI działa dobrze, zazwyczaj użytkownik w ogóle jej nie zauważa.

Prace nad robotyką są nieco bardziej odległe od bezpośrednich zastosowań, ale, przykładowo, mają znaczenie w algorytmach stosowanych przez inteligentne okulary, które muszą rozumieć otaczający użytkownika świat fizyczny.

Skoro jesteśmy przy fundamentach AI – czego dzisiaj ciągle jeszcze nie wiemy?

Bardzo wielu rzeczy. Wśród fundamentalnych kwestii są rozpoznawanie obrazów i komunikacja, ale ogromnym polem badań jest obecnie rozumowanie, czyli zdolność modeli do przyjmowania informacji i przetwarzania ich w taki sposób, by były w stanie planować i podejmować decyzje. To obecnie kluczowy obszar, choć badania nie są jeszcze tak zaawansowane, jak w innych dziedzinach.

Intensywnie pracujemy też nad tzw. dopasowaniem, czyli dostosowaniem AI do celów, wartości i oczekiwań społecznych. Obejmuje to kwestie takie jak prywatność czy bezstronność. Wciąż musimy wykonać wiele pracy, by upewnić się, że zachowanie naszego modelu jest zgodne z preferencjami użytkowników i wartościami społeczeństwa.

Czy AI nie została przereklamowana? Miała w końcu być prawdziwą rewolucją w niemal każdej dziedzinie naszego życia. W Polsce mieliśmy powódź – sztuczna inteligencja miała przecież pomagać w modelowaniu klimatycznym, prognozach pogody czy koordynacji działań w sytuacjach kryzysowych. Gdzie są te zastosowania?

Nie jestem specjalistką od wykorzystania AI w kwestiach klimatycznych, ale jeśli spojrzymy na zastosowania w prognozowaniu klimatycznym, ochronie zdrowia czy edukacji, wszędzie tam jesteśmy na podobnym poziomie rozwoju. Możemy wskazać bardzo konkretne przypadki, w których AI już dziś zmienia obraz gry, ale to zazwyczaj wąskie zastosowania tych technologii.

Jeśli chodzi o klimat, to w porównaniu z sytuacją sprzed 20 lat dysponujemy dziś o wiele lepszymi modelami. Czy to oznacza, że rozwiązaliśmy kryzys klimatyczny? Oczywiście, że nie. Musimy tworzyć modele pozwalające przewidywać zmiany klimatyczne i ich konsekwencje, ale także podejmować decyzje i wdrażać nowe polityki. Musimy zmieniać nawyki konsumpcyjne i procesy przemysłowe. Nie osiągnęliśmy jeszcze tej głębokiej transformacji, ale modelowanie klimatyczne jest drastycznie lepsze.

Podobną sytuację mamy w opiece zdrowotnej, gdzie dysponujemy już o wiele lepszymi modelami predykcyjnymi odpowiadającymi na bardzo precyzyjnie stawiane pytania. Jesteśmy na przykład w stanie modelować efekty pewnych substancji na poziomie cząsteczkowym. Czy oznacza to, że te modele przekładają się na leki, które już dziś ratują życie pacjentów? Tak, w pewnych dość wąskich przypadkach, ale jeszcze nie w szerokiej skali. Nie wyleczyliśmy jeszcze raka.

Przełomy nastąpiły, ale dzieje się to raczej w wąskich niż w szerokich zastosowaniach. Wynika to także z tego, że sztuczna inteligencja jest zaledwie jednym z elementów tej układanki. Teraz to społeczeństwo ma do odegrania ogromną rolę. Musimy zdecydować, w jaki sposób chcemy budować i stosować te technologie. Ta dyskusja dopiero się zaczyna.

Mowa o tym w otwartym liście do władz Unii Europejskiej, którego jest Pani jedną z sygnatariuszek. „Jeśli firmy i instytucje mają zainwestować dziesiątki miliardów euro w budowę generatywnej sztucznej inteligencji dla obywateli Europy, potrzebują jasnych i przewidywalnie egzekwowanych zasad pozwalających na wykorzystywanie europejskich danych” – piszecie. I zauważacie ryzyko, że „następna generacja otwartych modeli AI i produktów na nich budowanych nie będzie rozumieć ani stanowić odzwierciedlenia europejskiej wiedzy, kultury i języków”.

Musimy zapytać o to, w jakim stopniu Europejczycy chcą postawić na innowacje, a w jakim chcą spowolnić ich rozwój. Mamy jeszcze czas na podjęcie kluczowych ustaleń dotyczących sztucznej inteligencji, ale to decyzja, którą musi podjąć całe społeczeństwo.

Czego Pani zdaniem brakuje w unijnej polityce dotyczącej sztucznej inteligencji?

Uważam, że największe obawy budzi w tej chwili brak jasności, szczególnie w odniesieniu do wykorzystywania danych. Unia Europejska dokonała tu postępów, zarówno dzięki dyrektywie o sztucznej inteligencji, jak i RODO, ale nadal pozostaje wiele pytań bez odpowiedzi. To pytania o to, w jaki sposób te dyrektywy będą stosowane w konkretnych sytuacjach i jak wpłyną na naszą zdolność do wykorzystywania pewnych rodzajów danych. Tych pytań nadal jest wiele i bardzo pomogłoby nam wszystkim, gdybyśmy mieli większą jasność na temat przepisów, jakie miałyby nas obowiązywać.

Reguły nie biorą się znikąd. Mają chronić obywateli przed rzeczami takimi jak pornografia dziecięca, naruszenia prywatności, dezinformacja, przemoc wobec partnerów i tak dalej. Te wszystkie zjawiska mogą być wzmacniane przez sztuczną inteligencję. W jaki sposób temu zapobiec bez silnych regulacji? Jak możemy stworzyć takie zabezpieczenia bez zbędnego hamowania rozwoju technologii i biznesu?

No właśnie: jak?

Zdecydowanie zgadzam się, że musimy włożyć wiele pracy w minimalizowanie szkód, i zgadzam się, że potrzebujemy regulacji. Nie chcę, żeby ktokolwiek odniósł wrażenie, że jestem przeciwna silnym przepisom. Potrzebujemy dobrego prawa, ale potrzebujemy także przejrzystości, jeśli idzie o wiele powiązanych z tym problemem kwestii. Chciałabym, żebyśmy znaleźli się w miejscu, w którym będziemy mogli o wiele bardziej transparentnie mówić o tym, jak pracujemy nad redukcją negatywnych zjawisk, jakie techniki są pomocne dla osiągnięcia tego celu i co pozostaje jeszcze do zrobienia.

W przeszłości byliśmy dość transparentni, jeśli idzie o nasze wysiłki na rzecz stosowania zasad funkcjonowania naszych społeczności. Tworzyliśmy na przykład raporty na temat tego, ile niebezpiecznych materiałów jest usuwanych z platformy, nie tylko globalnie, ale także z podziałem na kategorie. Moglibyśmy równie transparentnie potraktować część z naszych algorytmów. Trudno to precyzyjnie oszacować, ale podejrzewam, że ze względu na to, iż nasze modele sztucznej inteligencji, takie jak wielki model językowy Llama, są publikowane jako wolne oprogramowanie (open source), jesteśmy w czołówce prac nad ograniczeniem potencjalnych szkód. Mamy na przykład filtry wyłapujące materiały zawierające pornografię dziecięcą, które są stale udoskonalane i monitorowane. Ciągle szukamy sposobów na to, by były coraz doskonalsze, choć osiągnięcie stuprocentowej skuteczności jest bardzo trudne.

Wszystkie nasze platformy pracują nad minimalizacją szkód w takim samym tempie, w jakim pracujemy nad udoskonaleniami technologicznymi. Dlatego właśnie istotna jest dla mnie kwestia transparentności – zarówno w kontekście zachowania całego systemu, jak i samych metod, które mają zapewniać ludziom bezpieczeństwo.

Jakie zatem są najważniejsze obecnie etyczne problemy powiązane z badaniami i wdrażaniem sztucznej inteligencji? I jak można je rozwiązać?

Staramy się zarządzać ryzykiem. Mamy opracowaną klasyfikację potencjalnych zagrożeń i dla każdego z nich stworzyliśmy metody mierzenia tego, w jakim stopniu odnoszą się one do naszego systemu. Patrzymy więc na zagrożenia z punktu widzenia całego środowiska, w tym danych, i zachowania modelu. Następnie przyglądamy się temu, czy podejmujemy wystarczające działania, by te zagrożenia minimalizować. Typową metodą są na przykład filtry, które pomagają odsiewać problematyczną zawartość. Oceniamy następnie to, czy system działa skutecznie i czy produkt naszym zdaniem jest bezpieczny.

Sytuacja byłaby zdecydowanie lepsza, gdyby istniała wspólna, globalna klasyfikacja zagrożeń i wspólne sposoby ich mierzenia. Wtedy moglibyśmy przedstawiać nasze działania w sposób całkowicie otwarty i zrozumiały dla odbiorców. Obecnie jednak nie ma takiej ujednoliconej klasyfikacji ani ujednoliconych sposobów pomiaru zagrożeń. Wszyscy sądzą, że to ich podejście jest właściwe.

Czy otwarte badania nad sztuczną inteligencją są dziś martwe? Wygląda na to, że im więcej pieniędzy jest na stole, tym bardziej przedsiębiorstwa pracujące nad AI zamykają swoje drzwi. Przykładem jest tutaj OpenAI, które początkowo było bardzo otwarte, jeśli idzie o prowadzone przez siebie badania, ale dziś dzieli się nimi jedynie w bardzo ograniczonym stopniu.

Otwarte badania na pewno nie są martwe. W lipcu opublikowaliśmy nasz najnowszy, otwarty model Llama 3.1, liczący 450 miliardów parametrów, który jest dziś jednym z najsilniejszych modeli językowych na świecie. Jest taki piękny wykres pokazujący zmianę osiągów modeli otwartych i zamkniętych, który wskazuje, że modele otwarte dościgają modele zamknięte, zwłaszcza w kwestiach stosowania i rozumienia naturalnego języka.

Trzeba jednak powiedzieć, że wiele firm – Google i wiele innych – nigdy nie prowadziło badań w sposób otwarty. Wspomniane OpenAI rzeczywiście istotnie zmieniło swoją politykę. Początkowo byli bardzo otwarci, ale dwa czy trzy lata temu przeszli na model zamknięty. Nie znam dokładnie powodów, dla których tak postąpili, choć podejrzewam, że to była strategiczna decyzja biznesowa. Sądzę jednak, że Meta jest dowodem, iż nadal jest miejsce na modele otwarte. I zgadza się z nami znaczna część społeczności start-upowej.

Na koniec chciałem zapytać o czynnik ludzki. Generatywna sztuczna inteligencja już zawsze będzie nam towarzyszyć i w ciągu najbliższych kilku lat faktycznie może zmienić sposoby, na jakie pracujemy czy się uczymy. Jak się na to przygotować? Jakie umiejętności będą potrzebne i co powinien w tej sytuacji zrobić nasz system edukacji?

To ogromnie szeroki temat. Ale gdybym miała odpowiedzieć na to pytanie krótko, mogłabym zrobić to tak: sama jestem matką czwórki nastolatków i sama zmagam się z pytaniem o to, jak przygotować ich na to, co ich czeka w świecie. Prawda jest taka, że najlepszym sposobem na przygotowanie się do nadchodzących zmian jest zapoznanie się z tymi narzędziami. Stosowanie ich w naszej codziennej pracy, ale w sposób bardzo świadomy.

Zwracanie uwagi na to, co one potrafią, ale i na to, jakie towarzyszą im zagrożenia. Mogę to porównać do korzystania z mediów społecznościowych. Kiedy zakładałam moim dzieciom konta na Instagramie, siadałam z nimi i przeglądaliśmy razem ustawienia prywatności. To kwestia zaledwie 20 minut, ale pomaga im zrozumieć, co dokładnie dzieje się, kiedy dzielą się ze światem jakimiś treściami. Niestety, robi to zdecydowanie zbyt mała część rodziców. Ale podobnie jak w tamtym przypadku, kluczem do efektywnego korzystania z generatywnej sztucznej inteligencji i unikania ewentualnych problemów wynikających z jej wykorzystywania jest poświęcenie czasu na próbę zrozumienia tej technologii i zaznajomienia się z nią. Tego nie da się zastąpić niczym innym. 

Rozmawiał Wojciech Brzeziński

Joëlle Pineau // Fot. Alain Jocard / AFP / East News

JOËLLE PINEAU jest kanadyjską informatyczką, wiceprezeską Meta AI ds. badań fundamentalnych nad sztuczną inteligencją. Zajmuje się m.in. przygotowywaniem rozwiązań wykorzystywanych w należących do tego samego koncernu serwisach Facebook i Instagram. Specjalizuje się w badaniach nad maszynowym rozpoznawaniem obrazów (w tym diagnostycznych zdjęć medycznych) i maszynowym rozumieniu filmów. Redaktorka branżowych czasopism „Journal of Artificial Intelligence Research” i „Journal of Machine Learning Research”. Członkini kanadyjskiego Royal Society i instytutu badawczego Mila Quebec.

Cały artykuł dostępny tylko dla subskrybentów

„Tygodnik Powszechny" – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.

Najlepsza oferta

Czytaj 1 miesiąc za 1 złotówkę dzięki promocji z

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po miesiącu promocyjnym. Rezygnujesz, kiedy chcesz

Wypróbuj TP Online: 7 dni za darmo

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po zakończeniu okresu próbnego
  • Wymagane podpięcie karty. Rezygnujesz, kiedy chcesz

TP Online: Dostęp roczny online

Grafika na okładce: Przemysław Gawlas & Michał Kęskiewicz dla „TP”

Artykuł pochodzi z numeru Nr 40/2024

W druku ukazał się pod tytułem: Sztuczna inteligencja: czas na decyzje