Nie czytamy w myślach

Piotr Durka, fizyk biomedyczny: Cyberpunkowe wizje dają nam język do rozmawiania o nowych technologiach i granicach wiedzy. Ich pozytywną rolą jest też zainteresowanie błyskotliwych młodych ludzi neuroinformatyką.

14.05.2024

Czyta się kilka minut

Prof. Piotr Durka // Rys. Michał Dyakowski dla „TP"Copernicus 2014
Prof. Piotr Durka // Rys. Michał Dyakowski dla „TP"

Wojciech Brzeziński: Najsłynniejszym propagatorem interfejsów mózg-komputer jest najbogatszy człowiek świata. Elon Musk od lat zapowiadał, że jego firma Neuralink stworzy „cyfrową telepatię”, a niedawno ogłosił, że ich pierwszy pacjent za pomocą wszczepionych do mózgu elektrod nauczył się kontrolować kursor na ekranie laptopa. To przełom czy tylko marketing?

Piotr Durka: Podobne dokonania widzieliśmy już 20 lat temu, więc to nie jest nic nowego. W Polsce robimy podobne eksperymenty od 2008 r. I to bez wiercenia dziur w czaszce, tylko posługując się starym, dobrym elektroencefalogramem (EEG), rejestrującym fale mózgowe. Faktem jest, że marketing Muska działa — m.in. dzięki temu przychodzi do nas na neuroinformatykę, specjalność na Wydziale Fizyki Uniwersytetu Warszawskiego, coraz więcej młodych ludzi, którzy zainteresowali się tym, co tak naprawdę za tym stoi. Ale na dzisiaj jedynym jakościowym wkładem firmy Neuralink jest urządzenie do wszczepiania elektrod do tkanki mózgowej.

Robot, który ma precyzyjnie osadzać te elektrody w mózgu.

Rejestracja sygnałów z wnętrza lub z powierzchni mózgu, czyli elektrokortykografia, znana jest od dziesięcioleci. Neuralink stworzył robota, który wprowadza do mózgu większą niż wcześniej liczbę elektrod, omijając naczynia krwionośne, a na koniec urządzenie działa bezprzewodowo. Ale wciąż jest to zaledwie usprawnienie znanej techniki. Podstawowym problemem, jaki napotykamy, chcąc łączyć mózg z komputerem, jest zrozumienie tego, jak mózg działa.

Dopóki tego nie zrozumiemy, nie ma co liczyć na cyberprzestrzeń z „Matrixa”.

Ewolucja nie wykształciła gniazdka, do którego moglibyśmy się podłączyć. Podłączone „fabrycznie” do mózgu kanały wyjściowe to mowa, gestykulacja, mięśnie. Porozumiewamy się za pomocą mięśni — mówimy, piszemy, ruszamy myszką. Wejścia też mamy: uszy, oczy, dotyk. Sama wtyczka do mózgu sprawy nie załatwia.

Wyobraźmy sobie, że neandertalczyk znalazł laptop i chce się z nim połączyć. Robi dziurę w obudowie, wciska kabel — i co dalej? Nie wie, jak porozumieć się z maszyną, nie zna protokołu. My też nie znamy protokołu, jakim się można sensownie łączyć z mózgiem, pomijając wykształcone przez ewolucję wymienione powyżej kanały – i nie wiadomo, czy kiedykolwiek poznamy. Jest takie powiedzenie, że gdyby mózg był wystarczająco prosty, żebyśmy go byli w stanie zrozumieć, to bylibyśmy na to za głupi.


PROGRAM COPERNICUS FESTIVAL 2024: Wykłady i warsztaty rodzinne, rozmowy i pasma filmowe, wystawy i wiele więcej. Sprawdź wszystkie wydarzenia tegorocznej edycji COPERNICUS FESTIVAL: MASZYNA i wybierz z naszych propozycji coś dla siebie


Jak w takim razie działa interfejs mózg-komputer?

Nie potrafimy czytać myśli, ale czasami możemy w aktywności mózgu dostrzec ślady świadomie generowanych intencji. Podam przykład.

Na ekranie migają słowa „tak” i „nie”, a ja, jako badany, liczę w głowie, ile razy mignęło to słowo, które chciałbym wybrać. Dzięki świadomej koncentracji uwagi na wybranym symbolu w chwilach jego prezentacji pojawia się w mózgu tzw. uwagowy potencjał wywołany, widoczny w EEG. Nie pojawia się w odpowiedzi na bodziec, na który nie zwracaliśmy uwagi. Odczytując te potencjały, możemy przekazać do komputera jeden wybór, czyli bit: 0 albo 1, tak lub nie — bezpośrednio z mózgu, bez wykorzystania mięśni. A to już dużo, bo pozwala np. choremu, który nad mięśniami nie panuje, przekazać informację „boli – nie boli”. Z bitów możemy składać litery, słowa…

Jak szybki jest postęp w tej dziedzinie?

Niewielki. W szybkości przekazywania informacji przez ponad ćwierć wieku doszliśmy od pojedynczych liter na minutę do kilkunastu. Choć w tym wyścigu konstruowane są też szybsze, jednostkowe systemy, opierające się np. na elektrodach wkłuwanych w korę ruchową. Algorytm trenowany jest na setkach zdań, których pisanie wyobraża sobie badany. Przy dużym zbiorze uczącym, zawierającym zadane teksty, których pisanie wyobrażał sobie pacjent, oraz odpowiadające im aktywności w korze ruchowej, udaje się znaleźć prawidłowości, pozwalające potem na statystyczne przewidywanie kolejnych słów, których pisanie wyobraża sobie ta konkretna osoba, dla której algorytm tworzono. Dla innych osób czy inaczej wkłutych elektrod ten algorytm nie będzie już działał, ale wystarczy na potrzeby rekordu Guinnessa – aktualnie 78 słów na minutę.

Przypominam, że to wciąż nie jest czytanie myśli, tylko świadomie generowanych wyobrażeń ruchów ręki. I nie działa bez dużego zbioru uczącego, który musi świadomie wygenerować konkretny użytkownik, oraz treningu. I wymaga otwarcia czaszki dla wszczepienia elektrod…

Czyli jednak Neuralink?

W takich przypadkach urządzenie Neuralink ułatwi procedurę, ale powtarzam, że nie jest to żaden jakościowy przełom. Elektrokortykografię nie tylko stosuje się od dawna w praktyce klinicznej, ale jest to wręcz jedna z pierwszych technik, którymi badano czynność elektryczną mózgu. Używając tej właśnie techniki na otwartych mózgach zwierząt doświadczalnych, polscy naukowcy Adolf Beck i Napoleon Cybulski de facto odkryli mechanizm EEG.

Gdyby nie przypadek historyczny, zamiast „elektroencefalogram” mówilibyśmy „aktywny prąd niezależny”, bo tak właśnie zjawisko to nazwał Adolf Beck. Wyniki swoje opublikował w międzynarodowym czasopiśmie „Centralblatt für Physiologie” w 1890 r. Potem okazało się, że w 1875 r. brytyjski badacz Richard Caton w raporcie z grantu z badań potencjałów na powierzchni kory mózgowej kotów i królików, mierzonych podczas wykonywania przez te zwierzęta ruchów i prostych czynności, umieścił słynne dzisiaj stwierdzenie: „słabe prądy przechodzą przez wzmacniacz (…) nawet pod nieobecność tych ruchów”. Na podstawie tego zdania to właśnie Catona uznaje się za praojca EEG.

Polscy uczeni zasłużyli na większe uznanie?

Ich dogłębne i pionierskie badania stały się jednymi z fundamentów współczesnej neurofizjologii — poświęcona jest im niemal połowa książki Mary Brazier o pierwszym półwieczu badań czynności elektrycznej mózgu. Natomiast elektroencefalografia stosowana jako technika badawcza ma 100 lat. W 1924 r. niemiecki psychiatra Hans Berger wykonał pierwszą rejestrację aktywności elektrycznej mózgu z powierzchni głowy.

Od tego czasu w rejestracji EEG nie widać jakościowych przełomów. Mamy oczywiście lepszą jakość sygnału i łatwiejszy w obsłudze sprzęt, więcej elektrod, rejestrację cyfrową — ale to ten sam sygnał co wiek temu. Pozostaje on najlepszym oknem, przez które możemy podglądać działający mózg.

Dlaczego?

Elektroencefalografia nie wymaga specjalnie drogiej aparatury, jest nieinwazyjna i jest w praktyce jedyną techniką, która ma rozdzielczość czasową odpowiadającą tempu zachodzenia procesów neuronalnych. Problemem jest jednak to, że interpretacja EEG jest bardzo trudna i wymaga długiego szkolenia. Wobec pojawienia się nowych metod obrazowania medycznego, takich jak funkcjonalny jądrowy rezonans magnetyczny (fMRI) czy pozytonowa tomografia emisyjna (PET), EEG zaczęło tracić na popularności. I dopiero wzrost zainteresowania interfejsami mózg-maszyna (BCI) na przełomie stuleci spowodował renesans tej techniki.

Czy wszystkie cyberpunkowe wizje możemy więc włożyć między bajki?

Nie, cyberpunkowe wizje są przydatne, chociażby dlatego, że dają nam język do rozmawiania o nowych technologiach i granicach wiedzy. Ich pozytywną rolą jest też zainteresowanie błyskotliwych młodych ludzi neuroinformatyką.

Możemy spodziewać się, że w tych badaniach nastąpi taki przełom technologiczny, jaki ostatnio obserwujemy np. w pracach nad sztuczną inteligencją?

Moim zdaniem – nie. Tutaj efekt skali, czyli wzrostu dostępności danych i mocy obliczeniowych, jest zupełnie inny niż w sztucznych sieciach neuronowych i dużych modelach językowych, określanych, nie wiedzieć czemu, mianem „sztucznej inteligencji”. Pokory uczy choćby historia Henry’ego Markrama — naukowca, który w ramach grantu wartego miliard euro obiecał symulację całego mózgu człowieka. W 2009 r. na wykładzie w ramach TED powiedział, że za 10 lat zamiast niego na wykładzie pojawi się myślący hologram. Do dzisiaj oczywiście nie przyszedł.


WIELKIE WYZWANIA: ANTROPOCEN

Przyglądamy się największym wyzwaniom epoki człowieka oraz drodze, która zaprowadziła nas od afrykańskich sawann do globalnej wioski. Omawiamy badania naukowe i dyskusje nad interakcjami między człowiekiem i innymi elementami przyrody – zarówno tymi współczesnymi, jak i przeszłymi.


To co dalej?

To samo co wcześniej: w mediach będą się od czasu do czasu pojawiać mniej lub bardziej związane z rzeczywistością doniesienia, ludzie szukający pieniędzy i popularności będą obiecywać rzeczy bardziej lub mniej niemożliwe, a naukowcy będą nadal prowadzić badania podstawowe i pomagać w implementowaniu nowych wyników i technologii do rozwiązywania społecznie ważnych problemów.

Według WHO średnio co trzecia osoba na świecie cierpi na schorzenia neurologiczne, będące główną przyczyną chorób i niepełnosprawności. Bez choćby częściowego zrozumienia mechanizmów, które je powodują, nie polepszymy znacząco leczenia ani profilaktyki. Szansę na jakościowy postęp dają wyłącznie badania podstawowe, prowadzone i publikowane według naukowych standardów.

Problemów, w których rozwiązaniu technologie BCI mogą pomagać już dzisiaj (albo jutro), jest całkiem sporo: nawet jeśli ograniczymy się do kwestii medycznych, mamy choroby neurodegeneracyjne prowadzące do stanu zamknięcia, neurorehabilitację osób z przerwanym rdzeniem, pacjentów w stanach zaburzeń świadomości…

Nad czym konkretnie trwają prace?

Pierwsze badania nad BCI były motywowane chorobami neurodegeneracyjnymi, takimi jak stwardnienie zanikowe boczne, które prowadzi do śmierci motoneuronów, czyli kabelków przekazujących impulsy z mózgu do mięśni. Jak już ustaliliśmy, bez kontroli mięśni nie działają naturalne kanały komunikacji. Ale działa mózg, w którym kłębią się wszystkie niezałatwione sprawy i inne myśli, których nijak „na zewnątrz” przekazać się nie da. Piekło na ziemi. Chyba że zbudujemy nowy kanał informacyjny, odczytując sygnały bezpośrednio z mózgu. Wtedy BCI ma sens nawet bez szybkości na miarę rekordu Guinnessa.

Inny przykładem, nad którym pracujemy od lat, jest diagnostyka pacjentów w stanach tzw. zaburzeń świadomości, a potocznie: w śpiączce. Żeby ich terapia miała sens, konieczna jest ocena postępów — inaczej nie wiemy, czy im pomagamy. Klasycznie ta ocena opiera się na kontakcie z pacjentem: jeśli terapia ma usunąć ból, pytamy pacjenta, czy po terapii mniej boli. Ale jeśli chcemy pomóc w przywróceniu świadomości u pacjenta, z którym nie ma (z definicji) kontaktu — jak spytać, jak ocenić skuteczność działań? Najlepiej byłoby informację o stanie mózgu wyciągnąć bezpośrednio z mózgu. Jednak tu nie wystarczy tomografia komputerowa czy rezonans magnetyczny, bo na nich widać strukturę, a my chcemy ocenić działanie, czyli funkcję. Jednym z pomysłów jest właśnie technologia BCI. Jak mówiliśmy wcześniej, klasyczny sposób przekazywania intencji w BCI bazuje na koncentracji uwagi na wybranym bodźcu. Ślad tej reakcji — bardziej lub mniej wyraźny — można odnaleźć w EEG. I właśnie w takim „odnajdywaniu śladów” interfejsy mózg-komputer wniosły do nauki największe postępy.

Te eksperymenty robią też największe wrażenie: nawiązywanie kontaktów z ludźmi, którzy wydają się nieświadomi.

Pierwsze badania tego typu prowadziliśmy w warszawskiej Klinice Budzik – pierwszym w Polsce wzorcowym szpitalu dla dzieci po ciężkich urazach mózgu. W ramach testów pokazywaliśmy dzieciom zdjęcia ich ulubionych zabawek, a nagrany wcześniej głos rodzica prosił: „policz, ile razy pojawił się Batman, ale nie zwracaj uwagi na Króliczka”. Nie wiedzieliśmy, czy dziecko słyszy i rozumie tę prośbę, ani nawet czy widzi ekran. Ale jeśli po zbadaniu rejestrowanych potencjałów okazywało się, że potencjał wywołany pojawianiem się Batmana był istotnie wyraźniejszy niż potencjał wywołany obrazem Króliczka, to była to już bardzo konkretna informacja: pacjent słyszy, widzi i rozumie polecenia! Oczywiście może się zdarzyć, że w trakcie badania dziecko jest zmęczone albo po prostu nie chce współpracować – wtedy potencjały się nie pojawią, więc wyniku negatywnego nie można traktować jako jednoznacznej diagnozy. Dlatego pracujemy też nad metodami, które z EEG wyciągną informacje bez konieczności czynnego udziału pacjenta.

Czyli odczytujemy myśli bez udziału pacjenta?

Nie, nie jest to absolutnie czytanie myśli bez zgody pacjenta! Możemy np. szukać w EEG wzorców znanych ze snu osób zdrowych: pojawienie się rytmu okołodobowego może być wskazówką, że mózg „wraca do zdrowia”. Mniej medialne, ale działa – na razie w kontekście naukowym. Do opracowania konkretnych procedur diagnostycznych potrzeba więcej badań i pewności — szczególnie w tak delikatnych i krytycznych kwestiach.

Nie pamiętam, kto powiedział, że wszyscy jesteśmy już cyborgami. Mamy pamięć rozszerzoną przez Google’a czy Facebooka, tylko interfejs jest fatalnie wolny.

Pamięć mamy rozszerzoną dzięki Internetowi i cyfrowemu dostępowi do informacji, które Google indeksuje, a Facebook czasem fałszuje. Dostęp jest całkiem szybki, i to faktycznie zmieniło znaczenie tak podstawowych pojęć jak wiedza czy erudycja. Dzisiaj nie musimy już znać wszystkich dat na pamięć ani zaglądać do grubych ksiąg – wystarczy sięgnąć do telefonu. Ale wiedza nie jest tożsama z inteligencją. Inteligencja i świadomość, choć trudne do zdefiniowania, wydają się wciąż cechą unikalną dla organizmów żywych, pomimo zachwytów nad tzw. „sztuczną inteligencją”.

Czy jesteśmy cyborgami — to również zależy od definicji. Faktem jest, że większość z nas nie przeżyłaby bez współczesnych technologii i że technologii używamy na co dzień dla polepszenia jakości życia. Ale proces ten trwa chyba od momentu, w którym praprzodek wziął do ręki kamień.

Rozmawiał Wojciech Brzeziński

***

Prof. Piotr Durka z Wydziału Fizyki Uniwersytetu Warszawskiego nie zgadza się z nazywaniem technologii, nad którą pracuje od lat, „czytaniem w myślach”. Mówi raczej o „odgadywaniu intencji”. Jednak nawet przy takim ograniczeniu interfejsy mózg-komputer (znane też pod anglojęzycznym skrótem BCI, od Brain-Computer Interface), pozwalające wydawać urządzeniu polecenia bez angażowania mięśni, mogą pozwolić nam komunikować się z ludźmi, którzy dotąd żyli w zupełnie zamkniętym świecie. Profesor Durka, który w 2008 r. przeprowadził pierwszą w Polsce demonstrację interfejsu mózg-komputer, w 2012 r. prezentował najszybszy interfejs BCI na targach CeBIT, a potem założył firmę dostarczającą w pełni polską, kompletną technologię BCI (sprzęt i oprogramowanie). Aktualnie współpracuje m.in. z Kliniką Budzik, opiekującą się pacjentami po ciężkich urazach mózgu.

Podczas tegorocznej edycji Copernicus Festival prof. Durka wygłosi wykład o możliwościach i ograniczeniach łączenia mózgów i maszyn.


 

 

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp roczny

365 zł 95 zł taniej (od oferty "10/10" na rok)

  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
269,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej

Artykuł pochodzi z numeru Nr 20/2024

Artykuł pochodzi z dodatku „Copernicus Festival 2024: Maszyna