Szkoła w epoce sztucznej inteligencji. Jak się uczyć z chatbotem?

Trzydzieści kilka miesięcy od debiutu ChataGPT wystarczyło, by wywrócić do góry nogami codzienność uczniów i nauczycieli. I wyostrzyć pytanie: po co nam dziś właściwie szkoła?
Czyta się kilka minut
Ilustracja: Charles Taylor / Adobe Stock
Ilustracja: Charles Taylor / Adobe Stock

Ona jest po czterdziestce, od niemal 20 lat uczy w przemyskiej podstawówce polskiego. On ma lat 18 i zaczyna czwartą klasę liceum. Ją, „dziecko XX wieku”, jak sama o sobie powie, technologiczne przełomy złapały w pełni kariery, wywołując rewolucję. Dla niego, urodzonego w 2007 r. „dziecka XXI stulecia”, to kolejne z serii udogodnień.

Szkolni użytkownicy AI

Iwonę i Artura Zająców – matkę-nauczycielkę i syna-ucznia – zapytałem m.in. o to, jak zapamiętali początki ChataGPT, czyli pierwszego opartego na tzw. generatywnej sztucznej inteligencji (GSI) czatbota.

Uruchamianie odtwarzacza...

– Nie jestem z tych „ciekawskich”, którzy muszą wszystko, co nowe, od razu wykorzystać, i którzy walczą o tablicę multimedialną. Tak, uważam się za „nauczyciela XX wieku”, który mówi: „Wyciągnijcie karteczki i zanotujcie polecenia” – śmieje się donośnie Iwona Zając, gdy rozmawiamy tydzień przed początkiem roku szkolnego. – W dodatku widzę, jak dzieci są przebodźcowane, i jaką nowością jest dla nich nie kolejna technologia, tylko otwarcie książki. A jednak po wejściu ChataGPT przekonałam się, że czasami warto go używać, by usprawnić swoją pracę. 

– Wszedł do użytku, gdy kończyłem podstawówkę – zapamiętał z kolei Artur. – Przez jakiś czas trzymałem się od niego z dala: rodzice zrzędzili, że „sztuczna inteligencja to i tamto”, mając na myśli związane z nią zagrożenia. Ale i tak dowiadywałem się trochę o jej funkcjonowaniu od kolegów. Jedni używali ChataGPT dla żartów, innym od początku służył do pisania zadań. Zanim nauczyciele ogarnęli, co to w ogóle jest ta sztuczna inteligencja, prace czy eseje generowane przez AI spokojnie przechodziły jako napisane samodzielnie.

Od końca listopada 2022 r., czyli pojawienia się tego narzędzia, minęły niecałe trzy lata – w przeliczeniu: 33 miesiące. Wystarczająco długo, by zrewolucjonizować życie nauczycieli i uczniów.

Co czwarty nauczyciel używa AI w pracy

Przykład pierwszy: Iwona Zając zapoznała ChatGPT z fragmentem „Syzyfowych prac”. – Wrzuciłam ten fragment i poprosiłam, by wygenerował dla jednej z klas karty pracy z ilustracjami i poleceniami dotyczącymi lektury, np. tabelami do charakterystyki postaci – opowiada przemyska polonistka. – Takie karty można wygenerować do niemal każdego tematu, wystarczy w prompcie [poleceniu wydanym modelowi sztucznej inteligencji – red.] wskazać precyzyjnie, o co chodzi.

Przykład drugi: języki obce. Tu akurat Iwona Zając występuje w roli uczennicy. – Mamy z mężem płatną wersję narzędzia Perplexity AI, którego używam do nauki włoskiego. Wystarczy np. poprosić o kurs dla początkujących z przydatnymi słowami, zwrotami, dialogami i ćwiczeniami np. w temacie zakupów. Za chwilę lekcja jest gotowa. 

Innych przykładów użycia AI przez nauczycieli dostarcza tegoroczny raport NASK „Generatywna sztuczna inteligencja w polskiej szkole. Przecieranie szlaków”. Użycia przez – dodajmy – wyraźną mniejszość pedagogów, bo w czasie przeprowadzania badania ilościowego (początek roku 2024) pierwsze próby zaprzęgania AI do pracy miał co czwarty, w przypadku zaś ledwie garstki (6 proc.) były to próby wielokrotne.

„Gdy mam do na­pisania jakiegoś dłuższego maila [do rodziców dzieci – red.], zwłaszcza nieprzyjemnego maila, to wrzucam punkty, o które mi chodzi, na ogół 3, 4 i piszę, żeby [ChatGPT – red.] napisał to bardziej uprzejmie” – zwierza się w raporcie jedna z respondentek. Wśród innych wskazań często pojawia się możliwość indywidualizacji materiałów, np. dla dzieci ze specjalnymi potrzebami („Zaznaczam to w prompcie, żeby [ChatGPT – red.] dostosował to dla potrzeb osób z orzeczeniem o dysleksji, on wtedy daje […] krótsze słowa […], daje też mniej pułapek ortograficznych”).

Inne przykłady częstych zastosowań AI przez nauczycieli to wedle raportu NASK m.in. tworzenie sprawdzianów i testów, tłumaczenie materiałów edukacyjnych czy prowadzenie zajęć nt. nieetycznego wykorzystania GSI (wszystkie ponad 30 proc. wskazań nauczycieli).

Choć raport portretuje rzeczywistość sprzed ponad roku, eksperci są raczej zgodni: sztuczna inteligencja nie stała się – delikatnie mówiąc – narzędziem codziennego użytku nauczycieli. 

– Warto zrozumieć, co może być źródłem oporów – mówi prof. Jacek Pyżalski, pedagog UAM, ekspert ds. nowych technologii w edukacji, redaktor i współautor wspomnianego raportu. – Mowa o narzędziach, które jak żadne inne wkładają nauczycieli w buty początkujących. A my, pedagodzy szkolni i akademiccy, nie zawsze taką rolę lubimy. To myślenie w stylu: mam swoją zawodową pozycję, swoje metody i efekty, a tu wchodzi narzędzie, które przewraca do góry nogami i to, jak uczyć, i czego uczyć. A wraz z tym myśleniem pojawiają się lęki. Może to, co robiłem do tej pory, nie ma sensu? Może nie będę potrzebny?

Gdy pytam Iwonę Zając, jakie uczucia wobec AI panują wśród nauczycielek, odpowiada: – Raczej obawa i lęk. W ogóle mnie to nie dziwi: ja, nauczycielka w średnim wieku, uchodzę za młodą, praktykanta nie widziałam od lat, a naprawdę młodzi bywają u nas na korytarzach tylko księża.

Badania zdają się potwierdzać, że na razie skala obaw przewyższa odsetki tych, którzy AI próbują zaprzęgać do pracy. Wedle raportu NASK aż 81 proc. pytanych nauczycieli za prawdopodobną lub bardzo prawdopodobną uważa sytuację, w której młodzi ludzie zaczną się od narzędzi AI uzależniać. A nieco mniej, ale też ponad 70 proc. obawia się zatarcia granicy między światem realnym a wirtualnym, osłabienia umiejętności samodzielnego myślenia, wreszcie oszustw dokonywanych przy użyciu AI.

Czy pracę napisaną przez AI da się wykryć?

– Proszę pójść na dowolny egzamin na dowolnej uczelni wyższej, a przekona się pan, jak wielu mamy obecnie okularników – uśmiecha się profesor dużej uczelni z dużego miasta. Gdy pytam, czy chodzi o coraz powszechniejszy problem wad wzroku, precyzuje: – Chodzi o coraz powszechniejszy problem używania okularów do ściągania odpowiedzi sztucznej inteligencji na egzaminach. Służą do tego zresztą nie tylko okulary, ale też np. zegarki, które sczytują z egzaminacyjnej kartki pytania i automatycznie na nie odpowiadają. 

Oczywiście, jeśli jest to filozofia Heideggera, to AI sobie z tym nie poradzi. Ale jeżeli przeprowadzam na pierwszym roku egzamin z makroekonomii, to na podstawowe pytania ChatGPT odpowie w sekundę, a ja będę wobec tego bezradny – słyszę od profesora, który już w czasie autoryzacji prosi, by nie podawać jego nazwiska, bo „nie chce mieć na głowie władz uczelni”. 

Ten sam temat – potencjalnych oszustw przy użyciu AI – zdążył już też zaistnieć w kontekście matur. Na medialne doniesienia, że nowa technologia radzi sobie z „egzaminem dojrzałości” bez trudu, i że wyposażone w AI okulary nie są łatwe do zdemaskowania, zareagowało już nawet rytualnie Ministerstwo Edukacji Narodowej: resort oświadcza, że „bada sprawę”.

W dość zgodnej opinii ekspertów jakikolwiek sens straciły zadawane do domu prace pisemne. Zresztą z debiutem nowej technologii zbiegła się decyzja MEN, by ograniczyć ich zadawanie. Decyzja o tyle niespójna, że ograniczenia dotyczą podstawówek – a to przecież w liceach, gdzie prace domowe są nadal w pełni dozwolone, proceder „wynajmowania” ChataGPT wydaje się najczęstszy.

Artur, przemyski licealista, zauważa, że sztuczna inteligencja nie uchroni nikogo przed klęską, jeśli zlekceważy inteligencję naturalną. – Znam np. sytuację, że nieczytający za bardzo uczeń napisał pracę, w której miał powołać się na lekturę z klasy drugiej, do której uczęszczał. ChatGPT się pomylił i przytoczył książkę z III klasy. Niby nic złego, ale dla nauczyciela był to jasny sygnał, że coś jest nie tak – śmieje się Artur.

A jego mama-polonistka relacjonuje dialog ze swoim uczniem. – Złapałam gościa na zdaniu: „Hobbit jest wielką metaforą zmian w ludzkim życiu” – opowiada Iwona Zając. – Gdy poprosiłam go o wyjaśnienie, co to właściwie oznacza, odpowiedział, że pisał z mamą. Spytałam więc od razu mamę, czy to prawda, na co ona odparła, że niczego podobnego by nie napisała. A mój uczeń w końcu przyznał, że autorką sentencji jest AI. 

Choć wedle raportu „Polska edukacja w cieniu AI” poznańskiej uczelni Collegium Da Vinci 52 proc. wykładowców akademickich uważa, że używanie sztucznej inteligencji do pisania to oszustwo, to niewiele z tego poglądu wynika. O ile „tradycyjny” plagiat był i jest łatwy do wykrycia, wytwory AI już takiej prostej weryfikacji nie podlegają.

W podkaście „Nauka. To Lubię” Tomasza Rożka ilustrację tej niemocy przedstawiał ekspert Mateusz Chrobok, opowiadając o próbie użycia narzędzia pod nazwą ZeroGPT, mającego wykrywać wytwory AI. Chrobok przepuścił przez to narzędzie fragment… Listu do Koryntian, werdykt zaś „wykrywacza” brzmiał: tekst w około 50 procentach wytworzyła sztuczna inteligencja.

Konkluzja wydaje się dość oczywista: szkoła musi odejść od zadawanych hurtem prac pisemnych, a skupić się na bezpośredniej relacji i rozmowie, która lepiej weryfikuje zdolności ucznia do samodzielnego myślenia. Nauczyciel zaś – przestawić się z roli „kogoś, kto mówi, jak jest, w przewodnika po dżungli informacji”, jak podsumowywał w cytowanym podkaście Tomasz Rożek.

Po co uczniom sztuczna inteligencja?

– Zajmuję się hobbystycznie fotografią, gram na gitarze – opowiada Artur. – Zdarzyło mi się poprosić ChatGPT, by porównał parametry wzmacniaczy gitarowych. AI pomagała mi też stworzyć stronę poświęconą fotografii.

W edukacji szkolnej Artur, jak zapewnia, nie korzysta z ChataGPT na zasadzie kopiuj-wklej. – Owszem, nie jestem święty, posiłkowałem się sztuczną inteligencją, pisząc prace, ale kazałem jej podawać źródła generowanych treści, a potem sam je weryfikowałem – mówi.

I opowiada o zastosowaniu AI do nauki języków obcych, co każe pytać o przyszłość metodyki ich nauczania. – Wrzucam zdjęcie napisanego przez siebie tekstu – mówi Artur. – Po sekundzie mam nie tylko ten tekst sprawdzony pod kątem błędów, ale też omówienie, jak powinno być poprawnie. W kolejnym kroku mogę wygenerować ćwiczenia na utrwalenie tego, czego się na tych błędach nauczyłem. 

Podobnie jest, dodaje Artur Zając, z przerabianiem angielskiej gramatyki: – Tu mogę zacząć od YouTube’a, gdzie nauczyciel w krótkim filmie i w przystępnej formie tłumaczy zastosowanie jakiejś struktury językowej. Potem wrzucam do ChataGPT polecenie, by zrobił mi ćwiczenia z tego zagadnienia, np. czasu gramatycznego, na poziomie maturalnym. I on to skutecznie robi.

O uczniach po niemal trzech latach od debiutu ChataGPT wiadomo w kontekście AI mniej niż o nauczycielach. Ale nawet strzępki niereprezentatywnych danych sugerują, że młode pokolenie poczyna sobie z nowymi narzędziami śmielej. Np. już na początku 2024 r. sześciu na dziesięciu uczniów liceów STO, czyli największej sieci szkół niepublicznych, używało narzędzi AI do nauki. Wśród zastosowań wygrał bezapelacyjnie język polski i pisanie prac (ponad 70 proc. wskazań), na drugim miejscu znalazły się języki obce (o połowę mniej).

Prof. Pyżalski, który w ramach projektu „EU Kids Online” zbiera pogłębione wywiady z nastolatkami z krajów europejskich dotyczące używania AI, mówi o zmianach wykraczających poza sferę ściśle edukacyjną. – Np. jedna z młodych respondentek opowiada, że pokłóciła się z przyjaciółką, a ChatGPT napisał za nią list z przeprosinami – referuje trwające dopiero badania pedagog UAM. – Inna nastolatka siedziała z koleżanką i odbierała wiadomości od kolegi, który się jej podobał. No i te odpowiedzi wklejała do czata, który podpowiadał, jak na zdania chłopaka reagować. 

Młodzi ludzie używają też narzędzi AI, by poprawić sobie nastrój, i aby poradzić się w kwestii zdrowia psychicznego. Sztuczna inteligencja to zapowiedź społecznej zmiany wywracającej do góry nogami nie tylko szkołę jako miejsce nauki, ale też przestrzeń socjalizacji. - podsumowuje prof. Pyżalski. Dlatego słowo „rewolucja”, nie jest tu od rzeczy.

– Po pierwsze dlatego, że narzędzia AI generują „własne” treści, a nie te już istniejące. Po drugie, z tego powodu, że komunikują się naturalnym językiem z ludźmi, tworząc z nami para- albo hiperrelacje. Wreszcie po trzecie: sztuczna inteligencja wykonuje czynności, których sami uczyliśmy przez lata i uczymy nadal w szkole. I to z obszarów kultury oraz języka, zarezerwowanych dotąd dla człowieka – zauważa ekspert.

Jaka jest skala tej rewolucji w oczach samych uczestników systemu oświaty? Wspomniany raport „Polska edukacja w cieniu AI” pokazuje, że duża. Na przykład: 

  • połowa przepytanych wykładowców uważa, że w efekcie rozwoju nowych technologii część zdobywanych obecnie przez absolwentów umiejętności będzie nieaktualna już w dniu ukończenia edukacji;  
  • 92 proc. przedstawicieli świata biznesu sądzi, że zawód, w którym dzisiejsi uczniowie i absolwenci będą pracowali za pięć lat, jeszcze nie został wymyślony 

(w badaniu, które nie było reprezentatywne, wzięło udział prawie 2,4 tys. osób, z czego większość stanowili uczniowie, studenci i nauczyciele).

Co to wszystko razem oznacza dla szkoły? Jest jeszcze coś, co uzasadnia jej istnienie? I jak się musi zmieniać, by nie przeobrazić się w muzeum?

AI zmieni podstawy programowe, ale też egzaminy

– Do niedawna powtarzano, że szkoła traci sens jako miejsce przekazywania wiedzy – zauważa prof. Jacek Pyżalski. – Teraz pod znakiem zapytania staje również szkoła jako miejsce przyswajania umiejętności i kompetencji. Bo jeśli AI wykonuje tak wiele czynności, to powstaje pytanie: po co mamy uczyć ich wykonywania? I jakie umiejętności nadal mają sens?

Odpowiedź pierwsza z brzegu brzmi: sens ma nauczanie umiejętności obsługi i rozumienia samej AI. Jak mówi pedagog UAM, wywiady z nastolatkami z krajów europejskich skłaniają do jednego wniosku: młodzi ludzie szeroko ją stosują, ale miewają na jej temat wąską wiedzę. Wedle raportu „Polska edukacja w cieniu AI” ponad połowa studentów (51 proc.) uważa, iż obsługa narzędzi sztucznej inteligencji powinna być formalnie włączona w proces edukacji.

I śladowo już włączana jest. Np. w podstawie programowej nowego, nieobowiązkowego przedmiotu „Edukacja zdrowotna”, który zdążył już oburzyć część ekspertów, polityków i biskupów z powodu rzekomej seksualnej deprawacji, jaką niesie, sztuczna inteligencja pojawia się dwa razy. W kontekście dezinformacji, fake newsów, ale też korzyści wynikających z nowej technologii.

Gdy pytam dr. hab. Macieja Jakubowskiego, szefa wyznaczonego do zreformowania podstaw programowych Instytutu Badań Edukacyjnych, czego możemy się spodziewać po nadciągającej reformie, zaczyna od zastrzeżeń: 

– Tempo zmian sprawia, że nie jesteśmy w stanie przewidzieć skali postępu za dwa lata. Proszę też pamiętać, że nowe podstawy programowe się dopiero tworzą, no i że są pisane ogólnym językiem, z założenia pozbawionym szczegółów – mówi Jakubowski. 

Za moment jednak dodaje: – W nowych podstawach programowych, które zaczną obowiązywać od 2026 r. i lat późniejszych, zasadą będzie większa przestrzeń na myślenie, krytycyzm, a mniejsza na „przerabianie materiału” jak z checklisty. To oczywiście oznacza różne rzeczy na różnych przedmiotach, bo o ile na informatyce będzie więcej na temat samej AI, to na języku polskim będziemy uczyć analizy fake newsów, a na matematyce analizy danych, która jest przecież kluczem do zrozumienia mechanizmu działania sztucznej inteligencji.

W ślad za podstawami programowymi zmienią się też egzaminy: mają w jeszcze mniejszym niż do tej pory stopniu sprawdzać wiedzę, a w większym umiejętność „łączenia kropek”. – Nie możemy już pytać, „jaką Zosia miała sukienkę w »Panu Tadeuszu«” – mówi skrótem Jakubowski. – Filarem tej reformy jest też zasada sprawczości: uczniowie mają nabywać umiejętności, które mają im się następnie przydać. I ta zasada świetnie pasuje do tematu AI.

– Sztuczna inteligencja już wyręcza nas w wielu rzeczach, a będzie zastępować nas jeszcze częściej – zauważa Agata Łuczyńska, prezeska Fundacji Szkoła z Klasą. – Z jednej strony nam pomaga, z drugiej masowe jej użycie zagraża umiejętności samodzielnego myślenia. Dlatego szkoła powinna być miejscem „przeczołgiwania” naszych neuronów, skoro na co dzień coraz rzadziej to robimy.

Ale reforma, która ma to dekretować, doczekała się już krytyki. Nie tylko ze względu na swoje założenia, ale też pomijanie w zmianach problemów nauczycieli. Papier, powiadają krytycy, przyjmie wszystko, ale na koniec wdrażać zmiany będą musieli pedagodzy. Często zniechęceni, jeszcze częściej finansowo niedowartościowani i przekonani, że ze zmieniającym się naokoło światem muszą radzić sobie sami.

– Szkolenie z użytkowania ChataGPT zorganizowałam sobie we własnym zakresie – przyznaje Iwona Zając. 

– Może trzeba było poprosić o to dyrekcję? – pytam.

– Raczej niewiele by to dało – uśmiecha się nauczycielka. – Co roku próbuję przekonać szefostwo do sensowności konferencji neurodydaktycznej za 500 złotych. Dostaję odpowiedź, że nie ma pieniędzy, i że mogę przejść… szkolenie z Librusa. Tylko że ja nie chcę słuchać znowu o Librusie, a o AI owszem. Więc wybieram materiały darmowe, np. popularny webinar na YouTubie.

Czy szkoła zdoła okiełznać AI?

Sam ChatGPT zapytany, czy tradycyjna szkoła i nauczyciel nie staną się aby niepotrzebni, stanowczo zaprzecza, a jako argumenty wypluwa komunały o relacjach, empatii i krytycznym myśleniu. 

Nie wspomina o tym, że cokolwiek się będzie działo, musimy wszystkich obywateli nauczyć czytać, pisać i liczyć. – Rola szkoły jako instytucji wyrównującej szanse nie tylko się nie zmniejszy, ale może wzrosnąć – zauważa Agata Łuczyńska. – Choćby dlatego, że dostęp do technologii AI będzie łatwiejszy dla osób posiadających zasoby.

ChatGPT nie napomyka też, że nauka obsługi narzędzi AI to również nauka komunikacji. – W cenie będą paradoksalnie najbardziej klasyczne elementy wykształcenia – mówi prof. Pyżalski. – Przecież ChatGPT to umiejętność promptowania, a promptowanie to też zasady logiki, erystyki, precyzji komunikatu.

A już tym bardziej czatbot nie mówi o czymś, o czym wspominają tylko nieliczni eksperci: że pojawieniu się sztucznej inteligencji towarzyszy ideologia propagowana przez jej twórców.

– Chodzi o ideologię bezmyślnej adaptacji do AI, wyrażaną zdaniami typu: „Tego się nie da zatrzymać” – mówi dr hab. Michał Krzykawski, zajmujący się na Uniwersytecie Śląskim m.in. filozofią nauki i techniki. – Szkoła musi pomagać zrozumieć, jak te nowe narzędzia działają, ale nie tylko w sensie czysto technologicznym. Musi uczyć o ich wpływie na psychikę ludzi, o ich ogromnym koszcie ekologicznym, o tym, że moce obliczeniowe AI to również nowe formy władzy, intelektualnej kontroli, prowadzenia wojny itd. 

Musi opowiedzieć o tym, że pojawianie się AI w momencie, gdy pod nogami pali nam się ziemia, może nieść dodatkowe konsekwencje, i dlatego wymaga spojrzenia szerszego niż perspektywa pojedynczego użytkownika. Tylko jeśli sobie o tym powiemy i to zrozumiemy, staniemy się świadomymi i krytycznie myślącymi operatorami tej technologii, a nie konsumentami bezwolnie polegającymi na przeliczanych przez nią treściach.

Szkoła, puentuje prof. Pyżalski, musi nam pomóc sztuczną inteligencję okiełznać. – Tak, właśnie okiełznać, zgodnie z tytułem pewnej angielskiej publikacji, która traktowała o AI w edukacji – mówi naukowiec. – Słowo „okiełznać” implikuje coś dużego i poważnego: przecież nikomu nie przychodzą do głowy próby okiełznania chomika. Tylko wtedy, gdy nauczymy nauczycieli i uczniów oswajać rumaka AI, może on galopować na nasz pożytek. W przeciwnym razie zacznie biegać bez kontroli i wszystko nam zdemoluje.

Cały artykuł dostępny tylko dla subskrybentów

„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.

Najlepsza oferta

Czytaj 1 miesiąc za 1 złotówkę dzięki promocji z

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po miesiącu promocyjnym. Rezygnujesz, kiedy chcesz

Wypróbuj TP Online: 7 dni za darmo

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po zakończeniu okresu próbnego
  • Wymagane podpięcie karty. Rezygnujesz, kiedy chcesz

TP Online: Dostęp roczny online

ilustracja na okładce: Nikodem Pręgowski dla „TP”

Artykuł pochodzi z numeru Nr 36/2025

W druku ukazał się pod tytułem: Lekcje od czatbota