Jak mądrze korzystać z AI w szkole: praktyczne wskazówki dla nauczycieli i uczniów

0
8
Rate this post

Z tego wpisu dowiesz się…

Po co w ogóle AI w szkole – co realnie może (i czego nie zrobi)

Czym w praktyce jest AI generatywna w szkole

Sztuczna inteligencja w szkole nie oznacza robotów chodzących po korytarzach, tylko zestaw narzędzi, które generują treści na podstawie wpisanego polecenia. Najczęściej są to:

  • chaty tekstowe (np. modele językowe), które odpowiadają na pytania, tłumaczą, streszczają, poprawiają styl, tworzą przykłady zadań,
  • generatory grafik, które tworzą ilustracje, schematy, proste infografiki na podstawie opisu,
  • narzędzia do streszczania i porządkowania treści (podsumowania artykułów, robienie list punktów z długiego tekstu),
  • narzędzia do korekty językowej – poprawiające błędy ortograficzne, gramatyczne i interpunkcyjne,
  • aplikacje do tworzenia quizów, fiszek i ćwiczeń, które korzystają z AI w tle.

Wspólny mianownik: narzędzia te generują najbardziej prawdopodobną odpowiedź na podstawie ogromnej liczby przykładów z Internetu i innych danych treningowych. Nie „myślą”, nie rozumieją kontekstu szkolnego tak jak nauczyciel, ale są błyskawicznym generatorem propozycji.

Obietnice kontra rzeczywiste zastosowania AI w edukacji

Marketing narzędzi AI często obiecuje „inteligentnego nauczyciela 24/7”. W praktyce AI w edukacji lepiej traktować jak bardzo sprawnego asystenta biurowego niż jak mentora. To narzędzie świetne do:

  • przyspieszenia rutynowych zadań (pisanie szkicu konspektu, zrobienie listy pytań, wymyślenie przykładów),
  • szukania inspiracji (pomoce dydaktyczne, gry, ćwiczenia, nietypowe zadania projektowe),
  • porządkowania informacji (streszczenia, wyciąganie głównych tez, porównania),
  • indywidualizacji – przygotowania kilku wersji materiału o różnym poziomie trudności.

Czego AI w szkole nie zrobi samodzielnie:

  • nie pozna dobrze konkretnej klasy, jej dynamiki, emocji, konfliktów,
  • nie zastąpi relacji nauczyciel–uczeń i poczucia bezpieczeństwa,
  • nie przejmie odpowiedzialności za wybór priorytetów (co teraz naprawdę jest najważniejsze dla tej grupy uczniów),
  • nie nauczy krytycznego myślenia, jeśli uczniowie korzystają z niej na zasadzie „kopiuj–wklej”.

Różnica między deklaracjami producentów a codzienną praktyką jest spora. AI nie zdejmie z nauczyciela ciężaru myślenia, ale skraca drogę od pomysłu do szkicu materiału. A to w realiach przeładowanej podstawy programowej i stosu sprawdzianów jest już dużo.

Szybciej vs głębiej – dwa zupełnie różne sposoby użycia AI

AI w szkole może służyć dwóm celom:

  1. Szybciej – uczeń lub nauczyciel używa AI, żeby oszczędzić czas, np. napisać wypracowanie, przygotować plan lekcji, zrobić prezentację.
  2. Głębiej – AI pomaga zrozumieć trudny temat, spojrzeć na niego z innej strony, znaleźć kontrargumenty, uprościć skomplikowane definicje, wygenerować pytania do samosprawdzenia.

Pierwszy sposób jest kuszący, bo od razu widać efekt. Drugi wymaga trochę więcej wysiłku, ale rozwija kompetencje, które będą potrzebne uczniom niezależnie od tego, jak zmieni się technologia – krytyczne myślenie, umiejętność zadawania pytań, selekcja informacji, argumentacja.

Przykład kontrastu:

  • „Napisz mi wypracowanie o motywie buntu w literaturze” – oszczędza czas, ale odbiera uczniowi trening języka i własnej refleksji.
  • „Wypisz trzy różne sposoby ujęcia motywu buntu w literaturze i podaj do każdego przykładowe utwory, żebym mógł sam napisać wypracowanie” – przyspiesza zbieranie materiału, ale nie zabiera etapu samodzielnego pisania i interpretacji.

Mądre korzystanie z AI w szkole polega na tym, żeby świadomie wybierać, które zadania warto przyspieszyć, a które zostawić jako trening kluczowych umiejętności.

Kiedy zakaz AI ma sens, a kiedy tylko napędza ściąganie

Odruch „zakazać wszystkiego” wydaje się bezpieczny, ale w praktyce rzadko działa. Są jednak sytuacje, w których twardy zakaz ma uzasadnienie – np. podczas:

  • sprawdzianów i egzaminów,
  • prac klasowych z literatury,
  • zadań sprawdzających umiejętność samodzielnego pisania, liczenia, rozumowania.

Wtedy celem jest diagnoza realnych umiejętności, a nie tego, jak sprawnie uczeń potrafi formułować polecenia dla AI. Zakaz na czas ocenianej pracy jest rozsądny pod warunkiem, że poza tym obszarem szkoła uczy sensownego korzystania z narzędzi.

Całkowity, stały zakaz używania AI poza klasą najczęściej kończy się tym, że uczniowie i tak z niej korzystają, tylko po cichu i bez żadnej refleksji. Z perspektywy wychowawczej i edukacyjnej to gorszy scenariusz niż otwarte omówienie tematu. Lepiej jasno ustalić, że:

  • AI wolno używać np. do przygotowania się do lekcji, powtórek, szukania argumentów,
  • AI nie wolno używać do oddawania jako własne gotowych wypracowań lub rozwiązań zadań.

Bez takiego rozróżnienia „AI = ściąga” utrwali się w kulturze szkolnej, zamiast stać się narzędziem do nauki.

Nauczyciel nadzoruje uczniów pracujących na laptopach w klasie
Źródło: Pexels | Autor: Alena Darmel

Podstawy korzystania z AI – co uczeń i nauczyciel powinni wiedzieć na start

Jak działają modele językowe – prostym szkolnym językiem

Modele językowe (chaty AI) nie mają „wiedzy” w ludzkim sensie. To matematyczne mechanizmy, które przewidują, jakie słowo powinno pojawić się po poprzednim, biorąc pod uwagę miliardy przykładów tekstów. Dlatego:

  • odpowiedź może brzmieć przekonująco, ale być całkowicie błędna,
  • AI nie „kłamie” celowo – po prostu dopasowuje wzorce, nawet jeśli nie ma faktycznej informacji,
  • model nie ma poczucia „nie wiem”, chyba że zostanie specjalnie do tego zachęcony przez użytkownika.

Dla uczniów i nauczycieli praktyczna konsekwencja jest jedna: każdą ważną odpowiedź z AI trzeba sprawdzić w innym źródle – podręczniku, wiarygodnej stronie, notatkach z lekcji. AI może być pierwszym krokiem, ale nie powinna być jedynym źródłem.

Halucynacje, błędy i zmyślone źródła – jak to rozpoznać

„Halucynacja” w kontekście AI oznacza stworzenie całkowicie zmyślonej informacji, która wygląda wiarygodnie. W praktyce szkolnej najczęściej widać to w sytuacjach, gdy uczeń prosi o:

  • konkretne cytaty z lektury – AI tworzy cytaty, których w książce nie ma,
  • nazwiska autorów, tytuły książek – pojawiają się dzieła, które nigdy nie powstały,
  • przypisy i bibliografię – AI generuje nieistniejące artykuły i wydawnictwa.

Symptomy halucynacji, na które mogą zwracać uwagę uczniowie i nauczyciele:

  • brak możliwości znalezienia tej samej informacji w podręczniku lub wiarygodnym źródle,
  • dziwnie brzmiące tytuły, których nie potwierdza katalog biblioteczny ani wyszukiwarka,
  • zbyt ogólnikowe odpowiedzi na bardzo szczegółowe pytanie,
  • brak numerów stron, miejsc i dokładnych danych, tam gdzie normalnie by się pojawiły.

Dobra praktyka dla uczniów: przy każdym ważniejszym pytaniu dodać polecenie „Jeśli nie jesteś pewien, napisz, że nie wiesz” albo „Zaznacz, które elementy odpowiedzi mogą być obarczone błędem”. To nie usuwa halucynacji całkowicie, ale uczy świadomości ograniczeń narzędzia.

Ograniczenia danych: aktualność, kontekst lokalny, podstawa programowa

Większość popularnych modeli językowych jest trenowana na danych z określonego okresu, nie zawsze aktualizowanych na bieżąco. W szkołach widać to szczególnie, gdy:

  • AI nie zna najnowszych zmian w prawie oświatowym czy maturach,
  • popełnia błędy przy aktualnych wydarzeniach politycznych, gospodarczych, społecznych,
  • nie rozumie lokalnych odniesień – np. specyfiki danej gminy, regionu, zwyczajów szkoły.

Kolejny problem to brak znajomości szczegółów polskiej podstawy programowej: narzędzie może rozumieć definicje z matematyki czy fizyki, ale niekoniecznie dobierze zakres treści dokładnie do klasy 4 czy 7, chyba że użytkownik to precyzyjnie określi.

Dlatego sensowne korzystanie z AI w edukacji wymaga każdorazowo:

  • sprecyzowania poziomu – np. „dla ucznia 6 klasy szkoły podstawowej”,
  • zaznaczenia, że chodzi o polską szkołę i polską podstawę programową,
  • własnej korekty pod kątem zgodności z programem nauczania.

Nauczyciel może poprosić AI o szkic materiału, ale dopiero ręczna edycja sprawia, że staje się on naprawdę przydatny dla jego uczniów.

Prosta instrukcja obsługi AI dla ucznia

Większość błędów uczniów bierze się z ogólnikowych pytań zadawanych AI. Przykład: „Wyjaśnij mi fizykę” zamiast „Wytłumacz mi, co to jest prędkość średnia na poziomie klasy 8 i podaj 3 proste przykłady z codziennego życia”.

Do kompletu polecam jeszcze: Komunikacja bez przemocy w szkole: od teorii do praktyki na lekcji — znajdziesz tam dodatkowe wskazówki.

Podstawowy schemat dobrego polecenia (prompta), który można wprowadzić w klasie, wygląda tak:

  • Rola – „Zachowuj się jak nauczyciel matematyki w szkole podstawowej”,
  • Poziom – „Wyjaśniaj na poziomie ucznia klasy 7”,
  • Konkretne zadanie – „Wytłumacz pojęcie proporcji”,
  • Forma – „Używaj prostych zdań i krótkich przykładów z życia”,
  • Dodatkowe warunki – „Na końcu zadaj mi 5 prostych pytań sprawdzających”.

Uczeń proszący o gotowe wypracowanie vs uczeń proszący o szkielet argumentów

Dwa bardzo podobne technicznie zachowania, a zupełnie inny efekt edukacyjny:

  • Uczeń A: „Napisz mi wypracowanie na 350 słów o roli marzeń w życiu człowieka, na poziomie 1 klasy liceum.” – otrzymuje tekst, który oddaje prawdopodobnie bez większych zmian. Nauczyciel widzi poprawną pracę, ale nie widzi, jak uczeń myśli, jakie ma braki, jak rozwija styl.
  • Uczeń B: „Podaj mi listę możliwych argumentów za i przeciw tezie ‘Marzenia pomagają człowiekowi przetrwać trudne chwile’. Do każdego argumentu podpowiedz przykład z literatury lub filmu, żebym mógł sam ułożyć wypracowanie.” – uczeń zyskuje porządek w głowie, ale pisze pracę samodzielnie.
Przeczytaj również:  Weekend w polskich górach: najpiękniejsze trasy, klimatyczne noclegi i lokalne atrakcje

Ta różnica jest kluczowa dla etycznego korzystania z AI: narzędzie może pomóc w fazie przygotowania (pomysły, plan, lista pojęć, przypomnienie treści lektury), ale etap pisania czy liczenia powinien pozostać w dużej mierze własną pracą ucznia, jeśli ma coś realnie ćwiczyć.

Dzieci uczą się przy komputerach w nowoczesnej szkolnej pracowni
Źródło: Pexels | Autor: Ron Lach

Uczniowie i AI – jak korzystać, żeby się naprawdę uczyć, a nie tylko kopiować

Zadania, przy których AI staje się sprzymierzeńcem ucznia

AI w edukacji może bardzo konkretnie wspierać samodzielną naukę, jeśli uczeń korzysta z niej jak z narzędzia, a nie „gotowca na wszystko”. Sprawdza się szczególnie przy:

  • planowaniu nauki – AI może pomóc ułożyć plan powtórek przed sprawdzianem albo egzaminem, rozbić duży materiał na małe porcje, zaproponować kolejność tematów,
  • tłumaczeniu trudnych pojęć – uczeń może poprosić o „wyjaśnij jak 12-latkowi”, „podaj przykład z życia codziennego”, „wytłumacz mi to krok po kroku”,
  • generowaniu pytań testowych – na podstawie przerobionego materiału uczniowie mogą prosić AI o zestaw pytań zamkniętych i otwartych do samosprawdzenia,
  • tworzeniu fiszek i powtórek – AI może pomóc zamienić notatki z lekcji na listę pojęć i definicji w formie fiszek,
  • sprawdzaniu zrozumienia – uczeń może opisać własnymi słowami dane zagadnienie, a AI wskaże luki, nieścisłości, zaproponuje doprecyzowania,
  • symulowaniu rozmowy – AI może „udawać” rozmówcę na egzaminie ustnym z języka obcego albo osobę z danej epoki historycznej, co pomaga przećwiczyć argumentację i słownictwo.

Popularna rada „zadawaj dużo pytań AI” nie zawsze działa. Jeśli pytania są chaotyczne, bez sięgania do własnych notatek, uczeń tylko przeskakuje między odpowiedziami i niczego nie porządkuje. Dużo lepszy efekt daje schemat: najpierw próba samodzielnego wyjaśnienia na podstawie podręcznika, dopiero potem prośba o korektę i uzupełnienie przez AI. Wtedy narzędzie nie zastępuje myślenia, tylko je precyzuje.

Sprawdza się też używanie AI do tłumaczenia „po ludzku” z nauczycielskiego lub podręcznikowego języka, ale z warunkiem: uczeń powinien pokazać modelowi swój konkretny fragment. Zamiast ogólnego „wytłumacz mi równania”, lepiej wkleić 2–3 zadania, z którymi jest kłopot, i poprosić o rozpisanie rozumowania krok po kroku. Taki sposób pracy pozwala wychwycić dokładnie to miejsce, w którym uczeń się gubi, zamiast przykrywać problem kolejną porcją teorii.

Jest jeszcze jedna, mniej oczywista rola AI: narzędzie do sprawdzania, czy uczeń naprawdę rozumie temat. Dobrym zwyczajem jest proszenie modelu: „zadaj mi 10 pytań rosnących trudnością z działu funkcje liniowe, zatrzymaj się, gdy udzielę 3 błędnych odpowiedzi pod rząd i wyjaśnij mi te błędy”. W takiej rozmowie uczeń widzi nie tylko wynik („znam / nie znam”), ale też profil własnych potknięć: czy gubi się w rachunkach, czy w samych definicjach.

Jak używać AI przy zadaniach domowych, żeby nie wpaść w pułapkę „kopiuj–wklej”

Najczęstszy, ale i najmniej rozwijający sposób użycia AI przy pracy domowej to prośba o gotowe rozwiązanie. Technicznie działa, edukacyjnie – prawie wcale. Dużo lepsze efekty daje podzielenie zadania na etapy i wykorzystanie AI tylko tam, gdzie rzeczywiście blokuje się myślenie, a nie cała praca.

Przy zadaniach pisemnych rozsądny schemat może wyglądać tak:

  • najpierw własny, choćby bardzo szkicowy plan – kilka punktów, teza, 2–3 przykłady,
  • potem prośba do AI o rozwinięcie argumentów, dopisanie kontrargumentów lub doprecyzowanie przykładów,
  • na końcu samodzielne napisanie tekstu na podstawie planu, już bez podglądania gotowych akapitów.

Przy zadaniach obliczeniowych i z fizyki bardziej rozwija scenariusz, w którym uczeń sam rozwiązuje przykład, a dopiero później prosi AI: „sprawdź mój tok rozumowania, wskaż konkretne miejsce, gdzie popełniłem błąd”. Model pełni wtedy funkcję korektora, a nie kalkulatora do przepisywania.

Mocno promowana rada „nie używaj AI do prac domowych, bo to ściąganie” nie sprawdza się tam, gdzie uczeń realnie potrzebuje wsparcia – na przykład w zrozumieniu treści polecenia czy przełożeniu go na działania. Bardziej konstrukcyjna jest zasada: AI może pomóc zrozumieć i zaplanować, ale nie powinno generować ostatecznej odpowiedzi, którą ocenia nauczyciel.

AI jako trener, nie wyręczyciel – jak ustawić „poziom trudności”

Popularna rada mówi: „poproś AI, żeby tłumaczyła jak dziecku”. Działa przy pierwszym spotkaniu z tematem, ale szybko zaczyna hamować rozwój. Jeśli zawsze prosimy o najprostsze możliwe wyjaśnienia, mózg przestaje się wysilać i nie uczy się „przeskakiwać” na wyższy poziom trudności.

Większy sens ma dynamiczna zmiana poziomu. Uczeń może używać poleceń w rodzaju:

  • „Najpierw wyjaśnij mi to jak 12-latkowi, a potem ten sam temat opisz na poziomie liceum, porównując te dwie wersje”.
  • „Jeśli dobrze odpowiem na 3 pytania z rzędu, zwiększaj stopień trudności i używaj bardziej fachowego języka”.

W ten sposób AI staje się czymś w rodzaju elektronicznego korepetytora, który nie trzyma ucznia wiecznie na „dziecinnym” poziomie, tylko systematycznie podnosi poprzeczkę. Dobrym nawykiem jest także proszenie modelu: „zadaj mi pytanie, na które odpowiedź wymaga połączenia dwóch różnych zagadnień” – to ćwiczy myślenie, a nie tylko pamięć definicji.

Jak rozpoznać, że uczeń „nadużywa” AI i przestaje się uczyć

Nadużywanie AI nie zawsze jest widoczne w gotowych pracach – tekst może być poprawny, a jednak niewiele mówić o realnym poziomie ucznia. Częściej widać to w zachowaniach:

  • nagły, nienaturalny skok jakości prac pisemnych przy braku postępów na sprawdzianach pisanych w klasie,
  • styl wypowiedzi w wypracowaniu zupełnie inny niż na lekcji, z nagłym pojawieniem się „dorosłych” sformułowań,
  • brak umiejętności wyjaśnienia własnych prac – uczeń czyta poprawny tekst, ale nie potrafi go streścić, obronić argumentacji, podać własnych przykładów.

Zamiast wyłącznie karać za takie sytuacje, lepiej wykorzystać je do rozmowy o sposobie korzystania z AI. Nauczyciel może poprosić ucznia o pokazanie, jak dokładnie formułował polecenia w narzędziu – często okaże się, że wystarczy drobna korekta promptów (np. przejście z „zrób za mnie” na „pomóż mi poprawić mój tekst”), żeby z ściągania zrobić ćwiczenie.

Nauczyciele i AI – jak odzyskać czas bez oddawania swojego stylu

Przy pierwszym kontakcie z generatywną AI wielu nauczycieli próbuje używać jej „do wszystkiego”: gotowe konspekty, sprawdziany, karty pracy. Szybko pojawia się jednak problem – materiały są poprawne, ale nijakie, bez znajomości klasy, bez charakterystycznych „haczyków”, które zwykle pojawiają się u danego nauczyciela.

Bardziej efektywne podejście polega na tym, żeby AI była asystentem do brudnopisów, a nie autorem ostatecznych wersji. Przykładowo:

  • AI tworzy szkic konspektu lekcji, ale nauczyciel dopisuje własne pytania otwierające, przykłady z doświadczeń klasy, odniesienia do poprzednich zajęć,
  • model podsuwa kilkanaście przykładowych zadań, a nauczyciel wybiera 4–5 najlepiej pasujących do poziomu grupy i modyfikuje liczby, kontekst lub słownictwo.

Kluczowe jest zachowanie własnego „podpisu” dydaktycznego. Uczniowie szybko czują, czy materiały są „ich nauczyciela”, czy anonimowego generatora. Nawet proste zabiegi, jak wplatanie znanych z klasy żartów, imion bohaterów używanych od lat w zadaniach czy lokalnych odniesień (nazwy ulic, miejscowości), sprawiają, że materiał wygenerowany przez AI staje się zakorzeniony w realnym doświadczeniu grupy.

Redagowanie zamiast pisania od zera – sposób na lepsze scenariusze lekcji

Dość rozpowszechniona rada brzmi: „poproś AI o pełny konspekt lekcji na podstawie podstawy programowej”. Zwykle kończy się to dokumentem, który wygląda imponująco, ale jest przeładowany i mało realistyczny czasowo. W praktyce dojrzalsze podejście to oparcie się na istniejących, sprawdzonych konspektach i użycie AI do ich udoskonalenia.

Nauczyciel może na przykład:

  • wkleić stary scenariusz i poprosić: „zaproponuj trzy warianty aktywności dla uczniów słabszych, bez zwiększania czasu lekcji”,
  • poprosić o przepisanie fragmentów w języku bliższym uczniom: „przeformułuj polecenia tak, by były krótsze i bardziej konkretne, zachowując sens”,
  • zlecić modelowi: „podpowiedz pytania pogłębiające do dyskusji na 5 minut pod koniec tej lekcji”.

Tego typu wykorzystanie AI opiera się na tym, co już działa w danej klasie, zamiast budować materiały „od sufitu”. Jednocześnie odsiewa prace żmudne (przepisywanie instrukcji, poprawki językowe), zostawiając nauczycielowi decyzje merytoryczne i wychowawcze.

Ocena i informacja zwrotna – gdzie AI może pomóc, a gdzie powinna się zatrzymać

Pokusa, by „wrzucić” wypracowania do AI i poprosić o ocenę, jest duża. Model może faktycznie wychwycić błędy językowe, powtórzenia, niejasne fragmenty. Nie widzi jednak ucznia jako osoby: jego temperamentu, postępu w czasie, wysiłku włożonego w pracę, kontekstu rodzinnego czy emocjonalnego.

Rozsądna granica wygląda mniej więcej tak:

  • AI może pomóc przygotować szczegółową informację zwrotną dotyczącą języka, struktury, logicznego powiązania argumentów,
  • nauczyciel decyduje o ocenie sumarycznej, interpretacji postępu ucznia, komentarzu wychowawczym.

Ciekawą praktyką jest pokazywanie uczniowi, jak wygląda „surowa” informacja zwrotna od AI, a następnie dopisywanie przez nauczyciela własnych uwag: „Z tym komentarzem się nie zgadzam, bo w twoim przypadku ważniejsze było to, że odważyłeś się użyć własnych przykładów, nawet jeśli stylistycznie są prostsze”. Uczeń widzi wtedy różnicę między automatycznym feedbackiem a oceną nauczyciela, który zna jego drogę.

Tworzenie zadań zróżnicowanych – AI jako generator wariantów

Jednym z męczących zadań jest przygotowywanie wielu wersji tego samego sprawdzianu albo zadań o różnym stopniu trudności. Tu AI sprawdza się wyjątkowo dobrze, o ile nauczyciel trzyma rękę na pulsie, by nie wypuścić zadań niezrozumiałych czy oderwanych od programu.

Praktyczny sposób pracy może wyglądać tak:

  1. Nauczyciel samodzielnie tworzy kilka przykładów „wzorowych” zadań zgodnych z programem.
  2. Prosi AI: „wygeneruj 10 wariantów tego zadania, nie zmieniając typu rozumowania, tylko liczby/kontekst”.
  3. Przegląda i dopuszcza te wersje, które są poprawne i mieszczą się w znanej uczniom siatce pojęć.

Taki model pracy oszczędza czas, a jednocześnie utrzymuje merytoryczną kontrolę po stronie nauczyciela. Można tym sposobem budować zadania „schodkowe”: od najprostszych, przez średnie, aż po rozszerzone, które przydadzą się uczniom ambitniejszym lub przygotowującym się do konkursów.

Studenci pracują razem w sali, ucząc się przy laptopach i książkach
Źródło: Pexels | Autor: Yan Krukau

Jak rozmawiać o AI z klasą – zasady gry, oczekiwania i granice

Ustalanie zasad wspólnie z uczniami, a nie tylko „odgórny regulamin”

Część szkół reaguje na AI zakazami: „nie wolno używać ChatGPT do zadań domowych”, „prace pisemne tylko ręcznie”. Taki ruch chwilowo ogranicza problem, ale nie uczy odpowiedzialności – uczniowie i tak korzystają z narzędzi poza szkołą, tylko wchodzą w tryb „ukrywania”. Dużo większy efekt wychowawczy przynosi wspólne wypracowanie zasad.

Nauczyciel może rozpocząć od prostych pytań do klasy:

  • „W jakich sytuacjach AI najbardziej wam pomogła w nauce?”
  • „Kiedy czuliście, że korzystacie z niej w sposób, z którego nie bylibyście dumni?”
  • „Jakie zasady byłyby dla was uczciwe, a jednocześnie dawały szansę uczyć się odpowiedzialnego korzystania?”
Przeczytaj również:  Jak zaplanować szafę na wymiar w przedpokoju: praktyczne rozwiązania i orientacyjne koszty

Na tej podstawie można wspólnie stworzyć krótki kontrakt klasowy – najlepiej w kilku punktach, z przykładami. Np.: „AI można używać do planowania nauki i sprawdzania swoich odpowiedzi, ale nie do generowania gotowych rozwiązań na ocenianych pracach domowych.” Taki dokument ma większą szansę na przestrzeganie, jeśli uczniowie czują, że brali udział w jego tworzeniu.

Jasne rozróżnienie: kiedy AI jest dozwolone, a kiedy zabronione

Największy chaos powstaje, gdy uczniowie nie wiedzą, czy w danej pracy mogą użyć AI. Jedni korzystają, inni – z obawy przed karą – nie, a nauczyciel dostaje mieszankę stylów niemożliwą do rzetelnej oceny. Warto więc każdemu większemu zadaniu towarzyszyć krótką, jednoznaczną informacją.

Przydają się proste formuły:

  • „AI dozwolone” – można używać do planu pracy, wyszukiwania argumentów, sprawdzania błędów, ale ostateczny tekst/rozwiązanie jest w pełni autorstwa ucznia,
  • „AI tylko jako słownik/kalkulator” – wolno sprawdzić znaczenie słów, wzory, przeliczenia, lecz nie wolno generować całych fragmentów odpowiedzi,
  • „AI zabronione” – prace diagnostyczne, egzaminy próbne, testy sprawdzające samodzielny poziom wiedzy.

Takie etykietowanie można nawet wprowadzić graficznie na kartach zadań czy w e-dzienniku. Uczniowie szybko przyzwyczajają się do tego systemu i przestają pytać „czy mogę użyć ChatGPT?”, bo widzą to wprost w opisie pracy.

Jak reagować na „przyłapanie” – kara czy okazja do nauki

Gdy nauczyciel odkryje, że praca została w całości wygenerowana przez AI, naturalna reakcja to irytacja i chęć ukarania. Sztywne trzymanie się tylko sankcji rzadko jednak zmienia długofalowo zachowanie – uczeń uczy się głównie tego, żeby „lepiej się maskować”.

Alternatywa, która często działa lepiej, to rozmowa oparta na trzech krokach:

  1. Ujawnienie faktów – pokazanie, które fragmenty tekstu budzą wątpliwości i dlaczego (np. nagła zmiana stylu).
  2. Wyjaśnienie motywacji – pytanie ucznia o powody: brak czasu, niezrozumienie tematu, presja ocen, porównywanie się z innymi.
  3. Ustalenie „ścieżki naprawczej” – np. ponowne napisanie pracy w klasie, tym razem z dopuszczeniem AI na etapie planu, ale nie gotowego tekstu.

Taki sposób reagowania nie znosi konsekwencji, ale zmienia ich charakter: zamiast samej kary pojawia się zadanie rozwojowe. W dłuższej perspektywie daje to szansę na zbudowanie w klasie kultury otwartości: uczniowie mniej boją się mówić wprost, jak korzystają z AI.

Takie „opakowanie” sprawia, że odpowiedzi AI są bliższe realnym potrzebom ucznia. Nauczyciel może wręcz przygotować uczniom gotową mini-ściągę z przykładowymi formułami promptów, obok innych praktyczne wskazówki: edukacja, które szkoła promuje.

Transparentność jako standard – deklarowanie użycia AI

Ciekawym narzędziem wychowawczym jest wprowadzenie do prac pisemnych krótkiego pola typu: „Czy korzystałeś z AI przy przygotowaniu tej pracy? Jeśli tak, napisz jak”. Uczeń może napisać np.: „Użyłem AI do ułożenia planu i poprawy błędów językowych, treść argumentów jest moja”.

Taka praktyka:

  • normalizuje uczciwe korzystanie z technologii,
  • uczy świadomego opisywania własnego procesu pracy,
  • daje nauczycielowi dodatkową informację, jak planować zajęcia i jakie kompetencje jeszcze ćwiczyć.

Paradoksalnie taka rubryka pomaga też wyłapywać nadużycia bez atmosfery „polowania na czarownice”. Jeśli ktoś systematycznie deklaruje: „AI napisała za mnie większość pracy”, to jasny sygnał, że nie chodzi już o wsparcie, tylko o zastąpienie wysiłku. Zamiast od razu eskalować, można wtedy umówić się na rozmowę i wspólnie poszukać przyczyny: może zadania są zbyt abstrakcyjne, może uczeń nie widzi sensu w temacie, może zwyczajnie nie radzi sobie z planowaniem czasu.

Często powtarzana rada brzmi: „Nie pytaj, czy używałeś AI, tylko i tak zakładaj, że wszyscy używają”. Sprawdza się to przy projektowaniu zadań – dobrze, gdy są odporne na „przeklikanie przez chatbota” i wymagają własnego przykładu, odniesienia do lekcji czy refleksji. Nie działa jednak w wychowaniu: jeśli nauczyciel z góry zakłada, że wszyscy ściągają, zabija motywację tych, którzy próbują pracować samodzielnie. Deklaracja użycia AI staje się wtedy formą zaufania w dwie strony, a nie formularzem do „łapania na błędach”.

Dopełnieniem takiego systemu są okazjonalne lekcje refleksji nad tym, jak AI zmienia sposób uczenia się. Zamiast kolejnej pogadanki o „zagrożeniach”, można raz na semestr poprosić uczniów o krótką autorefleksję: co dzięki AI zaczęło im wychodzić lepiej, a gdzie zauważają, że „oduczają się” samodzielnego myślenia. Zestawienie tych odpowiedzi z nauczycielską perspektywą często prowadzi do konkretnych korekt: zmiany formy prac domowych, innych kryteriów oceniania, nowych zasad korzystania z technologii na lekcji.

Szkoła, która świadomie wpuszcza AI do klasy, nie rezygnuje z wymagania wysiłku – tylko wymienia część mechanicznej pracy na bardziej sensowną. Tam, gdzie algorytm może wziąć na siebie żmudne powtórki, nauczyciel ma więcej przestrzeni na rozmowę, a uczeń na prawdziwe zmaganie się z ideą, a nie z formatowaniem tekstu. To od codziennych, czasem drobnych decyzji – jak nazwiemy zadanie, kiedy pozwolimy na AI, jak zareagujemy na nadużycie – zależy, czy sztuczna inteligencja stanie się kolejną „drogą na skróty”, czy narzędziem, które uczy odpowiedzialności i samodzielności, zamiast je zastępować.

AI jako temat międzyprzedmiotowy – nie tylko „na informatyce”

Gdy rozmowa o AI zostaje zamknięta w jednej lekcji informatyki, uczniowie szybko uznają ją za ciekawostkę techniczną, a nie coś, co realnie wpływa na ich codzienną naukę. Znacznie ciekawszy efekt przynosi rozproszenie tematu po różnych przedmiotach – ale nie w formie „dodatkowych pogadanek”, tylko krótkich, osadzonych w treści danego przedmiotu zadań.

Praktyczne sposoby wplecenia AI w różne lekcje:

  • Język polski: porównanie eseju napisanego przez ucznia i wygenerowanego przez AI na ten sam temat; zadaniem klasy jest wskazanie, gdzie widać brak doświadczenia, osobistych przeżyć, konkretu.
  • Historia/ WOS: poproszenie AI o streszczenie wybranego wydarzenia historycznego, a potem wspólne wychwycenie uproszczeń, braków i potencjalnych przekłamań w źródłach.
  • Matematyka / fizyka: wygenerowanie kilku „błędnych” rozwiązań zadania przez AI (lub ręcznie), a następnie analiza w grupach, gdzie leży błąd i jak go poprawić.
  • Języki obce: zlecenie AI przetłumaczenia krótkiego tekstu ucznia, a potem warsztat „co tu jest poprawne, a co brzmi sztucznie / nie w tym rejestrze”.

Popularna rada brzmi: „najpierw zakaz, potem oswajanie”. W praktyce w wielu szkołach kończy się na samym zakazie, bo „na więcej nie ma czasu”. Lepszy kierunek to odwrotny: wpuszczenie AI na lekcję w kontrolowanych, krótkich ćwiczeniach, a dopiero później precyzyjne ustalanie, gdzie granice są twarde (np. przy pracach klasowych).

Rozmowa o błędach AI – odmitologizowanie „nieomylnej technologii”

Większość uczniów słyszała, że AI „czasem się myli”, ale w praktyce i tak przyjmuje jej odpowiedzi jako domyślnie poprawne. Dopiero gdy zobaczą błąd na własne oczy – w zadaniu, które rozumieją – zaczynają podchodzić do chatbota jak do narzędzia, a nie wyroczni.

Kilka prostych formatów lekcji, które odsłaniają ograniczenia modelu:

  • „Znajdź błąd w odpowiedzi AI” – nauczyciel prosi AI o rozwiązanie zadania i celowo wybiera odpowiedź z drobną, ale istotną pomyłką. Uczniowie, pracując w parach, mają zlokalizować i wyjaśnić błąd, a następnie poprawić rozwiązanie.
  • „Półprawdy i uproszczenia” – przy zagadnieniach humanistycznych AI potrafi tworzyć bardzo gładkie, lecz spłycone wyjaśnienia. Uczniowie dostają krótką odpowiedź AI i porównują ją z podręcznikiem lub innym źródłem, szukając tego, co zostało pominięte lub przedstawione zbyt jednostronnie.
  • „Sprzeczne odpowiedzi” – ta sama klasa zadaje AI to samo pytanie, ale innymi sformułowaniami; zderzenie różnych odpowiedzi prowadzi do rozmowy o tym, jak bardzo wynik zależy od sposobu zadania pytania.

Takie ćwiczenia pokazują, że „AI potrafi się mylić w bardzo przekonujący sposób”. To kluczowa lekcja dla uczniów, którzy mają tendencję do traktowania dobrze brzmiącego tekstu jako równoznacznego z prawdą.

Emocje wokół AI – lęk, zachwyt i zmęczenie nowością

W dyskusjach o technologii łatwo wpaść w dwie skrajności: entuzjastyczne „to zmieni wszystko na lepsze” albo katastroficzne „to koniec szkoły, jaką znamy”. Uczniowie słyszą te skrajne głosy w domu, w mediach, w internecie. Jeżeli w szkole nie ma miejsca na spokojne nazwanie tych emocji, zaczynają działać z ukrycia: część uczniów będzie niechętnie używać AI z lęku, że „to nieuczciwe”, inni będą ją idealizować.

Prosty sposób, żeby oswoić ten temat, to krótka „mapa emocji” na lekcji wychowawczej lub przedmiotowej. Można poprosić uczniów o anonimowe zaznaczenie na kartce lub w formularzu online, co u nich dominuje:

  • „AI mnie ciekawi, chętnie z nią eksperymentuję”,
  • „AI mnie stresuje, bo boję się, że bez niej sobie nie poradzę”,
  • „AI mnie męczy, jest jej za dużo w rozmowach i szkole”,
  • „AI mnie złości, bo mam wrażenie, że przez nią wymagania rosną”.

Zamiast komentować: „nie powinniście się bać”, lepiej dopytać: z czego dokładnie to wynika, przy jakich zadaniach ten lęk się pojawia, gdzie uczniowie widzą dla siebie realne zagrożenia. Na tej podstawie da się zmodyfikować sposób zadawania prac czy informowania o zasadach tak, by nie podbijać niepotrzebnego napięcia.

Rola rodziców – spójny komunikat dom–szkoła

Często powtarzaną receptą jest: „edukujmy rodziców o AI”. Problem pojawia się, gdy takie spotkanie sprowadza się do jednokierunkowego wykładu, po którym rodzice wychodzą z prostym hasłem „AI jest super, bo pomaga” albo „AI jest zła, bo zabiera myślenie”. Tymczasem to właśnie niespójne sygnały z domu i szkoły najbardziej dezorientują uczniów.

Bardziej użyteczny bywa krótki, konkretny zestaw zasad przekazany rodzicom, najlepiej z przykładami dobrych i złych praktyk. Taki dokument (lub prezentacja na zebraniu) może zawierać m.in.:

  • jasne rozróżnienie: „Czym jest wsparcie w nauce” (np. podpowiedzi krok po kroku, sprawdzanie błędów) vs. „Co jest robieniem pracy za dziecko” (gotowe wypracowania, rozwiązania zadań na ocenę),
  • kilka przykładów zdań, którymi rodzic może reagować, gdy dziecko prosi: „zrobimy to w AI?” – np. „Pokaż mi najpierw, co sam wymyśliłeś, potem razem sprawdzimy to z AI”,
  • informację, jak w danej klasie oznacza się dopuszczalne użycie AI (etykiety typu „AI dozwolone / zabronione”) – tak, by rodzice nie podpowiadali rozwiązań sprzecznych z zasadami nauczyciela.

Zdarza się, że rodzic – chcąc pomóc dziecku – sam prosi AI o napisanie pracy, a potem „tylko trochę ją poprawia”. Z perspektywy ucznia sygnał jest prosty: liczy się efekt i dobra ocena, nie uczciwy proces. Rozmowa z rodzicami o konsekwencjach takiego wsparcia (np. złudne poczucie kompetencji, które mści się na egzaminach) często bywa skuteczniejsza niż straszenie regulaminem.

Uczeń „bez AI” – dlaczego nie wszyscy muszą korzystać tak samo

Przy rosnącej popularności narzędzi pojawia się nowa presja: „wszyscy i zawsze powinni używać AI, bo inaczej zostaną w tyle”. W klasie jednak zawsze znajdzie się ktoś, kto z różnych powodów chce ograniczyć korzystanie z takich rozwiązań: ze względu na przekonania, styl pracy, czy zwykłą potrzebę „sprawdzenia się bez podpórek”.

Przeczytaj również:  Jak wybrać pierwszą wędkę dla początkującego wędkarza krok po kroku

Zamiast na siłę „uszczęśliwiać” takich uczniów, lepiej stworzyć dla nich równie wartościową ścieżkę. Kilka przykładów:

W tym miejscu przyda się jeszcze jeden praktyczny punkt odniesienia: Technologie w klasie a dobrostan nauczyciela: jak nie być dostępnych 24/7.

  • przy projektach grupowych można wyznaczyć rolę osoby, która nie korzysta z AI, tylko dba o strukturę, harmonogram, zbiera materiały z tradycyjnych źródeł,
  • na niektórych zadaniach zaproponować wybór: „wersja z AI” (np. praca z wygenerowanymi przykładami) i „wersja bez AI” (np. praca na źródłach drukowanych lub notatkach) – obie oceniane według tych samych kryteriów merytorycznych,
  • zachęcać do prowadzenia „dziennika nauki” – uczniowie, którzy nie używają AI, mogą śledzić swój postęp innymi metodami (checklisty, podsumowania tygodniowe), tak by nie czuli się gorzej przygotowani tylko dlatego, że nie korzystają z modnego narzędzia.

Paradoksalnie taki pluralizm strategii wzmacnia też tych, którzy AI używają – mają okazję porównać, co zyskali, a co być może tracą (np. wolniejsze, ale głębsze zapamiętywanie materiału u kolegów bez AI).

Kultura zadawania pytań do AI – czego szkoła realnie może nauczyć

Dużo mówi się o „umiejętności pisania promptów”, jakby najważniejsza była sztuka sformułowania polecenia. W edukacji znacznie istotniejsza od technicznego sprytu jest umiejętność zadawania sensownych pytań poznawczych – takich, które prowadzą do zrozumienia, a nie tylko do szybkiej odpowiedzi.

Na lekcjach można ćwiczyć z uczniami coś, co rzadko pojawia się w gotowych poradnikach: zamianę polecenia egzaminacyjnego na dobre pytania do AI. Przykładowo:

  • zamiast: „Napisz rozprawkę o wpływie mediów społecznościowych na relacje rówieśnicze”,
  • uczeń uczy się pytać: „Jakie są typowe argumenty za i przeciw tezie, że media społecznościowe poprawiają relacje wśród nastolatków? Podaj przykłady badań lub sytuacji.”

Taki schemat można przećwiczyć krok po kroku:

  1. uczniowie dostają typowe polecenie z podręcznika,
  2. w parach formułują 3–4 pytania do AI, które pomogłyby im zrozumieć temat, zebrać argumenty lub uporządkować wiedzę,
  3. analizują odpowiedzi i zaznaczają, co faktycznie pomogło im lepiej zrozumieć zagadnienie, a co było tylko „ładnym, ale pustym” opisem.

W ten sposób AI staje się narzędziem treningu kompetencji, które przydadzą się również bez technologii: umiejętności doprecyzowania problemu, rozbijania go na podpytania, selekcji informacji.

AI a uczniowie ze specjalnymi potrzebami – pomoc, która nie odbiera sprawczości

Uczniowie z dysleksją, ADHD czy trudnościami językowymi często korzystają z AI odruchowo, bo „nareszcie coś pomaga”. Dla wielu to realna ulga: podpowiedzi językowe, streścić długi tekst, uporządkować notatki. Problem zaczyna się, gdy wsparcie przeradza się w wyręczanie – uczeń przestaje ćwiczyć te umiejętności, które i tak są u niego najsłabsze.

Dobrą praktyką jest ustalenie z uczniem (i rodzicami) indywidualnego „profilu korzystania z AI”. Może on zawierać np.:

  • obszary, w których AI jest mile widziane: np. korekta błędów, porządkowanie notatek, tworzenie planu wypowiedzi,
  • obszary, w których AI ma nie zastępować pracy ucznia: np. samodzielne formułowanie argumentów, rozwiązywanie zadań tekstowych, analiza treści lektur,
  • konkretne ustalenie, jak uczeń ma oznaczać w pracy fragmenty, w których korzystał z AI (np. krótki komentarz na końcu).

Na lekcji można zrobić prosty eksperyment: część uczniów z trudnościami pisze krótką wypowiedź bez AI, a potem prosi AI o pomoc w poprawie; inni robią odwrotnie – najpierw proszą AI o propozycję, a potem ją przerabiają. Porównanie satysfakcji i zrozumienia tekstu dobrze pokazuje, kiedy technologia realnie wspiera, a kiedy sprawia, że uczeń czuje się tylko „korektorem cudzego tekstu”.

Granice prywatności – czego nie wrzucać do AI

W ferworze korzystania z narzędzi uczniowie często nie zastanawiają się, co właściwie wysyłają „na serwer”. Fragmenty wypracowań nie są problemem, ale już zdjęcia klasowe, dane wrażliwe z projektów czy prywatne historie opisane szczegółowo mogą być kłopotliwe – zwłaszcza gdy korzysta się z otwartych, publicznych wersji narzędzi.

Zamiast ogólnego „uważajcie na dane”, przydają się bardzo konkretne zasady, np.:

  • nie wgrywamy do AI dokumentów zawierających imiona i nazwiska innych uczniów,
  • nie opisujemy w szczegółach sytuacji, które dotyczą czyichś problemów zdrowotnych, rodzinnych, finansowych,
  • nie wklejamy całych ekranów rozmów z komunikatorów (screenów czatów) – jeśli trzeba coś przeanalizować, tworzymy zanonimizowany opis sytuacji.

Można też pokazać uczniom różnicę między narzędziami lokalnymi (instalowanymi na szkolnych komputerach, działającymi bez wysyłania danych poza szkołę) a otwartymi chatbotami w przeglądarce. Nawet jeśli szkoła nie ma jeszcze własnych rozwiązań, sama świadomość, że „nie wszystkie AI działają tak samo”, uczy ostrożności.

Strategie nauczyciela, gdy sam nie czuje się ekspertem od AI

Częstą reakcją dorosłych na nowe narzędzia jest poczucie, że „nie nadążają”, a skoro nie wiedzą wszystkiego, to lepiej nic nie robić. Tymczasem uczciwe przyznanie przed klasą: „uczę się tego razem z wami” potrafi zbudować większy autorytet niż pozowana wszechwiedza.

Nauczyciel nie musi znać wszystkich funkcji każdego narzędzia. Wystarczy, że ma kilka stabilnych punktów odniesienia:

  • wie, przy jakich typach zadań pozwala na użycie AI, a przy jakich nie – i potrafi to jasno wytłumaczyć,
  • ma przygotowane 2–3 przykłady z własnego przedmiotu, gdzie AI się „pomyliła” lub uprościła odpowiedź – i wykorzystuje je na lekcji,
  • korzysta z prostego, powtarzalnego schematu pracy z AI na lekcji (np. „najpierw przewidywanie odpowiedzi, potem pytanie do AI, na końcu porównanie i korekta”),
  • umie przyznać, że czegoś nie wie, i zrobić z tego wspólne zadanie badawcze: „sprawdźmy razem, jak AI odpowie, a potem poszukajmy potwierdzenia w innych źródłach”.

Paradoksalnie to, czego wielu nauczycieli się obawia – czyli ujawnienie własnej niewiedzy – może stać się najmocniejszą lekcją krytycznego myślenia. Uczniowie widzą dorosłego, który nie panikuje, tylko spokojnie pracuje z niepewnością: stawia pytania, sprawdza źródła, weryfikuje odpowiedzi AI zamiast przyjmować je na wiarę. Taki model zachowania jest później dużo ważniejszy niż jakiekolwiek konkretne „tricki promptowe”.

Dobrym zabezpieczeniem na „brak eksperckości” jest też stworzenie w szkole małej sieci wsparcia. Zamiast czekać na wielkie szkolenie z zewnątrz, kilku nauczycieli może raz w miesiącu wymieniać się jednym konkretnym zastosowaniem AI z własnej lekcji: co zadziałało, co uczniów znudziło, gdzie algorytm się wyłożył. Nie chodzi o tworzenie guru od technologii, tylko o rozproszone doświadczenie, które powoli staje się wspólnym kapitałem rady pedagogicznej.

Kiedy presja „muszę wszystko ogarnąć” robi się za duża, pomagają ograniczenia. Można świadomie przyjąć, że w danym roku szkolnym eksperymentuje się z AI tylko na jednym typie aktywności (np. planowanie projektów, generowanie przykładów, sprawdzanie prostych zadań domowych), a resztę zostawia się po staremu. Zamiast chaotycznego „wdrażania wszystkiego naraz” powstaje wtedy prosty rytm: test, refleksja, ewentualne rozszerzenie na kolejne obszary.

Szkolne spotkanie ucznia z AI nie musi być spektakularne, zaawansowane ani w pełni uporządkowane. Wystarczy, że w tym kontakcie pojawi się kilka stałych punktów: jasne zasady, uczciwa rozmowa o ryzykach, przestrzeń na samodzielną pracę i prawo do błędu – po obu stronach biurka. W takiej ramie technologia przestaje być zagrożeniem dla sensownej edukacji i staje się tym, czym powinna być w szkole: pożytecznym, ale ograniczonym narzędziem, które ma służyć rozwojowi człowieka, a nie go zastępować.

Najczęściej zadawane pytania (FAQ)

Do czego mądrze używać AI w szkole, a do czego absolutnie nie?

AI w szkole najlepiej traktować jak szybkiego asystenta, a nie jak zastępstwo nauczyciela czy „gotowca na wszystko”. Sprawdza się przy szkicowaniu konspektów, wymyślaniu przykładów zadań, tworzeniu wersji materiału o różnym poziomie trudności, robieniu streszczeń czy list najważniejszych tez z długich tekstów. Dobrze też działa jako generator pytań do samodzielnego sprawdzenia wiedzy.

Znacznie gorzej kończy się używanie AI do zadań, które same w sobie są treningiem kluczowych umiejętności: pisania własnych tekstów, rozwiązywania zadań problemowych, uczenia się argumentacji. Jeśli AI „napisze za ucznia” wypracowanie lub rozwiąże cały zestaw zadań, uczeń zyskuje czas, ale traci dokładnie to, co miał przećwiczyć. Sensowna granica: AI może pomóc zebrać materiał, uporządkować myśli i podać przykłady, ale końcowy tekst, obliczenia i argumentacja powinny być efektem pracy ucznia.

Czy szkoła powinna zakazać korzystania z AI przez uczniów?

Twardy zakaz ma sens wyłącznie w sytuacjach, kiedy nauczyciel diagnozuje realne umiejętności: na sprawdzianach, egzaminach, pracach klasowych z literatury czy zadaniach, które wprost sprawdzają samodzielne pisanie, liczenie lub rozumowanie. Wtedy celem jest zobaczenie, co faktycznie potrafi uczeń, a nie jak dobrze umie formułować polecenia do chatu.

Stały zakaz używania AI poza klasą najczęściej działa odwrotnie do zamierzeń: uczniowie i tak korzystają z narzędzi po cichu, bez instrukcji, jak robić to uczciwie i sensownie. Zdrowsze podejście to jasne zasady, np.:

  • można: używać AI do powtórek, szukania argumentów, wyjaśniania trudnych pojęć, generowania pytań do samosprawdzenia,
  • nie można: oddawać jako własne gotowych wypracowań, referatów czy pełnych rozwiązań zadań wygenerowanych przez AI.

Takie rozróżnienie zmienia AI z „superściągi” w narzędzie do nauki.

Jak wyjaśnić uczniom, jak działa AI generatywna prostym językiem?

Najprościej: AI językowa nie „wie” i nie „rozumie” jak człowiek. To mechanizm, który przewiduje kolejne słowa na podstawie ogromnej liczby przykładów z tekstów. Dlatego potrafi pisać poprawnie i przekonująco, ale wcale nie musi mieć racji. Nie ma też naturalnego odruchu „nie wiem” – chyba że użytkownik wprost o to poprosi.

Dobry szkolny przykład: poprosić AI o streszczenie znanego uczniom fragmentu lektury, a potem razem wskazać, co się zgadza, a co jest przekręcone albo zmyślone. Uczniowie od razu widzą, że ładnie sformatowana, „poważnie brzmiąca” odpowiedź nie oznacza automatycznie prawdy. Z tego łatwo przejść do zasady: ważne informacje z AI zawsze sprawdzamy w podręczniku, notatkach lub wiarygodnych źródłach.

Jak rozpoznać, że AI „zmyśla” (halucynuje) i podaje błędne informacje?

Halucjacje AI są szczególnie widoczne, gdy prosimy o bardzo konkretne dane: cytaty z lektury, tytuły książek, autorów, numery stron czy szczegółowe źródła. Typowe objawy: nie da się znaleźć tej samej informacji w podręczniku ani w wiarygodnych materiałach, tytuły brzmią nienaturalnie, a podane artykuły lub książki nie istnieją w katalogu biblioteki czy wyszukiwarce.

Praktyczne zasady dla uczniów i nauczycieli:

  • wszystkie cytaty z literatury sprawdzamy w oryginalnym tekście,
  • nie ufamy bibliografii wygenerowanej przez AI bez weryfikacji (szczególnie przy pracach zaliczeniowych),
  • przy ważnych pytaniach dodajemy prośbę: „Jeśli nie jesteś pewien, napisz, że nie wiesz i zaznacz elementy, które mogą być błędne”.
  • To nie usuwa problemu całkowicie, ale przełącza użytkownika z trybu „kopiuj–wklej” w tryb „sprawdź i popraw”.

Jak nauczyciel może używać AI, żeby przyspieszyć pracę, ale nie obniżyć jakości nauczania?

Najrozsądniej jest „zrzucać” na AI to, co powtarzalne i techniczne, a zostawiać sobie to, co wymaga znajomości klasy, relacji i doświadczenia. Chat może w kilka sekund:

  • zaproponować szkic konspektu lekcji, który nauczyciel następnie dopasowuje do swojej grupy,
  • wygenerować dodatkowe zadania o rosnącym poziomie trudności,
  • stworzyć kilka wersji krótkiego tekstu – łatwiejszą, trudniejszą, z innymi przykładami.

Takie użycie oszczędza czas, ale nie odbiera nauczycielowi kontroli nad treścią i priorytetami.

Mniej sensu ma delegowanie na AI kluczowych decyzji dydaktycznych, np. „ułóż mi cały roczny plan pracy i wybierz priorytety”. Narzędzie nie zna konkretnych uczniów, ich braków, konfliktów w klasie czy lokalnego kontekstu. Może dać inspiracje, ale to nauczyciel decyduje, co naprawdę jest najważniejsze w danym momencie.

Jak uczyć uczniów korzystania z AI „głębiej”, a nie tylko „szybciej”?

Użycie „szybciej” to prośby w stylu: „napisz za mnie wypracowanie”, „zrób prezentację na temat X”. Wtedy uczeń zyskuje produkt, ale nie przechodzi procesu myślenia. Użycie „głębiej” polega na zadawaniu pytań, które wspierają zrozumienie: „podaj trzy różne sposoby ujęcia motywu buntu w literaturze, z przykładami utworów”, „wytłumacz to zagadnienie najpierw jak 10-latkowi, a potem jak maturzyście”, „wymyśl pytania, którymi mogę sprawdzić, czy dobrze rozumiem ten temat”.

Dobrym krokiem jest wprowadzanie zadań, w których AI jest oficjalnie dozwolone – ale uczeń musi pokazać własny wkład. Na przykład: uczeń może użyć AI do zebrania argumentów, ale oddaje tylko swoją wersję wypracowania z krótką adnotacją, do czego dokładnie wykorzystał narzędzie. Taki model nie udaje, że AI nie istnieje, a jednocześnie zmusza do świadomego, krytycznego użycia technologii.

Źródła informacji

  • Artificial Intelligence in Education: Challenges and Opportunities. UNESCO (2021) – Raport o zastosowaniach, szansach i ryzykach AI w edukacji
  • Recommendation on the Ethics of Artificial Intelligence. UNESCO (2021) – Międzynarodowe wytyczne etyczne dotyczące projektowania i użycia AI
  • AI and the Future of Teaching and Learning: Insights and Recommendations. U.S. Department of Education, Office of Educational Technology (2023) – Rekomendacje dla szkół dotyczące wdrażania i używania AI
  • Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign (2019) – Przegląd obietnic i ograniczeń AI w procesie nauczania
  • Artificial Intelligence in Education: Evidence, Policy and Practice. OECD (2021) – Analiza badań i polityk publicznych związanych z AI w szkołach
  • AI in Education – Guidance for Policy-makers. UNICEF (2021) – Wskazówki dla systemów edukacji, w tym kwestie równości i bezpieczeństwa
  • Generative AI in Education: Pedagogical Opportunities and Risks. European Schoolnet (2023) – Omówienie generatywnej AI, przykładów użycia i zagrożeń w szkołach

Poprzedni artykułTradycje stołowe w polskich domach
Następny artykułCo zjeść w Pieninach – smak oscypka i pstrąga
Matylda Chmielewska

Matylda Chmielewska – pasjonatka tradycyjnej kuchni polskiej z ponad 15-letnim doświadczeniem w gotowaniu i prowadzeniu warsztatów kulinarnych.

Urodzona na Podhalu, od dziecka wychowywała się wśród zapachów domowych pierogów, bigosu i oscypków przygotowywanych według wielopokoleniowych receptur swojej babci i mamy. To właśnie one zaszczepiły w niej szacunek do regionalnych produktów i sezonowości.

Absolwentka technologii żywności na SGGW w Warszawie oraz kursów mistrzowskich u uznanych polskich szefów kuchni. Specjalizuje się w odtwarzaniu zapomnianych receptur z Kresów, Małopolski i Górnego Śląska – wiele z nich opublikowała w książkach i na łamach magazynów kulinarnych.

Od 2018 roku współtworzy Karczmę Jandura, gdzie dba o autentyczność smaku i najwyższą jakość składników pochodzących wyłącznie od lokalnych dostawców. Prowadzi również popularne warsztaty „Od babcinej receptury do talerza”, na których uczy, jak gotować zdrowo, tanio i z sercem.

Kontakt: matylda_chmielewska@karczmajandura.pl