W ostatnich latach obserwujemy dynamiczny rozwój technologii sztucznej inteligencji, w tym szczególnie modeli językowych (LLM – Large Language Models). Narzędzia takie jak ChatGPT czy Claude stały się ogólnodostępne i zyskały ogromną popularność. Ich możliwości w zakresie generowania tekstu budzą zarówno zachwyt, jak i obawy, zwłaszcza w kontekście edukacji.

    Jednym z pytań, jakie się pojawiają, jest to, czy popularne chatboty AI powinny służyć dzieciom jako program do pisania rozprawek i innych zadań?

    Ustalmy fakt: zadania szkolne mają wykształcać konkretne umiejętności

    Używanie narzędzi AI takich jak Claude czy ChatGPT do pisania rozprawek zadawanych w szkole jest niewskazane z wielu powodów. Przede wszystkim, pozbawia to ucznia możliwości rozwoju kluczowych umiejętności, takich jak krytyczne myślenie, analiza i argumentacja, które są niezbędne nie tylko w edukacji, ale i w życiu zawodowym. Jest to również forma nieuczciwości, która może skutkować poważnymi konsekwencjami. Generowane przez AI teksty są często ogólnikowe i pozbawione osobistego charakteru, co może nie odzwierciedlać indywidualnego stylu i wiedzy ucznia. Istnieje tu także ryzyko błędów lub nieprawdziwych informacji.

    Co więcej, uczeń traci cenną możliwość głębszego zrozumienia tematu, które często następuje w procesie samodzielnego pisania. AI może także ograniczać oryginalność i innowacyjność argumentów. W przypadku konieczności obrony pracy, uczeń może napotkać trudności w wyjaśnieniu treści, których sam nie stworzył. Ostatecznie, używanie AI do pisania prac domowych niweluje wartość edukacyjną zadania, która polega na utrwaleniu i pogłębieniu wiedzy. Dlatego ważne jest, aby uczniowie samodzielnie podejmowali się pisania, traktując to jako okazję do nauki i rozwoju osobistego.

    Pozostała część artykułu pod materiałem wideo:

    Możliwości LLM w pisaniu tekstów w języku polskim

    Modele językowe, takie jak te wykorzystywane przez ChatGPT czy Claude, zostały wytrenowane na ogromnych zbiorach danych tekstowych, co pozwala im generować spójne i gramatycznie poprawne teksty na różnorodne tematy. W kontekście języka polskiego, te narzędzia wykazują naprawdę imponujące zdolności. Są w stanie tworzyć teksty, które pod względem struktury, stylu i treści odpowiadają standardom wymaganym np. w szkole średniej.

    LLM potrafią konstruować logiczne argumenty, przedstawiać różne punkty widzenia i formułować wnioski. Ich teksty często charakteryzują się bogatym słownictwem i prawidłową składnią. Co więcej, modele te mają dostęp do szerokiej bazy wiedzy, co pozwala im odnosić się do różnorodnych faktów i koncepcji w ramach omawianych tematów.

    Jednakże, należy pamiętać, że zdolności te mają swoje ograniczenia. LLM nie posiadają prawdziwego zrozumienia kontekstu czy głębszej wiedzy na temat świata. Ich odpowiedzi bazują na statystycznych zależnościach w danych treningowych, co może prowadzić do błędów merytorycznych lub logicznych, szczególnie w przypadku bardziej specjalistycznych lub niszowych tematów. Jednak jeśli ktoś miał już do czynienia np. z Claude to zapewne przyzna, że w efekcie jest to sprawny program do pisania rozprawek i bardziej wymagających form.

    Polska szkoła gotowa na zmiany

    Polski system edukacji planuje szeroką adaptację sztucznej inteligencji w nauczaniu, co odzwierciedla rządowy projekt “Polityki cyfrowej transformacji edukacji” sięgający do 2035 roku. Celem jest uatrakcyjnienie nauczania i przygotowanie młodzieży do korzystania z AI. Jednak te ambitne plany napotykają na znaczące przeszkody.

    Nauczyciele wykazują niewielkie zainteresowanie wykorzystaniem AI w swojej pracy – tylko 15% deklaruje taką chęć, co kontrastuje z 58% uczniów i studentów już korzystających z tych narzędzi. Obecne działania edukacyjne dla nauczycieli są niewystarczające, a eksperci podkreślają konieczność zmian, argumentując, że AI staje się coraz powszechniejszym narzędziem wśród uczniów. Istnieje więc wyraźna rozbieżność między rządowymi planami a obecną sytuacją, co stanowi wyzwanie dla skutecznej implementacji AI w polskim systemie edukacji.

    Wyzwania dla nauczycieli – rozpoznawanie tekstów generowanych przez AI

    Wraz z rosnącymi możliwościami AI, nauczyciele stają przed nowym wyzwaniem – jak rozpoznać, czy praca ucznia została napisana samodzielnie, czy też wygenerowana przez narzędzie takie jak ChatGPT lub Claude? To zadanie okazuje się być niezwykle trudne.

    Teksty generowane przez zaawansowane modele AI często charakteryzują się wysoką jakością językową i logiczną spójnością, co utrudnia ich odróżnienie od prac pisanych przez ludzi. Tradycyjne metody wykrywania plagiatu okazują się nieskuteczne, gdyż AI tworzy oryginalne treści, a nie kopiuje istniejące źródła.

    Niektórzy eksperci sugerują, że teksty AI mogą cechować się pewną “sztucznością” lub brakiem prawdziwie oryginalnych spostrzeżeń. Jednakże, wraz z postępem technologii, te różnice stają się coraz subtelniejsze. Co więcej, uczniowie mogą celowo wprowadzać drobne błędy lub personalizować tekst, aby zamaskować jego pochodzenie.

    Istnieją narzędzia projektowane do wykrywania tekstów generowanych przez AI, ale ich skuteczność jest wciąż dyskusyjna i zmienna. Modele AI są stale udoskonalane, co sprawia, że metody ich wykrywania szybko się dezaktualizują.

    Chatbot jako program do pisania rozprawek to półśrodki, które niewiele wnoszą

    Nawet jeśli uczniowie będą korzystać z chatbotów do rozwiązywania zadań w klasie czy w domu, to czy tak bardzo sobie zaszkodzą. To zależy. Z jednej strony pominięcie w edukacji momentu, w którym młodzi ludzie uczą się przelewać swoje myśli w logiczny sposób na papier, może mieć negatywne skutki w przyszłości. Prawdopodobnie w efekcie będą komunikować się pisemnie w sposób dostateczny, ale czy na tyle dobry, aby efektywnie załatwiać bardziej skomplikowane sprawy wymagające pisania oficjalnych podań lub rozbudowanych wiadomości w sprawach osobistych? Z drugiej strony coraz częściej używamy konkretnych interfejsów zamiast pisemnych wniosków. Używamy także wiadomości głosowych.

    Pewne jest to, że nauka samodzielnego pisania w przyszłości pozwoli na dużo lepszą weryfikację tego co otrzymujemy w odpowiedziach chatbotów. Trzeba podkreślić, że aby korzystać w pełni z tych narzędzi AI, trzeba mieć fundamenty wiedzy, które pozwalają na ocenę poprawności informacji i logiki generowanych tekstów. Nie ma sensu upierać się przy tym, że młodzi ludzie powinni mieć zakaz używania produktów takich jak ChatGPT czy Claude. Prędzej czy później zaczną z nich korzystać np. w celach zawodowych. Zadaniem nauczycieli, rodziców i opiekunów jest przygotowanie najmłodszych do świadomego i bezpiecznego stosowania inteligentnych asystentów.

    Czytaj dalej: