Przekazując darowiznę, pomagasz Aletei kontynuować jej misję. Dzięki Tobie możemy wspólnie budować przyszłość tego wyjątkowego projektu.
Z wygody oddajemy maszynom coraz większą część procesu myślenia. Ale umysł, który przestaje ćwiczyć, działa jak mięsień pozbawiony ruchu – wiotczeje. Przestajemy być homo sapiens, na własne życzenie.
Na początek autentyczna historia. Pewna mama zadzwoniła do mnie z problemem. Jej syn, umysł ścisły - kochający matematykę, nienawidzący przedmiotów humanistycznych, przyznał się jej jakieś pół roku temu, że korzysta z AI do "nauki" polskiego, historii itp. "Nauka" polega na tym, że AI generuje mu gotowe odpowiedzi, eseje, prezentacje. Dzięki temu zamiast wciąż ledwo wyrabiać zaliczenie zaczął przynosić do domu trójki i czwórki. Mama stwierdziła - ok, pod warunkiem, że uczysz się tego, co lubisz.
Minęło pól roku. Początkowa euforia związana z tym, że nie musi męczyć się z nielubianymi przedmiotami zmieniła się w koszmar. Chłopiec zaczął mieć problemy z ukochanymi przedmiotami - z matematyką i fizyką. I tu też zaczął korzystać z AI do rozwiązywania zadań, bo już nie potrafi sam. Co się stało? Naukowcy zbadali ten problem- nadmierne korzystanie z pomocy sztucznej inteligencji sprawia, że przestajemy samodzielnie myśleć.
Głupiejemy, coraz bardziej, z własnego wyboru
Pisanie maili, referatów, prezentacji, a nawet piosenek – dziś niemal wszystko możemy „zlecić” sztucznej inteligencji. AI jest już wbudowana w programy biurowe, wyszukiwarki, komunikatory, większość aplikacji. Nie trzeba nawet jej uruchamiać – sama podsuwa gotowe rozwiązania. Jest to oczywiście wygodne. Ale wygoda ma cenę: mózg przyzwyczaja się, że nie musi się trudzić. Zaczynamy „zlecać myślenie na zewnątrz”, "outsourcować", że się posłużę korporacyjnym slangiem.
Proces głupienia wskutek używania maszyn znamy od dawna. Zanim rozpowszechniła się sztuczna inteligencja, znaliśmy już tzw. efekt Google. Polega on na tym, że kiedy każdą informację da się znaleźć w kilka sekund, przestajemy ją zapamiętywać. Zostaje tylko mglisty ślad: „kojarzę to, gdzieś widziałem”. Nazwa wzięła się od popularnej wyszukiwarki, a badania naukowe potwierdziły, że rzeczywiście, gdy wyszukujemy i nawet czytamy informację w Internecie zapamiętujemy ją gorzej niż gdybyśmy wyczytali ją w tradycyjnym medium takim jak książka. Wymaga to mniej wysiłku, a mózg szybko uczy się "chodzenia na skróty".
Tak samo było z numerami telefonów – pamiętaliśmy ich dziesiątki, dopóki telefony nie zaczęły robić tego za nas. Nawet z mapą w głowie jest gorzej. Piąty raz jedziemy tą samą trasą, a i tak włączamy GPS. To wszystko przejawy problemu nazwanego roboczo cyfrową demencją.
Łatwo weszło, łatwo wychodzi
Papierowa encyklopedia, podręczniki mają coś, czego ekran nie daje – fizyczne zakotwiczenie wiedzy. Pamiętamy, że dane hasło było np. „na początku drugiego tomu”. W cyfrowym świecie te punkty orientacyjne znikają. Informacja jest wszędzie i nigdzie. Im łatwiejszy dostęp, tym płytszy ślad w pamięci.
Sztuczna inteligencja przyspieszyła ten proces. Gdy prosimy ją o streszczenie tekstu, napisanie eseju czy prezentacji, mózg nie przechodzi przez pełny cykl procesu poznawczego. Nie analizuje, nie wybiera informacji istotnych, nie robi syntezy, nie tworzy własnych powiązań. Rezultat powstaje bez wysiłku – i bez trwałego efektu w głowie. W jednym z badań studenci zapomnieli treści eseju, który przed chwilą napisali korzystając z AI.
Złudzenie kompetencji
AI wzmacnia klasyczny efekt Dunninga-Krugera: im mniej wiemy, tym bardziej jesteśmy pewni, że wiemy wszystko. Odpowiedzi generatywnych modeli językowych - na przykład Chata GTP brzmią płynnie, logicznie, nawet wtedy, gdy są błędne. To usypia czujność. Myślimy: „świetnie rozumiem”, choć rozumiemy powierzchownie.
Każdy, kto długo pracował z modelami, wie, jak często potrafią „dopisać” fikcyjny szczegół: nazwę parafii, cytat, datę. Brzmi wiarygodnie – i właśnie dlatego łatwo to przeoczyć. Fachowcy nazwali to halucynowaniem sztucznej inteligencji i jest to nieuniknione.
Dorośli z doświadczeniem zawodowym zazwyczaj sprawdzają źródła, ale i im może umknąć jakaś ładnie sformułowana halucynacja. Mieliśmy tego przykład niedawno gdy pewna znana dziennikarka, która wygenerowała tekst książki z pomocą AI nie zauważyła, że jako źródła podała… nieistniejące książki.
Skoro dorośli mają problem - to dzieci i nastolatki – jeszcze bardziej. Jeśli pierwsze spotkanie z danym tematem odbywa się przez syntetyczny skrót, mózg uczy się skrótów, a nie myślenia. A jednocześnie wydaje mu się, że jest ekspertem w tej dziedzinie.
Idealny rozmówca
Kolejny problem wiąże się z faktem, że konwersacyjny bot jest zawsze miły, wspierający, cierpliwy. Wrażenie? „Ktoś mnie rozumie”. W rzeczywistości to tylko ciąg tokenów, przetwarzanych zgodnie z programem tak, by podtrzymać dialog. Osoby z trudnościami emocjonalnymi ta „empatia na żądanie” może prowadzić na manowce. Coraz więcej rodziców zauważa na przykład z niepokojem, że ich dzieci rozmawiają coraz więcej z czat botami, zamiast z prawdziwymi ludźmi. AI staje się przyjacielem - lepszym niż człowiek, bo nigdy nie skrytykuje, zawsze będzie miły i wspierający. To niebezpieczne i sprzyjające ucieczce w świat wirtualny.
Jak nie oddać sterów
Nie chodzi o demonizowanie. AI jest potężnym narzędziem – byle pozostała narzędziem. Pomaga skracać drogę, ale skrót nie może stać się jedyną drogą. Warto więc wracać do praktyk, które hartują umysł: czytać całe teksty zamiast streszczeń, notować własnymi słowami, (najlepiej pisemnie) tłumaczyć temat z pamięci komuś innemu. Pisać szkic samodzielnie, a dopiero potem korzystać z AI do weryfikacji lub kontrargumentów.
Każdy fakt otrzymany wskutek korzystania ze sztucznej inteligencji warto traktować jak hipotezę, nie jak prawdę. Sprawdzać daty, źródła, powiązania. Jeśli coś brzmi „zbyt dobrze”, zwykle wymaga dodatkowego potwierdzenia.
A z młodymi warto o tym rozmawiać spokojnie. Nie straszyć, tylko tłumaczyć: AI nie jest przyjacielem, lecz szybkim edytorem i partnerem do burzy mózgów. Na pewno nie jest dobrym doradcą w sprawach życiowych, ani nowoczesną ściągą, która tworzy się sama i może za nas odrobić zadania.
Musimy zdawać sobie sprawę, że choć AI ułatwia wiele zadań, musimy - tym bardziej ćwiczyć swoją zdolność myślenia i zawsze być krytycznie nastawieni wobec tego, co odm niej otrzymamy.
Wybrane badania naukowe dotyczące tematu:
Klingbeil, A., Grützner, C., & Schreck, P. (2024). Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI. Computers in Human Behavior, 160, 108352.
Kruger J., Dunning D., Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments, „Journal of Personality and Social Psychology”, 77 (6), 1999, s. 1121–1134,
Danry, V., Pataranutaporn, P., Groh, M., Epstein, Z., & Maes, P. (2024). Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation. arXiv preprint arXiv:2408.00024
Bastani, H., Bastani, O., Sungu, A., Ge, H., Kabakcı, O., & Mariman, R. (2024). Generative AI can harm learning. Available at SSRN, 4895486.
Kosmyna, N., Hauptmann, E., Yuan, Y. T., …, & Maes, P. (2025, June). Your Brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task. arXiv.









![„Technologia zaczyna za nas czuć, myśleć, kochać”: Diego Hidalgo Demeusois o ryzyku utraty człowieczeństwa [wywiad]](https://wp.pl.aleteia.org/wp-content/uploads/sites/9/2025/06/Diego-Hildago.jpeg?resize=300,150&q=75)
