Przekazując darowiznę, pomagasz Aletei kontynuować jej misję. Dzięki Tobie możemy wspólnie budować przyszłość tego wyjątkowego projektu.
Włączasz film na YouTube — mnich w sutannie śpiewa chorał po polsku. W opisie: „autentyczna modlitwa mnichów”. W komentarzach: "Amen", "Jak oni pięknie się modlą", "Dziękuję ci Boże za tych zakonników".
A przecież czasem wystarczy chwila, by zorientować się, że całość — wideo, śpiew, tekst — to wytwór algorytmu. Można pomyśleć — ktoś to odsłuchał tylko pobieżnie i to dlatego, albo — pewnie to też jest komentarz napisany przez bota (algorytm udający człowieka). Jednak często są to prawdziwi ludzie, czasem uważający się za znawców. Jak to możliwe, że nawet osoby czujne dają się porwać tej iluzji?
Wzruszający koncert skrzypcowy, który nie miał miejsca
Wyobraź sobie: na kanale „Soul Star” oglądasz film zatytułowany „100-latek gra dla przyjaciół, którzy zginęli podczas wojny”. Narrator opowiada dramatyczną historię, dziadek na wózku inwalidzkim gra na skrzypcach, widzowie płaczą, płaczą też jurorzy programu ukazujący się w przebitkach. Inny przykład, popularny w polskim Youtube (nie będę linkować konkretnych kanałow, by nie robić niepotrzebnej reklamy) - mnisi śpiewający niby uduchownione, ale zarazem nieco dziwaczne pieśni wzorowane na chorale gregoriańskim.
Zarówno opis nagrania, tytuł, muzyka i wideo są w całości wygenerowane przez AI. To nie jest ani zapis programu ani dokument — tylko symulacja. Technologia, która umożliwia coś takiego wykorzystuje potężne algorytmy AI do tworzenia hiperrealistycznych, ale całkowicie sfabrykowanych obrazów i dźwięków. Stają się one coraz bardziej wyrafinowane, Z reguły używamy na to określenia “deepfake” - po polsku można by to nazwać "głębokim oszustwem".
Błędy poznawcze na służbie "głębokich oszustw"
Dlaczego, mimo świadomości, że coś może być nieprawdziwe, nadal reagujemy? Bo emocje działają na skróty: kiedy coś nas wzrusza, mózg często przestaje pytać „czy to prawda?”, a zaczyna reagować na bodziec.
Badania pokazują, że u odbiorców, którzy nie wiedzą, że oglądają deepfake emocje są równie silne i autentyczne jak w reakcji na nagrania prawdziwych, wzruszających wydarzeń. W pewnym eksperymencie z 2024 roku porównującym emocje w oryginalnych nagraniach i w deepfake’ach uczestnicy oceniali je niemal identycznie pod kątem intensywności i szczerości. I sami reagowali na nie emocjami — jak na prawdziwe wydarzenia.
Generalnie deepfake wykorzystuje kilka słabości psychologicznych. Ludzie mają naturalną skłonność do ufania temu, co widzą i słyszą, a deepfake wykorzystuje to, tworząc bardzo realistyczne treści.
Ponadto błędy poznawcze, takie jak błąd potwierdzenia — polegający na tym, że jesteśmy bardziej skłonni wierzyć w informacje, które potwierdzają nasze wcześniejsze przekonania — sprawiają, że jesteśmy podatni na deepfake, które są zgodne z naszym punktem widzenia.
Przeceniamy swoją zdolność do rozpoznawania deepfake
Jednak to nie jest jedyny problem. Jednym z głównych powodów, dla których dajemy się nabrać na deepfake'i, jest przecenianie naszej zdolności do ich wykrywania. Badanie przeprowadzone przez Centrum Ludzi i Maszyn oraz CREED na Uniwersytecie w Amsterdamie (2021 r.) pokazało, że ludzie przekonani o swojej umiejętności rozpoznawania deepfake, wcale nie radzili sobie z tym zbyt dobrze. I to nawet, gdy byli zmotywowani do solidnego wysiłku znaczącymi nagrodami finansowymi.
W poszukiwaniu pozytywnych emocji
Co jeszcze sprawia, że jesteśmy skłonni dać się nabrać na fałszywe nagrania i informacje? Sama współczesna kultura. W erze napięcia społecznego, wojen, chaosu informacyjnego — ludzie szukają doświadczeń, które pozwolą im zatrzymać się na moment, zanurzyć się w pięknie, w ciszy, pozwolić przeżyć pozytywne emocje. Nawet jeśli to piękno sztuczne.
Filmy, takie jak opisałam na początku, oferują coś w rodzaju azylu — tworząc przestrzeń na przeżycie wzruszenia, dobra, sacrum, estetyki mistycyzmu, szlachetności. W kulturze, gdzie relacje rzeczywiste bywają trudne i niedoskonałe, sztuczne emocje mogą oferować dozowaną, oczekiwaną dawkę przeżycia emocjonalnego. Stąd — gdy tylko pod filmami pojawiają się komentarze typu: "przecież widać, że to jest nieprawdziwe, wygenerowane", od razu pojawia się i riposta: "I co z tego? Ale to mogłoby być prawdziwe, a jest takie piękne."

Jeden z najwięcej dających mi do myślenia komentarzy pojawił się pod deepfake przedstawiającym papieża Leona XIV spadającego ze schodów. Ktoś napisał: "I co z tego, że to nieprawda? Mogłoby się wydarzyć, a przynajmniej pomodliłem się za papieża, o jego zdrowie, to chyba dobrze?"
Czy to ważne?
To dobre pytanie — i co z tego? Jeśli ktoś szuka możliwości przeżycia pozytywnych emocji to czy sięgnie po "historię, która mogłaby się wydarzyć" wygenerowaną przez AI czy po film fabularny, czy po prawdziwą opowieść wydaje się nieistotne. A jeśli efektem tego przeżycia było pozytywne działanie — tak jak w wypadku człowieka, który pomodlił się za papieża, wydaje się, że sprzeciwianie się temu jest zwykłym czepialstwem.
Jednak badania pokazują, że inaczej przetwarzamy deepfake a inaczej filmy, obrazy i treści, o których wiemy, że są fikcją. W przypadku deepfake (nawet jeśli później został zdementowany jako oszustwo) pamięć płata nam figle. Z biegiem czasu zostaje w głowie sam obraz i wrażenie, że to się wydarzyło naprawdę.
A zatem, jeśli za pięć lat zapytamy ludzi, którzy widzieli papieża Leona XIV "spadającego ze schodów" czy wydarzyło się to naprawdę - powiedzą z całym przekonaniem, że tak.
I co z tym robić?
Deepfake pokazuje, jak bardzo nie radzimy sobie z tym, co tworzą współczesne technologie.
W epoce, w której prawda bywa coraz częściej przesłaniana przez cyfrowe symulacje, potrzebujemy nie tylko technologicznej czujności, ale i duchowego zakorzenienia. To ono pozwala odróżniać to, co chwilowe i złudne, od tego, co prawdziwe i trwałe.
W chrześcijaństwie mamy szczególne antidotum: „«Jeżeli będziecie trwać w nauce mojej, będziecie prawdziwie moimi uczniami i poznacie prawdę, a prawda was wyzwoli».” (J 8,31-32). Szukajmy prawdy. A jeśli chodzi o pozytywnej emocje — budujmy prawdziwe relacje z prawdziwymi ludźmi, by nie szukać sztucznych wzruszeń w Internecie. Dbajmy o swój rozwój duchowy i intelektualny. Trzymajmy się rzetelnych źródeł informacji.
W Aletei staramy się szukać tych okruchów dobra, jakie realnie istnieją w świecie. Dobrych historii i podnoszących na duchu lektur. Chcemy być miejscem, gdzie możecie poczuć się bezpiecznie i tworzyć treści, którym możecie ufać. A przy tej okazji bardzo wam dziękuję za wsparcie finansowe i modlitewne naszej misji. Niech Bóg ma was w swojej opiece.
![„Technologia zaczyna za nas czuć, myśleć, kochać”: Diego Hidalgo Demeusois o ryzyku utraty człowieczeństwa [wywiad]](https://wp.pl.aleteia.org/wp-content/uploads/sites/9/2025/06/Diego-Hildago.jpeg?resize=300,150&q=75)
Przytaczane badania naukowe:
Becker, C., Conduit, R., Chouinard, P. A., & Laycock, R. (2024). Can deepfakes be used to study emotion perception? A comparison of dynamic face stimuli. Behavior research methods, 56(7), 7674–7690. https://doi.org/10.3758/s13428-024-02443-y
Köbis, N. C., Doležalová, B., & Soraperra, I. (2021). Fooled twice: People cannot detect deepfakes but think they can. iScience, 24(11), 103364. https://doi.org/10.1016/j.isci.2021.103364
Qureshi, Jamshir & Khan, Samina. (2024). Deciphering Deception - The Impact of AI Deepfakes on Human Cognition and Emotion. Journal of Advances in Artificial Intelligence. 2. 101-107. https://www.jaai.net/vol2/JAAI-V2N1-20.pdf







