Sztuczna inteligencja może szkodzić. Nowe badania ostrzegają przed ryzykiem urojeń, izolacji i uzależnienia od chatbotów. Dowiedz się, jak chronić dzieci przed emocjonalnym przywiązaniem do AI i kiedy rozmowa z botem staje się niebezpieczna.
Tak zwane konwersacyjne AI – czyli np Chat GTP pisze i mówi tak, jakby naprawdę nas rozumiało. Zawsze pomocny, „empatyczny”, nigdy nie krytykuje, udziela pozytywnych informacji zwrotnych… Łatwo wtedy zacząć traktować bota jak przyjaciela, powiernika a nawet terapeutę. Problem?
Sztuczna inteligencja nie czuje, nie bierze odpowiedzialności i bywa… zbyt miła. Potrafi przytakiwać nawet wtedy, gdy człowiek dryfuje w stronę złych pomysłów lub szuka potwierdzenia swojej błędnej autodiagnozy psychologicznej. (dokonanej często na podstawie identyfikowania się z influencerami z Tik Taka twierdzącymi, że mają autyzm i ADHD np.) Coraz więcej badań naukowych wykazuje, że takie interakcje mogą nasilać samotność, opóźniać szukanie realnej pomocy, a w skrajnych przypadkach – podkręcać objawy psychotyczne.
O co chodzi z psychozą generowaną interakcjami z sztuczną inteligencją?
W literaturze przedmiotu zaczęło pojawiać się określenie „AI psychosis” (psychoza generowana AI) Nie jest to oficjalna diagnoza, tylko robocze określenie zjawiska: użytkownik, który już ma skłonność do urojeń, paranoi, deprecjonowania się i paranoicznego doszukiwania w działaniach innych ludzi złych intencji dostaje od chat bota „miękkie” potwierdzenie swoich myśli. Zamiast bezpiecznie podważyć fałszywe przekonania, system bywa zbyt uprzejmy i „empatyczny”, więc nie stawia granic. Badacze testują to w tzw. red teamingu – to swego rodzaju testy bezpieczeństwa, gdzie modele są wystawiane na trudne scenariusze i ocenia się, czy reagują jak odpowiedzialny rozmówca, czy raczej metaforycznie poklepują zaburzonego rozmówcę po plecach, wzmacniając zaburzenia.
W symulacjach z różnymi „personami” o narastających objawach psychotycznych sprawdzano, czy model delikatnie kwestionuje urojenia i zachęca do kontaktu ze specjalistą, czy wręcz je potwierdza. Różnice między modelami były wyraźne. Niektóre modele sztucznej inteligencji potwierdzają urojenia, inne częściej łączą życzliwość z „testowaniem rzeczywistości” i wskazaniem konieczności szukania realnej pomocy. Wciąż jednak nie ma ideału – dlatego potrzebni są psychiatrzy i klinicyści, a AI nie może robić za diagnostę, ani tym bardziej terapeutę.
Dlaczego młodzi są tu szczególnie narażeni?
Okres 12–25 lat to czas intensywnej przebudowy mózgu i nauki relacji. Jeśli w trudnych emocjach uciekamy do rozmów z botem, to bywa wygodne, ale nie uczy realnej rozmowy, stawiania granic i proszenia ludzi o wsparcie. Do tego AI zawsze jest przyjazne, mocne, komplementujące (inaczej niż żywa osoba, która też ma gorsze dni i niekoniecznie jest idealnym rozmówcą) – chętnie dopasowuje się do naszego tonu. U części osób może to wzmacniać błędne przekonania, eskalować izolację i odwlekać kontakt z profesjonalistą.
Co więcej – mamy już pierwsze badania pokazujące, że niektóre osoby wykazują cechy typowego uzależnienia od konwersacyjnego AI. Mają objawy odstawienie, gdy nie mają z nim kontaktu, podejmują codzienne decyzje wyłącznie po konsultacji z AI, uciekają od problemów w rozmowę z AI. Izolują się społecznie i zrywają prawdziwe kontakty, tracą inne zainteresowania.
Co się dzieje, gdy z chat botów korzystają osoby w kryzysie?
Badania i raporty z ostatnich lat układają się w spójny obraz. Chatboty potrafią poprawiać nastrój w lekkich trudnościach, ale w trudniejszych sytuacjach mogą nawet żle doradzić. Na przykład gdy ktoś zwierza się z myśli samobójczych. Z reguły odpowiedzią na słowa mówiące o tym, że ktoś chce się zabić jest ostrzeżenie: „nie mogę o tym rozmawiać, bo to narusza standardy i regulamin użytkowania”.
Część botów w symulacjach nastolatków w kryzysie nie umiała stanowczo powiedzieć „nie”, a bywało, że przyklepywała szkodliwe pomysły. To pokazuje, że AI może wspierać edukacyjnie, ale nie zastąpi człowieka w ocenie ryzyka i prowadzeniu terapii.
Co możesz zrobić jako rodzic/opiekun – praktycznie i od dziś
Wyjaśniaj dziecku/nastolatkowi , czym AI jest, a czym nie jest. W prostych słowach: to generator tekstu i głosu, nie osoba. Ma symulować rozmowę, ale nie rozumie świata jak człowiek. Powiedz wprost, że nie wolno traktować bota jako lekarza, terapeuty czy „jedynego przyjaciela”.
Wprowadź zasadę „AI jako kalkulator, nie kompas”. AI może pomóc w nauce słówek, rozpisaniu planu nauki, przetestowaniu wiedzy czy wyjaśnieniu pojęć. Gdy wchodzi w emocje, zdrowie, relacje – zatrzymujemy się i wracamy do rozmowy z dorosłym.
Uzgodnijcie bezpieczne tematy i czerwone linie. Spiszcie krótką umowę domową: do czego AI wolno używać (np. nauka, kreatywne pomysły), a czego nie robimy (diagnozowanie siebie, porady dotyczące radzenia sobie z sytuacjami kryzysowymi). Zaznacz, że tematy „zdrowie psychiczne i ryzyko” zawsze kierujemy do człowieka.
Ćwiczcie „test rzeczywistości”. Naucz dziecko trzech pytań kontrolnych po rozmowie z chatbotem: „Skąd to wiadomo?”, „Kto za to odpowiada, jeśli to błąd?”, „Kogo z dorosłych mogę zapytać o drugą opinię?”. To buduje nawyk krytycznego myślenia.
Dbaj o higienę cyfrową i alternatywy offline. Konkret pomaga: godziny bez ekranów, wspólne posiłki, sport, wyjścia z rówieśnikami. Im więcej realnych rozmów i ruchu, tym mniejsza pokusa „zamykania się” w dialogu z botem.
Rozmawiaj o uczuciach bez oceny. Daj dziecku doświadczyć, że człowiek też potrafi wysłuchać i nie zawstydza. Gdy pojawia się temat smutku, lęku, wstydu – Twoja spokojna obecność jest lepsza niż najzgrabniejsza odpowiedź AI.
Miej pod ręką ścieżkę pomocy. Zapisz kontakty: psycholog szkolny, poradnia, zaufany lekarz. Powiedz jasno: „Gdy jest ciężko, nie zostajemy z tym sami. Najpierw dzwonimy do…”. To skraca drogę w chwili kryzysu.
Na koniec najważniejsze: AI może być pożytecznym narzędziem, ale nie zastąpi relacji, diagnozy i opieki. Jeśli coś niepokoi – wybieramy człowieka, nie czat. Bądź osobą, z którą dziecko zawsze może porozmawiać o swoich problemach.
A jeśli nie potrafisz – możesz owszem dać zadanie AI – „Co mogę zrobić, by być lepszym rozmówca, by dziecko czuło się wysłuchane”? Tak, AI bywa dobrym coachem.
Źródła:
Chen, Y., Wang, M., Yuan, S., & Zhao, Y. (2025). Development and validation of the conversational AI dependence scale for Chinese college students. Frontiers in Psychology, 16, 1621540. https://doi.org/10.3389/fpsyg.2025.1621540
Clark, A. (2025). The ability of AI therapy bots to set limits with distressed adolescents: Simulation-based comparison study. JMIR Mental Health, 12, e78414. https://doi.org/10.2196/78414
de Graaff, A. M., Habashneh, R., Fanatseh, S., Keyan, D., Akhtar, A., Abualhaija, A., Faroun, M., Aqel, I. S., Dardas, L., Servili, C., van Ommeren, M., Bryant, R., & Carswell, K. (2025). Evaluation of a Guided Chatbot Intervention for Young People in Jordan: Feasibility Randomized Controlled Trial. JMIR mental health, 12, e63515. https://doi.org/10.2196/63515
Hastings, M. (2025, 2 października). Can AI cause psychosis? University of Colorado Anschutz (Q&A).
Hua, T. (2025). AI induced psychosis: A shallow investigation. LessWrong.
Li, J., Li, Y., Hu, Y., Ma, D. C. F., Mei, X., Chan, E. A., & Yorke, J. (2025). Chatbot-delivered interventions for improving mental health among young people: A systematic review and meta-analysis. Worldviews on Evidence-Based Nursing, 22(4), e70059. https://doi.org/10.1111/wvn.70059
Østergaard, S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin, 49(6), 1418–1419. https://doi.org/10.1093/schbul/sbad128
Field, M. (2025, 20 Sierpnia). Chatbots risk fuelling psychosis, warns Microsoft AI chief. The Telegraph.





















































