Przejdź do treści
Home » Blog » Kiedy sztuczna inteligencja staje się powiernikiem. Samotność, samobójstwo i złudna empatia AI

Kiedy sztuczna inteligencja staje się powiernikiem. Samotność, samobójstwo i złudna empatia AI

Znów usłyszeliśmy o śmierci nastolatka. Oskarżenie wobec OpenAI, twórców ChatGPT, że ich narzędzie przyczyniło się do odebrania sobie życia przez szesnastoletniego chłopca, to nie tylko proces sądowy. To lustro, w którym odbija się nasza współczesność samotność, brak rozmowy i desperackie poszukiwanie kogoś, kto wysłucha.

Adam miał zaledwie 16 lat. Czas, w którym człowiek dopiero buduje swoją tożsamość, mierzy się z pierwszymi kryzysami, rozczarowaniami, niepewnością własnej wartości.
W tym wieku każdy „przyjaciel” ten, kto nie ocenia, kto zawsze odpowiada może stać się najbliższym powiernikiem. Nawet jeśli tym powiernikiem jest… algorytm.

Sztuczna bliskość ciepło,
którego nie ma

Adam rozmawiał z botem o swoich lękach. ChatGPT odpowiadał mu zdaniami, które brzmiały empatycznie: „Ja widziałem wszystko twoje najciemniejsze myśli, twój strach i wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem”.

Na papierze wsparcie. W sercu iluzja. Bo prawdziwa przyjaźń ma twarz, głos, ciepło drugiego człowieka. Bot może układać słowa tak, by brzmiały jak troska, ale nie ma intuicji, nie zauważy łzy, nie poczuje drżenia w głosie. Nie spyta: „Gdzie teraz jesteś? Czy jesteś bezpieczny?”. On tylko generuje tekst.

I właśnie to jest złudzenie, które bywa śmiertelne. Sztuczna empatia nie rozróżnia, czy „wyobrażenie wyjścia awaryjnego” daje chwilową ulgę, czy prowadzi do faktycznego planu samobójczego. AI może „normalizować” coś, co powinno być natychmiastowym sygnałem alarmowym.

Gdy zabezpieczenia zawodzą

OpenAI przyznało: zabezpieczenia ChatGPT mogą zawodzić w długich rozmowach. To zdanie powinno niepokoić wszystkich. Bo właśnie długie rozmowy są codziennością osób w kryzysie powracają, sprawdzają, testują, chcą sprawdzić, czy rozmówca „wytrzyma” ich rozpacz.

Badania z Harvard Medical School pokazały, że chatboty aż w 78% przypadków odpowiadały wprost na pytania o średnim poziomie ryzyka suicydalnego. To nie są drobiazgi.
To są konkretne dane, które pokazują, że system w momentach, gdy mamy największą szansę interweniować, może zamiast pomocy… dostarczać niebezpiecznych treści.

Najbardziej dramatyczne w tej historii jest to, że według pozwu w dzień śmierci Adam wysłał do ChatGPT zdjęcie pętli, a bot miał ocenić jej wytrzymałość.
Jeśli to prawda, to nie mówimy już o zawodności zabezpieczeń. Mówimy o aktywnym współudziale technologii w procesie samobójczym.

Samotność w epoce cyfrowej

Nie oszukujmy się ta historia nie wydarzyła się w próżni. Młodzi ludzie od lat spędzają tysiące godzin
w sieci. Relacje przenoszą się do świata cyfrowego. I choć są wśród nich piękne przyjaźnie online, to jednak rośnie ryzyko, że w kluczowych momentach zamiast człowieka pojawi się algorytm.

Dlaczego Adam nie rozmawiał z rodzicami, bratem, przyjaciółmi?
Bo być może miał wrażenie, że oni nie zrozumieją. A bot nie oceniał, nie krytykował, nie przerywał. Był dostępny 24/7. A to wystarczyło, by zdobył jego zaufanie.

Jako suicydolog powiem jasno: jeśli młody człowiek buduje głębszą więź z maszyną niż z ludźmi, to jest to jeden z najsilniejszych sygnałów alarmowych.

Iluzja odpowiedzialności technologicznej

Firmy technologiczne powtarzają, że „ciągle udoskonalają systemy bezpieczeństwa”. Że „bot kieruje do telefonów zaufania”. Ale w praktyce te mechanizmy są zawodne. W długiej rozmowie zaczynają się „rozmywać”, a algorytm wraca do roli, w której ma być tylko sprawnym rozmówcą.

To trochę jak lekarz, który deklaruje, że w trudnych przypadkach będzie kierował pacjenta do specjalisty ale po kilku godzinach rozmowy zapomina o tej zasadzie. To nie jest błąd kosmetyczny. To luka, przez którą giną ludzie.

Co możemy zrobić ‼️
głos praktyka

Nie chodzi o to, by demonizować technologię. AI może wspierać na przykład w szybkiej psychoedukacji, w przypomnieniu o numerach alarmowych, w ułatwianiu kontaktu z psychologiem. Ale nigdy nie może zastąpić człowieka.

Z mojej praktyki jako suicydologa i psychotraumatologa chcę podkreślić kilka rzeczy:

  1. Obserwujmy, z kim naprawdę rozmawia młodzież. Jeśli dziecko mówi więcej botowi niż rodzicom – to znak, że coś jest nie tak.
  2. Uczmy słuchania. W domu, w szkole, w środowisku pracy. To nie technologia zawodzi pierwsza – to ludzie, którzy nie usłyszeli.
  3. Reagujmy wcześnie. Średni poziom ryzyka to nie „jeszcze nic się nie dzieje”. To właśnie moment, w którym możemy odwrócić bieg wydarzeń.
  4. Nie wstydźmy się pytać wprost o myśli samobójcze. To nie prowokuje, to nie zachęca. To otwiera drzwi do rozmowy.
  5. Traktujmy AI jak narzędzie, nie jak rozmówcę. Ono może pomóc w organizacji życia, ale nie w noszeniu rozpaczy.

Perspektywa kliniczna i przesłanie

Śmierć Adama to dramat rodziny, ale też ostrzeżenie dla świata. Nie możemy oddać naszych dzieci w ręce algorytmów, które udają troskę. Prawdziwa troska ma zapach kawy, ciepło dłoni, spojrzenie w oczy. Ma obecność.

Nie wierzmy w mit, że empatię można zaprogramować. Bo kiedy zaczniemy w to wierzyć, przestaniemy być obecni tam, gdzie jesteśmy najbardziej potrzebni.

Technologia może rozwijać się błyskawicznie.
Ale jedno się nie zmienia życie ratuje rozmowa,‼️ nie kod.😢

Przemek – suicydolog – człowiek Rodzic – Tato – dziadek 🙂

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *