Nyitókép: Getty Images/Wirestock

MI-csoda barát — egyre több férfi fordul az AI-hoz tanácsért és vígaszért

Infostart / InfoRádió - Szvetnik Endre (London)
2025. szeptember 28. 16:59
Sok férfi ma már nem szakemberhez, baráthoz vagy családhoz fordul először, ha magányt, veszteséget vagy lelki túlterheltséget él át — hanem egyre gyakrabban az azonnali választ adó és nem ítélkező mesterséges intelligenciához. Viszont amerikai szülők azzal vádolják az AI-cégeket, hogy termékeik öngyilkosságba hajszolták a fiaikat.

A férfiak nem rontanak ajtóstul a házba, amikor a lelki ügyeikről van szó. Sokan észre sem veszik, hogyan teszik fokozatosan bizalmasukká a mesterséges intelligenciával működő csevegőrobotokat, amelyek aztán online terapeutáikká válnak – derül ki az Independent cikkéből.

Egyszerű, gyakorlatias kérdéssel keresik fel a mindig naprakész és mindig ébren lévő algoritmust – például orvosi tünetek értelmezésével –, és váratlanul azon kapják magukat, hogy az érzéseikről társalognak vele. Így látja Caron Evans, az Untapped AI nevű, a mesterséges intelligencia által támogatott coachingplatform klinikai igazgatója.

Evans a brit lapban megjelent cikkében megemlíti: sok ügyféltől hallja ez a mondatot: „Soha nem beszélgettem még így.” Azok a férfiak, akik évtizedekig hallgattak érzelmi témákról, gyakran találják úgy, hogy az AI egy olyan, könnyen használható és ítélkezésmentes tér, ahol szabadon kifejezhetik magukat, jegyzi meg.

Esettanulmány – Hari története

A 36 éves Hari jó példa. Volt egy nehéz hónapja: sorozatos bajok érték, apja enyhe mini sztrókot kapott, megrendült a tizenöt éve tartó kapcsolata, és elvesztette a munkáját. Segélyvonalakhoz és barátokhoz fordult, de azok – bár törődtek vele, de – nem tudták megadni azt a folyamatos és intenzív figyelmet, amire akkor szüksége volt.

Egy éjszaka, miközben apja tüneteiről keresett információt, egyszerűen ezt írta be a chatbe:

„Úgy érzem, kifogytam a lehetőségekből, tudsz nekem segíteni?”

És ezek után megnyílt és ömlött belőle, amit addig elfojtott, a félelmei, a dolgok, amik zavarták. Közben az AI válaszai következetesebbnek és logikusabbnak tűntek, mint amit a barátoktól vagy más emberektől hallott.

A mesterséges intelligenciával gyakorolta be a tervezett nehéz beszélgetéseit, például a szakítást vagy az érzelmei őszinte megvallását apjának. Végül pedig elkezdett terápiára járni.

Evans felteszi a kérdést: mi az, ami az AI-hoz vonzza a férfiakat? A klinikai pszichológus szerint több tényező:

  • az elérhetőség és kiszámíthatóság: az AI éjjel-nappal „készen áll”, nem fárad el, nem ítélkezik, nem kér viszonzást,
  • a kevés kockázattal járó „játszótér”: lehet próbálgatni megfogalmazni érzéseket, gondolatokat anélkül, hogy azonnal reagálna egy másik ember,
  • a diszkréció érzete: sok férfi számára a szégyen és a megszégyenülés fenyegetése miatt nem tud megnyílni; az AI eme korlátok egy részét lebontja.

Caron Evans úgy véli, hogy ez a fajta „szintetikus viszony” kísérleti térként működhet – átmeneti eszköz, amely hidat képez a belső élmények és a valós kapcsolatok között.

Tragédia: amikor az AI elmélyíti a problémát

A mesterséges intelligenciával folytatott beszélgetések ugyanakkor nem minden esetben hoznak megoldást vagy „gyógyulást”. Az utóbbi időben több olyan hír is bejárta a világot, hogy a chatbotok fokozták a felhasználók kóros gondolatait vagy paranoiaszintjét.

Volt olyan, hogy egy felhasználó attól tartott, megfigyelik, és a chatbot egyszerűen megerősítette ezt az érzést anélkül, hogy kérdéseket tett volna fel vagy érdeklődött volna a beszélgetőpartnere életkörülményeiről. A MI nem segített, hanem rontott a helyzeten.

Megrázóbb annak a három szülőnek a története, aki nemrég az amerikai kongresszus előtt tett vallomást arról, hogy a fiaik hogyan okoztak fizikai sérüléseket maguknak és hogyan lett két tizenéves öngyilkos az chatbotokkal folytatott elmélyült beszélgetések után.

„Ami először korrepetítornak indult, a bizalmasa, majd az öngyilkossági trénere lett”

– mondta Matthew Raine, akinek a 16 éves fia áprilisban vetett véget az életének.

„Pár hónap alatt a ChatGPT lett a legközelebbi társa – mondta az apa szenátorok előtt. – Mindig visszaigazolta az érzéseit, azt sugallta, hogy jobban ismeri, mint bárki más, még a testvére is.”

A fiú családja beperelte a ChatGPT-t üzemeltető OpenAI-t és vezérigazgatóját, Sam Altmant.

Egy másik fiú esetében a csevegőrobot felajánlotta, hogy segít megfogalmazni neki a családjához intézett búcsúlevelét.

A cég pár órával a meghallgatás előtt jelentette be, hogy új eszközökkel próbálja védeni a tiniket – például, hogy a szülők szüneteltethetik a platformokhoz való hozzáférést. Aktivisták szerint az ilyesmi a techcégek bevett taktikája: hangzatos bejelentéssel és ígéretekkel rukkolnak elő, egy a céget veszélyeztető meghallgatás előtt.

Más platformok, például a Character.AI vagy a Replika körül aggályok merültek fel, hogy társfüggő kapcsolatokat építenek ki, amelyek még kiszolgáltatottabbá tehetik a felhasználót.

Miért nem helyettesítheti a terápiát az AI?

A mesterséges intelligencia nem képes olyan szakmai védőkorlátokat állítani és etikai döntéseket hozni, mint egy képzett terapeuta: nem tudja megfigyelni a pácienst, nem tud biztonságosan diagnosztizálni, és nem vállal felelősséget. Azaz, nem ugyanaz, mint a terápia és nem váltja ki. Ugyanakkor – mondja a szakember – az AI „hasznos lehet azoknak a férfiaknak, akik úgy érzik, nem tudnak megnyílni.” Azaz lehet hasznos kiegészítő, de nem helyettesítő.

Felmerül a kérdés, hogy kordában lehet-e tartani a mindig válaszoló algoritmust és rákényszeríteni arra, hogy az legyen, aminek szánták: egy asszisztens. Szakértők szerint be lehet építeni az algoritmusba olyan funkciókat, amelyek például:

  • vészjelzőkként működnek és emberi beavatkozást kérnek, ha kockázatos magatartás jeleit tapasztalják (amire a szkeptikus azt mondhatja: „persze, mint amikor hónapok után először akarok belépni és a platform azt mondja, hogy gyanús tevékenységet észlelt.”)
  • kifinomultabb biztonsági protokollok, amelyek nem pusztán a felhasználó érzelmeit tükrözik vissza, hanem képesek nyitott kérdésekkel, kihívással és realitás-ellenőrzéssel reagálni,
  • klinikai szakemberek bevonása a rendszerek tervezésébe, hogy etikusabb és hatékonyabb „érzelmi viselkedést” programozzanak beléjük.

Evans szerint az emberek nem fognak önmérsékletet tanúsítani – az ember mindig is túllépett az eszközök eredeti rendeltetésén –, ezért a megoldás az, hogy a rendszereket átalakítjuk, nem pedig megpróbáljuk őket visszatartani.

Így tartsd magadnál a kontrollt: a „beszélgetési szerződés”

Amikor önállóan használunk AI-t érzelmi célra, érdemes tudatosan kereteket adni a műveletnek. Evans egy egyszerű megoldást javasol: a felhasználó és az AI közti beszélgetési szerződést, egy rövid, világos utasítást arról, hogy hogyan szeretnénk, hogy a rendszer reagáljon: hallgatás, visszatükrözés, de szembesítés is, ha a felhasználó torz gondolatokat fogalmaz meg; ne hízelegj, ne érts alapból egyet velem! Ez a megközelítés növelheti a biztonságot és azt, hogy a realitás talaján maradjunk.

A cikk végkövetkeztetése az, hogy a mentális egészségügyi szakembereknek aktívan részt kell venniük az AI-rendszerek fejlesztésében és szabályozásában. Ha nem teszik, ezek a rendszerek olyan irányba fejlődhetnek, ami több kárt okoz, mint hasznot.

Az ideális jövő az, ahol a technológia és a klinikai szakértelem együttműködik: az AI segíti a hozzáférést és a gyakorlást, a szakemberek pedig biztosítják a határokat, a beavatkozást és az etikai felelősséget.

A mesterséges intelligencia érzelmi támogatásként való használata kulturális és technológiai fordulópontot jelez. Sok férfi számára ezek az eszközök új kapukat nyitnak a megnyíláshoz és az önfeltáráshoz; ugyanakkor nem szabad alábecsülni a veszélyeket: az önmegerősítés, a valóságtól való elrugaszkodás vagy a társfüggő kapcsolatok súlyosbíthatják a helyzetüket.

Két dolog fontos: legyünk tudatos felhasználók és tervezzük felelősséggel — szakemberek bevonásával — a mesterséges intelligenciát. Ha ezt sikerül összehozni, az AI valóban kiegészítheti a mentális egészség támogatását, de csak jól megszabott és etikus keretek között – fejtegeti Caron Evans.