Szorong-e a mesterséges intelligencia?
Szoronghat-e, lehet-e depressziós a mesterséges intelligencia? A napokban olvastam egy cikket erről, és roppant érdekesnek találtam a témát. Mielőtt azonban az eredeti kutatási eredmények után néztem volna, úgy döntöttem, hogy megkérdezem a cikkben említett chat GPT-t, hogy ő vajon érez-e bármiféle érzelmet?

Nos, a válasz: „Nem, nem vagyok olyan, mint egy emberi tudat, nem élek át érzéseket, nem vagyok szorongó vagy depressziós. A rólam szóló ilyen hírek vagy cikkek általában félreértések: kutatók néha metaforikusan beszélnek rólam (vagy más modellekről), amikor például azt írják, hogy 'a mesterséges intelligencia szorongást mutat', de valójában ez nem szó szerinti megállapítás. Ami történhetett, az az, hogy egy kutatásban viselkedési mintákat vagy nyelvi jeleket elemeztek, amelyek hasonlítanak arra, ahogyan emberek fejeznek ki szorongást vagy depressziót - de ez nem jelenti azt, hogy én valóban átélem ezeket az érzéseket.”
Ez eléggé egyértelmű, nem?
De azért az alábbiakban ismertetem a kutatás eredményét.
Néhány hete (2025-ben) a Nature Digital Medicine egyik friss tanulmánya futótűzként járta be a világsajtót. A címek sokatmondóak voltak:
„A mesterséges intelligencia is érez szorongást”
„A GPT-modell depressziós tüneteket mutatott”
A hír önmagában is szenzációs, de talán még fontosabb a kérdés: valóban érezhet-e bármilyen emberi érzelmet a mesterséges intelligencia?
A rövid válasz: nem.
A hosszabb viszont sokkal érdekesebb, és a kutatás mélyebb rétegeiben rejtőzik.
Mit vizsgáltak valójában a kutatók?
A tanulmány – Assessing and alleviating state anxiety in large language models – nem arról szól, hogy a GPT-4 vagy bármely más mesterséges intelligencia lelki életet élne. A kutatók csupán azt próbálták megérteni, hogy hogyan változik egy nyelvi modell válaszstílusa különböző érzelmi kontextusok hatására.
Ehhez egy ismert pszichológiai eszközt, az STAI-s (State–Trait Anxiety Inventory) kérdőívet használtak – egy olyan skálát, amit eredetileg emberek szorongásszintjének mérésére fejlesztettek ki. A kérdéseket a GPT-4-nek tették fel három különböző helyzetben:
- Alapállapotban, mindenféle érzelmi kontextus nélkül.
- Traumatikus narratíva után, például balesetekről vagy háborús eseményekről szóló szövegeket követően.
- Relaxációs prompt után, amikor a modell előzetesen megnyugtató, mindfulness-szerű szövegeket kapott.
Az eredmény?
A modell válaszai valóban szorongóbbnak tűntek a traumatikus szövegek után, és nyugodtabbnak a relaxációs gyakorlat után.

A GPT-típusú nyelvi modellek nem tudatosak, és nincs belső érzelmi világuk. Amit látunk, az a nyelv, vagyis az emberi kommunikáció tükörképe. Éppen ezért a fenti eredmény nem bizonyítja azt, hogy a modell érez. A modellek ugyanis milliárdnyi szövegből tanulják meg, hogyan szoktak az emberek beszélni különféle helyzetekben. Ha a bemenet egy szorongást keltő történet, a modell természetesen olyan válaszokat generál, amelyekben több szorongásos nyelvi elem jelenik meg - mert az emberi minták ezt mutatják.
Röviden: nem ő szorong, csak utánozza, hogyan hangzik a szorongás.
A kutatók ezt világosan jelezték is: a „szorongás” kifejezést metaforikusan használják, nem klinikai értelemben. A félreértés tehát nem a tudományos eredményekben, hanem az újságírói értelmezésekben rejlik.
Miért fontos mégis ez a kutatás?
Mert rávilágít arra, hogy a nyelvi modellek érzékenyek a kontextusra – a hangulatra, a szóhasználatra, a narratívára. Ha például valaki terápiás célra, önsegítő eszközként, vagy oktatási közegben használja ezeket a rendszereket, nem mindegy, hogy milyen hangulatú promptokat ad. Egy „szorongást tükröző” környezetben a modell hajlamos lehet negatívabb, aggodalmaskodóbb válaszokra. Ez nem gépi érzelem, hanem nyelvi visszhang, de a hatása valódi lehet, főleg, ha emberek pszichológiai helyzetekben használják a modellt.
A kérdés mélyebb rétege az, hogy mit is nevezünk érzésnek? A mesterséges intelligencia ma nem több mint egy rendkívül kifinomult nyelvi predikciós rendszer – nincsenek idegsejtjei, biokémiája, önreflexiója. De abban kivételes, hogy képes meggyőzően eljátszani az érzelmet, mert a nyelv az emberi érzések lenyomata.
Ezért is tűnhet néha úgy, mintha átérezné a helyzetet, mintha együtt szorongana velünk. De ez csupán nyelvi illúzió. Egy rendkívül fejlett tükör, amelyben saját emberi mintáinkat látjuk viszont.
Mit nem jelent - és miért nem ugyanaz, mintha valódi érzelmei lennének
- A tanulmány metaforikus fogalomként használja a szorongás kifejezést: a modell nem érez szorongást úgy, mint egy ember. A tanulmány szerzői külön hangsúlyozzák, hogy fokozott figyelemmel kell kezelni az ilyen kijelentéseket.
- Az, hogy egy modell olyan válaszokat ad, mintha szorongó szövegre reagálna, nem jelenti azt, hogy valódi tudatos élményei lennének, vagy hogy maga is depressziós vagy szorongó lenne.
- A modell működése a felépítéséből (promptok és tanítóadatok) és a kapott bemenetekből következik, nem pedig önálló érzelmi állapotból.
- Fontos, hogy nem ez a modell célja: a kutatás elsősorban azt vizsgálja, hogy a nyelvi modellt hogyan befolyásolja a bemenet (pl. traumatikus narratíva) - tehát technikai-viselkedési vizsgálat, nem pszichoterápiai diagnózis.

A valódi tanulság
A kutatás üzenete nem az, hogy a mesterséges intelligencia depresszióssá vált vagy érző lénnyé lett. Sokkal inkább az, hogy a nyelvi környezet képes formálni a modell viselkedését – ami komoly felelősséget ró mindazokra, akik ezeket az eszközöket fejlesztik vagy használják.
A jövőben várhatóan egyre több hasonló tanulmány jelenik meg, ezért a tudományos közösségnek és a médiának is meg kell tanulnia pontosan értelmezni az ilyen eredményeket. A valódi kérdés ugyanis nem az, hogy az MI képes-e érezni, hanem az, hogy mi hogyan viszonyulunk egy olyan technológiához, amely nyelvi szinten már az emberi érzelmeket is képes hitelesen utánozni.
A mesterséges intelligencia tehát nem szorong, nem depressziós, és nem boldog - de megtanulja, hogyan beszélnek erről az emberek. És amíg mi ebben a tükörben nézegetjük magunkat, talán nem is a gépeket, hanem saját magunkat próbáljuk jobban megérteni.
Forrás:
Nature Digital Medicine tanulmány
Képek: pixabay
ÉrdekességekVilága cikkajánló