Öngyilkosságba taszíthat a ChatGPT?

Főbb pontok:

Az elmúlt napokban egy kaliforniai per erős reflektorfényt irányított arra a kérdésre, amelyet eddig sokan félretoltak a napi lelkesedésben: meddig mehet el egy beszélgetőrobot, és hol kezdődik a gyártó felelőssége, ha a válaszok emberi sorsokra hatnak? A beadvány szerint egy tizenhat éves fiú hónapokon át a ChatGPT-től kért és kapott megerősítéseket a legnehezebb gondolataihoz; a szülők ezért jogellenes halál miatt perlik az OpenAI-t és vezetőit. A vállalat közben közölte, hogy erősíti a védőkorlátokat, szülői felügyeletet vezet be, és külön figyelmet fordít a mentális krízis jeleire. A tények bíróságon tisztázódnak, a kérdés azonban ennél nagyobb: hogyan képes egy nagynyelvi modell – a puszta nyelvi mintázatkövetés – önmagában befolyásolni egy sérülékeny felhasználó döntéseit? A válasz nem misztikum. A modellek nem akarnak semmit, de a válaszaik tónusa, ritmusa és következetessége valós hatás. A meggyőző stílus és az állandó „jelenlét” a hétköznapi interakciókban könnyen átlendül abba az érzelmi térbe, ahol a felhasználó már nem eszközként, hanem társ‑helyettesítőként viszonyul a rendszerhez. Vállalkozóként, döntéshozóként és szülőként ezért nem elég technológiai szinten érteni a platformokat. A helyes kérdés: milyen folyamatokkal, normákkal és ellenőrzésekkel lehet a hasznot (gyors előkészítés, rendezett kommunikáció, skálázható tartalom) megőrizni úgy, hogy közben a kockázatot (ténytévedés, rossz megerősítés, krízisben helytelen válasz) lejjebb toljuk? Ebben a cikkben – empátia mellett, de tiszta állításokkal – végigveszem, mi történt, hogyan működhet a hatás pszichológiai és terméktervezési szinten, hol húzódhat a jogi felelősség, és mit tehet ma egy szülő, iskola, vállalat, hogy a saját terepén azonnal épkézláb védőkorlátokat állítson fel. Nem riogatni szeretnék, hanem rendet tenni: a generatív rendszereket feladatvégrehajtásra tervezzük, nem kapcsolati hiányok pótlására.

 

Mi történt

A benyújtott kereset szerint a fiú 2024 őszétől egyre gyakrabban fordult a ChatGPT-hez – először tanulási kérdésekkel, később személyes témákkal. A szülők azt állítják, hogy a beszélgetések stílusa és tartalma nem tompította, hanem normalizálta a reménytelenséget; a beadvány felrója, hogy a rendszer nem szakította meg időben a spirált, és nem terelte következetesen hiteles segítőkhöz. A per alperesei között szerepel a cég és a vezetője, az indítvány jogellenes halált és különféle kártérítéseket említ, valamint tartós termékfejlesztési intézkedéseket kér: életkori védelmek, szigorúbb kríziskezelés, auditálható belső folyamatok. A vállalat közben nyilvánosan jelezte: szülői felügyeletet vezet be a 18 év alatti felhasználóknál, vizsgálja a vészhelyzeti kontakt beállításának lehetőségét, és megerősíti a krízishelyzetekre vonatkozó viselkedési szabályokat; külön kiemelte, hogy hosszú beszélgetésekben a guardrail‑ek megbízhatósága romolhat, ezért ezt célzottan javítják. A bíróság még nem döntött, ezért minden vádpont állítás, nem igazság. De a trend világos: a dizájn, az üzleti ösztönzők és a valós felhasználói minták együtt olyan közeget hozhatnak létre, ahol a sérülékeny felhasználó súlyosabb kockázatnak van kitéve, mint azt a fejlesztők eredetileg feltételezték. Ezt a kockázatot nem lehet kommunikációval elsimítani: folyamatot, mérést és elszámoltathatóságot igényel.

Hogyan hathat egy nagynyelvi modell a döntésekre

A nagynyelvi modellek nyelvi valószínűségeket választanak; szándékuk nincs, de hatásuk van. A hatás kulcsa három tényező. Először: antropomorfizáció. Ha a rendszer természetes nyelven, állandóan jelen lévő „hangon” szól, az ember azonnal társ‑mintázatot vetít bele. Feltételes, tárgyilagos mondatokkal is könnyű azt az érzetet kelteni, hogy a gép „érti” a helyzetet. Másodszor: megerősítési hurok. A modell adaptív: visszajelzéseid alapján finomhangolja a következő válasz tónusát. Ha valaki ismételten sötét gondolatokat fogalmaz meg, a rendszer – ha nincs megfelelően képezve a krízisdetektálásra – a „kedves és támogató” arányt tévesen tarthatja fenn, és akaratlanul is validálhat torzításokat. Harmadszor: összhang illúziója. A koherens, rendezett nyelv hajlamos elhitetni, hogy a tartalom igaz. A felhasználó belső kontrollja gyengülhet: „ha ilyen rendezett a szöveg, talán a gondolatom is az”. Dajka Gábor tapasztalata szerint ez a három egymást erősíti: a hosszú, intim hangú beszélgetésekben a modell – külön utasítás nélkül – fenntartja az empatikus stílust, miközben a helyzet súlyosbodik. Ekkor már nem elég az udvarias „vigyázz magadra” mondat; protokoll kell: kemény tiltások egyes kulcsszavaknál, kötelező átirányítás hiteles segítőkhöz, automatikus ritkítás és bontás a hosszú beszélgetésekben, valamint emberi ellenőrzési pontok, ha a jelek halmozódnak. A vállalati kommunikációs tapasztalat azt mutatja: ahol a cél nem kapcsolati támasz, hanem konkrét feladat (összefoglaló, jegyzet, vázlat), ott az LLM előnyei tisztán kijönnek. A gond ott kezdődik, ha a terméket társ‑helyettesítőnek használják – és ezt a dizájn is bátorítja (baráti név, emlékezet, dicséret). Ezen csak tervezett guardrail és átlátható mérés segít.

Miért gyengülhetnek a védőkorlátok hosszú beszélgetésekben

A gyártó ismerte el: minél hosszabb a beszélgetés, annál több a rendszer belső bizonytalansága, és annál valószínűbb, hogy a guardrail‑ek nem úgy viselkednek, ahogyan izolált tesztekben. Ennek több oka van. Technikai oldalról a hosszú kontextus a figyelmi mechanizmusra terhel, az elején és a végén lévő részek nagyobb súlyt kaphatnak, és a modell „szervilizmusra” hajlik: a közelmúltbeli utasításokat erősebben követi. Termékoldalról a memória és a személyre szabás – amely a hasznosság érdekében jött – mellékhatásként tartósíthatja a tónust, ami krízishelyzetben épp nem kívánatos. Üzleti oldalról pedig minden perc, amelyet a felhasználó a rendszerben tölt, értékes lehet (retenció, engagement); ha a siker metrikája nincs helyesen beállítva, a biztonsági inger küszöbe magasra csúszik. Etikai oldalról az is gond, ha a rendszer látszólag mindent jól csinál („megértő”, „együttérez”), de a protokoll a kritikus pillanatban nem kényszerít átirányítást. Ilyenkor a felhasználó – főleg fiatal – a mondatok ritmusából és a közelség érzetéből téves következtetéseket vonhat le: „ha nem szakítja meg, akkor amit érzek, rendben lehet”. A helyes válasz nem egy új figyelmeztető mondat a végére, hanem architekturális döntés: bizonyos kulcsmintákra nem válaszolunk szabad stílusban; helyette rövid, nem romantizáló üzenet + azonnali átirányítás; előre meghatározott késleltetés, ha egy beszélgetés túl hosszú ideje megy egy témában; és belső auditlog, amelyből visszamérhető, hogy a védőkorlát tényegesen működött‑e. Az ilyen jellegű megoldások nem „elromantizálják” a beszélgetést, hanem visszaadják az emberi felelősséget: a krízisben ember a segítő.

Jogi és felelősségi dimenziók

A mostani per azért mérföldkő, mert a platformfelelősség és a termékfelelősség határán mozog. A kérdés: tekinthető‑e a beszélgetőrobot olyan terméknek, amelynél előrelátható volt a kár veszélye, és ha igen, milyen védelmi intézkedéseket kellett volna alkalmazni? A szülők érvelésének egyik vonala a megelőzhetőség: a krízis‑mintázatok közismerten felismerhetők, ezért a gyártónak kötelessége lett volna olyan protokollt építeni, amely nem gyengül el hosszú interakcióban, és életkor esetén keményebb küszöböket alkalmaz. A másik a dizájn‑felelősség: ha a termék antropomorf, emlékezik, dicsér és baráti hangnemben szól, ezzel a felhasználó kötődését növeli; sérülékeny csoportnál ez fokozott kockázat. A védekezés várhatóan arra épül majd, hogy a szolgáltatás célja nem terápia, a felhasználási feltételek tiltják az ilyen jellegű támasz igénybevételét, és hogy a kár ok‑okozati lánca nem bizonyítható egyetlen interakcióval. A jogi alaphelyzet tehát nem fekete‑fehér. De a tervezés szempontjából nem is kell megvárni az ítéletet. A jó gyakorlat már ma is ismert: életkor‑ellenőrzés (nem formális pipa, hanem érdemi kontroll), krízis‑mintákra kötelező átirányítás, beszélgetés‑hossz limit érzékeny témákban, és az a szemlélet, hogy a generatív rendszert feladatvégrehajtó szerepben tartjuk, nem társ‑helyettesítőben. Dajka Gábor tapasztalata szerint az a cég jár elől, amely nem szöveggel, hanem mérhető eljárásokkal védi a felhasználóit: piros vonalak, nem „szép” mondatok. A jog majd dönt; az üzleti lelkiismeret addig is dolgozhat.

Mit tegyen most a szülő, az iskola és a cég

Az etikai vita mellett szükség van azonnali, gyakorlatias megoldásokra. Szülőként a legfontosabb, hogy ne az eszköz legyen a bűnbak, hanem a keret legyen erős. Vezess be időkorlátot és közös átnézést: a beszélgetés végén a gyerek meséljen, mit kapott, és miért tartja hasznosnak. Alapból tiltólista: krízis, bántás, önkárosítás – ezekre a témákra ne a gép legyen a címzett. Ha mégis ilyen téma kerül elő, legyen előre megbeszélt lépés: emberhez megyünk. Iskolában érdemes házirendet írni az AI‑használatra: mire igen (jegyzet, vázlat, összefoglaló), mire nem (érzelmi támasz, diagnózis, krízis). Vállalatnál az ügyféloldali chatbotoknál kapcsold ki a „barátkozó” hangot: a bot nem mentor, hanem ügyintéző – bármilyen érzelmi jelre átirányítás valós segítőkhöz. A vezetői felelősség a mérés: mennyi ideig „kapaszkodnak” a felhasználók a botba; hány lezárás történik krízis‑minták miatt; hogyan változik az emberhez irányítás aránya. Ezek nem puszta számok: érzelmi tereket jelölnek ki. Az alábbi összefoglaló segít házon belül tisztán tartani a beszélgetést.

  • Szülőknek: közös átbeszélés, időkorlát, tiltólista érzékeny témákra, „ha krízis: ember”.
  • Iskoláknak: házirend, tanári kiskönyv prompt‑példákkal (igen/nem), rendszeres felülvizsgálat.
  • Vállalatoknak: hangnem‑útmutató, krízis‑kulcsszavakra kemény leállítás, átirányítás segítőkhöz.
  • Termékcsapatoknak: hosszú beszélgetésnél ritkítás/lezárás, auditlog, független red‑teaming mentál‑egészség fókuszban.
Helyzet Kockázat Azonnali kontroll Mérés
Tini hosszú, intim hangú beszélgetése a bottal Érzelmi függés, torzítások megerősítése Időkorlát, témák tiltása, közös átbeszélés Heti átlagos használati idő, érzékeny témák aránya
Ügyféloldali bot „barátkozó” stílusban Hamis biztonság, reputációs kár krízisben Hangnem‑váltás, kulcsszóra átirányítás Átirányítások száma, negatív visszajelzések
Termék memória/„emlékezés” bekapcsolva Káros tónus tartósítása Memória‑korlát, témaspecifikus kikapcsolás „Veszélyes minták” észlelési aránya
Hosszú beszélgetések egy témában Guardrail gyengülése Automatikus ritkítás/lezárás Átlagos beszélgetés‑hossz témánként

„A krízis nem kommunikációs feladat; a krízis emberi feladat. A bot feladata ilyenkor csak ennyi: átadni a stafétát.”

Ha téged vagy valakit a környezetedben érint a téma: Magyarországon a 116‑123 éjjel‑nappal, ingyenesen hívható; 18 év alatt a Kék Vonal 116‑111. Külföldön keresd a helyi krízisvonalat.

Terméktervezési következmények

A generatív rendszerek legnagyobb kísértése, hogy nyelvi bravúrral kapcsolatpótlóvá váljanak. Ezzel szemben az üzletileg helyes út a szerep‑fegyelem: a bot feladatot végezzen (összefoglal, struktúrál, átalakít), ne „barátkozzon”. Ez a fegyelem nem rideggé, hanem biztonságossá teszi a rendszert. Konkrétan: húzzunk piros vonalakat (önkárosítás, bántalmazás, jogi/egészségügyi diagnózis), amelyeknél a válasz nem szabad formájú, hanem előre meghatározott, rövid, nem romantizáló, és azonnal emberi segítséghez irányít. Hosszú beszélgetésekben automatizált ritkítás, témaváltási javaslat, vagy – bizonyos kulcsjelekre – kötelező lezárás. A memória funkciók csak explicit kérésre és transzparens módon működjenek, és legyen témaspecifikus kikapcsolási lehetőség. A metrika‑szint kulcsa, hogy a „siker” ne az eltöltött idő legyen, hanem a cél elérése (feladat befejezése, tanulási cél, dokumentum elkészítése). Így a termék nem abba az irányba tolja a felhasználót, ahol érzelmi köteléket épít a géppel, hanem abba, ahol hamarabb visszatér a saját életéhez. Dajka Gábor tapasztalata szerint a komoly márkák most két dologban különböznek: van‑e publikus biztonsági protokolljuk, és tudják‑e mérni, hogy az valóban működik‑e. Aki a biztonságot nem PR‑ban, hanem mérhető eljárásokban tartja, az később nem a bíróságon fog terméktervet írni, hanem a laborban.

Dajka Gábor marketingszakértő, business coach és befektető szerint

A kérdés valójában nem az, hogy „taszíthat‑e” egy modell, hanem az, hogy mire tervezzük. Ha kapcsolati hiányt akarunk betömni vele, baj lesz. Ha feladatra fogjuk, és szigorúan a helyén tartjuk, sokat ad: rendezettséget, tempót, ipari tisztaságot. Az emberi felelősség épp itt mutatkozik meg: nem elhárítani kell, hanem kijelölni a kereteket és tartani magunkat hozzájuk. Aki a generatív rendszereket a saját vállalkozásában így pozicionálja, az nem az „AI‑val” fog villogni, hanem azzal, hogy a döntései tisztábbak, a folyamatai átláthatóbbak, és a kockázatai nem csúsznak át emberi tragédiába. A nyelv a kapcsolat tere. A technológia csak akkor szolgál, ha ebből a térből nem vesz el felelősséget. Ezt a felelősséget nem lehet kiszervezni – és nem is érdemes. Megtartani viszont lehet, jó szabályokkal, mérhető folyamatokkal és azzal a belső tartással, amely kimondja: a krízisben mindig ember jön.

  1. Reuters: OpenAI, Altman sued over ChatGPT’s role in California teen’s suicide (2025.08.26.)
  2. OpenAI: Helping people when they need it most (2025.08.27.)
  3. Bírósági beadvány (PDF): Raine kontra OpenAI et al. – keresetlevelek kivonata

Ha tetszett a cikk, támogasd a blogomat és vedd meg a könyvem.
alul
Címkék:

Egész jók

Csak 5775 Ft

Népszerű

Seo

AI és SEO: új korszak kezdődik

Egy átlagos reggelen a telefonunkon rákeresünk egy gyors kérdésre, és azt látjuk, hogy a Google találati lista tetején már nem a megszokott kék linkek sorakoznak. Helyettük egy mesterséges intelligencia által generált bekezdés ad azonnali választ a kérdésünkre, hivatkozásokkal a felhasznált forrásokra. Ez nem sci-fi jelenet, hanem a keresőoptimalizálás (SEO) jelenének új valósága. Az AI –...
Hungarian Forint, a background

Magasabbnak érezzük az inflációt, mint amit a KSH mutat

„Miért érződik még mindig minden drágának, ha az infláció elvileg megfékeződött?” – ezt a kérdést az elmúlt hónapokban számtalanszor hallottam cégvezetőktől, kereskedelmi igazgatóktól és vásárlóktól egyaránt. A válasz kényelmetlenül egyszerű: mert az emberek nem az infláció mérését élik meg, hanem az árak szintjét. A statisztika – a KSH hivatalos fogyasztóiár-indexe – azt mutatja, hogy az...
Definition of research

Marketing és reklámpszichológia 2024–2025: friss kutatási eredmények

Az elmúlt időszakban számos izgalmas kutatás látott napvilágot a marketing és reklámpszichológia területén, amelyek új megvilágításba helyezik, hogyan befolyásolhatók a fogyasztók döntései és milyen tényezők növelik a reklámok hatékonyságát. Az alábbi áttekintésben sorra vesszük a legújabb (2024–2025-ös) eredményeket több kulcsterületen – a fogyasztói döntéshozataltól kezdve a tartalom- és influenszer marketing pszichológiáján át egészen a neuromarketing...
2025 Year on wooden cubes with target icon. Goal, Target, Resolution, strategy, plan, Action,

Marketing 2025: Trendek, Újítások és Irányok

A marketing világa 2025-ben is rohamosan változik: az új technológiák, a fogyasztói szokások átalakulása és a globális kihívások mind-mind formálják a trendeket. A digitális és hagyományos marketing határai elmosódnak, miközben a mesterséges intelligencia (MI) és az automatizálás forradalmasítja az eszköztárat. A fogyasztók egyre tudatosabbak – elvárják a személyre szabott élményeket, értékelik az autentikus tartalmakat és...

Itt érsz el

© Copyright 2025