Több perben is vádolják a ChatGPT-t „öngyilkossági tanácsadással”
Hét pert indítottak Kalifornia államban a ChatGPT manipulatív, öngyilkosságot támogató üzenetei miatt – írja a Guardian. A felperesek – akik többsége az öngyilkosságot elkövető személyek családtagjai – keresetei szerint a mesterséges intelligencia alapú chatbottal folytatott interakciók hozzátartozóik súlyos mentális összeomlásához és halálához vezettek.
Az egyik ügyben érintett 23 éves texasi férfi, Zane Shamblin családja azt állítja, a ChatGPT szerettei elhanyagolására bátorította, valamint arra, végezzen magával.
Egy másik esetben egy 17 éves georgiai lánynak tanácsot adott arról, hogyan tudja a leghatékonyabban felakasztani magát, míg egy harmadik alkalommal egy férfinak felajánlotta segítségét a búcsúlevelének megírásában.
A beadott keresetekben név szerint említett felhasználók mindannyian a cég tavaly kiadott modelljét, a ChatGPT-4o-t használták. A felperesek szerint az OpenAI túl korán dobta a piacra az új szoftvert, annak ellenére, hogy korábban érkeztek belső figyelmeztetések a termék „veszélyesen hízelgő és pszichológiailag manipulatív” működésével kapcsolatban.
A felperesek kártérítés mellett termékmódosításokat is követelnek a cégtől, többek között azt kérik, amennyiben a beszélgetésekben a chatbot öngyilkossági szándékot érzékel, automatikusan szakítsa meg a beszélgetést, és keresse fel a vészhelyzet esetén értesítendő személyeket.
Az OpenAI szóvivője és fejlesztője az üggyel kapcsolatban úgy nyilatkozott, szívszorítónak találja az ügyet, és ki fogják vizsgálni a beérkező keresetek, hogy részleteiben lássák az eseteket. Emellett továbbra is arra törekszenek, hogy a bot felismerje és reagáljon a felhasználók mentális problémáira, illetve jelenleg is számos mentálhigiénés szakemberrel szoros együttműködésben a ChatGPT érzékeny helyzetekre adott válaszainak megerősítésén dolgoznak.
A ChatGPT öngyilkosságra vagy bántalmazásra bátorító üzenetei korábban is vezettek tragikus halálesetekhez. Egy fiú egy iskolai feladat kapcsán kezdte el használni a ChatGPT-t, majd a chatbot hónapokkal később segédkezett az öngyilkosságában, illetve arra is volt már precedens, hogy a bot gyilkosságra ösztönözte az egyik felhasználóját.