Heti több mint egymillió ember mutatja öngyilkossági szándék jeleit, amikor a ChatGPT-vel beszélget
Az OpenAI becslése szerint hetente több mint egymillió ember ír olyan üzenetet a ChatGPT-ben, amely az öngyilkossági szándék egyértelmű jeleit mutatja – derül ki a cég hétfőn közzétett blogbejegyzéséből. Ez az egyik legdirektebb megnyilvánulás eddig a mesterséges intelligenciát fejlesztő vállalat részéről arról, milyen mértékben súlyosbíthatja az AI a mentális egészséggel kapcsolatos problémákat.
A bejegyzés szerint az OpenAI adatelemzése alapján a felhasználók mintegy 0,07 százaléka, vagyis körülbelül 560 ezer ember az 800 milliós heti aktív felhasználói bázisból „pszichózishoz vagy mániához köthető mentális vészhelyzetekre utaló lehetséges jeleket” mutat. A cég hozzátette, hogy ezek a beszélgetések nehezen azonosíthatók, és az eredmények még csak előzetes elemzésnek tekinthetők.
Az adatok nyilvánosságra hozatala egyre nagyobb figyelmet irányít az OpenAI-ra, főként, miután egy tinédzser fiú öngyilkossága után a család pert indított a vállalat ellen, mondván: a fiú intenzíven használta a ChatGPT-t a halála előtt.
A cég azt állítja, hogy a GPT-5 frissítés bevezetése óta csökkent a „nem kívánatos viselkedések” előfordulása, és javult a felhasználók biztonsága, legalábbis egy több mint ezer, önkárosítással és öngyilkossági témákkal kapcsolatos beszélgetést vizsgáló belső teszt szerint.
A vállalat vezérigazgatója, Sam Altman korábban arról posztolt az X-en, hogy az OpenAI előrelépéseket tett a mentális egészségügyi problémák kezelésében, és bejelentette, hogy a cég enyhíti a korlátozásokat, valamint hamarosan engedélyezni fogja felnőttek számára erotikus tartalmak létrehozását. (Guardian)