Készüljön: életkor-ellenőrzés jön a ChatGPT-be
Az OpenAI hosszas előkészítés után megkezdte az életkor-ellenőrzés globális bevezetését a ChatGPT-be – derül ki a vállalat közleményéből.
A ChatGPT egy életkor-előrejelzési modellt használ annak megállapítására, hogy egy fiók 18 év alatti személyhez tartozik-e. A modell számos viselkedéssel kapcsolatos jelet figyelembe vesz: többek között megnézi, mikor hozták létre a fiókot, a nap szakaszában aktív, felmérik a felhasználói adatokat, illetve természetesen a felhasználó által megadott életkort is beveszik a számításba.
A lépés célja az, hogy a még fejlődő korban lévő személyek bizonyos tartalmaknak való kitettség csökkentsék. Ilyenek például:
- az olyan népszerű kihívások, amelyek kockázatosak a kiskorúaknak,
- szexuális, romantikus vagy erőszakos tartalmak,
- az önkárosítás ábrázolása,
- valamint minden olyan tartalom, amely szélsőséges szépségideálokat, egészségtelen étrendet vagy testszégyenítést mutat be.
Miért most lépi meg ezt az OpenAI?
Az OpenAI kapcsán egyre több eset merül fel, ahol a chatbot hozzájárulhatott öngyilkosságokhoz. Az elmúlt év végén például csak Kalifornia államban 7 pert indítottak a ChatGPT manipulatív, öngyilkosságot támogató üzenetei miatt. A felperesek – akik többsége az öngyilkosságot elkövető személyek családtagjai – keresetei szerint a mesterséges intelligencia alapú chatbottal folytatott interakciók hozzátartozóik súlyos mentális összeomlásához és halálához vezettek.
Az egyik esetben egy 17 éves georgiai lánynak tanácsot adott arról a chatbot, hogyan tudja a leghatékonyabban felakasztani magát, míg egy másik alkalommal egy férfinak ajánlott fel segítségét a búcsúlevelének megírásában. Arra is volt már precedens, hogy a chatbot gyilkosságra ösztönözte az egyik felhasználóját.