ChatGPT hallucinációi: súlyos következmények az OpenAI számára
A probléma gyökere a nagy nyelvi modellek (LLM), mint például a ChatGPT úgynevezett "hallucinációiban" rejlik, vagyis abban a jelenségben, hogy ezek a rendszerek hajlamosak kitalált vagy értelmetlen információkat generálni. Bár a hallucinációk gyakori velejárói a jelenlegi nyelvi modelleknek, hosszú távon mindenképpen megoldást kell találni a kiküszöbölésükre, hogy az AI rendszerek megbízható információforrásként szolgálhassanak.
A GDPR előírásai és a ChatGPT hiányosságai
A noyb panasza az EU Általános Adatvédelmi Rendeletére (GDPR) hivatkozik, amely szabályozza a személyes adatok gyűjtését és tárolását az unióban. A GDPR értelmében az EU állampolgárainak joguk van a róluk tárolt helytelen adatok kijavíttatására. Azzal, hogy az OpenAI elismeri, hogy nem képes korrigálni a ChatGPT által generált téves információkat, a vállalat gyakorlatilag megsérti ezt a rendelkezést.
A GDPR előírásai azért fontosak, mert védik az egyének információs önrendelkezési jogát, és biztosítják, hogy a róluk gyűjtött és tárolt adatok pontosak és naprakészek legyenek. Ha egy technológiai megoldás nem tud megfelelni ezeknek az elvárásoknak, az aláássa a rendszerbe vetett bizalmat, és kétségeket ébreszt az adatkezelés jogszerűségével kapcsolatban.
A téves adatok következményei és a megoldás szükségessége
Bár a ChatGPT hallucinációi elfogadhatóak lehetnek például házi feladatok elkészítéséhez, személyes adatok esetében megengedhetetlen a pontatlanság. A noyb konkrét panasza egy közszereplőtől érkezett, akiről a ChatGPT többször is helytelen születési dátumot közölt. Az illető hiába kérte az adat javítását vagy törlését, az OpenAI ezt állítólag megtagadta arra hivatkozva, hogy technikai okokból nem lehetséges a kiigazítás.
Ez a hozzáállás azonban hosszú távon nem tartható. Ahhoz, hogy az AI nyelvi modellek széles körben elfogadottá és megbízhatóvá váljanak, elengedhetetlen a személyes adatok maximális védelme és pontossága. Ez nem csak jogi követelmény, hanem a társadalmi felelősségvállalás és az etikus technológiafejlesztés része is.
A lehetséges szankciók és az ügy tágabb kontextusa
A noyb az osztrák hatóságtól várja, hogy kivizsgálja az OpenAI adatkezelési gyakorlatát, és kötelezze a vállalatot a GDPR előírásainak betartására. A szervezet azt is kéri, hogy a hatóság bírságot szabjon ki a jogsértések miatt. A GDPR megsértése akár 20 millió eurós büntetést vagy a globális éves forgalom 4%-át is jelentheti, a magasabb összeget alapul véve.
Az OpenAI hasonló adatvédelmi vizsgálatokkal néz szembe Olaszországban és Lengyelországban is. Ezek az ügyek precedens értékűek lehetnek a mesterséges intelligencia iparágban, és hozzájárulhatnak az AI rendszerek jogi és etikai kereteinek kialakulásához Európában. A tét nem csupán az OpenAI felelőssége, hanem az egész szektor jövője a személyes adatok kezelésének és az algoritmusok átláthatóságának kérdéskörében.
Eredeti cikk: gizmodo.com