ChatGPT hallucinációi: súlyos következmények az OpenAI számára

Az OpenAI, a széles körben elterjedt ChatGPT chatbot fejlesztője ismét az Európai Unió vizsgálatának középpontjába került, ezúttal a ChatGPT személyekről generált téves információi miatt. A noyb (None of Your Business) nevű európai adatvédelmi nonprofit szervezet panaszt nyújtott be az osztrák adatvédelmi hatósághoz (DPA) az ellen, hogy a ChatGPT képtelen kijavítani a személyekről alkotott helytelen adatokat.

A probléma gyökere a nagy nyelvi modellek (LLM), mint például a ChatGPT úgynevezett "hallucinációiban" rejlik, vagyis abban a jelenségben, hogy ezek a rendszerek hajlamosak kitalált vagy értelmetlen információkat generálni. Bár a hallucinációk gyakori velejárói a jelenlegi nyelvi modelleknek, hosszú távon mindenképpen megoldást kell találni a kiküszöbölésükre, hogy az AI rendszerek megbízható információforrásként szolgálhassanak.

A GDPR előírásai és a ChatGPT hiányosságai

A noyb panasza az EU Általános Adatvédelmi Rendeletére (GDPR) hivatkozik, amely szabályozza a személyes adatok gyűjtését és tárolását az unióban. A GDPR értelmében az EU állampolgárainak joguk van a róluk tárolt helytelen adatok kijavíttatására. Azzal, hogy az OpenAI elismeri, hogy nem képes korrigálni a ChatGPT által generált téves információkat, a vállalat gyakorlatilag megsérti ezt a rendelkezést.

A GDPR előírásai azért fontosak, mert védik az egyének információs önrendelkezési jogát, és biztosítják, hogy a róluk gyűjtött és tárolt adatok pontosak és naprakészek legyenek. Ha egy technológiai megoldás nem tud megfelelni ezeknek az elvárásoknak, az aláássa a rendszerbe vetett bizalmat, és kétségeket ébreszt az adatkezelés jogszerűségével kapcsolatban.

A téves adatok következményei és a megoldás szükségessége

Bár a ChatGPT hallucinációi elfogadhatóak lehetnek például házi feladatok elkészítéséhez, személyes adatok esetében megengedhetetlen a pontatlanság. A noyb konkrét panasza egy közszereplőtől érkezett, akiről a ChatGPT többször is helytelen születési dátumot közölt. Az illető hiába kérte az adat javítását vagy törlését, az OpenAI ezt állítólag megtagadta arra hivatkozva, hogy technikai okokból nem lehetséges a kiigazítás.

Ez a hozzáállás azonban hosszú távon nem tartható. Ahhoz, hogy az AI nyelvi modellek széles körben elfogadottá és megbízhatóvá váljanak, elengedhetetlen a személyes adatok maximális védelme és pontossága. Ez nem csak jogi követelmény, hanem a társadalmi felelősségvállalás és az etikus technológiafejlesztés része is.

A lehetséges szankciók és az ügy tágabb kontextusa

A noyb az osztrák hatóságtól várja, hogy kivizsgálja az OpenAI adatkezelési gyakorlatát, és kötelezze a vállalatot a GDPR előírásainak betartására. A szervezet azt is kéri, hogy a hatóság bírságot szabjon ki a jogsértések miatt. A GDPR megsértése akár 20 millió eurós büntetést vagy a globális éves forgalom 4%-át is jelentheti, a magasabb összeget alapul véve.

Az OpenAI hasonló adatvédelmi vizsgálatokkal néz szembe Olaszországban és Lengyelországban is. Ezek az ügyek precedens értékűek lehetnek a mesterséges intelligencia iparágban, és hozzájárulhatnak az AI rendszerek jogi és etikai kereteinek kialakulásához Európában. A tét nem csupán az OpenAI felelőssége, hanem az egész szektor jövője a személyes adatok kezelésének és az algoritmusok átláthatóságának kérdéskörében.

Eredeti cikk: gizmodo.com


Népszerű bejegyzések