Megállíthatjuk-e az MI hallucinációit?

Ahogy a mesterséges intelligencia (MI) továbbfejlődik, egy jelentős probléma merült fel: a "hallucinációk". Ezek olyan kimenetek, amelyeket az MI generál, de nincs valóságalapjuk. A hallucinációk lehetnek apró hibák vagy teljesen bizarr és kitalált információk. A probléma miatt sokan kételkednek abban, hogy megbízhatnak-e az MI rendszerekben. Ha egy MI pontatlan vagy akár teljesen kitalált állításokat generálhat, és ugyanolyan hihetőnek hangzik, mint a pontos információk, hogyan bízhatunk meg benne kritikus feladatok elvégzésében?

A hallucinációk problémája különösen aggasztó olyan területeken, mint az egészségügy, a pénzügyek vagy a média, ahol a pontatlan információk súlyos következményekkel járhatnak. Ugyanakkor egyes szakértők szerint a hallucinációk teljes kiküszöbölése az MI kreativitásának elfojtását is jelentené, ami éppen az egyik legnagyobb értéke ezeknek a rendszereknek.

Miért hallucinál az MI?

A ChatGPT-hez hasonló generatív MI rendszerek azért produkálnak néha "hallucinációkat" - olyan kimeneteket, amelyek nem valós tényeken alapulnak -, mert így hozzák létre a szöveget. Amikor választ generál, az MI lényegében a korábbi szavak alapján jósolja meg a valószínű következő szót. (Sokkal kifinomultabb, mint ahogy a telefon billentyűzete a következő szót javasolja, de ugyanazon az elven működik.) Ezt folytatja szóról szóra, hogy teljes mondatokat és bekezdéseket építsen fel.

A probléma az, hogy egyes szavak mások utáni valószínűsége nem megbízható módja annak, hogy biztosítsuk, hogy az eredményül kapott mondat tényleges legyen - mondja Chris Callison-Burch, a Pennsylvaniai Egyetem számítástechnikai és információtudományi professzora a Freethinknek. Az MI olyan szavakat fűzhet össze, amelyek hihetően hangzanak, de nem pontosak.

Megoldási lehetőségek a hallucinációk csökkentésére

A hallucinációk kiküszöbölése nehéz kihívás, mivel természetes részei a chatbotok működésének. Valójában a szöveggenerálás változatos, kissé véletlenszerű jellege az, ami miatt az új MI chatbotok minősége olyan jó.

Bár az LLM-ek használatával valószínűleg nem lehetséges a hallucinációk teljes kiküszöbölése, hatékony technikákat fejlesztettek ki előfordulásuk csökkentésére - jegyezte meg Callison-Burch. Az egyik ígéretes megközelítés a "retrieval augmented generation". Ahelyett, hogy csak az MI meglévő tanítási adataira és a felhasználó által biztosított kontextusra támaszkodna, a rendszer releváns információkat keres a Wikipédián vagy más weboldalakon. Ezután ezt a (feltételezhetően tényszerűbb) információt használja fel pontosabb összefoglalók vagy válaszok generálására.

Egy másik ígéretes megközelítés az úgynevezett "oksági MI" alkalmazása, amely lehetővé teszi, hogy az MI különböző forgatókönyveket teszteljen a változók módosításával és a probléma több szempontból történő vizsgálatával. Ez segíthet a valóságtól elrugaszkodott kimenetek kiszűrésében.

A hallucinációk megállításához az MI "tűzfalakra" van szüksége, amelyek valós időben szűrik és javítják a kimeneteket - véli Liran Hason, az Aporia vezetője, amely cég az MI hibák csökkentésével foglalkozik. Ezek a védelmi intézkedések azonosítják és kijavítják a hallucinációkat, meghiúsítva a potenciális rosszindulatú támadásokat.

Hatások a kreativitásra

Amikor az MI által generált tartalomról van szó, a hallucinációk kétélű fegyvert jelenthetnek. Azokban a helyzetekben, ahol a pontosság elengedhetetlen - például egészségügyi állapotok diagnosztizálása, pénzügyi tanácsadás vagy híresemények összefoglalása -, ezek a valóságtól való eltérések problematikusak és akár károsak is lehetnek - mondta Callison-Burch.

Ugyanakkor a kreatív törekvések, mint az írás, a művészet vagy a költészet területén az MI hallucinációk értékes eszközök lehetnek. Az a tény, hogy eltérnek a meglévő ténybeli információktól és az képzeletbe merülnek, táplálhatja a kreatív folyamatot, lehetővé téve újszerű és innovatív ötletek megjelenését.

Párhuzam vonható az MI rendszerek hallucinációi és kreativitása, valamint az emberi képzelet között. Ahogy az embereknek is gyakran úgy támadnak kreatív ötleteik, hogy hagyják elkalandozni elméjüket a valóság határain túlra, úgy az MI modellek is, amelyek a leginnovatívabb és legeredetibb kimeneteket generálják, hajlamosabbak alkalmanként olyan tartalmat előállítani, amely nincs megalapozva a valós tényekben - jegyezte meg Kjell Carlsson, a Domino Data Lab MI stratégiai vezetője.

Egyensúly a pontosság és a kreativitás között

Bizonyos esetekben mind az MI modellek, mind az emberek esetében indokolt lehet a hallucinációk korlátozása a károk megelőzése érdekében. Ugyanakkor az MI modellek esetében mindkét irányt követhetjük. Ki kell küszöbölnünk a hallucinációkat az adott MI alkalmazás szintjén, mert - ahhoz, hogy elfogadják és hatást fejtsen ki - a lehető legnagyobb mértékben a tervezett módon kell viselkednie. Ugyanakkor eltávolíthatjuk ezeket a korlátozásokat, kevesebb kontextust biztosíthatunk, és használhatjuk ezeket az MI modelleket saját kreatív gondolkodásunk elősegítésére.

Az MI hallucinációk kezelése tehát egyensúlyozást igényel a pontosság és a kreativitás között. Míg bizonyos alkalmazási területeken elengedhetetlen a tényszerűség biztosítása, addig máshol a képzelet szabad szárnyalása hozhat áttörést. Az MI fejlesztőinek és alkalmazóinak ezt az egyensúlyt kell megtalálniuk a technológia felelősségteljes és hatékony felhasználása érdekében.

Népszerű bejegyzések