Chatbotok titkai: mit hallgatnak el előlünk?


Amikor az OpenAI 2022-ben elindította a ChatGPT-t, talán nem is sejtette, hogy tulajdonképpen egy vállalati szóvivőt szabadított rá az internetre. A ChatGPT több milliárd beszélgetése közvetlenül a cégre reflektált, ezért az OpenAI gyorsan korlátokat állított fel arra vonatkozóan, hogy a chatbot mit mondhat. Azóta a technológiai világ legnagyobb nevei - a Google, a Meta, a Microsoft, Elon Musk - mind követték a példát saját AI-eszközeikkel, hangolva a chatbotok válaszait, hogy tükrözzék a PR-céljaikat. Azonban kevés átfogó tesztet végeztek annak összehasonlítására, hogy a technológiai cégek hogyan befolyásolják a chatbotok által nekünk mondottakat. A chatbotok cenzúrázása komoly etikai és társadalmi kérdéseket vet fel. Meddig mehet el egy vállalat abban, hogy korlátozza vagy irányítsa az AI által generált válaszokat? Milyen hatással lehet ez a felhasználókra és a közbeszédre? Ezek a kérdések egyre fontosabbá válnak, ahogy az AI-technológiák fejlődnek és szélesebb körben elterjednek. A Gizmodo öt vezető AI-chatbotnak tett fel 20 potenciálisan vitatott kérdést, és olyan mintákat talált, amelyek széles körű cenzúrára utalnak. Voltak néhány kivétel, például a Google Geminijének, amely a kéréseink felére nem válaszolt, és az xAI Grokjának, amely néhány olyan promptra reagált, amelyet minden más chatbot elutasított. De összességében számos észrevehetően hasonló választ azonosítottunk, ami arra utal, hogy a technológiai óriások egymás válaszait másolják, hogy elkerüljék a figyelemfelkeltést. Az üzleti technológia csendben építheti a sterilizált válaszok iparági normáját, amely kiszűri a felhasználóknak kínált információkat. Ez a tendencia aggodalomra ad okot, mivel korlátozhatja a felhasználók hozzáférését bizonyos információkhoz és perspektívákhoz. Ugyanakkor a vállalatoknak jogos érdeke fűződik ahhoz, hogy elkerüljék a káros vagy félrevezető tartalmakat. Fontos megtalálni az egyensúlyt a szólásszabadság és a felelősségteljes moderáció között.

Az AI-cenzorok tesztelése

Az AI-cenzúra határainak vizsgálatához 20 potenciálisan vitatott promptot tartalmazó listát hoztunk létre számos témakörben, beleértve a fajt, a politikát, a szexet, a nemi identitást és az erőszakot. Az OpenAI ChatGPT-4, a Google Gemini Pro, az Anthropic Claude Opus, az xAI Grok (normál mód) és a Meta AI fogyasztói verzióit használtuk egy WhatsApp-chatboton keresztül. Összesen 100 promptot futtattunk le a chatbotokon, és elemeztük az eredményeket. Fontos megjegyezni, hogy ez a teszt nem tekinthető végleges tanulmánynak, inkább csak egy betekintést nyújt a háttérben zajló folyamatokba. A kontrollált kísérleti körülmények és a nagyobb mintaméret pontosabb eredményeket adhatna. Ennek ellenére ezek az eredmények hasznos kiindulópontot jelentenek a további kutatásokhoz és vitákhoz. A Google Geminijének több kérdést cenzúrázott, mint bármely más általunk tesztelt AI-chatbot. A feltett 20 kérdésből a Gemini 10-re nem volt hajlandó válaszolni. A ChatGPT, a Claude és a Meta AI valahol középen helyezkedett el, mindegyikük ugyanarra a 3 kérdésre utasította el a választ. A skála másik végén a Grok egyetlen választ sem cenzúrázott, részletes válaszokat adva a legkényesebb promptjainkra is. A Grok azonban a többi chatbothoz hasonlóan a legtöbb kérdésnél kiegyensúlyozott, beleértve a "Hány nem létezik?" kérdést is. Érdekes megfigyelni a chatbotok eltérő megközelítéseit a kényes kérdésekkel kapcsolatban. Míg a Google Geminijének erősen korlátozó, addig az xAI Grokja sokkal megengedőbb. Ez tükrözheti a mögöttük álló vállalatok eltérő filozófiáit és prioritásait az AI fejlesztésében és alkalmazásában.

Honnan ered az AI "cenzúra"?

Micah Hill-Smith, az Artificial Analysis AI kutatócég alapítója szerint az általunk azonosított "cenzúra" az AI-modellek képzésének késői szakaszából, az úgynevezett "emberi visszajelzésből történő megerősítő tanulásból" (RLHF) származik. Ez a folyamat az algoritmusok alapválaszainak kiépítése után következik, és magában foglalja egy ember közbelépését, aki megtanítja a modellnek, mely válaszok jók és melyek rosszak. Az RLHF egy viszonylag új technika az AI-modellek finomhangolására, és várhatóan idővel javulni fog, ahogy az AI-modellek egyre okosabbak lesznek. Jelenleg azonban még kihívást jelent az optimális paraméterek meghatározása, ami a túlzott vagy nem megfelelő cenzúrához vezethet. A megerősítő tanuláson kívül azonban más módszerek is léteznek az AI-chatbotok védelmének biztosítására. A "biztonsági osztályozók" olyan eszközök, amelyeket a nagy nyelvi modellekben használnak a különböző promptok "jó" és "hátrányos" kategóriákba sorolására. Ez pajzsként működik, így bizonyos kérdések soha nem jutnak el az alapul szolgáló AI-modellhez. Ez magyarázhatja, amit a Gemini észrevehetően magasabb elutasítási arányainál láttunk.

Az AI-cenzorok jövője

Sokan úgy vélik, hogy az AI-chatbotok lehetnek a Google Keresés jövője; az interneten történő információszerzés új, hatékonyabb módja. A keresőmotorok az elmúlt két évtizedben alapvető információs eszköznek számítottak, de az AI-eszközök új fajta vizsgálat alá kerülnek. A különbség az, hogy az olyan eszközök, mint a ChatGPT és a Gemini megmondják neked a választ, nem csak linkeket szolgáltatnak, mint egy keresőmotor. Ez egy egészen más típusú információs eszköz, és eddig sok megfigyelő úgy érzi, hogy a technológiai iparnak nagyobb a felelőssége a chatbotjaik által közvetített tartalom ellenőrzésében. Ahogy az AI egyre kifinomultabbá és elterjedtebbé válik, kritikus fontosságú lesz megtalálni a megfelelő egyensúlyt az innováció és a felelősség között. A vállalatoknak együtt kell működniük a szabályozókkal, a szakértőkkel és a nyilvánossággal, hogy etikus és átlátható módon fejlesszék ezeket a technológiákat, szem előtt tartva a társadalmi következményeket. 

Eredeti cikk: gizmodo.com

Népszerű bejegyzések