Az AI-k összeomlása: Hogyan válhatnak használhatatlanná az AI-k, ha más AI-kból tanulnak?

Az AI-k használhatatlanná válnak, ha más AI-kból tanulnak

Az oxfordi egyetem kutatói figyelmeztetnek, hogy az AI-k, mint például a ChatGPT, amelyek más AI-k kimeneteit használják a képzésükhöz, erősen elfogultakká, túl egyszerűvé és a valóságtól elszakadttá válhatnak. Az AI-k, mint például a ChatGPT, nagyméretű nyelvi modellek (LLM-ek), az interneten található emberi írott szövegek hatalmas adatbázisait használják fel, hogy statisztikai modellt készítsenek az emberi nyelvről, és megjósolják, mely szavak a legvalószínűbbek egy mondatban. Az interneten elérhetővé válása óta az AI-generált szövegek elárasztották az internetet, de az előttünk álló AI-kra gyakorolt hatásuk nem egyértelmű.

Most Ilia Shumailov az oxfordi egyetemről és munkatársai felfedezték, hogy az AI modellek, amelyek más AI-k kimeneteit használják a képzésükhöz, erősen elfogultakká, túl egyszerűvé és a valóságtól elszakadttá válnak - egy olyan problémát, amit modell összeomlásnak neveznek.

Ennek a hibának az oka az AI modellek statisztikai reprezentációja. Egy AI, amely sokszor lát egy kifejezést vagy mondatot, valószínűleg ismételni fogja ezt a kifejezést az eredményben, és kevésbé valószínű, hogy olyasmit produkál, amit ritkán látott. Amikor új modelleket tanítanak más AI-k kimenetéből, csak a eredeti AI lehetséges kimeneteinek kis részét látják. Ez a részhalmaz valószínűleg nem tartalmazza a ritkább kimeneteket, így az új AI nem fogja figyelembe venni őket a saját kimeneteiben. A modellnek nincs módja annak megállapítására, hogy az AI által generált szöveg megfelel-e a valóságnak, ami még több téves információt eredményezhet, mint a jelenlegi modellek.

Egy elégtelenül sokszínű képzési adathalmaz hiánya a modellek saját hiányosságaival és a képzési módszerekkel együtt eredményezi a modell összeomlását. "Ahogy ez a folyamat ismétlődik, végül egy olyan őrület állapotába jutunk, ahol csak hibák, hibák és hibák vannak, és a hibák mértéke sokkal nagyobb, mint bármi más" - mondja Shumailov.

Hogy milyen gyorsan történik ez a folyamat, az attól függ, hogy az AI képzési adataiban mennyi AI-generált tartalom található, és milyen típusú modellt használ. De úgy tűnik, hogy minden AI adatnak kitett modell végül összeomlik. Az egyetlen módja annak, hogy kikerüljük ezt, az lenne, ha kizárnánk az AI-generált kimeneteket, mondja Shumailov. De ez megbízhatóan nem lehetséges, hacsak nem rendelkezel egy olyan felülettel, ahol ismert, hogy emberek írnak be szöveget, például a Google vagy az OpenAI ChatGPT felülete - ez a dinamika csak megerősíthetné a nagy technológiai vállalatok már jelentős pénzügyi és számítási előnyeit.

Néhány hibát talán enyhíthetünk azáltal, hogy utasítjuk az AI-kat, hogy előnyben részesítsék az AI tartalom előtti képzési adatokat, mondja Vinu Sadasivan a Marylandi Egyetemen. Lehetőség van arra is, hogy az emberek nem posztolnak AI tartalmat az internetre, mielőtt maguk szerkesztenék, mondja Florian Tramèr a Zürichi Szövetségi Műszaki Egyetemen. "Még akkor is, ha az LLM önmagában valamilyen módon elfogult, az emberi ösztönzési és szűrési folyamat enyhítheti ezt, hogy a végső eredmények közelebb legyenek az eredeti emberi elfogultsághoz" - mondja.

Népszerű bejegyzések