Veszélyes vizekre evez az OpenAI az új MI modellel
Az OpenAI bejelentette, hogy megkezdte egy új, csúcskategóriás mesterséges intelligencia modell betanítását, amely a népszerű ChatGPT chatbotot is működtető GPT-4 technológia utódja lesz. A San Franciscó-i startup, amely a világ egyik vezető MI-cége, blogbejegyzésében közölte, hogy az új modell várhatóan a "képességek következő szintjét" hozza majd el, miközben arra törekszenek, hogy felépítsék az "általános mesterséges intelligenciát" (AGI), egy olyan gépet, amely bármit képes elvégezni, amire az emberi agy képes. Az AGI megvalósítása a mesterséges intelligencia kutatás végső célja, de a szakértők véleménye megoszlik arról, hogy mikor érhető el ez a mérföldkő. Az új modell olyan MI-termékek motorjaként szolgál majd, mint a chatbotok, a digitális asszisztensek (hasonlóan az Apple Siri-jéhez), a keresőmotorok és a képgenerátorok. Ezek a technológiák egyre szélesebb körben terjednek el, és várhatóan jelentős hatással lesznek a munkavégzés, a kommunikáció és az információszerzés módjára.
Új biztonsági és védelmi bizottság az MI kockázatainak kezelésére
Az OpenAI azt is bejelentette, hogy létrehoz egy új biztonsági és védelmi bizottságot, amely feltárja, hogyan kell kezelnie az új modell és a jövőbeli technológiák által jelentett kockázatokat. Az MI technológiák rohamos fejlődésével egyre nagyobb az aggodalom a potenciális veszélyekkel kapcsolatban, mint például a félretájékoztatás terjesztése, a munkahelyek megszűnése, vagy akár az emberiség fenyegetése. "Bár büszkék vagyunk arra, hogy mind a képességek, mind a biztonság terén iparágvezető modelleket építünk és adunk ki, üdvözöljük az élénk vitát ebben a fontos pillanatban" - mondta a vállalat.A technológia gyors ütemű fejlesztése a versenytársakkal szemben
Az OpenAI célja, hogy gyorsabban vigye előre az MI technológiát, mint riválisai, miközben megnyugtatja azokat a kritikusokat, akik szerint a technológia egyre veszélyesebbé válik. Az MI cégek, mint az OpenAI, a Google, a Meta és a Microsoft, több mint egy évtizede folyamatosan növelik az MI technológiák teljesítményét, nagyjából két-három évente érzékelhető ugrást mutatva. Az OpenAI GPT-4 modellje, amelyet 2023 márciusában adtak ki, lehetővé teszi a chatbotok és más szoftveralkalmazások számára, hogy kérdésekre válaszoljanak, e-maileket írjanak, tanulmányokat generáljanak és adatokat elemezzenek. A technológia frissített verziója, amelyet ebben a hónapban mutattak be, és még nem széles körben elérhető, képes képeket generálni és rendkívül társalgási stílusban válaszolni a kérdésekre és utasításokra.Etikai aggályok és szerzői jogi viták
A GPT-4o bemutató után néhány nappal Scarlett Johansson színésznő azt állította, hogy a rendszer az övéhez "hátborzongatóan hasonló" hangot használ. Elmondta, hogy elutasította Sam Altman, az OpenAI vezérigazgatójának erőfeszítéseit, hogy engedélyezze a hangját a termékhez, és ügyvédet fogadott, majd felszólította az OpenAI-t, hogy hagyjon fel a hang használatával. A vállalat azt állította, hogy a hang nem Johansson hangja. Az olyan technológiák, mint a GPT-4o, hatalmas mennyiségű digitális adat, köztük hangok, fotók, videók, Wikipédia-cikkek, könyvek és hírcikkek elemzésével sajátítják el képességeiket. Ez felveti a szerzői jogok megsértésének kérdését. A The New York Times decemberben beperelte az OpenAI-t és a Microsoftot, szerzői jogi jogsértést állítva a hírtartalmakkal kapcsolatban az MI-rendszerekben.Az új modell várható megjelenése
Az MI-modellek digitális "képzése" hónapokig vagy akár évekig is eltarthat. A képzés befejezése után az MI-cégek jellemzően több hónapot töltenek a technológia tesztelésével és finomhangolásával a nyilvános használat előtt. Ez azt jelentheti, hogy az OpenAI következő modellje csak újabb kilenc hónap vagy akár egy év múlva, vagy még később érkezik meg.A biztonság és a kockázatok kezelésének prioritása
Miközben az OpenAI betanítja új modelljét, az új biztonsági és védelmi bizottság azon fog dolgozni, hogy finomítsa a technológia védelmére vonatkozó irányelveket és folyamatokat - közölte a vállalat. A bizottság tagjai között van Sam Altman, valamint az OpenAI igazgatótanácsának tagjai, Bret Taylor, Adam D'Angelo és Nicole Seligman. A vállalat közölte, hogy az új irányelvek a késő nyári vagy őszi időszakban már érvényben lehetnek. Ebben a hónapban az OpenAI bejelentette, hogy Ilya Sutskever, az egyik társalapító és a biztonsági erőfeszítések egyik vezetője távozik a vállalattól. Ez aggodalmat keltett, hogy az OpenAI nem foglalkozik eléggé az MI által jelentett veszélyekkel. A biztonság és az etika kérdése központi szerepet játszik az MI fejlesztésében, mivel a technológia egyre kifinomultabbá és erőteljesebbé válik. Az iparág vezetői, a szabályozók és a társadalom egésze számára kulcsfontosságú, hogy proaktívan kezeljék ezeket a kihívásokat, hogy az MI az emberiség javát szolgálja, miközben minimalizálják a potenciális kockázatokat és negatív következményeket.
(Eredeti cikk: nytimes.com)