Meglepetés az Apple-től: itt az OpenELM, a nyílt AI

Az Apple, amely eddig főként zárt rendszereiről volt ismert, most meglepő lépést tett az AI világában. Az új OpenELM nevű generatív AI modelljük egy nyílt forráskódú rendszer, amely jelentősen megváltoztathatja az iparágat. Az OpenELM nem csak nyílt hozzáférhetősége miatt számít újdonságnak, hanem technikai vívmányai miatt is. A jelentések szerint 2,36%-kal pontosabb, mint az előző modelljük, miközben csak fele annyi előtanítási tokent használ.

Hatékonyabb adatfeldolgozás és javuló pontosság

Az OpenELM a rétegenkénti skálázás módszerét alkalmazza, amely optimalizálja a paraméterek használatát a modell architektúrájában. Ez lehetővé teszi a hatékonyabb adatfeldolgozást és a jobb pontosságot az olyan régebbi modellekhez képest, amelyek egyenletesen osztották el a beállításokat a különböző szekciókban. A modellt széles körű nyilvános forrásokból, például a GitHub, a Wikipédia és a Stack Exchange oldalakról származó szövegekkel tanították, összesen több milliárd adatpontot felhasználva.

Nyílt forráskódú keretrendszer a fejlesztőknek és kutatóknak

Az Apple OpenELM modelljének különlegessége, hogy egy teljesen nyílt forráskódú keretrendszerként bocsátják rendelkezésre, amely mind a modell betanítására, mind kiértékelésére használható. Ez a nyílt hozzáállás lehetővé teszi a felhasználók számára, hogy pontosan lássák és lemásolhassák a modell betanításának módját, elősegítve ezzel a nyíltabb és megosztottabb kutatást.

Teljesítménynövelő technikák alkalmazása

Az OpenELM olyan intelligens stratégiákat alkalmaz a számítási erőforrások maximális kihasználása érdekében, mint az RMS Norm a kiegyensúlyozottság fenntartására és a csoportosított lekérdezési figyelem (grouped query attention) a teljesítmény növelésére. Ezeknek a technikáknak köszönhetően a modell a kevesebb előtanítási token ellenére is pontosabb tud lenni más nyelvi modelleknél.

Kiemelkedő teljesítmény valós feladatokban

Az OpenELM különböző szabványos zero-shot és few-shot feladatokban is következetesen jobban teljesít, mint más modellek. Ezek a feladatok azt mérik, hogy a modell mennyire képes megérteni és reagálni olyan új helyzetekre, amelyekre nem specifikusan tanították be. Ez kritikus fontosságú a valós világbeli alkalmazások szempontjából, ahol az AI modelleknek rugalmasan kell alkalmazkodniuk a változó körülményekhez.

Hardverkompatibilitás és teljesítményoptimalizálás

Az Apple alapos teljesítményelemzést végzett annak felmérésére, hogy az OpenELM hogyan állja meg a helyét más csúcsmodellekkel szemben. A tesztek azt mutatták, hogy a modell pontosabb, mint a hasonló modellek, például az MMO, azonban az összetett módszerek, mint az RMS Norm alkalmazása miatt valamivel lassabb. Az Apple csapata már dolgozik azon, hogy a pontosság megtartása mellett növeljék a modell sebességét, hogy az még több felhasználási területen legyen alkalmazható.

Integrálhatóság az Apple eszközeivel és keretrendszereivel

Az OpenELM zökkenőmentesen integrálható az Apple saját MLX gépi tanulási keretrendszerével, lehetővé téve a modell közvetlen futtatását Apple eszközökön. Ez csökkenti a felhőalapú szolgáltatások iránti igényt, ami jobb adatvédelmet és biztonságot nyújt a felhasználóknak. Az eszközön történő adatfeldolgozás kulcsfontosságú az AI-alapú alkalmazások fejlesztői számára, mivel lehetővé teszi, hogy erőteljes AI-funkciókat építsenek be a mindennapi eszközökbe, az okostelefonoktól kezdve az otthoni technológiákig.

Eredeti cikk: YouTube


Népszerű bejegyzések