Hétfőn az IBM bejelentette az optikai technológiában áttörést, amely megígéri, hogy drasztikusan javítja az adatközpontok képzésének és a generatív mesterséges intelligencia (AI) modellek működésének módját. Az új, együtt csomagolt optika (együtt csomagolt optika) technológiája alapvetően lehetővé teszi az optika erejének behozatalát a chipbe, lehetővé téve az adatközpontokban a kapcsolatok elérését a fénysebesség eléréséhez.

Mukesh Khare, az IBM Semiconductor vezérigazgatója, a média eligazításánál újságírókkal beszélt, elmondta, hogy a telekommunikációs ipar jelentős lépéseket tett a gyorsabb chipek készítésében, ám a chipek közötti kommunikációs sebesség nem lépett fel ezzel. A számítási teljesítmény növekedési sebessége és a chipek közötti kommunikáció sebességének növekedési sebessége között több nagyságrendű különbség van.
Valójában, alapvető szinten, a chipek továbbra is elektromosságon keresztül kommunikálnak, rézhuzalokat használnak "-jegyezte meg. És mindannyian tudjuk, hogy a legjobb kommunikációs technológia a száloptika, ezért használják mindenhol a távolsági kommunikációban."
Noha az együttesen beindulási optika már egy ideje fennáll, az IBM forradalmasította a ko -benyújtott optikát egy új polimer optikai hullámvezető (PWG) technológia kifejlesztésével, amely lehetővé teszi a chipmakerek számára, hogy szilícium fotonikus chipeket helyezzenek el az Edge régióba - egy értékes térnek, amelyet "Prime Ingatlan" néven ismertek -, majd az első alkalommal használják. A PWG technológia lehetővé teszi a chipmakerek számára, hogy hatszor több optikai rostot tegyenek a szilícium -fotonikus chip szélén - egy értékes hely, amelyet "Prime Real Estate" néven ismertek -, mint valaha. Mindegyik rost nagyjából háromszor olyan széles, mint az emberi haj, néhány centiméterről száz méterre terjedhet, és másodpercenként terabitákon továbbíthatja az adatokat.
Mit jelent ez az egész?
A vállalat szerint a technológia 80 -szor gyorsabb kommunikációs sávszélességet tesz lehetővé a chipek között, mint a mai lehetséges, az elektronika használatával, és több mint ötször csökkenti az energiafogyasztást.
Ezenkívül a nagy nyelvi modellek (LLMS) edzését akár ötször is gyorsabbá teheti, csökkentve a szokásos LLM kiképzéséhez szükséges időt három hónapról három hétre, a teljesítménynövekedés növekszik, mivel nagyobb modelleket és több GPU -t használnak.
Amellett, hogy lehetővé teszi a GPU-k és a gázpedálok gyorsabb kommunikációját, ez a technológia újradefiniálhatja azt, hogy a számítástechnikai iparág milyen módon továbbítja a nagy sávszélességű adatokat táblákon és szervereken keresztül.
Khare azt mondta: "Nagyon izgatottak vagyunk, hogy bemutatjuk a fény erejét, hogy radikálisan felgyorsítsuk az AI és sok más alkalmazás világát."
Amikor megkérdezték, hogy mikor kerül forgalomba a technológia, Khare azt mondta, hogy az IBM kutatási osztálya "készen áll arra, hogy használja".





