Vezérigazgatói interjú: Suresh Sugumar, a Mastiska AI - Semiwiki munkatársa

Vezérigazgatói interjú: Suresh Sugumar, a Mastiska AI – Semiwiki munkatársa

Forrás csomópont: 3003635

Suresh Sugumar Mastiska AISuresh egy technológiai vezető, aki mély műszaki szakértelemmel rendelkezik a félvezetők, a mesterséges intelligencia, a kiberbiztonság, a dolgok internete, a hardver, a szoftver stb. területén. 20 évet töltött az iparágban, legutóbb a nyílt forráskódú nulla-források ügyvezető igazgatójaként dolgozott. megbízik a chipek fejlesztésében az Abu Dhabi-i Technology Innovation Institute-nál és más Fortune 500 félvezetőgyártó cégeknél, mint például az Intel, a Qualcomm és a MediaTek, különböző vezetői beosztásokban, ahol nagy teljesítményű, energiahatékony, kvantum után biztonságos és biztonságos megoldásokat kutatott és fejlesztett. mikrochipek/rendszer-chipek (SoC)/gyorsítók az adatközpontok, az ügyfelek, az okostelefonok, a hálózatok, az IoT és az AI/ML piacokhoz. Közreműködött a Falcon LLM-ben (első helyen áll a huggingface-ben), és ő volt az egyéni mesterséges intelligencia hardverplatform vezető építésze (törölve – a prioritások megváltoztak). Több mint 1 amerikai szabadalom birtokosa, és több mint 15 konferencián publikált/előadást tartott.

Suresh emellett aktívan dolgozik vezető pozícióban a RISC-V Internationalnél, ahol a Trusted Computing Group elnöke a RISC-V bizalmas számítási képességének fejlesztése érdekében, és az AI/ML Group elnöke, hogy RISC-V hardveres gyorsítást fejlesszen ki AI/ML munkaterhelésekhez, mint pl. Transformer Large Language Models használt ChatGPT típusú alkalmazások. Ezenkívül tanácsot ad startupoknak és kockázatitőke-cégeknek befektetési döntések támogatásával, termékstratégiával, technológiai átvilágítással stb.

MBA fokozatot szerzett az INSEAD-tól, MS-fokozatot a Birla Institute of Technology & Science Pilani-tól, rendszermérnöki tanúsítványt az MIT-től, AI-tanúsítványt a Stanfordtól és gépjármű-funkcionális biztonsági tanúsítványt a TÜV SÜD-től.

Meséljen nekünk a cégéről
"Mastiṣka AI” (A Mastiṣka szanszkritul agyat jelent) egy mesterséges intelligencia-vállalat, amely agyszerű számítógépek építésére összpontosít, hogy hatékonyabban futtasson alapmodelleket a holnapi generatív mesterséges intelligencia felhasználási eseteihez.

Milyen problémákat old meg?
Tekintettel az AI/GenAI előnyeire, kereslete csak növekedni fog, és a bolygónkra gyakorolt ​​mellékhatásai is. Hogyan csökkenthetjük vagy semlegesíthetjük a mesterséges intelligencia mellékhatásait bolygónkon? A szén-dioxid-leválasztás és az atomenergia jó irányba halad. De alapvetően újra kell gondolnunk a mesterséges intelligencia végzésének módját, vajon rossz módszer-e tonna mátrixszorzás?

Agyunk képes tanulni és számos feladatot elvégezni párhuzamosan, 10 W-on és 10 W alatt, de miért fogyasztanak ezek az AI-rendszerek XNUMX megawattot a modellek betanítására?

Talán a jövő olyan energiahatékony architektúrákat tartogat, mint például a neuromorf architektúrák és az emberi agyhoz legközelebb eső neurális hálózat alapú transzformátorok, amelyek 100-1000-szer kevesebb energiát fogyaszthatnak, ezáltal csökkentve a mesterséges intelligencia használatának költségeit, ezáltal demokratizálva és megmentve az emberi agyat. bolygó.

A mesterséges intelligencia jelenlegi kihívásai, nevezetesen a) elérhetőség, b) hozzáférhetőség, c) megfizethetőség és d) környezetbiztonság, valamint néhány javaslat a megoldásukra.

Ha előre látjuk a jövőt, néhány hasznos AGI-koncepciót mutat be a „HER” című film, ahol „Samantha” karakter – egy beszélgető ágens, aki természetes, megérti az érzelmeket, empátiát mutat, csodálatos másodpilóta a munkában – és tovább fut. kézi eszközöket egész nap, akkor lehet, hogy most meg kell küzdenünk az alábbi kihívásokkal.

1. probléma: Egy LLM képzése 150 10 és 10+ millió dollár közötti összegbe kerülhet, és csak a mélyebb zsebekkel rendelkezők számára teszi lehetővé az AI fejlesztését. Ráadásul a következtetés költségei is hatalmasak (tízszer többe kerül, mint egy internetes keresés)
-> Javítanunk kell a modellek/hardverek energiahatékonyságát, hogy demokratizáljuk a mesterséges intelligenciát az emberiség javára.

2. probléma: Hatalmas mesterséges intelligencia-modellek futtatása beszélgetőpartnerekhez vagy ajánlórendszerekhez, károsítja a környezetet az áramfogyasztás és a hűtés tekintetében.
-> Javítanunk kell a modellek/hardverek energiahatékonyságát, hogy megmentsük bolygónkat gyermekeink számára.

3. probléma: Az emberi agy képes és képes többfeladatos feladatok elvégzésére, de megawatt helyett csak 10 wattot fogyaszt.
—> Talán olyan gépeket kellene építeni, mint az agyunk, és nem a reguláris mátrixszorzókat gyorsabban.

Az emberiség csak fenntartható innovációkkal tud boldogulni, nem pedig úgy, hogy az innováció nevében minden erdőt kivágunk és felforraljuk az óceánokat. Meg kell védenünk bolygónkat gyermekeink és a következő generációk jóléte érdekében…

Mely alkalmazási területek a legerősebbek?
Transformer (és jövőbeli neurális architektúra) alapú alapmodellek betanítása és következtetése, 50-100x energiahatékonyabb a mai GPU-alapú megoldásokhoz képest.

Mi tartja fenn az ügyfeleit éjszaka?
Problémák azon ügyfelek számára, akik jelenleg más termékeket használnak:

A humungos nyelvi modellek betanításának villamosenergia-fogyasztása túl van a tetőn, például egy 13B paraméterű LLM képzése 390B szöveges tokeneken 200 GPU-n 7 napon keresztül 151,744 XNUMX dollárba kerül (Forrás: HuggingFace új képzési klaszter szolgáltatás oldala – https://lnkd.in/g6Vc5cz3). És még nagyobb, 100+B paraméterekkel rendelkező modellek 10+M dollárba kerülnek csak a betanítás. Ezután fizessen a következtetésért minden alkalommal, amikor új felszólítás érkezik.

A hűtéshez szükséges vízfogyasztás – a Kaliforniai Egyetem (Riverside) kutatói felbecsülték a ChatGPT-szerű szolgáltatás környezetre gyakorolt ​​hatását, és azt mondják, hogy minden alkalommal 500 milliliter vizet nyel fel (közel egy 16 unciás vizes palackban található mennyiséghez). 5-50 felszólítást vagy kérdést tartalmazó sorozat. A tartomány a szerverek elhelyezkedésétől és az évszaktól függően változik. A becslés tartalmazza a közvetett vízhasználatot, amelyet a vállalatok nem mérnek – például az adatközpontokat árammal ellátó erőművek hűtésére. (Forrás: https://lnkd.in/gybcxX8C)

Problémák a jelenlegi termékek nem vásárlói számára:

Nem engedheti meg magának a CAPEX hardvert vásárolni
Nem engedheti meg magának a felhőszolgáltatások használatát
Nem lehet újítani vagy kihasználni az AI-t – megragadt a szolgáltatási modellnél, amely kiiktat minden versenyelőnyt

Hogyan néz ki a versenykörnyezet, és hogyan lehet megkülönböztetni egymástól?

  • A GPU-k uralják a képzési teret, bár a speciális ASIC-ek is versenyeznek ebben a szegmensben
  • A Cloud & Edge következtetés túl sok lehetőséget kínál

Digitális, analóg, fotonikus – nevezzük az embereknek ugyanazt a problémát.

Megosztaná gondolatait az AI/ML chiparchitektúrájának jelenlegi állapotáról, vagyis miben látja jelenleg a legjelentősebb trendeket és lehetőségeket?

A következő trendek:
1. trend: 10 évvel ezelőtt virágzott a hardveralapú mély tanulás, most pedig ugyanez a hardver gátolja a fejlődést. A modellek üzemeltetéséhez szükséges hatalmas hardver- és villamosenergia-költségek miatt kihívást jelent a hardverhez való hozzáférés. Csak a nagy zsebekkel rendelkező cégek engedhetik meg maguknak ezeket és válnak monopóliumokká.

2. trend: Most, hogy ezek a modellek megvannak, gyakorlati célokra kell használnunk őket, hogy megnőjön a következtetési terhelés, így az AI-gyorsítóval ellátott CPU-k ismét a rivaldafénybe kerülhetnek.

3. trend: A startupok olyan alternatív lebegőpontos számábrázolásokat próbálnak kidolgozni, amelyekre a hagyományos IEEE formátum – például a logaritmikus és a poziciós alapú – jó, de nem elég. A PPA$ tervezési téroptimalizálása robbanásszerű, ha megpróbáljuk optimalizálni az egyiket, és a másik feldobásra megy.

4. trend: Az iparág elmozdul a mesterséges intelligencia szolgáltatásalapú modelljétől, és saját telephelyén helyezi el saját privát modelljeit – de a hardverhez való hozzáférés kihívást jelent az ellátási hiányok, a szankciók stb. miatt.

A dolgok jelenlegi állása:
10 évvel ezelőtt a hardver és az adatok elérhetősége ösztönözte az AI növekedését, most pedig ugyanaz a hardver gátolja – hadd magyarázzam el

Amióta a CPU-k szerencsétlenül működtek, és a GPU-kat újra AI-ra tervezték, sok minden történt

A vállalatok az AI/ML 4 szegmensével foglalkoztak, nevezetesen – 1) a felhőalapú képzéssel, 2) a felhőalapú következtetésekkel, 3) az élvonalkövetkeztetéssel és 4) az élvonalbeli képzéssel (egyesített tanulás az adatvédelmi érzékeny alkalmazásokhoz).
Digitális és analóg

Képzési oldal – GPU-kat, RISC-V-n alapuló ügyfélgyorsítókat, wafer-méretű chipeket (850K mag) és így tovább, ahol a hagyományos CPU-k hiányoznak (általános rendeltetésük). Következtetési oldal – Az NN-gyorsítók minden gyártótól elérhetőek okostelefonokban, laptopokban és más élvonalbeli eszközökben.

Az analóg memrisztor alapú architektúrák is megjelentek egy ideje.

Úgy gondoljuk, hogy a CPU-k nagyon jók lehetnek a következtetésekben, ha ezt gyorsítással, például mátrixbővítésekkel javítjuk

A dolgok RISC-V oldala:
A dolgok RISC-V oldalán gyorsítókat fejlesztünk a mátrixműveletekhez és más nemlineáris műveletekhez, hogy kiküszöböljük a transzformátorok munkaterhelésének lehetséges szűk keresztmetszeit. A Von Neumann szűk keresztmetszeteit a számítástechnikához közelebb álló memóriák felépítése is megszünteti, így végül az AI-gyorsítással rendelkező CPU-k a megfelelő választás a következtetésekhez.

lehetőségek:
Egyedülálló lehetőségek vannak az alapozómodellek piacának betöltésére. Példa – Az OpenAI megemlítette, hogy nem tud elég mesterséges intelligencia-számítógépet (GPU) biztosítani ahhoz, hogy továbbra is terjessze a ChatGPT szolgáltatásait… a hírek pedig arról szólnak, hogy a rendszeres internetes keresés 10-szeres villamosenergia-költsége és 500 ml víz szükséges a rendszerek hűtéséhez. minden lekérdezéshez. Van itt egy piac, amelyet ki kell tölteni – ez nem egy rése, hanem a teljes piac, amely demokratizálja az AI-t, és megbirkózik a fent említett kihívásokkal – a) elérhetőség, b) hozzáférhetőség, c) megfizethetőség és d) környezetbiztonság

Milyen új funkciókon/technológián dolgozik?
Olyan agyat építünk, mint a számítógép, kihasználva a neuromodrfikus technikákat és testreszabva a modelleket, hogy kihasználjuk az energiahatékony hardver előnyeit, felhasználva a rendelkezésre álló nyílt keretrendszerek lehetőségét.

Hogyan képzeli el az AI/ML szektor növekedését vagy változását a következő 12-18 hónapban?
Mivel a GPU-k iránti kereslet megcsappant (mintegy 30 XNUMX dollárba kerül), és a világ egyes részein szankciókkal néznek szembe ezeknek a GPU-knak a megvásárlása miatt, a világ egyes részein úgy érzik, hogy befagytak az AI-kutatásban és -fejlesztésben anélkül, hogy hozzáférnének a GPU-khoz. Alternatív hardverplatformok fogják megragadni a piacot.
A modellek talán zsugorodni fognak – az egyedi modellek, vagy akár alapvetően az információsűrűség növekedni fog

Ugyanez a kérdés, de mi lesz a növekedéssel és a változással a következő 3-5 évben?
a) Az AI-bővítésekkel rendelkező CPU-k megragadják az AI-következtetési piacot
b) A modellek fürgevé válnak, és a paraméterek kiesnek, ahogy az információsűrűség 16%-ról 90%-ra javul
c) Javul az energiahatékonyság, csökken a CO2 lábnyom
d) Új architektúrák jelennek meg
e) csökkennek a hardver- és energiaköltségek, így a modellek létrehozására és betanítására irányuló kisebb vállalatok belépési korlátja megfizethetővé válik
f) az emberek az AGI előtti pillanatokról beszélnek, de az én etalonom a karakteres Samantha (beszélgető mesterséges intelligencia) lenne a „her” című filmben. Ez talán nem valószínű, tekintettel a felnagyítás magas költségeire.

Melyek azok a kihívások, amelyek befolyásolhatják vagy korlátozhatják az AI/ML szektor növekedését?
a) Hozzáférés a hardverhez
b) Energiaköltségek és hűtési költségek és környezeti ártalmak

Is Read:

CEO Interjú: David Moore, a Pragmatic

Vezérigazgatói interjú: Dr. Meghali Chopra a Sandbox Semiconductortól

CEO Interjú: Dr. J Provine of Aligned Carbon

Időbélyeg:

Még több Semiwiki