Meninger om Generative AI på CadenceLIVE - Semiwiki

Meninger om Generative AI på CadenceLIVE – Semiwiki

Kilde node: 2661356

Ifølge noen AI-drømmere er vi nesten der. Vi trenger ikke lenger maskinvare- eller programvaredesigneksperter – bare noen som legger inn grunnleggende krav som fullt realiserte systemteknologier vil falle fra i den andre enden. Ekspertuttalelser i bransjen er entusiastiske, men mindre hyperbolske. Bob O'Donnell, president, grunnlegger og sjefanalytiker ved TECHnalysis Research modererte et panel om dette emnet på CadenceLIVE med paneldeltakerne Rob Christy (teknisk direktør og utpreget ingeniør, Implementering – Central Engineering Systems at Arm), Prabal Dutta (lektor, elektroteknikk og informatikk, ved University of California, Berkeley), Dr. Paul Cunningham (Senior Vice President og General Manager for System & Verification Group ved Cadence), Chris Rowen (VP of Engineering, Collaboration AI hos Cisco) og Igor Markov (Research) Forsker ved Meta) – folk som vet mer enn de fleste av oss om chipdesign og AI. Alle paneldeltakerne ga verdifull innsikt. Jeg har oppsummert diskusjonen her.

Meninger om Generativ AI

Vil generativ AI endre brikkedesign?

Konsensus var ja og nei. AI kan automatisere mye av menneske-i-sløyfen-interaksjonen på toppen av nødvendige byggesteinsteknologier: Plass-og-rute, logikksimulering, kretssimulering osv. Dette lar oss utforske et bredere – kanskje mye bredere – spekter av alternativer enn det som ville vært mulig gjennom manuell utforskning.

AI er grunnleggende sannsynlighet, ideelt der sannsynlige svar er passende (generelt forbedret på en grunnlinje), men ikke der høy presisjon er obligatorisk (f.eks. syntetisering av porter). Videre er generative modeller i dag veldig gode på et begrenset sett med felt, ikke nødvendigvis andre steder. For eksempel er de veldig ineffektive i matematikkapplikasjoner. Det er også viktig å huske at de egentlig ikke lærer ferdigheter – de lærer å etterligne. Det er ingen underliggende forståelse av for eksempel elektroteknikk, fysikk eller matematikk. I praktisk bruk kan noen begrensninger utlignes med sterk verifisering.

Når det er sagt, det de kan gjøre i språkapplikasjoner er bemerkelsesverdig. I andre massive domenespesifikke datasett, som i nettverk, kan store modeller lære struktur og utlede mange interessante ting som ikke har noe med språk å gjøre. Du kan forestille deg superlineær læring i noen domener hvis læring kunne kjøres mot verdensomspennende korpus, forutsatt at vi kan mestre vanskelige IP- og personvernproblemer.

Kan generative metoder øke kompetanseutviklingen?

Innen halvleder- og systemdesign står vi overfor en alvorlig talentmangel. Paneldeltakere tror AI vil hjelpe yngre, mindre erfarne ingeniører med å akselerere raskere til et mer erfarent ytelsesnivå. Eksperter vil også bli bedre og få mer tid til å studere og anvende nye teknikker fra stadig utvidende grenser innen mikroarkitektonisk og implementeringsforskning. Dette bør være en påminnelse om at læringsbaserte metoder vil hjelpe med "alle erfarne designere vet" kunnskap, men vil alltid være bak ekspertkurven.

Vil slike verktøy tillate oss å lage forskjellige typer sjetonger? På kort sikt vil AI bidra til å lage bedre sjetonger i stedet for nye typer sjetonger. Generative modeller er gode med sekvenser av trinn; hvis du går gjennom den samme designprosessen mange ganger, kan AI optimalisere/automatisere disse sekvensene bedre enn vi kan. Lenger ut kan generative metoder hjelpe oss med å bygge nye typer AI-brikker, noe som kan være interessant fordi vi innser at flere og flere problemer kan omformes til AI-problemer.

Et annet interessant område er multi-die design. Dette er et nytt område selv for designeksperter. I dag tenker vi på brikkeblokker med grensesnitt bygget opp som forhåndsbestemte legobrikker. Generativ AI kan foreslå nye måter å låse opp for bedre optimaliseringer, og gi andre svar enn selv ekspertene kan raskt finne.

Fallgruver

Hva er de potensielle fallgruvene ved å bruke generativ AI på brikke- og/eller systemdesign? Vi representerer selv ett problem. Hvis AI gjør en god jobb, begynner du å stole mer på den enn du burde? Lignende spørsmål er allerede en bekymring for autonom kjøring og autonome våpendrevne droner. Tillit er en delikat balanse. Vi kan stole på men verifisere, men hva så om verifisering også blir læringsbasert for å håndtere kompleksitet? Når verifisering AI beviser riktigheten av AI-generert design, hvor krysser vi grensen mellom berettiget og uberettiget tillit?

ChatGPT er et advarende eksempel. Den store fascinasjonen og den store feilslutningen til ChatGPT er at du kan spørre om hva som helst. Vi er overrasket over den spesifikke smartheten og over det faktum at den dekker så mange forskjellige områder. Det føles som om det automatiske generelle etterretningsproblemet er løst.

Men nesten alle applikasjoner i den virkelige verden vil være mye smalere, bedømt på andre kriterier enn en evne til å forbløffe eller underholde. I virksomhet, ingeniørfag og andre virkelige applikasjoner vil vi forvente høy kvalitet på resultater. Det er ingen tvil om at slike applikasjoner vil forbedre seg gradvis, men hvis hypen blir for langt foran virkeligheten, vil forventningene bli brutt, og tilliten til videre fremskritt vil stoppe.

Mer pragmatisk, kan vi integrere etablerte poengferdigheter i generative systemer? Igjen, ja og nei. Det er noen utvidede modeller som er veldig produktive og i stand til å håndtere aritmetikk og formelmanipulasjon, for eksempel WolframAlpha som allerede er integrert med ChatGPT. WolframAlpha gir symbolsk og numerisk resonnement, som utfyller AI. Tenk på AI som menneske-maskin-grensesnittet og WolframAlpha-forstørrelsen som den dype forståelsen bak det grensesnittet.

Er det mulig å omgå utvidelse, å lære og laste ferdigheter direkte inn i AI som moduler ettersom Neo var i stand til å lære King Fu i Matrix? Hvor lokal er representasjonen av slike ferdigheter i språkmodeller? Dessverre, selv nå, er lært ferdigheter representert av vekter i modellen og er globale. I denne grad er det ikke mulig å laste en opplært modul som en utvidelse til en eksisterende opplært plattform.

Det er et litt beslektet spørsmål rundt verdien av verdensomspennende opplæring versus intern opplæring. Teorien er at hvis ChatGPT kan gjøre en så god jobb ved å trene på et globalt datasett, så burde designverktøy kunne gjøre det samme. Denne teorien snubler på to måter. For det første er designdataene som trengs for opplæring svært proprietære, som aldri skal deles under noen omstendigheter. Global trening virker også unødvendig; EDA-selskaper kan gi et anstendig utgangspunkt basert på designeksempler som rutinemessig brukes til å avgrense ikke-AI-verktøy. Kunder som bygger på denne basen, trener med sine egne data, rapporterer meningsfulle forbedringer for deres formål.

For det andre er det uklart at delt læring på tvers av mange forskjellige designdomener til og med ville være fordelaktig. Hvert selskap ønsker å optimalisere for sine egne spesielle fordeler, ikke gjennom en multi-purpose suppe med "beste praksis".

Håper på gjenbruk i AI og ser frem

Gitt tidligere svar, sitter vi fast med unike modeller for hvert smale domene? Det er ikke klart at én arkitektur kan gjøre alt, men åpne grensesnitt vil oppmuntre til et økosystem av muligheter, kanskje som en protokollstabel. Apper vil avvike, men det kan fortsatt være mye delt infrastruktur. Dessuten, hvis vi tenker på applikasjoner som krever en sekvens av trente modeller, kan noen av disse modellene være mindre proprietære enn andre.

Når vi ser fremover, er generativ AI et tog i rask bevegelse. Nye ideer dukker opp månedlig, til og med daglig, så det som ikke er mulig i dag kan bli mulig eller løst på en annen måte relativt snart. Det er fortsatt store problemer med personvern i alle områder avhengig av opplæring på tvers av brede datasett. Å bevise at lært atferd i slike tilfeller ikke vil krenke patenter eller forretningshemmeligheter virker som et veldig vanskelig problem, sannsynligvis best å unngå ved å begrense slik opplæring til ikke-sensitive evner.

Til tross for alle forbeholdene, er dette et område å være fryktløs. Generativ AI vil være transformativ. Vi må trene oss til å utnytte AI bedre i hverdagen. Og i sin tur bruke læringen vår til å være mer ambisiøs for vår bruk i designteknologier.

Flott prat. Håpefull, med god innsikt i begrensninger og praktiske anvendelser.

Les også:

Takeaways fra CadenceLIVE 2023

Anirudh Keynote på Cadence Live

Petri Nets validerer DRAM-protokoller. Innovasjon i verifikasjon

Del dette innlegget via:

Tidstempel:

Mer fra Semiwiki