Åsikter om Generativ AI på CadenceLIVE - Semiwiki

Åsikter om Generativ AI på CadenceLIVE – Semiwiki

Källnod: 2661356

Enligt vissa AI-drömmare är vi nästan där. Vi kommer inte längre att behöva hårdvaru- eller mjukvarudesignexperter – bara någon som kan mata in grundläggande krav från vilka fullt realiserade systemtekniker kommer att falla bort i andra änden. Expertutlåtanden i branschen är entusiastiska men mindre hyperboliska. Bob O'Donnell, president, grundare och chefsanalytiker vid TECHnalysis Research modererade en panel om detta ämne på CadenceLIVE med paneldeltagarna Rob Christy (teknisk chef och framstående ingenjör, Implementation – Central Engineering Systems at Arm), Prabal Dutta (docent, elektroteknik). och datavetenskap, vid University of California, Berkeley), Dr. Paul Cunningham (Senior Vice President och General Manager för System & Verification Group på Cadence), Chris Rowen (VP of Engineering, Collaboration AI på Cisco) och Igor Markov (Research) Forskare på Meta) – människor som vet mer än de flesta av oss om chipdesign och AI. Alla paneldeltagare erbjöd värdefulla insikter. Jag har sammanfattat diskussionen här.

Åsikter om Generativ AI

Kommer generativ AI att förändra chipdesignen?

Konsensus var ja och nej. AI kan automatisera mycket av interaktionen människa-i-slingan utöver nödvändiga byggstenstekniker: Plats-och-rutt, logisk simulering, kretssimulering, etc. Detta gör att vi kan utforska ett bredare – kanske mycket bredare – utbud av alternativ än vad som skulle vara möjligt genom manuell utforskning.

AI är i grunden probabilistisk, idealisk där probabilistiska svar är lämpliga (förbättras i allmänhet på en baslinje) men inte där hög precision är obligatorisk (t.ex. syntetisering av grindar). Dessutom är generativa modeller idag mycket bra inom en begränsad uppsättning områden, inte nödvändigtvis någon annanstans. Till exempel är de väldigt ineffektiva i matematikapplikationer. Det är också viktigt att komma ihåg att de verkligen inte lär sig färdigheter – de lär sig att härma. Det finns ingen underliggande förståelse för till exempel elektroteknik, fysik eller matematik. I praktisk användning kan vissa begränsningar kompenseras med stark verifiering.

Som sagt, vad de kan göra i språkapplikationer är anmärkningsvärt. I andra massiva domänspecifika datamängder, som i nätverk, kan stora modeller lära sig struktur och dra slutsatser om många intressanta saker som inte har något med språk att göra. Du skulle kunna föreställa dig superlinjär inlärning inom vissa domäner om inlärningen kunde köras mot världsomspännande korpus, förutsatt att vi kan bemästra svåra IP- och integritetsproblem.

Kan generativa metoder öka kompetensutvecklingen?

Inom halvledar- och systemdesign står vi inför en allvarlig talangbrist. Paneldeltagare tror att AI kommer att hjälpa yngre, mindre erfarna ingenjörer att accelerera snabbare till en mer erfarna prestandanivå. Experter kommer också att bli bättre och få mer tid att studera och tillämpa nya tekniker från ständigt expanderande gränser inom mikroarkitektonisk forskning och implementeringsforskning. Detta bör vara en påminnelse om att inlärningsbaserade metoder kommer att hjälpa till med "varje erfaren designer vet" kunskap men kommer alltid att ligga bakom expertkurvan.

Kommer sådana verktyg att tillåta oss att skapa olika typer av marker? På kort sikt kommer AI att bidra till att göra bättre marker snarare än nya typer av marker. Generativa modeller är bra med sekvenser av steg; om du går igenom samma designprocess många gånger kan AI optimera/automatisera dessa sekvenser bättre än vi kan. Längre ut kan generativa metoder hjälpa oss att bygga nya typer av AI-chips, vilket kan vara intressant eftersom vi inser att fler och fler problem kan omformas till AI-problem.

Ett annat intressant område är multi-die design. Detta är ett nytt område även för designexperter. Idag tänker vi på chipletblock med gränssnitt byggda som förutbestämda legobitar. Generativ AI kan föreslå nya sätt att låsa upp bättre optimeringar, vilket ger andra svar än vad till och med experterna snabbt kan hitta.

Fallgropar

Vilka är de potentiella fallgroparna med att tillämpa generativ AI på chip- och/eller systemdesign? Vi själva representerar ett problem. Om AI:n gör ett bra jobb, börjar du lita mer på den än du borde? Liknande frågor är redan ett problem för autonom körning och autonoma beväpnade drönare. Förtroende är en känslig balans. Vi kan lita på men verifiera, men tänk om verifiering också blir lärande för att hantera komplexitet? När verifiering av AI bevisar riktigheten av AI-genererad design, var går vi över gränsen mellan berättigat och omotiverat förtroende?

ChatGPT är ett varnande exempel. Den stora fascinationen och det stora felet med ChatGPT är att du kan fråga vad som helst. Vi är förvånade över den specifika smartheten och det faktum att den täcker så många olika områden. Det känns som att det automatiska allmänna underrättelseproblemet är löst.

Men nästan alla verkliga applikationer kommer att vara mycket smalare, bedömda utifrån andra kriterier än en förmåga att förvåna eller underhålla. Inom företag, teknik och andra verkliga tillämpningar förväntar vi oss hög kvalitet på resultaten. Det råder ingen tvekan om att sådana applikationer gradvis kommer att förbättras, men om hypen blir för långt före verkligheten kommer förväntningarna att krossas och förtroendet för ytterligare framsteg kommer att stanna.

Mer pragmatiskt, kan vi integrera etablerade poängkunskaper i generativa system? Återigen, ja och nej. Det finns några utökade modeller som är mycket produktiva och kan hantera aritmetik och formelmanipulation, till exempel WolframAlpha som redan är integrerad med ChatGPT. WolframAlpha ger symboliska och numeriska resonemang, som kompletterar AI. Tänk på AI som människa-maskin-gränssnittet och WolframAlpha-förstärkningen som den djupa förståelsen bakom det gränssnittet.

Är det möjligt att kringgå förstärkning, att lära sig och ladda färdigheter direkt i AI som moduler eftersom Neo kunde lära sig King Fu i Matrix? Hur lokal är representationen av sådana färdigheter i språkmodeller? Tyvärr, även nu, representeras inlärda färdigheter av vikter i modellen och är globala. I denna utsträckning är det inte möjligt att ladda en tränad modul som en förlängning till en befintlig tränad plattform.

Det finns en något relaterad fråga kring värdet av världsomspännande utbildning kontra intern utbildning. Teorin är att om ChatGPT kan göra ett så bra jobb genom att träna på en global dataset, så borde designverktyg kunna göra detsamma. Denna teori snubblar på två sätt. För det första är designdatan som behövs för utbildningen mycket patentskyddad och får aldrig delas under några omständigheter. Global träning verkar också onödig; EDA-företag kan ge en anständig utgångspunkt baserat på designexempel som rutinmässigt används för att förfina icke-AI-verktyg. Kunder som bygger på den basen, tränar med sina egna data, rapporterar meningsfulla förbättringar för sina ändamål.

För det andra är det oklart att delat lärande över många olika designdomäner ens skulle vara fördelaktigt. Varje företag vill optimera för sina egna speciella fördelar, inte genom en mångsidig soppa med "bästa praxis".

Hoppas på återanvändning i AI och ser fram emot

Med tanke på tidigare svar, har vi fastnat med unika modeller för varje smal domän? Det är inte klart att en arkitektur kan göra allt, men öppna gränssnitt kommer att uppmuntra ett ekosystem av kapacitet, kanske som en protokollstack. Appar kommer att skilja sig åt, men det kan fortfarande finnas mycket delad infrastruktur. Dessutom, om vi tänker på applikationer som kräver en sekvens av utbildade modeller, kan vissa av dessa modeller vara mindre proprietära än andra.

Om vi ​​ser framåt är generativ AI ett tåg som rör sig snabbt. Nya idéer dyker upp varje månad, till och med dagligen, så det som inte är möjligt idag kan bli möjligt eller lösas på ett annat sätt relativt snart. Det finns fortfarande stora frågor om integritet i alla områden beroende på utbildning i breda datamängder. Att bevisa att inlärt beteende i sådana fall inte kommer att bryta mot patent eller affärshemligheter verkar vara ett mycket svårt problem, förmodligen bäst att undvika genom att begränsa sådan utbildning till icke-känsliga förmågor.

Trots alla varningar är detta ett område att vara orädd. Generativ AI kommer att vara transformativ. Vi måste träna oss för att bättre utnyttja AI i våra dagliga liv. Och i sin tur, tillämpa vår inlärning för att vara mer ambitiös för vår användning inom designteknik.

Bra prat. Hoppfull, med goda insikter om begränsningar och praktiska tillämpningar.

Läs också:

Takeaways från CadenceLIVE 2023

Anirudh Keynote på Cadence Live

Petri Nets validerar DRAM-protokoll. Innovation inom verifiering

Dela det här inlägget via:

Tidsstämpel:

Mer från Semiwiki