Meningen over generatieve AI op CadenceLIVE - Semiwiki

Meningen over generatieve AI op CadenceLIVE – Semiwiki

Bronknooppunt: 2661356

Volgens sommige AI-dromers zijn we er bijna. We hebben niet langer hardware- of software-ontwerpexperts nodig; alleen iemand die de basisvereisten invoert, waarna volledig gerealiseerde systeemtechnologieën aan de andere kant zullen afhaken. De meningen van deskundigen in de sector zijn enthousiast, maar minder hyperbolisch. Bob O'Donnell, president, oprichter en hoofdanalist bij TECHnalysis Research modereerde een panel over dit onderwerp op CadenceLIVE met panelleden Rob Christy (technisch directeur en Distinguished Engineer, Implementation – Central Engineering Systems bij Arm), Prabal Dutta (Associate Professor, Electrical Engineering en Computerwetenschappen, aan de Universiteit van Californië, Berkeley), Dr. Paul Cunningham (Senior Vice President en General Manager van de System & Verification Group bij Cadence), Chris Rowen (VP Engineering, Collaboration AI bij Cisco) en Igor Markov (Research Wetenschapper bij Meta) – mensen die meer dan de meesten van ons weten over chipontwerp en AI. Alle panelleden boden waardevolle inzichten. Ik heb de discussie hier samengevat.

Meningen over generatieve AI

Zal generatieve AI het chipontwerp veranderen?

De consensus was ja en nee. AI kan een groot deel van de mens-in-de-lus-interactie automatiseren bovenop de noodzakelijke bouwsteentechnologieën: plaats-en-route, logische simulatie, circuitsimulatie, enz. Dit stelt ons in staat een breder – misschien veel breder – scala aan mogelijkheden te verkennen. opties dan mogelijk zou zijn via handmatige verkenning.

AI is fundamenteel probabilistisch, ideaal waar probabilistische antwoorden geschikt zijn (over het algemeen verbeterend ten opzichte van een basislijn), maar niet waar hoge precisie verplicht is (bijvoorbeeld het synthetiseren van poorten). Bovendien zijn generatieve modellen tegenwoordig zeer goed op een beperkt aantal terreinen, en niet noodzakelijkerwijs elders. Ze zijn bijvoorbeeld erg inefficiënt in wiskundige toepassingen. Het is ook belangrijk om te onthouden dat ze in werkelijkheid geen vaardigheden leren, maar leren nabootsen. Er is geen onderliggend begrip van bijvoorbeeld elektrotechniek, natuurkunde of wiskunde. In de praktijk kunnen sommige beperkingen worden gecompenseerd door een sterke verificatie.

Dat gezegd hebbende, is het opmerkelijk wat ze kunnen doen op het gebied van taaltoepassingen. In andere enorme domeinspecifieke datasets, zoals in netwerken, zouden grote modellen structuur kunnen leren en veel interessante dingen kunnen afleiden die niets met taal te maken hebben. Je zou je superlineair leren op sommige domeinen kunnen voorstellen als het leren zou kunnen botsen met wereldwijde corpora, ervan uitgaande dat we netelige IP- en privacykwesties onder de knie kunnen krijgen.

Kunnen generatieve methoden de ontwikkeling van vaardigheden stimuleren?

Op het gebied van halfgeleider- en systeemontwerp worden we geconfronteerd met een ernstig tekort aan talent. Panelleden zijn van mening dat AI jongere, minder ervaren ingenieurs zal helpen sneller te accelereren naar een meer ervaren prestatieniveau. Deskundigen zullen ook beter worden en meer tijd krijgen om nieuwe technieken te bestuderen en toe te passen vanuit de voortdurend verleggende grenzen in microarchitectuur- en implementatieonderzoek. Dit zou een herinnering moeten zijn dat op leren gebaseerde methoden zullen helpen bij het verkrijgen van ‘elke ervaren ontwerper weet’-kennis, maar altijd achter de expertcurve zullen blijven.

Zullen dergelijke tools ons in staat stellen verschillende soorten chips te maken? Op de korte termijn zal AI helpen betere chips te maken in plaats van nieuwe soorten chips. Generatieve modellen zijn goed met reeksen stappen; als je vaak hetzelfde ontwerpproces doorloopt, kan AI die sequenties beter optimaliseren/automatiseren dan wij. Verderop kunnen generatieve methoden ons helpen nieuwe soorten AI-chips te bouwen, wat interessant zou kunnen zijn omdat we ons realiseren dat steeds meer problemen kunnen worden herschikt als AI-problemen.

Een ander interessant gebied is het ontwerp met meerdere matrijzen. Dit is zelfs voor ontwerpexperts een nieuw gebied. Tegenwoordig denken we aan chipletblokken met interfaces die zijn opgebouwd als vooraf bepaalde Lego-stukken. Generatieve AI kan nieuwe manieren voorstellen om betere optimalisaties te ontsluiten en andere antwoorden bieden dan zelfs experts snel zouden kunnen vinden.

Valkuilen

Wat zijn de potentiële valkuilen bij het toepassen van generatieve AI op chip- en/of systeemontwerp? Wij vertegenwoordigen zelf één probleem. Als de AI het goed doet, begin je er dan meer op te vertrouwen dan zou moeten? Soortgelijke vragen zijn al een punt van zorg voor autonoom rijden en autonome bewapende drones. Vertrouwen is een delicaat evenwicht. We kunnen vertrouwen maar verifiëren, maar wat als verificatie ook op leren gebaseerd wordt om met complexiteit om te gaan? Wanneer verificatie-AI de juistheid van een door AI gegenereerd ontwerp bewijst, waar overschrijden we dan de grens tussen gerechtvaardigd en ongerechtvaardigd vertrouwen?

ChatGPT is een waarschuwend voorbeeld. De grote fascinatie en de grote misvatting van ChatGPT is dat je alles kunt vragen. Wij staan ​​versteld van de specifieke slimheid en van het feit dat het zoveel verschillende terreinen bestrijkt. Het voelt alsof het automatische algemene intelligentieprobleem is opgelost.

Maar bijna alle toepassingen in de echte wereld zullen veel beperkter zijn en op andere criteria worden beoordeeld dan het vermogen om te verbazen of te entertainen. In het bedrijfsleven, de techniek en andere toepassingen in de echte wereld verwachten we resultaten van hoge kwaliteit. Het lijdt geen twijfel dat dergelijke toepassingen steeds beter zullen worden, maar als de hype te ver vooruitloopt op de werkelijkheid, zullen de verwachtingen de bodem in worden geslagen en zal het vertrouwen in verdere vooruitgang stagneren.

Pragmatischer: kunnen we gevestigde puntvaardigheden integreren in generatieve systemen? Nogmaals, ja en nee. Er zijn enkele augmented-modellen die zeer productief zijn en rekenkundige en formulemanipulatie aankunnen, bijvoorbeeld WolframAlpha, dat al is geïntegreerd met ChatGPT. WolframAlpha biedt symbolisch en numeriek redeneren, als aanvulling op AI. Beschouw AI als de mens-machine-interface en de WolframAlpha-augmentatie als het diepe begrip achter die interface.

Is het mogelijk om augmentatie te omzeilen, om vaardigheden rechtstreeks in de AI te leren en als modules te laden, zoals Neo King Fu in de Matrix kon leren? Hoe lokaal is de weergave van dergelijke vaardigheden in taalmodellen? Helaas worden aangeleerde vaardigheden zelfs nu nog weergegeven door gewichten in het model en zijn ze mondiaal. In zoverre is het niet mogelijk om een ​​getrainde module te laden als uitbreiding op een bestaand getraind platform.

Er is een enigszins verwante vraag over de waarde van wereldwijde training versus interne training. De theorie is dat als ChatGPT zo goed werk kan leveren door te trainen op een mondiale dataset, ontwerptools hetzelfde zouden moeten kunnen doen. Deze theorie struikelt op twee manieren. Ten eerste zijn de ontwerpgegevens die nodig zijn voor training zeer bedrijfseigen en mogen ze onder geen enkele omstandigheid worden gedeeld. Mondiale training lijkt ook niet nodig; EDA-bedrijven kunnen een goed startpunt bieden op basis van ontwerpvoorbeelden die routinematig worden gebruikt om niet-AI-tools te verfijnen. Klanten die op die basis voortbouwen en trainen met behulp van hun eigen gegevens, rapporteren betekenisvolle verbeteringen voor hun doeleinden.

Ten tweede is het onduidelijk of gedeeld leren binnen veel verschillende ontwerpdomeinen überhaupt nuttig zou zijn. Elk bedrijf wil optimaliseren voor zijn eigen speciale voordelen, niet via een multifunctionele soep van ‘best practices’.

Hoop op hergebruik in AI en kijk vooruit

Zitten we, gegeven eerdere antwoorden, vast aan unieke modellen voor elk beperkt domein? Het is niet duidelijk dat één architectuur alles kan doen, maar open interfaces zullen een ecosysteem van mogelijkheden stimuleren, misschien als een protocolstapel. Apps zullen uiteenlopen, maar er kan nog steeds veel gedeelde infrastructuur zijn. Als we aan toepassingen denken die een reeks getrainde modellen vereisen, zijn sommige van die modellen mogelijk minder bedrijfseigen dan andere.

Vooruitkijkend is generatieve AI een snel bewegende trein. Er verschijnen maandelijks, zelfs dagelijks, nieuwe ideeën, dus wat vandaag niet mogelijk is, kan relatief snel mogelijk worden of op een andere manier worden opgelost. Er zijn nog steeds grote privacyproblemen op elk gebied, afhankelijk van training in brede datasets. Bewijzen dat aangeleerd gedrag in dergelijke gevallen geen inbreuk maakt op patenten of bedrijfsgeheimen lijkt een heel moeilijk probleem, dat waarschijnlijk het beste kan worden vermeden door dergelijke training te beperken tot niet-gevoelige vaardigheden.

Ondanks alle kanttekeningen is dit een gebied waar we niet bang voor moeten zijn. Generatieve AI zal transformatief zijn. We moeten onszelf trainen om AI beter in te zetten in ons dagelijks leven. En op zijn beurt het toepassen van ons geleerde om ambitieuzer te zijn voor ons gebruik in ontwerptechnologieën.

Geweldig gesprek. Hoopvol, met goede inzichten in beperkingen en praktische toepassingen.

Lees ook:

Takeaways van CadenceLIVE 2023

Anirudh-keynote bij Cadence Live

Petri Nets die DRAM-protocollen valideren. Innovatie in verificatie

Deel dit bericht via:

Tijdstempel:

Meer van semi-wiki