Udtalelser om Generative AI på CadenceLIVE - Semiwiki

Udtalelser om Generative AI på CadenceLIVE – Semiwiki

Kildeknude: 2661356

Ifølge nogle AI-drømmere er vi der næsten. Vi har ikke længere brug for hardware- eller softwaredesigneksperter – bare nogen til at indtaste grundlæggende krav, hvorfra fuldt realiserede systemteknologier vil falde ud i den anden ende. Ekspertudtalelser i branchen er entusiastiske, men mindre hyperbolske. Bob O'Donnell, præsident, grundlægger og chefanalytiker hos TECHnalysis Research modererede et panel om dette emne på CadenceLIVE med paneldeltagerne Rob Christy (teknisk direktør og distinguished ingeniør, Implementering – Central Engineering Systems at Arm), Prabal Dutta (lektor, elektroteknik). og Computer Sciences, ved University of California, Berkeley), Dr. Paul Cunningham (Senior Vice President og General Manager for System & Verification Group hos Cadence), Chris Rowen (VP of Engineering, Collaboration AI hos Cisco) og Igor Markov (Research) Forsker ved Meta) - folk, der ved mere end de fleste af os om chipdesign og kunstig intelligens. Alle paneldeltagere tilbød værdifuld indsigt. Jeg har opsummeret diskussionen her.

Udtalelser om Generativ AI

Vil generativ AI ændre chipdesign?

Konsensus var både ja og nej. AI kan automatisere meget af mennesket-i-sløjfen-interaktionen oven i nødvendige byggeklodsteknologier: Place-and-route, logisk simulering, kredsløbssimulering osv. Dette giver os mulighed for at udforske en bredere - måske meget bredere - række af muligheder end det ville være muligt gennem manuel udforskning.

AI er grundlæggende probabilistisk, ideel, hvor sandsynlighedssvar er passende (generelt forbedret på en basislinje), men ikke hvor høj præcision er obligatorisk (f.eks. syntetisering af porte). Yderligere er generative modeller i dag meget gode på et begrænset sæt af områder, ikke nødvendigvis andre steder. For eksempel er de meget ineffektive i matematikapplikationer. Det er også vigtigt at huske, at de virkelig ikke lærer færdigheder – de lærer at efterligne. Der er ingen underliggende forståelse af for eksempel elektroteknik, fysik eller matematik. I praktisk brug kan nogle begrænsninger udlignes med stærk verifikation.

Når det er sagt, er det bemærkelsesværdigt, hvad de kan i sprogapplikationer. I andre massive domænespecifikke datasæt, såsom i netværk, kunne store modeller lære struktur og udlede mange interessante ting, der ikke har noget med sprog at gøre. Du kunne forestille dig superlineær læring i nogle domæner, hvis læring kunne køre mod verdensomspændende korpora, forudsat at vi kan mestre vanskelige IP- og privatlivsproblemer.

Kan generative metoder øge kompetenceudviklingen?

Inden for halvleder- og systemdesign står vi over for en alvorlig talentmangel. Paneldeltagere mener, at kunstig intelligens vil hjælpe yngre, mindre erfarne ingeniører med at accelerere hurtigere til et mere erfarent præstationsniveau. Eksperter vil også blive bedre og få mere tid til at studere og anvende nye teknikker fra konstant udvidende grænser inden for mikroarkitektonisk og implementeringsforskning. Dette bør være en påmindelse om, at læringsbaserede metoder vil hjælpe med "enhver erfaren designer kender" viden, men vil altid være bag ekspertkurven.

Vil sådanne værktøjer give os mulighed for at skabe forskellige typer chips? På kort sigt vil AI hjælpe med at lave bedre chips frem for nye typer chips. Generative modeller er gode med sekvenser af trin; hvis du gennemgår den samme designproces mange gange, kan AI optimere/automatisere disse sekvenser bedre, end vi kan. Længere ude kan generative metoder hjælpe os med at bygge nye slags AI-chips, hvilket kunne være interessant, fordi vi er klar over, at flere og flere problemer kan omformes som AI-problemer.

Et andet interessant område er multi-die design. Dette er et nyt område selv for designeksperter. I dag tænker vi på chiplet-klodser med grænseflader bygget op som forudbestemte legobrikker. Generativ AI kan foreslå nye måder at låse op for bedre optimeringer på, hvilket giver andre svar, end selv eksperterne hurtigt kan finde.

Faldgruber

Hvad er de potentielle faldgruber ved at anvende generativ AI til chip- og/eller systemdesign? Vi repræsenterer selv ét problem. Hvis AI'en gør et godt stykke arbejde, begynder du så at stole mere på den, end du burde? Lignende spørgsmål er allerede en bekymring for autonom kørsel og autonome våbendrevne droner. Tillid er en hårfin balance. Vi kan stole på, men verificere, men hvad så hvis verifikation også bliver læringsbaseret til at håndtere kompleksitet? Når verifikation AI beviser rigtigheden af ​​AI-genereret design, hvor krydser vi så en grænse mellem berettiget og uberettiget tillid?

ChatGPT er et advarselseksempel. Den store fascination og den store fejlslutning ved ChatGPT er, at du kan spørge om hvad som helst. Vi er forbløffede over den specifikke smarthed og over det faktum, at den dækker så mange forskellige områder. Det føles som om det automatiske generelle efterretningsproblem er blevet løst.

Men næsten alle applikationer i den virkelige verden vil være meget smallere, vurderet ud fra andre kriterier end evnen til at forbløffe eller underholde. Indenfor business, engineering og andre applikationer fra den virkelige verden vil vi forvente høj kvalitet af resultater. Der er ingen tvivl om, at sådanne applikationer gradvist vil forbedre sig, men hvis hypen kommer for langt foran virkeligheden, vil forventningerne blive knust, og tilliden til yderligere fremskridt vil gå i stå.

Mere pragmatisk, kan vi integrere etablerede pointfærdigheder i generative systemer? Igen, ja og nej. Der er nogle udvidede modeller, der er meget produktive og i stand til at håndtere aritmetik og formelmanipulation, for eksempel WolframAlpha, som allerede er integreret med ChatGPT. WolframAlpha giver symbolsk og numerisk ræsonnement, der supplerer AI. Tænk på AI som menneske-maskine-grænsefladen og WolframAlpha-forøgelsen som den dybe forståelse bag denne grænseflade.

Er det muligt at omgå augmentation, at lære og indlæse færdigheder direkte i AI som moduler, da Neo var i stand til at lære King Fu i Matrix? Hvor lokal er repræsentationen af ​​sådanne færdigheder i sprogmodeller? Desværre, selv nu, er tillærte færdigheder repræsenteret af vægte i modellen og er globale. I dette omfang er det ikke muligt at indlæse et trænet modul som en udvidelse til en eksisterende trænet platform.

Der er et noget relateret spørgsmål omkring værdien af ​​verdensomspændende træning versus intern træning. Teorien er, at hvis ChatGPT kan gøre et så godt stykke arbejde ved at træne på et globalt datasæt, så burde designværktøjer kunne gøre det samme. Denne teori snubler på to måder. For det første er de designdata, der er nødvendige for træning, yderst proprietære, og de må aldrig under nogen omstændigheder deles. Global træning virker også unødvendig; EDA-virksomheder kan give et anstændigt udgangspunkt baseret på designeksempler, der rutinemæssigt bruges til at forfine ikke-AI-værktøjer. Kunder, der bygger på denne base, træner ved hjælp af deres egne data, rapporterer meningsfulde forbedringer til deres formål.

For det andet er det uklart, at fælles læring på tværs af mange forskellige designdomæner endda ville være gavnligt. Hver virksomhed ønsker at optimere for sine egne særlige fordele, ikke gennem en multi-purpose suppe af "best practices".

Håber på genbrug i AI og ser fremad

Givet tidligere svar, sidder vi fast med unikke modeller for hvert snævert domæne? Det er ikke klart, at én arkitektur kan alt, men åbne grænseflader vil fremme et økosystem af muligheder, måske som en protokolstak. Apps vil afvige, men der kan stadig være en masse delt infrastruktur. Også, hvis vi tænker på applikationer, der kræver en sekvens af trænede modeller, kan nogle af disse modeller være mindre proprietære end andre.

Når vi ser fremad, er generativ AI et tog i hurtig bevægelse. Nye ideer dukker op hver måned, ja endda dagligt, så det, der ikke er muligt i dag, kan blive muligt eller løst på en anden måde relativt hurtigt. Der er stadig store problemer med privatlivets fred i ethvert område afhængigt af træning på tværs af brede datasæt. At bevise, at indlært adfærd i sådanne tilfælde ikke vil krænke patenter eller forretningshemmeligheder, virker som et meget svært problem, der sandsynligvis bedst undgås ved at begrænse sådan træning til ikke-følsomme evner.

På trods af alle forbeholdene er dette et område, man skal være frygtløs. Generativ AI vil være transformativ. Vi skal træne os selv til bedre at udnytte AI i vores daglige liv. Og til gengæld anvender vores læring til at være mere ambitiøse til vores brug i designteknologier.

God snak. Håbefuld, med god indsigt i begrænsninger og praktiske anvendelser.

Læs også:

Takeaways fra CadenceLIVE 2023

Anirudh Keynote på Cadence Live

Petri Nets validerer DRAM-protokoller. Innovation i verifikation

Del dette opslag via:

Tidsstempel:

Mere fra Semiwiki