AI blir mer fremtredende i chipdesign

AI blir mer fremtredende i chipdesign

Kilde node: 2545337

Semiconductor Engineering satte seg ned for å snakke om rollen til AI i å administrere data og forbedre design, og dens økende rolle i å finne og forhindre stille datakorrupsjon, med Michael Jackson, konserndirektør for R&D i Cadence; Joel Sumner, visepresident for halvleder- og elektronikkteknikk ved National Instruments; Grace Yu, produkt- og ingeniørsjef ved Meta, og David Pan, professor ved Institutt for elektro- og datateknikk ved University of Texas i Austin. Det som følger er utdrag av den samtalen, som ble holdt foran et levende publikum på DesignCon. Del én av denne diskusjonen er her..

SE: Alle og alt samler inn en enorm mengde data i disse dager. Hvor lagrer vi det, og hvor lenge? Og hvordan finner vi ut hva som er relevant?

Sumner: Der vi ser AI brukt først, er stedene som har veldig stor og robust datalagring. Vi er heldige at testinfrastrukturen for halvlederproduksjon kjøres av et standardformat, så den lar deg legge den inn i disse virkelig massive databasene med god tagging, som er hva som er bestått og hva som er feil. Det har gitt oss et springbrett for å undersøke disse tingene, og bruke dem som et bevis fordi det kan brukes i mange andre bransjer for validering eller noe automatisert. Men disse datalagrene eksisterer egentlig ikke på en standard måte i dag mange steder. Der det eksisterer er der vi ser adopsjonen.

SE: Vil alle disse dataene bli lagret på ett sted? Og hvordan vil disse dataene bli brukt fremover?

Sumner: Det vil ende opp med å bli distribuert av en rekke årsaker. Den ene er at det bare er praktisk. For det andre er det kundedata involvert. Så du kan ikke nødvendigvis slette alt. For eksempel kjører vi AI-algoritmer på flere steder i designkjeden. Vi kjører dem i skyen, men også i nærheten av hvor dataene hentes. Det krever at dataene distribueres. Men samtidig trenger du virkelig alle dataene du ønsker å se på for å trene modellen til å være på ett sted og lett tilgjengelig.

Pan: Og du kan bruke disse dataene til å hjelpe deg med å ta bedre beslutninger. For eksempel kan vi generere titusenvis eller forskjellige layouter, og deretter gjøre simuleringen, utvinningen og den endelige layouten. Det er et komplement til designekspertene.

Jackson: Fra et EDA-standpunkt kan opprettelsen av nye data ofte gjøres ved å permutere eller tilfeldig lage layouter. Så du kan skape problemer syntetisk, og dette kan være en annen kilde til data. Dette er en av fordelene EDA har.

SE: Gitt mengden av data, skal alt dette gjøres i skyen, eller vil det bli gjort lokalt? Vi snakker om mye større datasett, som krever mye mer datakraft.

Jackson: Det vil avhenge av selskapet. Jeg jobber med design av kretskort, og vi jobber litt med AI, og det er mye databehandling i skyen som muliggjør AI. Små selskaper kan være greit med å holde dataene sine i skyen, men store selskaper vil ønske å kjøre dem i sine private skyer.

Pan: Personvern er definitivt en stor bekymring. Det er et viktig område når det gjelder maskinlæring. Men du trenger ikke å formidle dataene dine. Du kan kryptere det og deretter gjøre homomorfisk databehandling. Sikker databehandling er et fremvoksende forskningsområde. Så uten å dele data kan du fortsatt sjekke det.

Yu: Det avhenger av hva slags data vi snakker om. Vi har svært strenge retningslinjer for kundepersonvern. Bare folk som trenger tilgang til disse dataene kan gjøre det. Hver ansatt som blir med i Meta gjennomgår årlig opplæring om personvern. For designdata avhenger det av prosjektet. Noen data lagrer vi på den lokale serveren, og vi bruker skyen for vår big data-tilgang, og også for simulering og validering. Så det er fra sak til sak.

SE: Når maskinvaren eldes, hvordan påvirker det oppførselen til AI?

Sumner: Når det kommer til aldring, er det viktig at du snakker om miljøet AI kjører i. Det er ikke algoritmer vi ser alder. Det er treningsdataene. Så du har trent den på et bestemt sett med produksjonsdata, og disse produksjonsdataene ble hentet fra et bestemt produksjonsmiljø. Og så, over tid, driver ting. Du vil se en av to situasjoner. Den ene er hele systemets drift, og derfor må AI oppdage det nå fordi hele systemet har flyttet seg langt nok fra de første treningsdataene til at det må trenes på nytt. Den andre situasjonen er der en enhet kommer gjennom med noe så annerledes enn det den har sett før at algoritmen må si: 'Vent, vent, jeg er ikke det beste svaret her. Jeg trenger nå å konsultere et menneske fordi dette er bare for langt unna.’ Begge disse er eksempler på forfall i systemet. Konstant oppfriskning er nødvendig.

Jackson: Jeg er enig. Konstant omskolering er nødvendig for å møte aldring. Men etter hvert som programvaren blir utsatt for et større og større treningssett, utvikler den seg også og blir mer effektiv.

Pan: Omskolering fra bunnen av kan være svært kostbart. I stedet kan du gjøre overføringslæring. For en del år siden jobbet vi for eksempel med hotspot-deteksjon. Når du oppdager noe ved 14nm og du migrerer det til 7nm, trenger du ikke å starte fra bunnen av. Du kan bruke en original maskinlæringsarkitektur, men du kan starte fra et sted i midten.

SE: Et av de store problemene i dag er taus datakorrupsjon, som skyldes maskinvarefeil. Kan vi spore dette gjennom systemer som bruker AI og identifisere problemet og den eksakte årsaken?

Yu: AI er som alle andre verktøy. Det er ikke perfekt. Men måten å unngå disse problemene på er å ha et menneske i løkken for å utføre valideringstesting ofte, kanskje ved å bruke et kjent scenario for å kjøre AI og datamaskinen for å se om vi får det forventede resultatet. Ved å bruke enkle tilnærminger som den kan du identifisere problemet, identifisere misforholdet og ta et dypdykk i disse områdene. Ingeniører er ikke perfekte, og AI er ikke perfekt. For å stadig forbedre deg må du dobbeltsjekke og krysssjekke oftere for å unngå slike problemer.

Jackson: Vi investerer tungt i hele verifiseringsområdet ettersom det er knyttet til å fremskynde eller hjelpe folk med design, og feilsøking av funksjonelle problemer i disse designene. Så vi ser definitivt på dette som et søtt sted, og vi kanaliserer mye energi til AI.

SE: Er det bare gjort på designstadiet, eller er det gjennom hele livssyklusen til brikken?

Jackson: Til en viss grad er det livssyklusen til brikken. Det er testing av det, distribusjon og feilsøking av problemer

Sumner: Denne teknologien fungerer bra for ting som krever uttømmende mengder mennesker for å komme inn og finne ut av noe, og for å kunne gjøre det samtidig som man fjerner mye av det verdslige, men vanskelige arbeidet. Målet til syvende og sist er at du skal kunne reise hjem om natten, komme tilbake om morgenen og få en rapport som sier: 'Jeg har gått gjennom gigabyte, eller mer, med data, og her er stedet du bør se. Og jeg sier ikke at det er et problem, men det kan være det, så ta en titt på det.» Det er å ta nål-i-høystakk-problemer og gjøre dem til målrettet innsats for hvordan du ender opp med å håndtere et problem i din produkt. Det kan også brukes på hvordan vi gjør algoritmene våre mer pålitelige, og skaper en følelse av at jeg kan stole på denne tingen fordi den har blitt testet og jeg vet at den kommer fra en anerkjent kilde.

Pan: Det er formelle måter å verifisere noe på, og det er simulering. Til syvende og sist trenger vi begge for god dekning. Ideelt sett ønsker vi å kunne identifisere de rare feilene som forårsaker taus datakorrupsjon tidlig i prosessen. Det er et ganske aktivt forskningstema i dag.

Tidstempel:

Mer fra Semi -ingeniørfag