Opinioni sull'IA generativa a CadenceLIVE - Semiwiki

Opinioni sull'IA generativa a CadenceLIVE – Semiwiki

Nodo di origine: 2661356

Secondo alcuni sognatori dell'IA, ci siamo quasi. Non avremo più bisogno di esperti di progettazione hardware o software, ma solo di qualcuno che inserisca i requisiti di base da cui le tecnologie di sistema completamente realizzate verranno eliminate. Le opinioni degli esperti del settore sono entusiastiche ma meno iperboliche. Bob O'Donnell, presidente, fondatore e analista capo di TECHnalysis Research ha moderato un panel su questo argomento al CadenceLIVE con i relatori Rob Christy (Direttore tecnico e Ingegnere distinto, Implementazione – Sistemi di ingegneria centrale presso Arm), Prabal Dutta (Professore associato, Ingegneria elettrica e Scienze informatiche, presso l'Università della California, Berkeley), Dr. Paul Cunningham (Vicepresidente senior e Direttore generale del System & Verification Group presso Cadence), Chris Rowen (VP of Engineering, Collaboration AI presso Cisco) e Igor Markov (Research Scienziato presso Meta): persone che ne sanno più della maggior parte di noi sulla progettazione dei chip e sull'intelligenza artificiale. Tutti i relatori hanno offerto spunti preziosi. Ho riassunto qui la discussione.

Opinioni sull’intelligenza artificiale generativa

L’intelligenza artificiale generativa cambierà il design dei chip?

Il consenso era sì e no. L’intelligenza artificiale può automatizzare gran parte dell’interazione umana nel ciclo oltre alle necessarie tecnologie di base: posizionamento e percorso, simulazione logica, simulazione di circuiti, ecc. Ciò ci consente di esplorare una gamma più ampia, forse molto più ampia, di opzioni che sarebbero possibili attraverso l’esplorazione manuale.

L'intelligenza artificiale è fondamentalmente probabilistica, ideale dove le risposte probabilistiche sono appropriate (generalmente migliorano rispetto a una linea di base) ma non dove è obbligatoria un'elevata precisione (ad esempio, sintesi di porte). Inoltre, i modelli generativi oggi sono molto validi in un insieme limitato di campi, non necessariamente altrove. Ad esempio, sono molto inefficienti nelle applicazioni matematiche. È anche importante ricordare che in realtà non apprendono abilità: imparano a imitare. Ad esempio, non esiste una comprensione di base dell'ingegneria elettrica, della fisica o della matematica. Nell'uso pratico, alcune limitazioni potrebbero essere compensate da una verifica rigorosa.

Detto questo, ciò che possono fare nelle applicazioni linguistiche è notevole. In altri enormi set di dati specifici di dominio, come nel networking, modelli di grandi dimensioni potrebbero apprendere la struttura e dedurre molte cose interessanti che non hanno nulla a che fare con il linguaggio. Si potrebbe immaginare un apprendimento superlineare in alcuni domini se l’apprendimento potesse competere con corpora mondiali, supponendo che siamo in grado di gestire le spinose questioni relative alla proprietà intellettuale e alla privacy.

I metodi generativi possono favorire lo sviluppo delle competenze?

Nella progettazione di semiconduttori e sistemi ci troviamo di fronte a una grave carenza di talenti. I relatori ritengono che l’intelligenza artificiale aiuterà gli ingegneri più giovani e meno esperti ad accelerare più rapidamente verso un livello di prestazioni più esperto. Anche gli esperti miglioreranno, avendo più tempo per studiare e applicare nuove tecniche provenienti da frontiere in costante espansione nella ricerca microarchitettonica e implementativa. Questo dovrebbe ricordare che i metodi basati sull'apprendimento aiuteranno con la conoscenza "ogni progettista esperto sa", ma saranno sempre dietro la curva degli esperti.

Tali strumenti ci consentiranno di creare diversi tipi di chip? Nel breve termine, l’intelligenza artificiale aiuterà a produrre chip migliori piuttosto che nuovi tipi di chip. I modelli generativi sono utili con sequenze di passaggi; se si esegue lo stesso processo di progettazione più volte, l'intelligenza artificiale può ottimizzare/automatizzare tali sequenze meglio di noi. Inoltre, i metodi generativi potrebbero aiutarci a costruire nuovi tipi di chip di intelligenza artificiale, il che potrebbe essere interessante perché ci stiamo rendendo conto che sempre più problemi possono essere riformulati come problemi di intelligenza artificiale.

Un'altra area interessante è la progettazione multi-die. Si tratta di un ambito nuovo anche per gli esperti di design. Oggi pensiamo ai blocchi chiplet con interfacce costruite come pezzi Lego predeterminati. L’intelligenza artificiale generativa può suggerire nuovi modi per sbloccare migliori ottimizzazioni, fornendo risposte diverse da quelle che anche gli esperti potrebbero trovare rapidamente.

Insidie

Quali sono le potenziali insidie ​​​​dell’applicazione dell’intelligenza artificiale generativa alla progettazione di chip e/o sistemi? Noi stessi rappresentiamo un problema. Se l’intelligenza artificiale sta facendo un buon lavoro, inizi a fidarti di lei più del dovuto? Domande simili sono già motivo di preoccupazione per la guida autonoma e i droni armati autonomi. La fiducia è un equilibrio delicato. Possiamo fidarci ma verificare, ma cosa accadrebbe se anche la verifica diventasse basata sull’apprendimento per affrontare la complessità? Quando l’intelligenza artificiale di verifica dimostra la correttezza del progetto generato dall’intelligenza artificiale, dove oltrepassiamo il confine tra fiducia giustificata e ingiustificata?

ChatGPT è un esempio cautelativo. Il grande fascino e il grande errore di ChatGPT è che puoi chiedergli qualsiasi cosa. Siamo stupiti dall'intelligenza specifica e dal fatto che copra così tante aree diverse. Sembra che il problema automatico dell’intelligenza generale sia stato risolto.

Ma quasi tutte le applicazioni nel mondo reale saranno molto più ristrette, giudicate in base a criteri diversi rispetto alla capacità di stupire o intrattenere. Nel mondo degli affari, dell'ingegneria e in altre applicazioni del mondo reale ci aspetteremo risultati di alta qualità. Non c'è dubbio che tali applicazioni miglioreranno progressivamente, ma se l'hype supera troppo la realtà, le aspettative verranno deluse e la fiducia in ulteriori progressi si bloccherà.

Più pragmaticamente, possiamo integrare abilità puntuali consolidate in sistemi generativi? Ancora una volta, sì e no. Esistono alcuni modelli aumentati che sono molto produttivi e in grado di gestire l'aritmetica e la manipolazione delle formule, ad esempio WolframAlpha che è già integrato con ChatGPT. WolframAlpha fornisce ragionamento simbolico e numerico, integrando l'intelligenza artificiale. Pensa all’intelligenza artificiale come all’interfaccia uomo-macchina e al potenziamento WolframAlpha come alla profonda comprensione dietro quell’interfaccia.

È possibile bypassare il potenziamento, apprendere e caricare le abilità direttamente nell'IA come moduli poiché Neo è stato in grado di apprendere King Fu in Matrix? Quanto è locale la rappresentazione di tali competenze nei modelli linguistici? Sfortunatamente, anche adesso, le competenze apprese sono rappresentate da pesi nel modello e sono globali. In questo senso, non è possibile caricare un modulo addestrato come estensione di una piattaforma addestrata esistente.

Esiste una questione in qualche modo correlata sul valore della formazione mondiale rispetto alla formazione esclusivamente interna. La teoria è che se ChatGPT può fare un ottimo lavoro addestrandosi su un set di dati globale, allora gli strumenti di progettazione dovrebbero essere in grado di fare lo stesso. Questa teoria inciampa in due modi. Innanzitutto, i dati di progettazione necessari per la formazione sono altamente proprietari e non devono mai essere condivisi in nessuna circostanza. Anche la formazione globale sembra non necessaria; Le aziende EDA possono fornire un punto di partenza decente basato su esempi di progettazione utilizzati abitualmente per perfezionare strumenti non basati sull’intelligenza artificiale. I clienti che si basano su questa base, formandosi utilizzando i propri dati, segnalano miglioramenti significativi per i loro scopi.

In secondo luogo, non è chiaro se l’apprendimento condiviso tra molti ambiti di progettazione diversi possa essere vantaggioso. Ogni azienda vuole ottimizzare i propri vantaggi specifici, non attraverso un brodo multiuso di “migliori pratiche”.

Spero in un riutilizzo nell’intelligenza artificiale e non vedo l’ora

Date le risposte precedenti, siamo bloccati con modelli unici per ciascun dominio ristretto? Non è chiaro se un'architettura possa fare tutto, ma le interfacce aperte incoraggeranno un ecosistema di funzionalità, forse come uno stack di protocolli. Le app divergeranno, ma potranno esserci ancora molte infrastrutture condivise. Inoltre, se pensiamo alle applicazioni che richiedono una sequenza di modelli addestrati, alcuni di questi modelli potrebbero essere meno proprietari di altri.

Guardando al futuro, l’intelligenza artificiale generativa è un treno in rapido movimento. Nuove idee appaiono mensilmente, anche quotidianamente, quindi ciò che non è possibile oggi potrebbe diventarlo o risolverlo in modo diverso in tempi relativamente brevi. Esistono ancora grossi problemi di privacy in qualsiasi area a seconda della formazione su ampi set di dati. Dimostrare che il comportamento appreso in questi casi non violerà brevetti o segreti commerciali sembra un problema molto difficile, che probabilmente sarebbe meglio evitare limitando tale formazione a capacità non sensibili.

Nonostante tutti gli avvertimenti, questa è un’area in cui non avere paura. L’intelligenza artificiale generativa sarà trasformativa. Dobbiamo allenarci a sfruttare meglio l’intelligenza artificiale nella nostra vita quotidiana. E, a sua volta, applicare ciò che abbiamo imparato per essere più ambiziosi per il nostro utilizzo nelle tecnologie di progettazione.

Bella chiacchierata. Fiducioso, con buone intuizioni sui limiti e sulle applicazioni pratiche.

Leggi anche:

Takeaways da CadenceLIVE 2023

Anirudh Keynote al Cadence Live

Reti di Petri che convalidano i protocolli DRAM. Innovazione nella verifica

Condividi questo post tramite:

Timestamp:

Di più da Semiwiki