Avis sur l'IA générative chez CadenceLIVE - Semiwiki

Opinions sur l'IA générative chez CadenceLIVE – Semiwiki

Nœud source: 2661356

Selon certains rêveurs de l’IA, nous y sommes presque. Nous n'aurons plus besoin d'experts en conception matérielle ou logicielle, mais simplement de quelqu'un pour saisir les exigences de base dont les technologies système entièrement réalisées seront exclues à l'autre bout. Les avis des experts du secteur sont enthousiastes mais moins hyperboliques. Bob O'Donnell, président, fondateur et analyste en chef de TECHnalysis Research a animé un panel sur ce sujet à CadenceLIVE avec les panélistes Rob Christy (directeur technique et ingénieur émérite, mise en œuvre – systèmes d'ingénierie centraux chez Arm), Prabal Dutta (professeur agrégé, génie électrique et sciences informatiques, à l'Université de Californie à Berkeley), le Dr Paul Cunningham (vice-président principal et directeur général du groupe système et vérification chez Cadence), Chris Rowen (vice-président de l'ingénierie, Collaboration AI chez Cisco) et Igor Markov (recherche Scientifique chez Meta) – des personnes qui en savent plus que la plupart d’entre nous sur la conception de puces et l’IA. Tous les panélistes ont offert des informations précieuses. J'ai résumé la discussion ici.

Opinions sur l’IA générative

L’IA générative va-t-elle changer la conception des puces ?

Le consensus était oui et non. L'IA peut automatiser une grande partie de l'interaction humaine dans la boucle en plus des technologies de base nécessaires : placement et itinéraire, simulation logique, simulation de circuits, etc. Cela nous permet d'explorer une gamme plus large, peut-être beaucoup plus large, de options qui seraient possibles grâce à l’exploration manuelle.

L'IA est fondamentalement probabiliste, idéale lorsque les réponses probabilistes sont appropriées (généralement en amélioration par rapport à une base de référence), mais pas lorsqu'une haute précision est obligatoire (par exemple, synthétiser des portes). De plus, les modèles génératifs sont aujourd’hui très efficaces dans un ensemble limité de domaines, pas nécessairement ailleurs. Par exemple, ils sont très inefficaces dans les applications mathématiques. Il est également important de se rappeler qu'en réalité, ils n'acquièrent pas de compétences : ils apprennent à imiter. Il n’y a aucune compréhension sous-jacente du génie électrique, de la physique ou des mathématiques par exemple. En pratique, certaines limitations peuvent être compensées par une vérification rigoureuse.

Cela dit, ce qu’ils peuvent faire dans les applications linguistiques est remarquable. Dans d’autres ensembles de données massifs spécifiques à un domaine, comme dans le domaine des réseaux, les grands modèles pourraient apprendre la structure et déduire de nombreuses choses intéressantes qui n’ont rien à voir avec le langage. On pourrait imaginer un apprentissage superlinéaire dans certains domaines si l’apprentissage pouvait s’appliquer à des corpus mondiaux, en supposant que nous puissions maîtriser les épineux problèmes de propriété intellectuelle et de confidentialité.

Les méthodes génératives peuvent-elles stimuler le développement des compétences ?

Dans le domaine de la conception de semi-conducteurs et de systèmes, nous sommes confrontés à une grave pénurie de talents. Les panélistes pensent que l’IA aidera les ingénieurs plus jeunes et moins expérimentés à accélérer plus rapidement pour atteindre un niveau de performance plus expérimenté. Les experts s'amélioreront également, disposant de plus de temps pour étudier et appliquer de nouvelles techniques issues des frontières en constante expansion de la recherche en microarchitecture et en mise en œuvre. Cela devrait rappeler que les méthodes basées sur l'apprentissage aideront avec les connaissances « tout concepteur expérimenté connaît », mais seront toujours en retard sur la courbe des experts.

De tels outils nous permettront-ils de créer différents types de puces ? À court terme, l’IA contribuera à fabriquer de meilleures puces plutôt que de nouveaux types de puces. Les modèles génératifs fonctionnent bien avec des séquences d'étapes ; si vous suivez plusieurs fois le même processus de conception, l’IA peut optimiser/automatiser ces séquences mieux que nous. À plus long terme, les méthodes génératives pourraient nous aider à construire de nouveaux types de puces d’IA, ce qui pourrait être intéressant car nous réalisons que de plus en plus de problèmes peuvent être retransformés en problèmes d’IA.

Un autre domaine intéressant est celui de la conception multi-matrices. Il s'agit d'un nouveau domaine, même pour les experts en design. Aujourd’hui, nous pensons à des blocs de chipsets avec des interfaces construites comme des pièces Lego prédéterminées. L'IA générative peut suggérer de nouvelles façons de débloquer de meilleures optimisations, fournissant des réponses différentes de celles que même les experts pourraient trouver rapidement.

Pièges

Quels sont les pièges potentiels de l’application de l’IA générative à la conception de puces et/ou de systèmes ? Nous représentons nous-mêmes un problème. Si l’IA fait du bon travail, commencez-vous à lui faire plus confiance que vous ne le devriez ? Des questions similaires sont déjà préoccupantes pour la conduite autonome et les drones autonomes armés. La confiance est un équilibre délicat. Nous pouvons faire confiance mais vérifier, mais que se passerait-il si la vérification devenait également basée sur l’apprentissage pour faire face à la complexité ? Lorsque l’IA de vérification prouve l’exactitude de la conception générée par l’IA, où franchissons-nous la frontière entre confiance justifiée et injustifiée ?

ChatGPT est un exemple édifiant. La grande fascination et la grande erreur de ChatGPT est que vous pouvez lui demander n'importe quoi. Nous sommes étonnés par l'intelligence spécifique et par le fait qu'il couvre autant de domaines différents. On a l’impression que le problème de l’intelligence générale automatique a été résolu.

Mais presque toutes les applications du monde réel seront beaucoup plus restreintes, jugées selon des critères différents de ceux de la capacité à surprendre ou à divertir. Dans les domaines des affaires, de l'ingénierie et d'autres applications du monde réel, nous nous attendons à des résultats de haute qualité. Il ne fait aucun doute que ces applications s'amélioreront progressivement, mais si le battage médiatique dépasse trop la réalité, les attentes seront déçues et la confiance dans les progrès ultérieurs s'éteindra.

De manière plus pragmatique, pouvons-nous intégrer des compétences ponctuelles établies dans des systèmes génératifs ? Encore une fois, oui et non. Il existe des modèles augmentés qui sont très productifs et capables de gérer l'arithmétique et la manipulation de formules, par exemple WolframAlpha qui est déjà intégré à ChatGPT. WolframAlpha fournit un raisonnement symbolique et numérique, complétant l'IA. Considérez l’IA comme l’interface homme-machine et l’augmentation WolframAlpha comme la compréhension profonde de cette interface.

Est-il possible de contourner l'augmentation, d'apprendre et de charger des compétences directement dans l'IA sous forme de modules comme Neo a pu apprendre King Fu dans Matrix ? Dans quelle mesure la représentation de ces compétences dans les modèles linguistiques est-elle locale ? Malheureusement, même aujourd’hui, les compétences acquises sont représentées par des poids dans le modèle et sont globales. Dans cette mesure, charger un module formé en tant qu’extension d’une plateforme formée existante n’est pas possible.

Il existe une question quelque peu connexe concernant la valeur de la formation mondiale par rapport à la formation interne uniquement. La théorie est que si ChatGPT peut faire un si bon travail en s'entraînant sur un ensemble de données global, alors les outils de conception devraient être capables de faire de même. Cette théorie trébuche de deux manières. Premièrement, les données de conception nécessaires à la formation sont hautement exclusives et ne doivent en aucun cas être partagées. Une formation globale semble également inutile ; Les entreprises EDA peuvent fournir un point de départ décent basé sur des exemples de conception couramment utilisés pour affiner les outils non IA. Les clients qui s'appuient sur cette base et se forment à l'aide de leurs propres données signalent des améliorations significatives par rapport à leurs objectifs.

Deuxièmement, il n’est pas certain qu’un apprentissage partagé dans de nombreux domaines de conception différents serait même bénéfique. Chaque entreprise souhaite optimiser ses propres avantages particuliers, et non à travers une soupe polyvalente de « meilleures pratiques ».

Espoir de réutilisation dans l'IA et perspective d'avenir

Compte tenu des réponses précédentes, sommes-nous coincés avec des modèles uniques pour chaque domaine restreint ? Il n'est pas évident qu'une seule architecture puisse tout faire, mais les interfaces ouvertes favoriseront un écosystème de capacités, peut-être comme une pile de protocoles. Les applications divergent, mais il peut toujours y avoir de nombreuses infrastructures partagées. De plus, si l’on pense aux applications qui nécessitent une séquence de modèles entraînés, certains de ces modèles peuvent être moins propriétaires que d’autres.

Pour l’avenir, l’IA générative est un train qui évolue rapidement. De nouvelles idées apparaissent chaque mois, voire quotidiennement, de sorte que ce qui n'est pas possible aujourd'hui pourrait le devenir ou être résolu d'une manière différente relativement bientôt. Il existe encore de gros problèmes de confidentialité dans tous les domaines, en fonction de la formation sur de vastes ensembles de données. Prouver qu'un comportement appris dans de tels cas ne violera pas les brevets ou les secrets commerciaux semble être un problème très difficile, qu'il vaut probablement mieux éviter en limitant cette formation à des capacités non sensibles.

Malgré toutes les mises en garde, il s’agit d’un domaine dans lequel il ne faut pas avoir peur. L’IA générative sera transformatrice. Nous devons nous former pour mieux exploiter l’IA dans notre vie quotidienne. Et en retour, appliquer notre apprentissage pour être plus ambitieux dans notre utilisation dans les technologies de conception.

Excellent discours. Plein d’espoir, avec de bonnes connaissances sur les limites et les applications pratiques.

Lisez aussi:

Points à retenir de CadenceLIVE 2023

Keynote d'Anirudh à Cadence Live

Réseaux de Petri validant les protocoles DRAM. Innovation dans la vérification

Partagez cet article via:

Horodatage:

Plus de Semiwiki