Meinungen zu generativer KI bei CadenceLIVE – Semiwiki

Meinungen zu generativer KI bei CadenceLIVE – Semiwiki

Quellknoten: 2661356

Nach Ansicht einiger KI-Träumer haben wir es fast geschafft. Wir brauchen keine Hardware- oder Software-Designexperten mehr – nur jemanden, der grundlegende Anforderungen eingibt, bei denen am anderen Ende vollständig realisierte Systemtechnologien ausscheiden. Die Expertenmeinungen in der Branche sind enthusiastisch, aber weniger übertrieben. Bob O'Donnell, Präsident, Gründer und Chefanalyst bei TECHnalysis Research, moderierte bei CadenceLIVE ein Panel zu diesem Thema mit den Diskussionsteilnehmern Rob Christy (Technischer Direktor und angesehener Ingenieur, Implementierung – Central Engineering Systems at Arm) und Prabal Dutta (außerordentlicher Professor für Elektrotechnik). und Informatik an der University of California, Berkeley), Dr. Paul Cunningham (Senior Vice President und General Manager der System & Verification Group bei Cadence), Chris Rowen (VP of Engineering, Collaboration AI bei Cisco) und Igor Markov (Forschung). Wissenschaftler bei Meta) – Menschen, die mehr als die meisten von uns über Chipdesign und KI wissen. Alle Diskussionsteilnehmer boten wertvolle Einblicke. Ich habe die Diskussion hier zusammengefasst.

Meinungen zur generativen KI

Wird generative KI das Chipdesign verändern?

Der Konsens war ja und nein. KI kann einen Großteil der Human-in-the-Loop-Interaktion zusätzlich zu den notwendigen Bausteintechnologien automatisieren: Place-and-Route, Logiksimulation, Schaltungssimulation usw. Dadurch können wir ein breiteres – vielleicht sogar viel breiteres – Spektrum erkunden Optionen, als dies durch manuelle Erkundung möglich wäre.

KI ist grundsätzlich probabilistisch, ideal, wenn probabilistische Antworten angemessen sind (im Allgemeinen eine Verbesserung gegenüber einer Basislinie), aber nicht, wenn eine hohe Präzision zwingend erforderlich ist (z. B. Synthese von Gattern). Darüber hinaus sind generative Modelle heutzutage in einer begrenzten Anzahl von Bereichen sehr gut, nicht unbedingt anderswo. Beispielsweise sind sie bei mathematischen Anwendungen sehr ineffizient. Es ist auch wichtig, sich daran zu erinnern, dass sie nicht wirklich Fähigkeiten erlernen – sie lernen, nachzuahmen. Es gibt beispielsweise kein grundlegendes Verständnis für Elektrotechnik, Physik oder Mathematik. Im praktischen Einsatz können einige Einschränkungen durch eine starke Verifizierung ausgeglichen werden.

Dennoch ist es bemerkenswert, was sie in Sprachanwendungen leisten können. In anderen umfangreichen domänenspezifischen Datensätzen, etwa im Netzwerkbereich, könnten große Modelle die Struktur erlernen und viele interessante Dinge ableiten, die nichts mit Sprache zu tun haben. Man könnte sich superlineares Lernen in einigen Bereichen vorstellen, wenn das Lernen mit weltweiten Korpora laufen könnte, vorausgesetzt, wir können heikle IP- und Datenschutzprobleme meistern.

Können generative Methoden die Kompetenzentwicklung fördern?

Im Halbleiter- und Systemdesign sind wir mit einem gravierenden Talentmangel konfrontiert. Die Diskussionsteilnehmer glauben, dass KI jüngeren, weniger erfahrenen Ingenieuren dabei helfen wird, schneller ein erfahreneres Leistungsniveau zu erreichen. Auch Experten werden besser und haben mehr Zeit, neue Techniken aus sich ständig erweiternden Bereichen der Mikroarchitektur- und Implementierungsforschung zu studieren und anzuwenden. Dies soll Sie daran erinnern, dass lernbasierte Methoden bei „Jeder erfahrene Designer wissen“-Wissen helfen, aber immer hinter der Expertenkurve zurückbleiben.

Können wir mit solchen Werkzeugen verschiedene Arten von Chips herstellen? Kurzfristig wird KI dazu beitragen, bessere Chips statt neuer Chiptypen herzustellen. Generative Modelle eignen sich gut für Schrittfolgen; Wenn Sie denselben Designprozess viele Male durchlaufen, kann KI diese Abläufe besser optimieren/automatisieren als wir. Im weiteren Verlauf könnten uns generative Methoden dabei helfen, neue Arten von KI-Chips zu entwickeln, was interessant sein könnte, da wir erkennen, dass immer mehr Probleme als KI-Probleme umgestaltet werden können.

Ein weiterer interessanter Bereich ist das Multi-Die-Design. Dies ist selbst für Designexperten ein neues Gebiet. Heute denken wir an Chiplet-Blöcke mit Schnittstellen, die als vorgefertigte Lego-Teile aufgebaut sind. Generative KI schlägt möglicherweise neue Wege zur Erschließung besserer Optimierungen vor und liefert andere Antworten, als selbst Experten schnell finden könnten.

Fallstricke

Was sind die potenziellen Fallstricke bei der Anwendung generativer KI beim Chip- und/oder Systemdesign? Wir selbst stellen ein Problem dar. Wenn die KI gute Arbeit leistet, beginnen Sie dann, ihr mehr zu vertrauen, als Sie sollten? Ähnliche Fragen beschäftigen bereits das autonome Fahren und autonome Waffendrohnen. Vertrauen ist ein empfindliches Gleichgewicht. Wir können vertrauen, aber verifizieren, aber was wäre, wenn die Verifizierung auch lernbasiert wird, um mit Komplexität umzugehen? Wo überschreiten wir die Grenze zwischen berechtigtem und ungerechtfertigtem Vertrauen, wenn die Verifizierungs-KI die Korrektheit des KI-generierten Designs nachweist?

ChatGPT ist ein warnendes Beispiel. Die große Faszination und der große Trugschluss von ChatGPT besteht darin, dass man alles fragen kann. Wir sind erstaunt über die besondere Intelligenz und die Tatsache, dass es so viele verschiedene Bereiche abdeckt. Es scheint, als wäre das Problem der automatischen allgemeinen Intelligenz gelöst.

Aber fast alle realen Anwendungen werden viel enger gefasst und anhand anderer Kriterien beurteilt als die Fähigkeit, zu überraschen oder zu unterhalten. In der Wirtschaft, im Ingenieurwesen und anderen realen Anwendungen erwarten wir eine hohe Qualität der Ergebnisse. Es besteht kein Zweifel daran, dass solche Anwendungen immer besser werden, aber wenn der Hype der Realität zu weit voraus ist, werden die Erwartungen zunichte gemacht und das Vertrauen in weitere Fortschritte wird schwinden.

Können wir pragmatischer ausgedrückt etablierte Punktfähigkeiten in generative Systeme integrieren? Nochmals: Ja und Nein. Es gibt einige erweiterte Modelle, die sehr produktiv sind und Arithmetik und Formelmanipulation bewältigen können, zum Beispiel WolframAlpha, das bereits in ChatGPT integriert ist. WolframAlpha bietet symbolisches und numerisches Denken und ergänzt die KI. Stellen Sie sich KI als Mensch-Maschine-Schnittstelle und die WolframAlpha-Erweiterung als das tiefe Verständnis hinter dieser Schnittstelle vor.

Ist es möglich, die Augmentation zu umgehen, Fähigkeiten zu erlernen und als Module direkt in die KI zu laden, so wie Neo King Fu in der Matrix erlernen konnte? Wie lokal ist die Darstellung solcher Fähigkeiten in Sprachmodellen? Leider werden erlernte Fähigkeiten auch heute noch durch Gewichtungen im Modell dargestellt und sind global. Insofern ist das Laden eines trainierten Moduls als Erweiterung einer bereits trainierten Plattform nicht möglich.

Es gibt eine damit zusammenhängende Frage bezüglich des Werts einer weltweiten Schulung im Vergleich zu rein interner Schulung. Die Theorie besagt: Wenn ChatGPT durch das Training an einem globalen Datensatz so gute Arbeit leisten kann, sollten Designtools dazu in der Lage sein. Diese Theorie scheitert in zweierlei Hinsicht. Erstens sind die für die Schulung benötigten Designdaten höchst urheberrechtlich geschützt und dürfen unter keinen Umständen weitergegeben werden. Globale Schulungen scheinen ebenfalls unnötig zu sein; EDA-Unternehmen können einen guten Ausgangspunkt bieten, der auf Designbeispielen basiert, die routinemäßig zur Verfeinerung von Nicht-KI-Tools verwendet werden. Kunden, die auf dieser Basis aufbauen und mit ihren eigenen Daten trainieren, berichten von sinnvollen Verbesserungen für ihre Zwecke.

Zweitens ist unklar, ob gemeinsames Lernen über viele unterschiedliche Designbereiche hinweg überhaupt von Vorteil wäre. Jedes Unternehmen möchte für seine eigenen besonderen Vorteile optimieren, nicht durch eine Mehrzwecksuppe von „Best Practices“.

Ich hoffe auf eine Wiederverwendung in der KI und freue mich darauf

Bleiben wir angesichts früherer Antworten bei einzigartigen Modellen für jeden engen Bereich? Es ist nicht klar, dass eine Architektur alles kann, aber offene Schnittstellen werden ein Ökosystem von Fähigkeiten fördern, vielleicht wie einen Protokollstapel. Die Apps werden zwar divergieren, aber es kann immer noch viele gemeinsame Infrastrukturen geben. Wenn wir außerdem an Anwendungen denken, die eine Folge trainierter Modelle erfordern, sind einige dieser Modelle möglicherweise weniger proprietär als andere.

Mit Blick auf die Zukunft ist generative KI ein rasanter Zug. Monatlich oder sogar täglich tauchen neue Ideen auf, sodass das, was heute nicht möglich ist, relativ bald möglich sein oder auf andere Weise gelöst werden kann. In allen Bereichen gibt es immer noch große Datenschutzprobleme, abhängig von der Schulung in großen Datensätzen. Der Nachweis, dass erlerntes Verhalten in solchen Fällen nicht gegen Patente oder Geschäftsgeheimnisse verstößt, scheint ein sehr schwieriges Problem zu sein, das wahrscheinlich am besten dadurch vermieden werden kann, dass man diese Schulung auf nicht sensible Fähigkeiten beschränkt.

Trotz aller Vorbehalte ist dies ein Bereich, in dem man keine Angst haben sollte. Generative KI wird transformativ sein. Wir müssen uns darin üben, KI in unserem täglichen Leben besser zu nutzen. Und im Gegenzug wenden wir unser Gelerntes an, um ehrgeiziger für unseren Einsatz in Designtechnologien zu sein.

Tolles Gespräch. Hoffnungsvoll, mit guten Einblicken in Grenzen und praktische Anwendungen.

Lesen Sie auch:

Erkenntnisse aus CadenceLIVE 2023

Anirudh Keynote bei Cadence Live

Petri-Netze validieren DRAM-Protokolle. Innovation in der Verifizierung

Teile diesen Beitrag über:

Zeitstempel:

Mehr von Semiwiki