Opiniones sobre IA generativa en CadenceLIVE - Semiwiki

Opiniones sobre IA generativa en CadenceLIVE – Semiwiki

Nodo de origen: 2661356

Según algunos soñadores de la IA, ya casi hemos llegado. Ya no necesitaremos expertos en diseño de hardware o software, sólo alguien que introduzca los requisitos básicos de los que las tecnologías de sistemas plenamente realizadas quedarán excluidas por el otro extremo. Las opiniones de los expertos de la industria son entusiastas pero menos hiperbólicas. Bob O'Donnell, presidente, fundador y analista jefe de TECHnalysis Research moderó un panel sobre este tema en CadenceLIVE con los panelistas Rob Christy (Director Técnico e Ingeniero Distinguido, Implementación - Sistemas de Ingeniería Central en Arm), Prabal Dutta (Profesor Asociado, Ingeniería Eléctrica y Ciencias de la Computación, en la Universidad de California, Berkeley), Dr. Paul Cunningham (Vicepresidente senior y gerente general del Grupo de Verificación y Sistemas en Cadence), Chris Rowen (VP de Ingeniería, Colaboración AI en Cisco) e Igor Markov (Investigación Científico de Meta): personas que saben más que la mayoría de nosotros sobre diseño de chips e inteligencia artificial. Todos los panelistas ofrecieron ideas valiosas. He resumido la discusión aquí.

Opiniones sobre IA generativa

¿La IA generativa cambiará el diseño de los chips?

El consenso fue sí y no. La IA puede automatizar gran parte de la interacción entre humanos además de las tecnologías básicas necesarias: lugar y ruta, simulación lógica, simulación de circuitos, etc. Esto nos permite explorar una gama más amplia (quizás mucho más amplia) de opciones que las que serían posibles mediante la exploración manual.

La IA es fundamentalmente probabilística, ideal cuando las respuestas probabilísticas son apropiadas (generalmente mejoran en una línea de base), pero no cuando la alta precisión es obligatoria (por ejemplo, sintetizar puertas). Además, los modelos generativos actuales son muy buenos en un conjunto limitado de campos, no necesariamente en otros. Por ejemplo, son muy ineficientes en aplicaciones matemáticas. También es importante recordar que en realidad no aprenden habilidades: aprenden a imitar. No existe ningún conocimiento básico de ingeniería eléctrica, física o matemáticas, por ejemplo. En el uso práctico, algunas limitaciones podrían compensarse con una verificación sólida.

Dicho esto, lo que pueden hacer en aplicaciones lingüísticas es extraordinario. En otros conjuntos de datos masivos de dominios específicos, como en las redes, los modelos grandes podrían aprender la estructura e inferir muchas cosas interesantes que no tienen nada que ver con el lenguaje. Se podría imaginar un aprendizaje superlineal en algunos dominios si el aprendizaje pudiera compararse con corpus mundiales, suponiendo que podamos dominar las espinosas cuestiones de propiedad intelectual y privacidad.

¿Pueden los métodos generativos impulsar el desarrollo de habilidades?

En el diseño de semiconductores y sistemas, nos enfrentamos a una grave escasez de talento. Los panelistas creen que la IA ayudará a los ingenieros más jóvenes y menos experimentados a acelerar más rápido hacia un nivel de rendimiento más experimentado. Los expertos también mejorarán, ya que tendrán más tiempo para estudiar y aplicar nuevas técnicas provenientes de fronteras en constante expansión en la investigación de microarquitectura y de implementación. Esto debería ser un recordatorio de que los métodos basados ​​en el aprendizaje ayudarán con el conocimiento de “todo diseñador experimentado sabe”, pero siempre estarán detrás de la curva de los expertos.

¿Estas herramientas nos permitirán crear diferentes tipos de chips? A corto plazo, la IA ayudará a fabricar mejores chips en lugar de nuevos tipos de chips. Los modelos generativos son buenos con secuencias de pasos; Si pasa por el mismo proceso de diseño muchas veces, la IA puede optimizar/automatizar esas secuencias mejor que nosotros. Más adelante, los métodos generativos pueden ayudarnos a construir nuevos tipos de chips de IA, lo que podría ser interesante porque nos estamos dando cuenta de que cada vez más problemas pueden reformularse como problemas de IA.

Otra área interesante es el diseño de matrices múltiples. Esta es un área nueva incluso para los expertos en diseño. Hoy en día, pensamos en bloques de chiplets con interfaces construidas como piezas de Lego predeterminadas. La IA generativa puede sugerir nuevas formas de desbloquear mejores optimizaciones, proporcionando respuestas diferentes a las que incluso los expertos podrían encontrar rápidamente.

Trampas

¿Cuáles son los posibles peligros de aplicar la IA generativa al diseño de chips o sistemas? Nosotros mismos representamos un problema. Si la IA está haciendo un buen trabajo, ¿empiezas a confiar en ella más de lo que deberías? Cuestiones similares ya son motivo de preocupación para la conducción autónoma y los drones armados autónomos. La confianza es un equilibrio delicado. Podemos confiar pero verificar, pero ¿qué pasa si la verificación también se basa en el aprendizaje para abordar la complejidad? Cuando la IA de verificación demuestra la exactitud del diseño generado por IA, ¿dónde cruzamos la línea entre la confianza justificada y la injustificada?

ChatGPT es un ejemplo de advertencia. La gran fascinación y la gran falacia de ChatGPT es que puedes preguntarle cualquier cosa. Nos sorprende su inteligencia específica y el hecho de que abarque tantas áreas diferentes. Parece que el problema de la inteligencia general automática se ha resuelto.

Pero casi todas las aplicaciones del mundo real serán mucho más limitadas y se juzgarán con criterios diferentes a la capacidad de sorprender o entretener. En negocios, ingeniería y otras aplicaciones del mundo real, esperaremos resultados de alta calidad. No hay duda de que dichas aplicaciones mejorarán progresivamente, pero si las exageraciones se adelantan demasiado a la realidad, las expectativas se desvanecerán y la confianza en nuevos avances se estancará.

De manera más pragmática, ¿podemos integrar habilidades puntuales establecidas en sistemas generativos? De nuevo, sí y no. Hay algunos modelos aumentados que son muy productivos y capaces de manejar aritmética y manipulación de fórmulas, por ejemplo, WolframAlpha que ya está integrado con ChatGPT. WolframAlpha proporciona razonamiento simbólico y numérico, complementando la IA. Piense en la IA como la interfaz hombre-máquina y en el aumento de WolframAlpha como el conocimiento profundo detrás de esa interfaz.

¿Es posible evitar el aumento, aprender y cargar habilidades directamente en la IA como módulos, como Neo pudo aprender King Fu en Matrix? ¿Cuán local es la representación de tales habilidades en los modelos lingüísticos? Desafortunadamente, incluso ahora, las habilidades aprendidas están representadas por pesos en el modelo y son globales. En este sentido, no es posible cargar un módulo entrenado como una extensión de una plataforma entrenada existente.

Existe una pregunta algo relacionada sobre el valor de la capacitación mundial frente a la capacitación interna. La teoría es que si ChatGPT puede hacer un trabajo tan bueno entrenando en un conjunto de datos global, entonces las herramientas de diseño deberían poder hacer lo mismo. Esta teoría tropieza en dos sentidos. En primer lugar, los datos de diseño necesarios para la capacitación son propiedad exclusiva y nunca deben compartirse bajo ninguna circunstancia. La formación global también parece innecesaria; Las empresas de EDA pueden proporcionar un punto de partida decente basado en ejemplos de diseño que se utilizan habitualmente para perfeccionar herramientas que no son de IA. Los clientes que se basan en esa base y se capacitan utilizando sus propios datos informan de mejoras significativas para sus propósitos.

En segundo lugar, no está claro que el aprendizaje compartido en muchos dominios de diseño diferentes sea siquiera beneficioso. Cada empresa quiere optimizar para sus propias ventajas especiales, no a través de una sopa multipropósito de “mejores prácticas”.

Esperanza de reutilización en IA y mirando hacia adelante

Dadas las respuestas anteriores, ¿estamos atrapados en modelos únicos para cada dominio limitado? No está claro que una arquitectura pueda hacerlo todo, pero las interfaces abiertas fomentarán un ecosistema de capacidades, tal vez como una pila de protocolos. Las aplicaciones divergirán, pero aún puede haber mucha infraestructura compartida. Además, si pensamos en aplicaciones que requieren una secuencia de modelos entrenados, algunos de esos modelos pueden ser menos propietarios que otros.

De cara al futuro, la IA generativa es un tren que avanza rápidamente. Nuevas ideas aparecen mensualmente, incluso diariamente, por lo que lo que hoy no es posible puede volverse posible o resolverse de otra manera relativamente pronto. Todavía existen grandes problemas de privacidad en cualquier área dependiendo de la capacitación en amplios conjuntos de datos. Demostrar que el comportamiento aprendido en tales casos no viola patentes o secretos comerciales parece un problema muy difícil, que probablemente sea mejor evitarlo limitando dicha capacitación a capacidades no sensibles.

A pesar de todas las advertencias, ésta es un área en la que no hay que tener miedo. La IA generativa será transformadora. Debemos capacitarnos para aprovechar mejor la IA en nuestra vida diaria. Y a su vez, aplicar nuestro aprendizaje para ser más ambiciosos en nuestro uso en tecnologías de diseño.

Gran charla. Esperanzado, con buenos conocimientos sobre las limitaciones y aplicaciones prácticas.

Lea también

Conclusiones de CadenceLIVE 2023

Conferencia magistral de Anirudh en Cadence Live

Redes de Petri validando protocolos DRAM. Innovación en Verificación

Comparte esta publicación a través de:

Sello de tiempo:

Mas de Semiwiki