El revolucionario chip de IA trasciende los límites de los transistores y ofrece una potencia computacional masiva
Electrónica y sensores INSIDER
Los investigadores de Princeton han reinventado por completo la física de la informática para construir un chip para cargas de trabajo modernas de IA. Y con el nuevo respaldo del gobierno de EE. UU., verán qué tan rápido, compacto y energéticamente eficiente puede llegar a ser este chip. Arriba se muestra un prototipo inicial. (Imagen:Hongyang Jia/Universidad de Princeton)La organización de investigación más grande del Departamento de Defensa se ha asociado con un esfuerzo liderado por la Universidad de Princeton para desarrollar microchips avanzados para inteligencia artificial.
El nuevo hardware reinventa chips para cargas de trabajo modernas que pueden ejecutar potentes sistemas de inteligencia artificial utilizando mucha menos energía que los semiconductores más avanzados de la actualidad, según Naveen Verma, profesor de ingeniería eléctrica e informática. Verma, quien liderará el proyecto, dijo que los avances rompen barreras clave que han bloqueado los chips para la IA, incluido el tamaño, la eficiencia y la escalabilidad.
Se pueden implementar chips que requieren menos energía para ejecutar IA en entornos más dinámicos, desde computadoras portátiles y teléfonos hasta hospitales y autopistas, hasta la órbita terrestre baja y más allá. Los tipos de chips que alimentan los modelos más avanzados de hoy en día son demasiado voluminosos e ineficientes para funcionar en dispositivos pequeños, por lo que se limitan principalmente a bastidores de servidores y grandes centros de datos.
Ahora, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) ha anunciado que apoyará el trabajo de Verma, basado en un conjunto de inventos clave de su laboratorio, con una subvención de 18,6 millones de dólares. La financiación de DARPA impulsará una exploración sobre qué tan rápido, compacto y eficiente energéticamente puede llegar a ser el nuevo chip.
"Existe una limitación bastante importante:la mejor IA disponible simplemente se encuentra en el centro de datos", dijo Verma. "Si lo desbloqueas a partir de eso, las formas en que podemos obtener valor de la IA explotan".
El anuncio se produjo como parte de un esfuerzo más amplio de DARPA para financiar “avances revolucionarios en ciencia, dispositivos y sistemas” para la próxima generación de computación con IA. El programa, llamado OPTIMA, incluye proyectos en múltiples universidades y empresas. La convocatoria de propuestas del programa estimó la financiación total en 78 millones de dólares, aunque DARPA no ha revelado la lista completa de instituciones ni la cantidad total de financiación que el programa ha otorgado hasta la fecha.
En el proyecto dirigido por Princeton, los investigadores colaborarán con la startup de Verma, EnCharge AI. Con sede en Santa Clara, California, EnCharge AI comercializa tecnologías basadas en descubrimientos del laboratorio de Verma, incluidos varios artículos clave que coescribió con estudiantes graduados en ingeniería eléctrica que se remontan a 2016.
Verma cofundó EnCharge AI en 2022 con Kailash Gopalakrishnan, ex miembro de IBM, y Echere Iroaga, líder en diseño de sistemas de semiconductores.
Gopalakrishnan dijo que la innovación dentro de las arquitecturas informáticas existentes, así como las mejoras en la tecnología del silicio, comenzaron a desacelerarse exactamente en el momento en que la IA comenzó a crear nuevas y masivas demandas de potencia y eficiencia informática. Ni siquiera la mejor unidad de procesamiento de gráficos (GPU), utilizada para ejecutar los sistemas de inteligencia artificial actuales, puede mitigar los cuellos de botella en memoria y energía informática que enfrenta la industria. "Si bien las GPU son la mejor herramienta disponible en la actualidad", afirmó, "concluimos que se necesitará un nuevo tipo de chip para desbloquear el potencial de la IA".
Entre 2012 y 2022, la cantidad de potencia informática requerida por los modelos de IA creció alrededor de un millón por ciento, según Verma, quien también es director del Centro Keller para la Innovación en la Educación en Ingeniería de la Universidad de Princeton. Para satisfacer la demanda, los últimos chips contienen decenas de miles de millones de transistores, cada uno de ellos separado por el ancho de un pequeño virus. Y, sin embargo, los chips aún no tienen suficiente potencia informática para las necesidades modernas.
Los principales modelos actuales, que combinan grandes modelos de lenguaje con visión por computadora y otros enfoques de aprendizaje automático, se desarrollaron utilizando más de un billón de variables cada uno. Las GPU diseñadas por Nvidia que han impulsado el auge de la IA se han vuelto tan valiosas que, según se informa, las principales empresas las transportan en vehículos blindados. Los retrasos en la compra o arrendamiento de estos chips se extienden hasta el punto de desaparecer.
Cuando Nvidia se convirtió en la tercera empresa en alcanzar una valoración de 2 billones de dólares, el Wall Street Journal informó que una parte cada vez mayor de los crecientes ingresos de la empresa no procedía del desarrollo de modelos, llamados capacitación, sino de chips que permiten el uso de sistemas de inteligencia artificial una vez que ya están capacitados. Los tecnólogos llaman a esta etapa de implementación inferencia. Y la inferencia es donde Verma dice que su investigación tendrá el mayor impacto en el corto y mediano plazo.
"Se trata de descentralizar la IA, liberándola del centro de datos", dijo. "Tiene que salir del centro de datos hacia lugares donde nosotros y los procesos que nos importan puedan acceder al máximo a la informática, y eso son teléfonos, portátiles, fábricas y ese tipo de cosas".
Para crear chips que puedan manejar cargas de trabajo de IA modernas en entornos compactos o con limitaciones de energía, los investigadores tuvieron que reimaginar por completo la física de la informática mientras diseñaban y empaquetaban hardware que pudiera fabricarse con técnicas de fabricación existentes y que funcionara bien con las tecnologías informáticas existentes, como una unidad central de procesamiento.
"Los modelos de IA se han disparado en tamaño", dijo Verma, "y eso significa dos cosas". Los chips de IA deben volverse mucho más eficientes a la hora de hacer cálculos y mucho más eficientes a la hora de gestionar y mover datos.
Su enfoque tiene tres partes clave.
La arquitectura central de prácticamente todas las computadoras digitales ha seguido un patrón engañosamente simple, desarrollado por primera vez en la década de 1940:almacenar datos en un lugar, realizar cálculos en otro. Eso significa transportar información entre las celdas de memoria y el procesador. Durante la última década, Verma ha sido pionera en la investigación de un enfoque actualizado en el que el cálculo se realiza directamente en las celdas de memoria, llamado computación en memoria. Esa es la primera parte. La promesa es que la computación en memoria reducirá el tiempo y la energía que cuesta mover y procesar grandes cantidades de datos.
Pero hasta ahora, los enfoques digitales para la computación en memoria han sido muy limitados. Verma y su equipo recurrieron a un enfoque alternativo:la computación analógica. Esa es la segunda parte.
"En el caso especial de la computación en memoria, no sólo es necesario realizar la computación de manera eficiente", dijo Verma, "también es necesario hacerlo con una densidad muy alta porque ahora debe caber dentro de estas celdas de memoria muy pequeñas". En lugar de codificar información en una serie de 0 y 1 y procesar esa información utilizando circuitos lógicos tradicionales, las computadoras analógicas aprovechan la física más rica de los dispositivos. La curvatura de un engranaje. La capacidad de un cable para retener carga eléctrica.
Las señales digitales comenzaron a reemplazar las señales analógicas en la década de 1940, principalmente porque el código binario escalaba mejor con el crecimiento exponencial de la informática. Pero las señales digitales no penetran profundamente en la física de los dispositivos y, como resultado, pueden requerir más almacenamiento y gestión de datos. Son menos eficientes en ese sentido. Lo analógico obtiene su eficiencia al procesar señales más finas utilizando la física intrínseca de los dispositivos. Pero eso puede conllevar un compromiso en cuanto a precisión.
"La clave está en encontrar la física adecuada para el trabajo en un dispositivo que pueda controlarse extremadamente bien y fabricarse a escala", afirmó Verma.
Su equipo encontró una manera de realizar cálculos de alta precisión utilizando la señal analógica generada por condensadores especialmente diseñados para encenderse y apagarse con gran precisión. Esa es la tercera parte. A diferencia de los dispositivos semiconductores como los transistores, la energía eléctrica que se mueve a través de los condensadores no depende de condiciones variables como la temperatura y la movilidad de los electrones en un material. "Sólo dependen de la geometría", dijo Verma. "Dependen del espacio entre un alambre metálico y el otro alambre metálico". Y la geometría es algo que las técnicas de fabricación de semiconductores más avanzadas de hoy en día pueden controlar extremadamente bien.
Fuente
Sensor
- Oscilador de cristal CMOS Rad-Hard
- Imanes sostenibles impresos en 3D
- Modelos de herramientas de automatización de diseño MEMS más amplia gama de geometrías
- Añadiendo inteligencia perimetral:una entrevista con NXP
- Preparando el camino para la tecnología portátil flexible habilitada para UV
- Aplicaciones innovadoras de sensores IoT allanan el camino hacia el futuro
- Las tecnologías de sensor avanzadas permiten un control personalizado de la calidad del aire
- Creación rápida de prototipos de sensores de bajo costo para tecnología portátil
- Optimización de la medición de N-Port:VNA multipuerto frente a matrices de conmutador
- Soluciones basadas en sensores para mediciones de signos vitales
- Sensor Arduino - Tipos y aplicaciones