La investigación sobre nuevo hardware tiene como objetivo hacer que las altas demandas que la IA hace sobre el software y el consumo de energía sean más prácticas
(AI Trends)-Con las demandas de energía y computación de los modelos de aprendizaje automático de IA con una tendencia a lo que parece ser una tasa insostenible, los investigadores de la Universidad de Purdue están experimentando con hardware especializado destinado a descargar algunas de las demandas de IA en el software.
El enfoque aprovecha las características de la computación cuántica, especialmente el transporte de protones.
“El software está asumiendo la mayoría de los desafíos en IA. Si pudieras incorporar inteligencia en los componentes del circuito además de lo que está sucediendo en el software, podrías hacer cosas que simplemente no se pueden hacer hoy ”, afirmó Shriram Ramanathan, profesor de ingeniería de materiales en la Universidad de Purdue
La dependencia de software con necesidades energéticas masivas para que la IA funcione no es sostenible, sugirió Ramanathan. Si el hardware y el software pudieran compartir características de inteligencia, el silicio podría lograr más con una determinada entrada de energía.
El hardware que está desarrollando el equipo de Purdue está hecho de material cuántico, con propiedades que el equipo está trabajando para comprender y aplicar para resolver problemas en electrónica. La forma en que el software utiliza la memoria en forma de árbol para organizar la información en varias «ramas» es la forma en que el cerebro humano categoriza la información y toma decisiones.
“Los humanos memorizamos cosas en una estructura de árbol de categorías. Por ejemplo, memorizamos ‘manzana’ en la categoría de ‘fruta’ y ‘elefante’ en la categoría de ‘animal’ ”, dijo Hai-Tian Zhang, becaria postdoctoral de Lillian Gilbreth en la Facultad de Ingeniería de Purdue. «La imitación de estas características en el hardware es potencialmente interesante para la informática inspirada en el cerebro».
El equipo introdujo un protón en un material cuántico llamado óxido de níquel y neodimio. Descubrieron que la aplicación de un pulso eléctrico al material se mueve alrededor del protón. Cada nueva posición del protón crea un estado de memoria; múltiples pulsos eléctricos crean una rama formada por estados de memoria.
“Podemos acumular muchos miles de estados de memoria en el material aprovechando los efectos de la mecánica cuántica. El material permanece igual. Simplemente estamos barajando protones ”, dijo Ramanathan.
El equipo demostró que el material es capaz de aprender los números del 0 al 9, una prueba de referencia de la IA. La demostración de estas tareas a temperatura ambiente en un material es un paso hacia la demostración de que el hardware puede descargar tareas del software.
“Este descubrimiento abre nuevas fronteras para la IA que han sido ignoradas en gran medida porque no existía la implementación de este tipo de inteligencia en el hardware electrónico”, dijo Ramanathan.
Los resultados de este estudio se publican en la revista Nature Communications .
John Naughton, profesor de comprensión pública de la tecnología en la Open University , una universidad pública de investigación, la universidad más grande del Reino Unido para la educación de pregrado, también está investigando si el aprendizaje automático de IA está haciendo demandas de energía irrazonables . Es el autor de «De Gutenberg a Zuckerberg: lo que realmente necesita saber sobre Internet».
Investigadores de Nvidia, el fabricante de GPU (unidades de procesamiento gráfico) que ahora se utilizan en la mayoría de los sistemas de aprendizaje automático, desarrollaron un modelo de lenguaje natural que era 24 veces más grande que su predecesor y un 34 por ciento mejor en su tarea de aprendizaje, escribió Naughton en un informe reciente. cuenta en The Guardian: El entrenamiento del modelo final requirió 512 GPU V100 funcionando continuamente durante 9.2 días. Un experto calculó que sería tres veces el consumo de energía anual del estadounidense promedio.
«No es necesario ser Einstein para darse cuenta de que el aprendizaje automático no puede continuar en su camino actual, especialmente dadas las frenéticas garantías de la industria de que los gigantes tecnológicos se dirigen hacia un futuro de ‘IA en todas partes'», afirmó Naughton.
Él también sugiere que los avances en hardware podrían ayudar a hacer que las demandas de la inteligencia artificial sean más prácticas, y señaló que el nuevo Apple iPhone 11 incluye el chip A13 de Apple, que incorpora software de red neuronal detrás de los avances recientes en lenguaje natural y procesamiento de imágenes.
IBM experimentando con la computadora neuronal
Mientras tanto, en IBM, se está investigando la «computadora neuronal», un nuevo tipo de computadora diseñada para desarrollar algoritmos de inteligencia artificial y ayudar en la neurociencia computacional. La computadora neuronal es un sistema de “neuroevolución” profundo que combina la implementación de hardware de un Atari 2600, el preprocesamiento de imágenes y los algoritmos de inteligencia artificial en una tubería optimizada, según una cuenta reciente en VentureBeat . (El Atari 2600, originalmente denominado Atari Video Computer Systems, se introdujo en 1977).
El equipo de investigación informa en un artículo de investigación técnica de IBM publicado a principios de este año, que los resultados hasta ahora han logrado un tiempo de entrenamiento récord de 1.2 millones de cuadros de imagen por segundo.
Los videojuegos son una plataforma bien establecida para la investigación de inteligencia artificial y aprendizaje automático. En ciertos dominios como el aprendizaje por refuerzo, la IA aprende comportamientos óptimos al interactuar con el entorno en busca de recompensas, como buenos puntajes en los juegos. Se ha demostrado que los algoritmos de IA desarrollados dentro de los juegos se pueden adaptar a usos prácticos, incluida la predicción de plegamiento de proteínas. Si los resultados de la computadora neuronal de IBM demuestran ser repetibles, el sistema podría usarse para acelerar el desarrollo de algoritmos de inteligencia artificial.
En el transcurso de cinco experimentos, los investigadores de IBM ejecutaron 59 juegos Atari 2600 en la computadora neuronal. Requirió 6 mil millones de fotogramas de juego en total y falló en desafiantes juegos de exploración como Montezuma’s Revenge y Pitfall. Pero logró superar una línea de base popular, una red Deep Q, una arquitectura iniciada por DeepMind, en 30 de 59 juegos después de 6 minutos de entrenamiento (200 millones de cuadros de entrenamiento). Esto se compara con los 10 días de entrenamiento de la red Deep-Q . Con 6 mil millones de cuadros de entrenamiento, superó la red Deep Q en 36 juegos mientras tomaba 2 órdenes de magnitud menos de tiempo de entrenamiento (2 horas y 30 minutos).