Es imposible sobrestimar el impacto potencial y positivo que la IA tendrá en la sociedad en general. Sin embargo, la IA generalizada sigue siendo un desafío. Los algoritmos de entrenamiento pueden consumir cantidades excesivas de energía, tiempo y capacidad informática. La inferencia también será más exigente con aplicaciones como imágenes médicas y robótica. Applied Materials estima que la IA podría consumir hasta 25% de la electricidad mundial (frente al 5% actual) a menos que podamos lograr avances en procesadores, software, ciencia de materiales, diseño de sistemas, redes y otras áreas.
Hay dos direcciones principales para el desarrollo de la tecnología informática y de IA en la actualidad: sistemas de escala extrema y sistemas distribuidos masivamente en el borde/ubicados. Ambos vienen con una combinación de desafíos similares y divergentes.
Desde una perspectiva de hardware, aquí están las que creo que son las principales áreas que necesitan mejoras.
1. Procesamiento especializado. Las arquitecturas informáticas alcanzaron un importante punto de inflexión en 2006. Lograr mejoras en el rendimiento a través de la Ley de Moore y Dennard escalando se volvió más costoso y problemático. Al mismo tiempo, los coprocesadores estaban regresando. NVIDIA lanzó el G80, su primera GPU dirigida a servidores ese año. El primero esfuerzos para desarrollar procesadores AI también comenzó en ese momento.
Desde entonces, las GPU se han generalizado en AI HPC. Sobre 50 empresas están desarrollando procesadores de IA, incluidos Google, Qualcomm, Amazon, Facebook, Samsung y muchos otros. Y las unidades de procesamiento de datos (DPU) para la red, el almacenamiento y la seguridad se están convirtiendo en un elemento permanente en las nubes y las computadoras a gran escala.
El desafío durante los próximos tres años girará en torno a encontrar la combinación mágicamente deliciosa para diferentes aplicaciones de IA. ¿La capacitación de ML basada en la nube se atenderá mejor con procesadores a escala de obleas or chiplets en computadoras a exaescala? ¿O qué nivel de capacitación debe tener lugar en los dispositivos en un sistema distribuido masivamente? Tenemos una buena parte de la tecnología central tanto para la nube como para la IA perimetral. Lo que necesitaremos es más arquitecturas dedicadas a la IA, junto con una configuración y optimización de sistemas dinámicos inteligentes basados en ML.
2. Procesamiento de datos cercanos. Más del 60% de la energía utilizada por las computadoras se consume en el transporte de datos entre unidades de almacenamiento, memoria y procesamiento.. Reducir o incluso eliminar una gran parte de este viaje digital puede reducir significativamente el consumo de energía y la latencia. El procesamiento en memoria, donde una pequeña unidad de procesamiento dedicada se integra en la memoria de acceso aleatorio, tendrá sentido en los centros de datos y la computación a exaescala en general.
En el borde, poder procesar datos en el sensor, o al menos antes de que se transmitan o envíen a un dispositivo remoto, podría ser una forma de reducir enormemente el tránsito y el almacenamiento de datos. Solo los eventos o datos significativos se transferirían a un servicio remoto y solo cuando un motor inteligente en el borde lo hubiera dicho.
Al igual que el procesamiento especializado, esta es una innovación a corto plazo.
3. Procesadores no CMOS. Como escribí en mi ultimo articuloLos procesadores fáciles de integrar, de bajo costo y hechos con transistores y/o sustratos flexibles allanarán el camino para reducir el desperdicio de alimentos, encontrar fugas de agua o fomentar el reciclaje. Algunas de estas etiquetas serán simplemente sensores inteligentes que envían datos sin procesar, pero cada vez más aprovecharán el aprendizaje automático para reducir el tráfico de datos y elevar el "valor" de sus comunicaciones.
Investigación de brazosen conjunción con Semiconductor pragmático, el año pasado presumió Brazo de plastico, una red neuronal experimental impresa a precio de centavo con sensor que podría usarse para estas tareas. Los diseños de procesadores, las herramientas EDA, los equipos de fabricación y el software deberán desarrollarse aún más e integrarse en una plataforma integral de electrónica impresa como servicio. La identificación de una aplicación asesina determinará el próximo paso y la velocidad de desarrollo para este dominio.
4. Procesamiento basado en eventos/umbral. Profecía ha desarrollado un procesador de imágenes basado en eventos con píxeles que funcionan independientemente unos de otros. Los datos se actualizan solo cuando ocurren cambios, no en un ciclo sincronizado a través de la cámara, similar a cómo funciona el ojo humano. Esto reduce enormemente la cantidad de datos capturados, lo que permite velocidades de hasta 10,000 XNUMX fotogramas por segundo. El consumo de energía, la latencia y la sobrecarga informática se reducen drásticamente mientras se mejora la resolución de la imagen.
Imagine tomar una imagen de una carrera de esquí alpino: la mecánica del cuerpo de un corredor individual podría capturarse en detalle al eliminar las actualizaciones innecesarias de un cielo estático. Los accidentes automovilísticos podrían reconstruirse con mayor precisión.
Más allá de la visión por computadora, los dispositivos sensoriales basados en eventos podrían usarse para optimizar el análisis de vibraciones, el reconocimiento de voz y otros cálculos en aplicaciones de uso intensivo de datos. Imagine un tatuaje inteligente que transmita solo eventos significativos sobre sus bioseñales a su reloj inteligente o proveedor de atención médica después de alcanzar un umbral o una cadena de eventos. Sería capaz de monitorear en tiempo real en un flujo de datos, con un pequeño sistema de cómputo, ciertas características de eventos de un estado del sistema o de una emoción humana, o predecir divergencias en ciertas enfermedades cognitivas.
5. Procesadores neuromórficos. Es posible diseñar redes neuronales de picos artificiales o, más generalmente, componentes electrónicos, de una manera que se inspire en la arquitectura del cerebro humano. Carver Mead teorizó por primera vez sobre los procesadores neuromórficos en los años 80. Pero aún hoy, solo unos pocos chips experimentales como SpiNNaker 1 y Spinnaker 2, existe una plataforma de procesador de 10 millones de núcleos optimizada para la simulación de redes neuronales de picos.
La computación neuromórfica parece muy prometedora, pero continúa requiriendo avances en el entrenamiento de modelos, herramientas de operaciones de desarrollo de ML y otras tecnologías. También necesitamos hardware que se adapte a diferentes casos de uso: el conjunto de chips del tamaño de una oblea no funcionará para aplicaciones orientadas a bajo consumo. Aunque la investigación neuromórfica se ha centrado principalmente en sistemas de exaescala, puede tener sentido concentrar tanta energía en aplicaciones como detección de palabras clave de potencia ultrabaja, detección de eventos para vehículos autónomos u otros casos de uso de procesamiento de transmisión de datos. El progreso podría llegar más rápidamente y los conceptos innovadores podrían ampliarse. Es posible que la futura aplicación decisiva para neuromórficos no se encuentre en sistemas de exaescala, sino más bien en computación de borde orientada a baja potencia.
6. Refrigeración ambiental extrema. Se han instalado centros de datos en minas abandonadas, refugios subterráneos antiaéreos y puertos urbanos para reducir las cargas mecánicas de refrigeración. La refrigeración líquida también parece estar regresando.
La computación criogénica, si se diseña específicamente para beneficiarse de los fenómenos físicos que se presentan a temperaturas criogénicas, podría brindar beneficios significativos en términos de rendimiento por vatio. Lo que es clave es explorar optimizaciones de diseño desde materiales hasta dispositivos y sistemas. Se necesitará un esfuerzo de la industria para dar vida a la tecnología para la aplicación a gran escala en centros de datos y/o para sistemas informáticos a exaescala, pero las investigaciones iniciales parecen muy prometedoras y merecen una exploración más profunda.
7. Arquitecturas de Cómputo Cero. Si observamos más a fondo los posibles modelos bioinspirados, podríamos explorar cómo reproducir la forma en que nuestra memoria implícita a largo plazo nos permite lograr de manera eficiente hazañas conocidas pero complejas, como conducir un automóvil en reversa o leer un libro fusionando paso a paso. paso los procesos en un procedimiento relativamente automatizado.
En un mundo informático, el sistema sería capaz de basarse en funciones aprendidas o experimentales, para acortar tareas informáticas intensivas cuando ya se han realizado una vez. En un nivel alto, un sistema de cómputo cero incluiría un mecanismo que puede reconocer si una aplicación es nueva o aprendida, un proceso para ejecutar tareas aprendidas y una biblioteca de funciones aprendidas para futuras repeticiones. Por supuesto, podríamos argumentar que esto no es realmente un cómputo cero, sino un cómputo cercano a cero. No obstante, podría cortar una gran cantidad de cálculos.
Al igual que en los humanos, tendríamos que ser conscientes de las ventajas y desventajas de realizar las tareas de manera rutinaria y examinar críticamente cada proceso. Pero suponiendo que el equilibrio funcione entre una gran cantidad de tareas conocidas y la recomputación, podríamos imaginar un sistema inteligente a exaescala dividiendo el mundo de la computación entre lo conocido y lo desconocido y distribuyendo la respuesta a una gran cantidad de sistemas tontos.
Esto, por supuesto, es solo el comienzo. A medida que la IA se extienda, también lo hará la necesidad de un mayor rendimiento y eficiencia a nivel de hardware.
El puesto Siete avances de hardware que necesitamos para habilitar la revolución de la IA apareció por primera vez en Ingeniería de semiconductores.
- Coinsmart. El mejor intercambio de Bitcoin y criptografía de Europa.
- Platoblockchain. Inteligencia del Metaverso Web3. Conocimiento amplificado. ACCESO LIBRE.
- CriptoHawk. Radar de altcoins. Prueba gratis.
- Fuente: https://semiengineering.com/seven-hardware-advances-we-need-to-enable-the-ai-revolution/