Logotipo de Zephyrnet

La ley de Moore ha muerto: ¡larga vida a Chiplet!

Fecha:

El Dr. Gordon Moore era el Director de Investigación y Desarrollo de Fairchild cuando escribió el artículo, “Amontonando más componentes en los circuitos integrados” que fue publicado en la edición del 19 de abril de 1965 de Electrónica. Después de esta publicación, el Dr. Carver Mead de Caltech declaró las predicciones del Dr. Moore como "Ley de Moore".

Muy pocas personas entienden la esencia de la Ley de Moore o conocen la miríada de proyecciones tangenciales que hizo el Dr. Moore en este artículo relativamente breve; estos incluían computadoras domésticas, controles automáticos para automóviles, equipos de comunicaciones portátiles personales y muchas otras innovaciones que en ese momento pueden haber parecido ciencia ficción para algunos lectores.

Entre las proyecciones del Dr. Moore para los circuitos integrados (CI) estaba que "para 1975, la economía puede dictar la compresión de hasta 65,000 componentes en un solo chip de silicio”.  Tomó un par de años más que la proyección, pero la primera DRAM (memoria dinámica de acceso aleatorio) de 64 Kb se lanzó en 1977 con 65,536 transistores en un "chip de silicio único".  Esa es una proyección notable desde que se introdujo la primera DRAM comercialmente viable en 1970; cinco años después de la publicación del artículo del Dr. Moore.

La esencia de la Ley de Moore

Si bien hay una serie de proyecciones incluidas en la Ley de Moore y prácticamente todas se desarrollaron en un grado razonable, hay dos proyecciones que son la "esencia" de la Ley de Moore. Si hacemos un poco de matemáticas, podemos agregar algo de color a estas proyecciones. A continuación hay dos citas del artículo original de 1965 y mi extrapolación de las predicciones.

  • “La complejidad de los costos mínimos de los componentes ha aumentado a un ritmo de aproximadamente un factor de dos por año. Ciertamente, en el corto plazo se puede esperar que esta tasa continúe, si no que aumente. A más largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no se mantendrá casi constante durante al menos 10 años”.  Esto sugiere que durante los próximos diez años, veremos un aumento de la densidad de transistores (componentes) en un factor de aproximadamente 1,024.
  • “En 1970, se puede esperar que el costo de fabricación por componente sea solo una décima parte del costo actual”. Esto proyecta que, si bien la densidad de transistores (componentes) se duplicará cada año, el costo por componente disminuirá a una tasa de alrededor del 37% por año. Esto es importante de entender, así que tomemos un momento para repasar las matemáticas. Con cada duplicación de la densidad de los componentes, hay costos de fabricación más altos, pero el Dr. Moore correctamente proyecta que estos costos más altos serán mucho más que compensados ​​por la duplicación anual de la densidad. El resultado es una reducción neta del costo compuesto del 37 % por transistor (componente) que da como resultado una reducción del 90 % en cinco años y una reducción del 99 % en diez años.

Después de esta carrera de diez años hasta 1975, que resultó muy similar en la mayoría de los aspectos a las proyecciones de la Ley de Moore, el Dr. Moore restableció las expectativas a una duplicación de la densidad del transistor cada 18 a 24 meses en comparación con cada año. Como resultado de este notable progreso, si usted vive en la clase media o por encima de ella en una nación desarrollada, existe una gran posibilidad de que sea un "trillonario de transistores": con todo el material electrónico que posee, tiene más de un billón transistores

Hasta dónde hemos llegado: un estudio de caso

Cuando entré en la industria de los semiconductores en 1976, el dispositivo DRAM dominante era el de 16 Kb (16 K x 1) Mostek MK41161 (Intel tenía el 2116, pero Mostek era el proveedor líder). Su consumo de energía (estado activo) fue de aproximadamente 0.432 vatios (432 mW). Debido a los grandes tamaños de los paquetes utilizados en 1976, solo cabían alrededor de 1.5 dispositivos por pulgada cuadrada de área de placa de circuito impreso (PCB). Lo mejor que puedo recordar, el MK4116 se vendió por alrededor de $ 10 (dólares de 1976) en volumen de producción.

(1) Si bien la DRAM de 64 Kb se lanzó en 1977, su costo por bit se mantuvo más alto que el de la DRAM de 16 Kb hasta alrededor de 1980.

Si extrapolamos estos datos, podemos ver que la memoria típica de 16 GB (16 Gb x 8) que se usa en las PC de consumo hoy en día costaría alrededor de $ 80 millones solo por los chips de memoria ($ 400 millones en dólares de 2021), requiere una PCB de aproximadamente 37,000 pies cuadrados de tamaño (más grande que la explanada de 35,000 pies cuadrados en Grand Central Station) y consumiría alrededor de 3,500,000 Watts de electricidad. A $0.10 por KWh, costaría más de $250,000 por mes alimentar esta placa de memoria.2

(2) Para simplificar las cosas, todos los cálculos se basan únicamente en las 8,000,000 4116 16 DRAM MKXNUMX que se necesitarían para entregar XNUMX GB de memoria. Además de estos, también se requeriría una miríada de componentes pasivos y activos adicionales. Estos componentes no están incluidos en ninguno de los cálculos.

Hoy en día, puede comprar un módulo DRAM de 16 GB para una computadora portátil en una tienda minorista por alrededor de $ 40 (alrededor de $ 8 dólares de 1975) que es aproximadamente del tamaño de su dedo índice y consume menos de 3 vatios de energía.  Esto se alimenta fácilmente con la batería de una computadora portátil, pero a $ 0.10 por KWh, el costo mensual sería un poco más de $ 0.20.

Obviamente, desde muchas perspectivas (costo, temperatura, tamaño y confiabilidad, por nombrar algunas) no solo habría sido poco práctico, sino literalmente imposible construir una placa de memoria DRAM de 16 GB en 1976. Por supuesto, no habría sido útil. de todos modos, los microprocesadores disponibles en 1976 solo podían manejar 64 KB de memoria. Sin embargo, esta ilustración de los avances impulsados ​​por la Ley de Moore desde que me uní a la industria es simplemente una ilustración de estudio de caso de lo lejos que ha llegado la industria.

Si ajustamos la inflación, nuestros datos nos dicen que los avances predichos por la Ley de Moore han llevado a una reducción del 99.9999995 % en el costo (es decir, un 30 % compuesto anualmente durante 45 años) y una reducción del 99.9999993 % en el consumo de energía. Y, cuando combina estos avances con una reducción aún mayor en el área requerida, puede apreciar mejor lo que la Ley de Moore no solo ha hecho posible, sino mucho más importante, práctico y asequible.

Si bien es bastante sencillo extrapolar los avances en la fabricación de semiconductores que han reducido el costo por bit de DRAM en un factor de aproximadamente 10 millones, es mucho más tedioso estimar la mejora para los procesadores. Las luminarias de la industria que son mucho más inteligentes que yo han declarado que cuando se consideran los avances en la arquitectura informática que ha permitido la Ley de Moore, la eficiencia económica de los circuitos integrados de procesador ha mejorado en un factor superior a mil millones desde la introducción del 4004 en 1971. .

Si bien es difícil visualizar y cuantificar estas mejoras con números, es muy fácil demostrar que incluso un teléfono inteligente promedio hoy en día tiene MUCHO más poder de cómputo que el que tenía toda la NASA cuando la misión Apolo 11 llevó a los astronautas a la luna en 1969. Piense en que la próxima vez que le hagas una pregunta a Siri, Alexa o Google…

Economía de transistores

Hay todo tipo de palabras elegantes que puede usar para describir varios modelos de negocios, pero me gusta mantener las cosas lo más simples posible. Dentro de cualquier modelo de negocio, puede dividir los costos entre "fijos" (capital) y "variables" (marginales). Si el modelo está fuertemente ponderado por los gastos variables, hay poca escala (apalancamiento) y la rentabilidad sigue una línea bastante lineal con el volumen. Sin embargo, si el modelo está fuertemente ponderado por los costos fijos, el modelo escala (a menudo dramáticamente) y la rentabilidad aumenta abruptamente a medida que crece el volumen.

Por ejemplo, si fuera a perforar en busca de petróleo, tendría que construir una plataforma y hacer todas las inversiones de capital asociadas necesarias para perforar en busca de petróleo (costos fijos), pero una vez que se construye y el petróleo comienza a fluir, los costos para mantener ese flujo (costos variables) son muy bajos. En este modelo de negocio, los altos costos fijos se amortizan a través de los barriles de petróleo que se bombean. La conclusión obvia es que cuantos más barriles de petróleo se produzcan, menor será el costo total por barril (los costos fijos se amortizan entre más barriles de petróleo).

La conclusión algo menos obvia es que el "costo marginal" del "próximo" barril producido es muy bajo. Dado que el costo marginal (variable) representa el aumento del costo total para producir una unidad más (barril) y no se requieren costos fijos adicionales, solo se cuentan los costos variables. Obviamente, dados estos datos, el volumen es MUY importante en modelos de negocios que operan con costos fijos altos y costos variables bajos.

Este ejemplo clásico de un modelo comercial de alto costo fijo/bajo costo variable está más o menos alineado con lo que vemos en el modelo comercial clásico de semiconductores. Cuesta una enorme cantidad de dinero abrir una línea de fabricación de semiconductores de vanguardia (medida en decenas de miles de millones de dólares en la actualidad) y diseñar un circuito integrado relativamente complejo para un proceso de fabricación de vanguardia (5nm) podría costar fácilmente XNUMX millones. Sin embargo, una vez que la planta de fabricación está operativa y el IC está en producción, el costo marginal de fabricar la siguiente oblea de silicio es pequeño en relación con estos costos fijos.

La industria de los semiconductores tiene una gran ventaja sobre la industria del petróleo; A diferencia del petróleo, donde hay limitaciones para el suministro final (reservas descubiertas), hay un suministro prácticamente ilimitado de silicio relativamente barato (el material base para la mayoría de las obleas de semiconductores), lo que significa que hay razones sólidas para bajar continuamente los precios para estimular una mayor demanda. y producir más volumen.

Este fenómeno se demuestra en los datos. Bell Labs produjo exactamente un transistor en su laboratorio en 1947 y pasarían varios años antes de que se produjera un puñado para aplicaciones limitadas. En 2022, solo 75 años después, la industria de los semiconductores producirá literalmente cientos de miles de millones, si no billones, de transistores para cada hombre, mujer y niño en la tierra y los venderá en forma de circuitos integrados por fracciones infinitesimales de un centavo.

Probablemente hay una serie de historias detrás de cómo se lanzó esta increíble tendencia de crecimiento, pero George Gilder contó una de mis favoritas en su libro, microcosmo.

Como George relató la historia, Fairchild Semiconductor estaba vendiendo un transistor (número de pieza 1211) en volúmenes relativamente pequeños a clientes militares por $ 150 cada uno. Con un costo de aproximadamente $100, Fairchild obtuvo una buena ganancia. Sin embargo, dadas las estrictas especificaciones militares, se quedaron con piezas de desecho que no cumplían con los requisitos del cliente.

Para encontrar un hogar para estos transistores, Jerry Sanders3, que había sido ascendido recientemente para dirigir el grupo de marketing de consumo de Fairchild, recibió la tarea de encontrar un comprador dispuesto a pagar $5 por los rechazos. Encontró algunos compradores dispuestos, pero en 1963, cuando la FCC ordenó que todos los televisores nuevos incluyeran recepción UHF, se abrió una gran oportunidad de mercado.

(3) Jerry Sanders luego dejó Fairchild para iniciar Advanced Micro Devices (AMD)

El problema aquí era que incluso a $5, la versión para consumidores del 1211 no podía competir con el innovador tubo de vacío con carcasa de metal de RCA llamado Nuvistor que estaba ofreciendo a los fabricantes de televisores por sólo $1.05. Sanders probó todos los ángulos que pudo para sortear la diferencia de precio de $ 3.95: el consumidor 1211 se podía soldar directamente a la PCB evitando el uso de un zócalo para el Nuvistor y el transistor era claramente más confiable. Sin embargo, simplemente no pudo cerrar el trato.

Dado que el mercado potencial de televisores en 1963 era de aproximadamente 10 millones de unidades por año; Sanders fue a la sede de Fairchild en Mountain View y se reunió con el Dr. Robert Noyce en su casa en las colinas de Los Altos. Al principio dudó en pedir el precio de $1.05 que necesitaba para cerrar el trato, pero una vez que Sanders describió la oportunidad, el Dr. Noyce tomó la solicitud con calma y después de una breve contemplación, la aprobó.

Sanders regresó a Zenith y reservó el primer pedido del consumidor 1211 por $1.05. Para reducir los costos, Fairchild abrió su primera planta en el extranjero en Hong Kong que fue diseñada para manejar el volumen anticipado y junto con eso desarrolló su primer envase de plástico para el pedido (TO-92). Antes de esto, todos los 1211 se empaquetaban como la mayoría de los transistores en ese momento, en una lata de metal herméticamente sellada (sellada de vidrio a metal) (TO-5).

Una vez que Fairchild marcó la producción, pudo bajar el precio a $ 0.50, y en dos años (en 1965) obtuvo una participación de mercado del 90% para sintonizadores UHF y el nuevo plástico 1211 generó el 10% de la ganancia total de la empresa. 1965 resultó ser también el año en que el Dr. Moore escribió el artículo que luego se denominó "Ley de Moore".

La lección del transistor 1211 sobre cómo aprovechar de manera efectiva los costos marginales bajos para impulsar el volumen fue tangencial al artículo del Dr. Moore. Sin embargo, cuando se combinó con la profecía de la Ley de Moore que predijo correctamente que el costo por transistor en un circuito integrado caería rápidamente a medida que avanzaba la tecnología de fabricación, se fundió el molde para el modelo comercial de semiconductores y el capital fluyó libremente hacia la industria.

La Marcha de la Ley de Moore en Procesadores:

En 1968, tres años después de la publicación de la "Ley de Moore", el Dr. Moore y el Dr. Noyce, a quien se le atribuye la invención del circuito integrado (IC) planar en 1959, dejaron Fairchild para iniciar Intel (INTC). Pronto se les unió el Dr. Andy Grove, quien con su experiencia en ingeniería química dirigió las operaciones de fabricación en Intel. Después del Dr. Noyce y el Dr. Moore, el Dr. Grove fue nombrado tercer director ejecutivo de Intel en 1987.

Intel comenzó fabricando dispositivos de memoria estática de acceso aleatorio (SRAM) para computadoras centrales (las memorias de semiconductores eran parte de las predicciones de la ley de Moore), pero rápidamente desarrolló circuitos integrados para relojes y calculadoras, y pasó de allí a procesadores de propósito general. En un esfuerzo por optimizar la continuidad, me concentraré principalmente en la evolución de los procesadores Intel en esta sección.

El primer procesador de Intel, el 4 de 4004 bits, se lanzó al mercado en 1971. Se fabricó con tecnología de fabricación de 10,000 2,250 nm y tenía 12 transistores en un disco de XNUMX mm.2 morir (187.5 transistores por mm2). Intel siguió esto un año después con su primer procesador de 8 bits, el 8008. Usaba la misma tecnología de proceso que el 4004, pero con mejor lugar y ruta, tenía 3,500 transistores en un procesador de 14 mm.2 morir (250 transistores por mm2).

Intel lanzó su primer procesador de 16 bits, el 8086 en 1978, que presentó al mundo la arquitectura x86 que continúa dominando las aplicaciones de computación personal y centros de datos en la actualidad.

Un año después, Intel lanzó el 8088, que era prácticamente idéntico al 8086, pero usaba un bus de datos externo de 8 bits, lo que hizo que su uso en la primera PC de IBM fuera mucho más rentable. Tanto el 8086 como el 8088 se fabricaron mediante un proceso de 3,000 nm y ambos tenían 29,000 33 transistores en un XNUMX mm.2 morir (879 transistores por mm2). Lo que no es muy conocido o apreciado es que el 8086 y el 8088 desarrollaron una base de diseño tan amplia fuera del mercado de PC que Intel fabricó ambos circuitos integrados hasta 1998.

Intel lanzó el 32 de 80386 bits en 1985, que se fabricó mediante un proceso de 1,500 nm y con 275,000 104 transistores y un procesador de XNUMX mm.2 tamaño del dado (2,644 transistores por mm2), superó con creces todo lo que vino antes. Esta es la primera vez que recuerdo haber leído una predicción de Wall Street de que la Ley de Moore está muerta. Fue varios años después cuando me di cuenta de que las opiniones de Wall Street sobre la industria de los semiconductores casi siempre estaban equivocadas, pero eso va a otra historia para otro momento...

Como cubre el actual CEO de Intel, Patrick (Pat) Gelsinger en este artículo vinculado:  "Pat Gelsinger nos lleva en un viaje por el carril de la memoria y una mirada hacia el futuro".

Con el paso de los años, la cadencia de la Ley de Moore continuó; funcionando más eficientemente a veces que otras, pero con consistencia cuando se ve a largo plazo. Para facilitar un poco el seguimiento del progreso de la Ley de Moore, la siguiente tabla muestra los procesadores de PC fabricados en varios procesos desde 1,000nm a 14nm desde 1989 hasta 2015. Dado que no tengo una fuente confiable de datos más allá de 14nm para Intel , me detuve allí.

Procesador Año Proceso de fabricación Die Tamaño Recuento de transistores Transistores por mm2
80486 1989 1,000nm 173 mm2 1.2 millones de 6,822
Pentium 1993 800nm 294 mm2 3.1 millones de 10,544
Pentium Pro 1995 500nm 307 mm2 5.5 millones de 17,915
Pentium II 1997 350nm 195 mm2 7.5 millones de 38,462
Pentium III 1999 250nm 128 mm2 9.5 millones de 74,219
Pentium IV Willamette 2000 180nm 217 mm2 42 millones de 193,548
Pentium IV Northwood 2002 130nm 145 mm2 55 millones de 379,310
Pentium IV Prescott 2004 90nm 110 mm2 112 millones de 1,018,182
Molino de cedro Pentium C 2006 65nm 90 mm2 184 millones de 2,044,444
Core i7 2008 45nm 263 mm2 731 millones de 3,007,760
Core i7 cuádruple + GPU 2011 32nm 216 mm2 1,160 millones de 5,370,370
Puente de hiedra Core i7 2012 22nm 160 mm2 1,400 millones de 8,750,000
Core i7 Broadwell 2015 14nm 133 mm2 1,900 millones de 14,285,714

Esta tabla y los datos anteriores ilustran el aumento de la densidad de transistores de Intel (transistores por mm2) por un sorprendente factor de 76,190 44 en el lapso de 4004 años desde su primer procesador (7) hasta su Core iXNUMX Broadwell.

Cuando consideramos los circuitos integrados de servidor (a diferencia de solo los procesadores de PC en la tabla anterior), podemos ver recuentos de transistores significativamente más altos, así como tamaños de matriz sustancialmente más grandes.

Intel lanzó su primer procesador de 2 mil millones de transistores, el Itanium Tukwilla de cuatro núcleos de 64 bits en 2010 utilizando su proceso de 65 nm. Con las memorias caché grandes, el tamaño del troquel era de 699 mm.2 (2.86 millones de transistores por mm2).

Intel pasó a romper la barrera de los 5 mil millones de transistores en 2012 con el Xeon Phi de propósito especial. Fue fabricado usando un proceso de 22nm en un enorme 720mm2 morir (6.9 millones de transistores por mm2). Este es el tamaño de matriz más grande que puedo encontrar para un procesador Intel.

El Xeon Phi es uno de los tres únicos procesadores monolíticos que he encontrado que utilizan un tamaño de troquel superior a 700 mm.2. Los otros dos son el Fujitsu SPARC VII fabricado en un proceso de 20nm4 en 2017, que utilizó un enorme 795 mm2 morir (6.9 millones de transistores por mm2), y el AMD (AMD) Epyc fabricado en un proceso de 14nm usando un 768mm ligeramente más pequeño2 morir, pero con el proceso de fabricación más pequeño, tenía una densidad de transistores mucho más alta (25 millones de transistores por mm2). El SPARC M7 de Oracle (ORCL) probablemente era más grande que el SPARC VII de Fujitsu, pero no pude encontrar datos de tamaño de troquel para el procesador de Oracle.

Intel tiene una larga historia de establecer de forma más conservadora sus nodos de proceso de fabricación, lo que explica por qué su densidad de transistores a 22 nm es aproximadamente la misma que la de Fujitsu para su procesador SPARC de 20 nm.

Si bien los días en los que los microprocesadores se aproximaban al tamaño de un sello postal quedaron atrás, los avances en la tecnología de fabricación continúan permitiendo una densidad de transistores cada vez mayor. La densidad más alta que puedo cuantificar hoy para un procesador es el M1-Max de Apple (AAPL) que tiene 57 mil millones de transistores en sus 432 mm.2 morir (131.9 millones de transistores por mm2) y está fabricado con tecnología TSMC (TSM) de 5 nm.

La densidad de transistores del M1-Max de Apple es más de 700,000 4004 veces mayor que la del primer procesador XNUMX de Intel y, desde una perspectiva técnica, eso nos dice que la predicción de la ley de Moore de duplicar la densidad de transistores sigue vigente; aunque a un ritmo más lento de lo que era antes. Sin embargo, aunque la densidad del transistor seguirá aumentando, dos cosas han sucedido durante los avances recientes de la tecnología de fabricación que es importante comprender.

Primero, mis contactos me dicen que la curva de costo cada vez menor por transistor que ha sido el impulsor económico de la Ley de Moore durante más de 50 años comenzó a aplanarse después del nodo de fabricación de 10 nm. Esto significa que los días de transistores más baratos que compensan los costos fijos que aumentan rápidamente para diseñar y poner en producción un nuevo circuito integrado están al menos contados, si es que no han desaparecido. Esto significa que si el principal impulsor económico de la Ley de Moore no está muerto, está en soporte vital.

En segundo lugar, los datos nos dicen que los fabricantes de procesadores se han alejado de los tamaños masivos de troqueles introducidos entre 2012 y 2017 e incluso los principales fabricantes de procesadores como AMD e Intel han adoptado estrategias Chiplet. En el caso del Intel Ponte Vecchio, el diseño incluye 47 Chiplets que utilizan una variedad de tecnologías de fabricación.

Intel: Meteor Lake Chiplet SoC en funcionamiento

Intel Xeon Sapphire Rapids: Cómo volverse monolítico con mosaicos [Chiplets]

Arquitectura Intel Ponte Vecchio y Xe HPC: creada para Big Data

AMD SOBRE POR QUÉ CHIPLETS Y POR QUÉ AHORA

El rey esta muerto, larga vida al rey!

Densidad de defectos (D0) para un proceso de fabricación dado se define como el número de defectos por oblea de silicio, dividido por el área de la oblea, que son lo suficientemente grandes como para clasificarse como defectos "asesinos" para el proceso de fabricación objetivo. El problema es que, a medida que el tamaño del proceso de fabricación (nodo de fabricación) se reduce, también lo hace el tamaño de lo que se determina como un defecto "asesino".

En general, un defecto asesino se define como un defecto que tiene un 20 % del tamaño del nodo de fabricación. Por ejemplo, un defecto de menos de 9 nm puede ser aceptable para el nodo de fabricación de 45 nm, pero un defecto de más de 2.8 nm se definiría como un defecto "asesino" para el nodo de fabricación de 14 nm. Para el nodo de fabricación de 5nm, un defecto que mida solo 1nm podría ser mortal.

Esta es una de las principales razones por las que se ha vuelto cada vez más difícil producir circuitos integrados monolíticos grandes (medidos en el área del troquel) cuando se utiliza tecnología de proceso de fabricación de vanguardia.5. Podemos ver evidencia de esto en los datos anteriores que muestran que los tamaños de matriz para los procesadores alcanzaron su punto máximo durante el período de seis años que va de 2012 a 2017, cuando el estado del arte se movía de 22 nm a 14 nm.

Los dispositivos de memoria, FPGA, GPU y algunos circuitos integrados de aprendizaje automático (ML) especializados están sujetos a los mismos desafíos de rendimiento. Sin embargo, en estos circuitos integrados encontrará miles de millones de celdas idénticas (bloques de funciones) que son literalmente idénticas entre sí. Para optimizar los rendimientos, estos circuitos integrados que todavía usan tamaños de matriz monstruosos se diseñan comúnmente con celdas redundantes que pueden enmascararse o programarse para reemplazar las celdas que no rinden. No está claro si esta tendencia continuará.

Hay una variedad de opiniones sobre cuándo la densidad de defectos se convirtió en un problema insuperable. Sin embargo, por lo que he leído, parece haber entrado en la ecuación en la ventana de 22nm a 14nm, y por debajo de 14nm los datos sugieren que se volvió significativo, y mirando más allá de eso, un problema que solo empeoraría.

Dado el hecho de que es más probable que un IC de gran tamaño tenga un defecto dentro de sus bordes que un tamaño de matriz pequeño; existe una correlación inversa entre el tamaño del troquel y el rendimiento, y la tendencia se volverá aún más desconcertante a medida que la tecnología de fabricación avance hacia nodos cada vez más pequeños.

TSMC destacó este problema durante el segundo trimestre de 2 cuando estaba ejecutando obleas de prueba para su nuevo nodo de fabricación de 2020 nm. Después de estas pruebas, TSMC declaró su rendimiento promedio para un 5 mm2 morir fue ~ 80%, pero ese rendimiento se redujo drásticamente a solo 32% para un 100 mm2 morir. Como ha sido el caso durante el reinado de la Ley de Moore, TSM ha mejorado su rendimiento desde estas primeras pruebas, pero a pesar de eso, estoy seguro de que el rendimiento a 5 nm sigue siendo menos favorable que el rendimiento en los nodos de fabricación más grandes y la tendencia continúa. adelante es claro; la era de los grandes troqueles monolíticos ha pasado.

Varios años antes de que TSMC publicara los primeros datos sobre su proceso de 5 nm, la directora ejecutiva de AMD, la Dra. Lisa Su, presentó el problema de la densidad de defectos en un gráfico muy simple en la IEEE International Electron Devices de 2017. Reunión (ÍDEM). Este gráfico muestra el aumento en el costo por mm producido2 para 250 mm2 tamaño de troquel a medida que AMD avanzaba de 45 nm a nodos de fabricación más pequeños. La conclusión discreta es que aumentar el tamaño de los troqueles se vuelve económicamente problemático, y una vez que se baja de 14/16nm, el costo producido aumenta dramáticamente.

La densidad de defectos no es un problema nuevo, literalmente existe desde el primer día. Sin embargo, las lecciones aprendidas siempre lo han llevado más allá del nodo de fabricación actual y la capacidad de curar los problemas de rendimiento en el nodo actual es lo que impulsó la Ley de Moore durante más de 50 años. Si bien puede estar seguro de que se realizan esfuerzos continuos para reducir el impacto de la densidad de defectos en los nodos de fabricación de vanguardia, hay cinco razones que sugieren que la tendencia Chiplet no solo llegó para quedarse, sino que también está lista para expandirse rápidamente y habilitar nuevos oportunidades de mercado.

(1) Se han realizado inversiones muy importantes en Chiplets para reducir los costes de montaje y optimizar el rendimiento. Si bien hay costos inherentes y penalizaciones de rendimiento cuando se aleja un diseño de una pieza monolítica de silicio de un solo chip, parece que las penalizaciones de rendimiento se minimizarán y las penalizaciones de costos se compensarán con creces a medida que se aproveche al máximo la tecnología Chiplet.

(2) El Consorcio Universal Chiplet Interconnect Express (UCIe) ha especificado un estándar de interconexión de matriz a matriz para establecer un ecosistema Chiplet abierto. Los miembros fundadores del consorcio incluyen:  ASE, DIOS MÍO, Brazo, Google Cloud, Intel, Meta, Microsoft, Qualcomm, Samsungy TSMC. UCIe es similar a la especificación PCIe que estandarizó las interfaces informáticas. Sin embargo, UCIe ofrece hasta 100 veces más ancho de banda, 10 veces menos latencia y 10 veces mejor eficiencia energética que PCIe. Con este estándar implementado, creo que veremos una avalancha de nuevos Chiplets en el mercado.

(3) Con el lanzamiento de su Programa de estrategias comunes de integración heterogénea y reutilización de la propiedad intelectual (CHIPS) en 2017, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) se adelantó a la curva Chiplet. El objetivo de CHIPS es desarrollar un gran catálogo de Chiplets de terceros para completo y las aplicaciones militares que DARPA pronostica conducirán a una reducción del 70 % en el costo y el tiempo de respuesta para los nuevos diseños. los CHIPS DARPA El programa se extiende más allá de aprovechar los beneficios de incorporar nodos de fabricación heterogéneos para incorporar también materiales heterogéneos en un diseño de Chiplet.

(4) La magia de la Ley de Moore era que el costo de fabricación por transistor disminuiría mucho más de lo que aumentarían los costos fijos a medida que avanzaba la tecnología de fabricación. No puedo encontrar datos para cuantificar esto, pero puedo encontrar un amplio acuerdo en que la curva de disminución del costo de fabricación se aplanó alrededor de 10 nm y que se dirige en una dirección desfavorable. Dado que los costos de fabricación avanzada están aumentando, una estrategia de Chiplet permite a los arquitectos de circuitos integrados apuntar a los nodos de fabricación de vanguardia (costosos) solo para las partes de los diseños de Chiplet que necesitan absolutamente el mayor rendimiento posible y orientar otras partes de los diseños de Chiplet a los procesos de fabricación que están optimizados para bajo consumo y/o bajo coste.

(5) Los diseños de chiplet pueden acelerar el tiempo de comercialización, reducir los costos fijos, reducir los costos de fabricación agregados para un diseño dado y aprovechar las arquitecturas que se pueden ampliar y/o cambiar con el tiempo. En otras palabras, los diseños de Chiplet brindan flexibilidades únicas que no son económicamente viables en diseños monolíticos. Esta tendencia se hará más evidente y se acelerará a medida que veamos la introducción de nuevos Chiplets compatibles con UCIe.

Los fabricantes no solo enfrentan un desafío de rendimiento de densidad de defectos que tiene una correlación directa con el tamaño del troquel, como se puede ver en el siguiente gráfico, los costos fijos asociados con el diseño y la puesta en producción de un nuevo IC monolítico complejo se han disparado junto con los avances en la tecnología de fabricación. En otras palabras, los datos sugieren que hemos llegado a un punto de inflexión y Chiplet es la respuesta; no solo a los desafíos de rendimiento y costos más altos, sino que también permite a la industria de semiconductores abrir nuevas oportunidades de mercado.

costo de diseño de chiplet

Si bien mi enfoque en este documento ha estado en los circuitos integrados del procesador (principalmente procesadores Intel en aras de la continuidad), el aumento de los costos fijos y la correlación inversa entre los rendimientos y el tamaño del troquel también están afectando los diseños del sistema en un chip (SoC). Ya hay pruebas de que MediaTek pasará a un diseño Chiplet a 3nm con TSMC para su procesador de aplicaciones (AP) para teléfonos inteligentes y mi apuesta es que Qualcomm tiene un diseño de Chiplet en proceso que aún no se ha hecho público.

Con la estandarización UCIe y el programa DARPA CHIPS, los fabricantes de SoC que se dirigen a la amplia gama de mercados más allá de los puntos de acceso para teléfonos inteligentes adoptarán diseños Chiplet para reducir costos, acortar los ciclos de desarrollo y aumentar la flexibilidad. Esto abrirá nuevas oportunidades para los fabricantes de chips de soporte y una amplia variedad de empresas de propiedad intelectual.

Creo que también veremos a las empresas de IP ampliar su enfoque de mercado tradicional aprovechando la nueva especificación UCIe para "endurecer" su IP en un buen dado conocido (KGD) y vender efectivamente su IP como un chiplet de hardware directamente a los fabricantes de semiconductores y empresas de fabricación de circuitos integrados como así como clientes OEM que desarrollan su propio Chiplet de aplicación específica.

Una de las cosas más interesantes que creo que permitirán los Chiplets son los SoC para nuevos mercados que no tienen el volumen o están demasiado fragmentados para impulsar una inversión de varios cientos de millones de dólares en un diseño de IC monolítico. Estos incluyen una amplia variedad de oportunidades de IoT, AI y Machine Learning (ML) donde la tecnología FPGA puede usarse para aceleradores que pueden adaptarse rápidamente a algoritmos cambiantes y proporcionar la flexibilidad de diseño necesaria para ampliar el alcance del mercado y el ciclo de vida de SoC.

Los chiplets también pueden habilitar soluciones SoC para mercados nuevos y existentes al proporcionar soluciones de procesador escalables y otras opciones específicas del cliente (agregar más núcleos de procesador, agregar un acelerador, agregar más memoria, incluso cambiar/actualizar la sección de RF para un nuevo estándar, etc.) . Este tipo de cambios y flexibilidades eran prácticamente imposibles con los diseños de circuitos integrados monolíticos.

En Fondo: Sin el beneficio de la disminución de los costos variables (costos de fabricación más bajos por transistor) que compensan los costos fijos mucho más altos y las mayores complicaciones de la Densidad de Defectos, la Ley de Moore ha terminado como la conocemos. Sin embargo, como lo ha hecho en el pasado, el ecosistema de semiconductores se está adaptando y, a medida que la tecnología Chiplet genera tracción, es muy probable que veamos un período de aceleración de la innovación y la apertura de nuevas oportunidades de mercado a medida que avanzamos.

El punto aquí (punto de inflexión si se quiere) es que los Chiplets abren nuevas puertas para la creatividad y la continua ampliación de la tecnología en la forma en que vivimos y trabajamos. Hemos llegado a un punto en el que ya no necesitamos pensar solo en lo que tiene sentido para los diseños de circuitos integrados monolíticos que se ven obstaculizados por costos fijos ultra altos y tiempos de entrega dolorosamente largos; ahora podemos centrarnos en Chiplets heterogéneos que aprovechan los nuevos estándares abiertos para optimizar los diseños para obtener el costo y el rendimiento finales dictados por el caso de uso.

Cuando combina estos nuevos beneficios con la estandarización de UCIe y el programa DARPA CHIPS, existe un gran potencial para abrir nuevos mercados y nuevos casos de uso que aún no han visto la parte posterior de una servilleta de cóctel.

Lea también

La especificación UCIe agiliza el diseño del sistema de matrices múltiples con chipsets

El surgimiento de Ansys como un jugador EDA de nivel 1 y lo que eso significa para 3D-IC

Cinco flujos de trabajo clave para el éxito del empaquetado de circuitos integrados en 3D

Comparte esta publicación a través de:

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?