Logotipo de Zephyrnet

Rampas de prueba adaptativas para la era de la inteligencia de datos

Fecha:

Los recursos informáticos ampliamente disponibles y casi ilimitados, junto con la disponibilidad de algoritmos sofisticados, están abriendo la puerta a las pruebas adaptativas. Pero la velocidad a la que se adopte este enfoque de prueba seguirá variando debido a las persistentes preocupaciones sobre el intercambio de datos y el potencial de robo de propiedad intelectual y fuga de datos.

Las pruebas adaptativas consisten en realizar cambios oportunos en un programa de prueba utilizando datos de prueba más otras entradas para mejorar la calidad o el costo de cada dispositivo bajo prueba (DUT). En su núcleo están varios métodos que cambian las condiciones de prueba de fabricación, el contenido de la prueba o los límites de la prueba para aumentar la calidad saliente y la confiabilidad de los dispositivos semiconductores. La idea básica es aplicar solo el contenido de prueba correcto al dispositivo, tomando datos generados por el probador, sensores integrados o datos relevantes de pasos anteriores para predecir las necesidades de prueba. Se pueden agregar pruebas para garantizar que las piezas riesgosas cumplan con los requisitos de confiabilidad o eliminarse cuando no se encuentren fallas.

"La evaluación de valores atípicos para la evaluación de confiabilidad, que surgió por primera vez en la década de 2000 para dispositivos automotrices, todavía se considera el motor base para las pruebas adaptativas", dijo John Carulli, miembro del Centro de Desarrollo PostFab de GlobalFoundries. “Las pruebas adaptativas a nivel de oblea son las más aprovechadas y las más sencillas de implementar en el contexto del posprocesamiento. Con el software y los sistemas de datos más recientes, hay más oportunidades de alimentar datos para tomar decisiones en las inserciones de operación de módulos y obleas, así como en las pruebas del sistema”.

Si bien hoy en día se utilizan pruebas adaptativas en las instalaciones de prueba, aprovechando algoritmos basados ​​en aprendizaje automático y análisis de datos para mejorar la calidad del dispositivo, en gran medida se realizan fuera de línea.

"Las pruebas adaptativas se realizan en torno a una población de datos", dijo Greg Prewitt, director de Exensio Solutions en Soluciones PDF. “La gente normalmente revisa los datos de caracterización y revisa una gran cantidad de datos de producción que han recopilado hasta la fecha, y observa las pruebas que nunca fallan y utiliza un buen criterio de ingeniería y dice: 'Me siento cómodo realizando esta prueba'. para este dispositivo." Los programas de prueba se revisan y simplemente se omitirían ciertas pruebas para lograr una reducción del tiempo de prueba adaptativa (ATTR)”.

Los obstáculos técnicos para implementar pruebas adaptativas parecen superables. El verdadero problema es la complejidad inherente de la logística. "Gran parte de la complejidad de las pruebas adaptativas es la orquestación y gestión del proceso de entrega de datos al lugar correcto en el momento correcto", dijo Michael Schuldenfrei, miembro de NI en Emerson Test & Measurement. “Por ejemplo, los datos de prueba de la clasificación de obleas se pueden aprovechar en la prueba final para identificar la deriva paramétrica en una variedad de parámetros, suponiendo que las piezas tengan un identificador de chip electrónico (ECID) u otro método de trazabilidad. Esto requiere que los datos históricos estén disponibles para el programa de prueba en tiempo real, sin verse afectado por el tiempo de prueba”.

Schuldenfrei señaló que los desafíos más difíciles de la industria están asociados con su infraestructura altamente desagregada. "Esto es particularmente desafiante cuando la clasificación de obleas y la prueba final se realizan en diferentes instalaciones, lo que requiere una orquestación segura y confiable del movimiento de datos entre instalaciones".

Compartir es demostrar interés
Hacer que los datos necesarios estén disponibles donde y cuando se necesitan es un enorme obstáculo hoy en día, y es principalmente el resultado del modelo de fundición sin fábrica. "La seguridad de los datos es una gran preocupación para las pruebas adaptativas, particularmente en los flujos de prueba y fabricación desagregados en los que el propietario del dispositivo y el socio de fabricación son empresas diferentes", dijo Ken Butler, gerente comercial de contenido estratégico de Advantest América.  “Cuando los datos y las aplicaciones deben compartirse a través de los límites de la empresa, la seguridad de esa información es primordial. La solución ACS de infraestructura de datos en tiempo real (RTDI) de Advantest tiene numerosas características para garantizar que los datos se puedan compartir de forma segura para lograr flujos de prueba adaptativos e inferencias en tiempo real sin exponer datos propietarios a entidades no autorizadas”.


Fig. 1: La infraestructura de datos para pruebas adaptativas en tiempo real en cualquier inserción de prueba protege los datos de prueba desarrollados, el programa de prueba y el análisis de datos de terceros. Fuente: Advantest

El intercambio seguro de datos comienza con un cifrado significativo. “Usamos mucho cifrado para mover información, pero la arquitectura del sistema en sí es físicamente segura en el sentido de que no hay un teclado conectado a la plataforma informática, no se permiten memorias USB y está en una caja cerrada para impedir el acceso. ”, dijo Mayordomo. "Y al final del proceso de prueba, todo se borra para que los datos desaparezcan y no haya retención para que las personas busquen datos desde atrás".

Sin embargo, cuando se trata de compartir datos en las pruebas de diseño a fabricación, o incluso pruebas de datos de campo, se necesita más trabajo para poner los datos en contexto para varios usuarios. "La disponibilidad de datos sigue siendo probablemente una pieza clave sobre la que tenemos que llegar a un acuerdo", afirmó Eli Roth, director de producto de fabricación inteligente de Teradino. Los ingenieros necesitan el contexto de una oblea para lograr costos más bajos en las pruebas. "En particular, el contexto de los datos de las pruebas a veces no tiene sentido para las personas de arriba y de abajo".

Decidir protocolos para compartir datos es un objetivo clave del Consejo Asesor de la Industria de Inteligencia Artificial Inteligente de SEMI. "Ese es el desafío al que nos enfrentamos ahora", dijo Roth. "¿Cómo podemos hacer que esos datos no sólo estén disponibles, sino también contextualizados?"

Teradyne ha invertido en su propia plataforma informática paralela, con énfasis reciente en retroalimentación y retroalimentación, o transmisión de datos bidireccional. “Sabiendo que se acerca la prueba adaptativa en tiempo real, nos concentramos en garantizar que los datos que salen de un probador sean genuinos, que no hayan sido manipulados por nadie y que no sea necesario ejecutar ninguna otra pieza. de software en el probador para extraer los datos correctamente”, dijo Roth. “Si no tiene fábricas, sus dispositivos se ejecutan en la misma línea de proceso que su competidor, entonces, ¿dónde está su ventaja competitiva? Está en los datos. Entonces, nuestra idea es empaquetar los datos en un estándar. Esto es lo mismo para todos nuestros evaluadores. Los datos se estructuran de la misma manera y se canalizan a cualquier fuente de datos que desee. Luego, puede traducir esos datos a cualquier modelo de datos, a través de un estándar, lo cual es más eficiente que intentar crear de forma nativa todas las diferentes soluciones para pruebas adaptativas”.

Las empresas están utilizando el estándar A4 TEMS SEMI existente, una especificación para la mensajería de eventos de probadores de equipos de prueba automatizados para semiconductores, que describe este protocolo de transmisión de datos y la estructura de los datos. [1] Sin embargo, este estándar no se extiende a cómo se almacenan o empaquetan los datos. Utiliza un modelo de publicación-suscripción para mostrar los datos disponibles a los que los usuarios pueden suscribirse.

Las mejores inserciones para pruebas adaptativas.
La mayoría de los expertos de la industria coinciden en que las pruebas adaptativas pueden utilizarse, y se utilizan, en múltiples inserciones de pruebas. En todos los casos, cuanto antes se identifiquen posibles fallos, mejor será para la calidad del dispositivo y la eficacia de fabricación.

“Tenemos implementaciones en clasificación de obleas, prueba final, prueba de quemado y prueba a nivel de sistema”, dijo Schuldenfrei de NI. “En la clasificación de obleas, la reducción del tiempo de prueba se utiliza a menudo para aumentar la eficiencia de las pruebas y reducir los costos, minimizando al mismo tiempo el riesgo de fugas de pruebas. La prueba final (paquete) también comparte el mismo beneficio, pero existen razones aún más convincentes para utilizar la prueba adaptativa en la prueba final. En la clasificación de obleas, el posprocesamiento mediante algoritmos estadísticos o basados ​​en inteligencia artificial que vuelven a agrupar dispositivos (por ejemplo, detección de valores atípicos) se puede realizar fuera de línea una vez que la oblea completa la prueba. Esos resultados de agrupación actualizados del algoritmo se pueden aplicar a través del mapa de oblea sin tinta (digital). Por el contrario, en la prueba final, la decisión final de agrupamiento del DUT debe realizarse antes de que se retire del zócalo, lo que requiere una toma de decisiones en tiempo real”.

Las primeras versiones de las pruebas adaptativas tenían como objetivo reducir el tiempo de prueba. Las pruebas adaptativas facilitan la reducción del tiempo de prueba, incluidas menos pruebas de estrés. Pero para lograr avances significativos desde una simple reducción del tiempo de prueba hasta el modelado basado en ML fuera de línea y mejoras de calidad a gran escala, el ecosistema y las prácticas de intercambio de datos deben cambiar.

La mayoría de nuestros clientes ya no hablan de DPPM ni de DPPB”, afirma Schuldenfrei. “Cualquier fuga de prueba se considera extremadamente problemática. En la actualidad, existen varias aplicaciones predominantes de las pruebas adaptativas, incluida la reducción adaptativa del tiempo de prueba (ATTR), el aumento de pruebas adaptativas, la detección adaptativa de valores atípicos y varias aplicaciones adyacentes, como la detección de deriva, que dependen del intercambio de datos preciso y oportuno entre el programa de pruebas y un servicio externo.”

El ejemplo más común de ajuste de límites de prueba adaptativo es prueba de promedio parcial (PAT) y pruebas dinámicas de promedio de piezas (DPAT). PAT es un proceso estadístico que se remonta a la década de 1990 y fue actualizado en 2011 por el Consejo de Ingeniería Automotriz (AEC). [1]  En este proceso, según los datos recopilados durante las pruebas, puede ajustar (normalmente reforzar) los límites de especificación para una o más pruebas según el comportamiento de las piezas del lote que se está probando.  Este ajuste se realiza para detectar mejor los posibles dispositivos atípicos que técnicamente están dentro de las especificaciones operativas pero que podrían correr el riesgo de fallar prematuramente en la aplicación final.

"Si bien PAT y DPAT han brindado buenos servicios a la industria durante años, con las capacidades informáticas y análisis avanzados de hoy en día, existen formas mucho mejores de identificar dispositivos en riesgo y al mismo tiempo reducir la cantidad de pérdida de rendimiento asociada con esta forma de detección", dijo Advantest. Mayordomo.


Fig. 2: Los resultados de la prueba de consumo Iddq se correlacionan con una calidad mejorada en comparación con la prueba promedio de piezas dinámicas (arriba). El algoritmo basado en ML (a continuación) es mejor para identificar valores atípicos verdaderos y dispositivos de rendimiento. Fuente: Sinopsis

Un chip o SoC de señal mixta avanzado puede emplear cualquier número de sensores o monitores en el chip. Es una práctica común incorporar sensores en todo el troquel que se utilizan para alterar el rendimiento y controlar el estado del troquel, como osciladores de anillo, sensores de temperatura, sensores de envejecimiento y muchos otros. ProteanTecs proporciona monitores en chip, llamados Agentes, además de software basado en la nube para correlacionar los datos del monitor con el análisis de datos.

“Los datos comunes de sensores y mediciones incluyen Vmin, Fmax, Iddq, Idd, osciladores de anillo de proceso, detectores de caída de IR, detectores de fluctuación, sensores térmicos: cualquier medición analógica en diseños analógicos/de señal mixta/RF”, dijo Carulli de GF. “Un caso atípico típico a nivel de oblea puede ser con Vmin utilizado con un algoritmo residual del vecino más cercano. Un caso típico a nivel de módulo puede ser el uso de un modelo bivariado para Iddq vs. Fmax para detectar comportamientos atípicos.

"Un caso más avanzado de Advantest fue el uso de su sistema ACS para mejorar una prueba de predistorsión digital", dijo Carulli. "Las entradas clave se descargaron al sistema de servidor adyacente para modelar y optimizar, luego las condiciones optimizadas se envían de vuelta al evaluador para obtener mejores resultados".

Otro ejemplo implica adaptar los límites de prueba para mejorar la calidad del dispositivo. "Cuando se crea un dispositivo semiconductor, se ejecutan varias divisiones de proceso, donde el ingeniero varía intencionalmente el proceso para identificar el peor y el mejor rendimiento de ese dispositivo", dijo Butler. “Voy a establecer mis límites en función del ancho del proceso, pero la realidad es que la fábrica intentará controlar estrictamente el material tanto como sea posible. Por lo tanto, es necesario recopilar información que le indique cuánto ajustar esas especificaciones”.

Otros apuntan a evoluciones similares. "Utilizamos una variación del enfoque tradicional D-PAT porque se basa únicamente en la población de resultados, lo que no proporciona una comprensión real de lo que sucede dentro del troquel", dijo Guy Cortez en Sinopsis. La corriente de consumo de Idd (ver figura 2) demostró una correlación con el rendimiento, y el algoritmo derivado de estos datos proporciona una identificación superior de los verdaderos valores atípicos sin sacrificar el rendimiento, lo que se conoce como overkill.

Conclusión
Los proveedores de ATE están construyendo infraestructura para respaldar el uso de pruebas adaptativas en tiempo real, incorporando métodos avanzados de detección de valores atípicos y ajustando los límites de las pruebas para mejorar la calidad del dispositivo. Los sensores en el troquel están demostrando que pueden capturar el comportamiento de un troquel individual, y los algoritmos basados ​​en ML proporcionan modelado avanzado. Pero la logística en torno a las pruebas adaptativas depende del desarrollo por parte de la industria de métodos estándar para cifrar y procesar datos críticos y al mismo tiempo proteger la propiedad intelectual tanto de los fabricantes de chips como de las empresas sin fábrica.

Referencias

  1. https://store-us.semi.org/products/a00400-semi-a4-specification-for-the-automated-test-equipment-tester-event-messaging-for-semiconductors-tems
  2. Directriz para pruebas de promedio de piezas, Consejo de Ingeniería Automotriz, 2011, AEC_Q001_Rev_D.pdf.
  3. Hoja de ruta de integración heterogénea para semiconductores, edición 2023, cap. 17, Apéndice A, Análisis de datos, https://eps.ieee.org/images/files/HIR_2023/ch17/Ch17-9-A.pdf

Lectura relacionada
Probar circuitos integrados más rápido, más rápido y mejor
Por qué las células de prueba podrían convertirse en el centro de información crítica de la fábrica.

punto_img

Información más reciente

punto_img