Logotipo de Zephyrnet

Predicción de ventas de productos nuevos y existentes en semiconductores utilizando Amazon Forecast

Fecha:

Esta es una publicación conjunta de NXP SEMICONDUCTORS NV y AWS Machine Learning Solutions Lab (MLSL)

El aprendizaje automático (ML) se está utilizando en una amplia gama de industrias para extraer información procesable de los datos para optimizar los procesos y mejorar la generación de ingresos. En esta publicación, demostramos cómo NXP, un líder de la industria en el sector de los semiconductores, colaboró ​​con el Laboratorio de soluciones de aprendizaje automático de AWS (MLSL) para utilizar técnicas de ML para optimizar la asignación de la NXP presupuesto de investigación y desarrollo (I+D) para maximizar el retorno de la inversión (ROI) a largo plazo.

NXP dirige sus esfuerzos de I+D en gran medida al desarrollo de nuevas soluciones de semiconductores donde ven importantes oportunidades de crecimiento. Para superar el crecimiento del mercado, NXP invierte en investigación y desarrollo para ampliar o crear posiciones de liderazgo en el mercado, con énfasis en segmentos de mercado considerables y de rápido crecimiento. Para este compromiso, buscaron generar pronósticos de ventas mensuales para productos nuevos y existentes en diferentes grupos de materiales y líneas comerciales. En esta publicación, demostramos cómo MLSL y NXP emplearon Pronóstico del Amazonas y otros modelos personalizados para predicciones de ventas a largo plazo para varios productos NXP.

“Nos comprometimos con el equipo de científicos y expertos en [the] Amazon Machine Learning Solutions Lab para crear una solución para predecir las ventas de nuevos productos y comprender si y qué características adicionales podrían ayudar a informar [el] proceso de toma de decisiones para optimizar el gasto en investigación y desarrollo. En solo unas pocas semanas, el equipo entregó múltiples soluciones y análisis en algunas de nuestras líneas comerciales, grupos de materiales y a nivel de producto individual. MLSL entregó un modelo de pronóstico de ventas, que complementa nuestra forma actual de pronóstico manual, y nos ayudó a modelar el ciclo de vida del producto con enfoques novedosos de aprendizaje automático utilizando Amazon Forecast y Amazon SageMaker. Mientras mantenía un flujo de trabajo de colaboración constante con nuestro equipo, MLSL nos ayudó a mejorar las habilidades de nuestros profesionales en lo que respecta a la excelencia científica y las mejores prácticas en el desarrollo de ML utilizando la infraestructura de AWS”.

– Bart Zeeman, estratega y analista de la oficina de CTO en NXP Semiconductors.

Objetivos y caso de uso

El objetivo del compromiso entre NXP y el equipo de MLSL es predecir las ventas generales de NXP en varios mercados finales. En general, el equipo de NXP está interesado en las ventas de nivel macro que incluyen las ventas de varias líneas comerciales (BL), que contienen varios grupos de materiales (MAG). Además, el equipo de NXP también está interesado en predecir el ciclo de vida de los productos recién introducidos. El ciclo de vida de un producto se divide en cuatro fases diferentes (Introducción, Crecimiento, Madurez y Declive). La predicción del ciclo de vida del producto permite al equipo de NXP identificar los ingresos generados por cada producto para asignar más fondos de I+D a los productos que generan la mayor cantidad de ventas o productos con el mayor potencial para maximizar el ROI de la actividad de I+D. Además, pueden predecir las ventas a largo plazo en un nivel micro, lo que les da una visión de abajo hacia arriba de cómo cambian sus ingresos con el tiempo.

En las siguientes secciones, presentamos los desafíos clave asociados con el desarrollo de modelos sólidos y eficientes para los pronósticos de ventas a largo plazo. Además, describimos la intuición detrás de varias técnicas de modelado empleadas para lograr la precisión deseada. Luego presentamos la evaluación de nuestros modelos finales, donde comparamos el rendimiento de los modelos propuestos en términos de predicción de ventas con los expertos del mercado de NXP. También demostramos el rendimiento de nuestro algoritmo de predicción del ciclo de vida del producto basado en la nube de puntos de última generación.

Desafios

Uno de los desafíos que enfrentamos al usar modelos detallados o de nivel micro como modelos a nivel de producto para la predicción de ventas fue la falta de datos de ventas. Los datos que faltan son el resultado de la falta de ventas durante todos los meses. De manera similar, para la predicción de ventas a nivel macro, la longitud de los datos históricos de ventas fue limitada. Tanto los datos de ventas que faltan como la duración limitada de los datos de ventas históricos plantean desafíos importantes en términos de precisión del modelo para la predicción de ventas a largo plazo hasta 2026. Durante el análisis de datos exploratorios (EDA) observamos que a medida que pasamos de las ventas a nivel micro ( nivel de producto) a ventas a nivel macro (nivel BL), los valores faltantes se vuelven menos significativos. Sin embargo, la duración máxima de los datos históricos de ventas (duración máxima de 140 meses) aún presentaba desafíos importantes en términos de precisión del modelo.

Técnicas de modelado

Después de EDA, nos enfocamos en pronosticar en los niveles BL y MAG y en el nivel de producto para uno de los mercados finales más grandes (el mercado final de automóviles) para NXP. Sin embargo, las soluciones que desarrollamos se pueden extender a otros mercados finales. El modelado a nivel BL, MAG o de producto tiene sus propias ventajas y desventajas en términos de rendimiento del modelo y disponibilidad de datos. La siguiente tabla resume los pros y los contras de cada nivel. Para la predicción de ventas a nivel macro, empleamos Amazon Forecast AutoPredictor para nuestra solución final. De manera similar, para la predicción de ventas a nivel micro, desarrollamos un enfoque novedoso basado en una nube de puntos.

Predicción macro de ventas (top-down)

Para predecir los valores de ventas a largo plazo (2026) a nivel macro, probamos varios métodos, incluidos Amazon Forecast, GluonTS y N-BEATS (implementados en GluonTS y PyTorch). En general, Forecast superó a todos los demás métodos basados ​​en un enfoque de prueba retrospectiva (descrito en la sección Métricas de evaluación más adelante en esta publicación) para la predicción de ventas a nivel macro. También comparamos la precisión de AutoPredictor con las predicciones humanas.

También propusimos usar N-BEATS debido a sus propiedades interpretativas. N-BEATS se basa en una arquitectura muy simple pero potente que utiliza un conjunto de redes de avance que emplean las conexiones residuales con bloques residuales apilados para la previsión. Esta arquitectura codifica aún más el sesgo inductivo en su arquitectura para hacer que el modelo de serie temporal sea capaz de extraer tendencias y estacionalidad (consulte la siguiente figura). Estas interpretaciones se generaron utilizando PyTorch Forecasting.

Predicción de microventas (ascendente)

En esta sección, analizamos un método novedoso desarrollado para predecir el ciclo de vida del producto que se muestra en la siguiente figura teniendo en cuenta el producto de arranque en frío. Implementamos este método usando PyTorch en Estudio Amazon SageMaker. Primero, presentamos un método basado en nubes de puntos. Este método primero convierte los datos de ventas en una nube de puntos, donde cada punto representa los datos de ventas a una cierta edad del producto. El modelo de red neuronal basado en la nube de puntos se entrena aún más utilizando estos datos para aprender los parámetros de la curva del ciclo de vida del producto (ver la siguiente figura). En este enfoque, también incorporamos características adicionales, incluida la descripción del producto como una bolsa de palabras para abordar el problema del arranque en frío para predecir la curva del ciclo de vida del producto.

Serie temporal como predicción del ciclo de vida del producto basada en la nube de puntos

Desarrollamos un enfoque novedoso basado en la nube de puntos para predecir el ciclo de vida del producto y las predicciones de ventas a nivel micro. También incorporamos características adicionales para mejorar aún más la precisión del modelo para las predicciones del ciclo de vida del producto de arranque en frío. Estas características incluyen técnicas de fabricación de productos y otra información categórica relacionada con los productos. Dichos datos adicionales pueden ayudar al modelo a predecir las ventas de un nuevo producto incluso antes de que el producto se lance al mercado (arranque en frío). La siguiente figura demuestra el enfoque basado en la nube de puntos. El modelo toma como entrada las ventas normalizadas y la antigüedad del producto (número de meses desde que se lanzó el producto). En función de estas entradas, el modelo aprende parámetros durante el entrenamiento mediante el descenso de gradiente. Durante la fase de previsión, los parámetros junto con las características de un producto de arranque en frío se utilizan para predecir el ciclo de vida. La gran cantidad de valores faltantes en los datos a nivel de producto afecta negativamente a casi todos los modelos de series temporales existentes. Esta solución novedosa se basa en las ideas del modelado del ciclo de vida y trata los datos de series temporales como nubes de puntos para mitigar los valores faltantes.

La siguiente figura demuestra cómo nuestro método de ciclo de vida basado en la nube de puntos aborda los valores de datos faltantes y es capaz de predecir el ciclo de vida del producto con muy pocas muestras de capacitación. El eje X representa la edad en el tiempo y el eje Y representa las ventas de un producto. Los puntos naranjas representan las muestras de entrenamiento, los puntos verdes representan las muestras de prueba y la línea azul demuestra el ciclo de vida previsto de un producto por el modelo.

Metodología

Para predecir las ventas a nivel macro, empleamos Amazon Forecast, entre otras técnicas. Del mismo modo, para las microventas, desarrollamos un modelo personalizado basado en nubes de puntos de última generación. El pronóstico superó a todos los demás métodos en términos de rendimiento del modelo. Usamos instancias de notebook de Amazon SageMaker para crear una canalización de procesamiento de datos que extrajo ejemplos de capacitación de Amazon Simple Storage Service (Amazon S3). Los datos de entrenamiento se usaron además como entrada para Forecast para entrenar un modelo y predecir las ventas a largo plazo.

El entrenamiento de un modelo de serie temporal con Amazon Forecast consta de tres pasos principales. En el primer paso, importamos los datos históricos a Amazon S3. En segundo lugar, se entrenó un predictor utilizando los datos históricos. Finalmente, implementamos el predictor entrenado para generar el pronóstico. En esta sección, proporcionamos una explicación detallada junto con fragmentos de código de cada paso.

Empezamos por extraer los últimos datos de ventas. Este paso incluyó cargar el conjunto de datos en Amazon S3 en el formato correcto. Amazon Forecast toma tres columnas como entradas: marca de tiempo, item_id y target_value (datos de ventas). La columna de marca de tiempo contiene la hora de las ventas, que se puede formatear como por hora, por día, etc. La columna item_id contiene el nombre de los artículos vendidos y la columna target_value contiene valores de ventas. Luego, usamos la ruta de los datos de entrenamiento ubicados en Amazon S3, definimos la frecuencia del conjunto de datos de la serie temporal (H, D, W, M, Y), definimos un nombre del conjunto de datos e identificamos los atributos del conjunto de datos (asignamos las columnas respectivas en el conjunto de datos y sus tipos de datos). A continuación, llamamos a la función create_dataset de la API de Boto3 para crear un conjunto de datos con atributos como Dominio, Tipo de conjunto de datos, Nombre de conjunto de datos, Frecuencia de conjunto de datos y Esquema. Esta función devolvió un objeto JSON que contenía el nombre de recurso de Amazon (ARN). Este ARN se utilizó posteriormente en los siguientes pasos. Ver el siguiente código:

dataset_path = "PATH_OF_DATASET_IN_S3"
DATASET_FREQUENCY = "M" # Frequency of dataset (H, D, W, M, Y) TS_DATASET_NAME = "NAME_OF_THE_DATASET"
TS_SCHEMA = { "Attributes":[ { "AttributeName":"item_id", "AttributeType":"string" }, { "AttributeName":"timestamp", "AttributeType":"timestamp" }, { "AttributeName":"target_value", "AttributeType":"float" } ]
} create_dataset_response = forecast.create_dataset(Domain="CUSTOM", DatasetType='TARGET_TIME_SERIES', DatasetName=TS_DATASET_NAME, DataFrequency=DATASET_FREQUENCY, Schema=TS_SCHEMA) ts_dataset_arn = create_dataset_response['DatasetArn']

Una vez que se creó el conjunto de datos, se importó a Amazon Forecast mediante Boto3 crear_conjunto de datos_importar_trabajo función. los crear_conjunto de datos_importar_trabajo La función toma el nombre del trabajo (un valor de cadena), el ARN del conjunto de datos del paso anterior, la ubicación de los datos de entrenamiento en Amazon S3 del paso anterior y el formato de marca de tiempo como argumentos. Devuelve un objeto JSON que contiene el ARN del trabajo de importación. Ver el siguiente código:

TIMESTAMP_FORMAT = "yyyy-MM-dd"
TS_IMPORT_JOB_NAME = "SALES_DATA_IMPORT_JOB_NAME" ts_dataset_import_job_response = forecast.create_dataset_import_job(DatasetImportJobName=TS_IMPORT_JOB_NAME, DatasetArn=ts_dataset_arn, DataSource= { "S3Config" : { "Path": ts_s3_path, "RoleArn": role_arn } }, TimestampFormat=TIMESTAMP_FORMAT, TimeZone = TIMEZONE) ts_dataset_import_job_arn = ts_dataset_import_job_response['DatasetImportJobArn']

Luego, el conjunto de datos importado se usó para crear un grupo de conjuntos de datos mediante la función create_dataset_group. Esta función toma el dominio (valores de cadena que definen el dominio del pronóstico), el nombre del grupo del conjunto de datos y el ARN del conjunto de datos como entradas:

DATASET_GROUP_NAME = "SALES_DATA_GROUP_NAME"
DATASET_ARNS = [ts_dataset_arn] create_dataset_group_response = forecast.create_dataset_group(Domain="CUSTOM", DatasetGroupName=DATASET_GROUP_NAME, DatasetArns=DATASET_ARNS) dataset_group_arn = create_dataset_group_response['DatasetGroupArn']

A continuación, usamos el grupo de conjuntos de datos para entrenar modelos de pronóstico. Amazon Forecast ofrece varios modelos de última generación; cualquiera de estos modelos puede ser utilizado para entrenamiento. Usamos AutoPredictor como nuestro modelo predeterminado. La principal ventaja de usar AutoPredictor es que genera automáticamente el pronóstico a nivel de elemento, utilizando el modelo óptimo de un conjunto de seis modelos de última generación basados ​​en el conjunto de datos de entrada. La API de Boto3 proporciona la crear_auto_predictor función para entrenar un modelo de predicción automática. Los parámetros de entrada de esta función son Nombre del predictor, PronósticoHorizontey Frecuencia de previsión. Los usuarios también son responsables de seleccionar el horizonte de pronóstico y la frecuencia. El horizonte de pronóstico representa el tamaño de la ventana de la predicción futura, que puede tener formato de horas, días, semanas, meses, etc. De manera similar, la frecuencia de pronóstico representa la granularidad de los valores de pronóstico, como por hora, día, semana, mes o año. Nos enfocamos principalmente en predecir las ventas mensuales de NXP en varios BL. Ver el siguiente código:

PREDICTOR_NAME = "SALES_PREDICTOR"
FORECAST_HORIZON = 24
FORECAST_FREQUENCY = "M" create_auto_predictor_response = forecast.create_auto_predictor(PredictorName = PREDICTOR_NAME, ForecastHorizon = FORECAST_HORIZON, ForecastFrequency = FORECAST_FREQUENCY, DataConfig = { 'DatasetGroupArn': dataset_group_arn }) predictor_arn = create_auto_predictor_response['PredictorArn']

Luego, el predictor entrenado se usó para generar valores de pronóstico. Los pronósticos se generaron usando el crear_pronóstico función del predictor previamente entrenado. Esta función toma el nombre del pronóstico y el ARN del predictor como entradas y genera los valores de pronóstico para el horizonte y la frecuencia definidos en el predictor:

FORECAST_NAME = "SALES_FORECAST" create_forecast_response = forecast.create_forecast(ForecastName=FORECAST_NAME, PredictorArn=predictor_arn)

Amazon Forecast es un servicio completamente administrado que genera automáticamente conjuntos de datos de prueba y capacitación y proporciona varias métricas de precisión para evaluar la confiabilidad del pronóstico generado por el modelo. Sin embargo, para generar consenso sobre los datos predichos y comparar los valores predichos con las predicciones humanas, dividimos manualmente nuestros datos históricos en datos de entrenamiento y datos de validación. Entrenamos el modelo utilizando los datos de entrenamiento sin exponer el modelo a los datos de validación y generamos la predicción para la longitud de los datos de validación. Los datos de validación se compararon con los valores previstos para evaluar el rendimiento del modelo. Las métricas de validación pueden incluir el error porcentual absoluto medio (MAPE) y el error porcentual absoluto ponderado (WAPE), entre otros. Usamos WAPE como nuestra métrica de precisión, como se explica en la siguiente sección.

Métricas de evaluación

Primero verificamos el rendimiento del modelo mediante pruebas retrospectivas para validar la predicción de nuestro modelo de pronóstico para el pronóstico de ventas a largo plazo (ventas de 2026). Evaluamos el desempeño del modelo utilizando el WAPE. Cuanto menor sea el valor de WAPE, mejor será el modelo. La ventaja clave de usar WAPE sobre otras métricas de error como MAPE es que WAPE sopesa el impacto individual de la venta de cada artículo. Por lo tanto, representa la contribución de cada producto a la venta total al calcular el error general. Por ejemplo, si comete un error del 2 % en un producto que genera $30 millones y un error del 10 % en un producto que genera $50,000 2, su MAPE no contará toda la historia. El error del 10 % es en realidad más costoso que el error del XNUMX %, algo que no se puede saber usando MAPE. Comparativamente, WAPE tendrá en cuenta estas diferencias. También predijimos varios valores percentiles para las ventas para demostrar los límites superior e inferior del pronóstico del modelo.

Validación del modelo de predicción de ventas a nivel macro

A continuación, validamos el rendimiento del modelo en términos de valores WAPE. Calculamos el valor WAPE de un modelo dividiendo los datos en conjuntos de prueba y validación. Por ejemplo, en el valor WAPE de 2019, entrenamos nuestro modelo utilizando datos de ventas entre 2011 y 2018 y valores de ventas previstos para los próximos 12 meses (venta de 2019). A continuación, calculamos el valor WAPE utilizando la siguiente fórmula:

Repetimos el mismo procedimiento para calcular el valor WAPE para 2020 y 2021. Evaluamos el WAPE para todos los BL en el mercado final de automóviles para 2019, 2020 y 2021. En general, observamos que Amazon Forecast puede lograr un valor WAPE de 0.33 incluso para el año de 2020 (durante la pandemia de COVID-19). En 2019 y 2020, nuestro modelo logró valores WAPE inferiores a 0.1, lo que demuestra una alta precisión.

Comparación de referencia de predicción de ventas a nivel macro

Comparamos el rendimiento de los modelos de predicción de macroventas desarrollados con Amazon Forecast con tres modelos de referencia en términos de valor WAPE para 2019, 2020 y 2021 (consulte la siguiente figura). Amazon Forecast superó significativamente a los otros modelos de referencia o se desempeñó a la par durante los 3 años. Estos resultados validan aún más la efectividad de nuestras predicciones del modelo final.

Modelo de predicción de ventas a nivel macro frente a predicciones humanas

Para validar aún más la confianza de nuestro modelo de nivel macro, luego comparamos el rendimiento de nuestro modelo con los valores de ventas pronosticados por humanos. Al comienzo del cuarto trimestre de cada año, los expertos de mercado de NXP predicen el valor de las ventas de cada BL, teniendo en cuenta las tendencias del mercado global, así como otros indicadores globales que podrían afectar las ventas de los productos de NXP. Comparamos el porcentaje de error de la predicción del modelo frente a la predicción humana con los valores de ventas reales en 2019, 2020 y 2021. Entrenamos tres modelos usando datos de 2011 a 2018 y predijimos los valores de ventas hasta 2021. Luego calculamos el MAPE para los valores reales de venta. Luego usamos los valores pronosticados por humanos para fines de 2018 (probar el pronóstico del modelo de 1 año a 3 años). Repetimos este proceso para predecir los valores en 2019 (pronóstico de 1 año a pronóstico de 2 años) y 2020 (para pronóstico de 1 año). En general, el modelo funcionó a la par con los predictores humanos o mejor en algunos casos. Estos resultados demuestran la eficacia y fiabilidad de nuestro modelo.

Predicción de ventas a nivel micro y ciclo de vida del producto

La siguiente figura muestra cómo se comporta el modelo utilizando los datos del producto mientras tiene acceso a muy pocas observaciones para cada producto (es decir, una o dos observaciones en la entrada para la predicción del ciclo de vida del producto). Los puntos naranjas representan los datos de entrenamiento, los puntos verdes representan los datos de prueba y la línea azul representa el ciclo de vida del producto previsto por el modelo.

El modelo se puede alimentar con más observaciones para el contexto sin la necesidad de volver a entrenar a medida que se disponga de nuevos datos de ventas. La siguiente figura demuestra cómo se comporta el modelo si se le da más contexto. En última instancia, más contexto conduce a valores WAPE más bajos.

Además, logramos incorporar características adicionales para cada producto, incluidas técnicas de fabricación y otra información categórica. En este sentido, las características externas ayudaron a reducir el valor de WAPE en el régimen de bajo contexto (ver la siguiente figura). Hay dos explicaciones para este comportamiento. Primero, debemos dejar que los datos hablen por sí mismos en los regímenes de alto contexto. Las características adicionales pueden interferir con este proceso. En segundo lugar, necesitamos mejores funciones. Utilizamos 1,000 características dimensionales codificadas en caliente (bolsa de palabras). La conjetura es que mejores técnicas de ingeniería de características pueden ayudar a reducir aún más WAPE.

Dichos datos adicionales pueden ayudar al modelo a predecir las ventas de nuevos productos incluso antes de que el producto se lance al mercado. Por ejemplo, en la siguiente figura, trazamos cuánto kilometraje podemos obtener solo con las características externas.

Conclusión

En esta publicación, demostramos cómo los equipos de MLSL y NXP trabajaron juntos para predecir las ventas a largo plazo a nivel macro y micro para NXP. El equipo de NXP ahora aprenderá a usar estas predicciones de ventas en sus procesos, por ejemplo, para usarlas como entrada para decisiones de financiación de I+D y mejorar el ROI. Utilizamos Amazon Forecast para predecir las ventas de las líneas comerciales (macroventas), a lo que nos referimos como el enfoque de arriba hacia abajo. También propusimos un enfoque novedoso utilizando series temporales como una nube de puntos para abordar los desafíos de los valores faltantes y el arranque en frío a nivel de producto (nivel micro). Nos referimos a este enfoque como ascendente, donde predijimos las ventas mensuales de cada producto. Además, incorporamos características externas de cada producto para mejorar el rendimiento del modelo para el arranque en frío.

En general, los modelos desarrollados durante este compromiso se desempeñaron a la par en comparación con la predicción humana. En algunos casos, los modelos funcionaron mejor que las predicciones humanas a largo plazo. Estos resultados demuestran la eficacia y fiabilidad de nuestros modelos.

Esta solución se puede emplear para cualquier problema de pronóstico. Para obtener más ayuda en términos de diseño y desarrollo de soluciones ML, no dude en ponerse en contacto con el MLSL .


Sobre los autores

Souad Boutana es científica de datos en NXP-CTO, donde está transformando varios datos en conocimientos significativos para respaldar las decisiones comerciales utilizando herramientas y técnicas avanzadas.

ben fridolín es científico de datos en NXP-CTO, donde coordina la aceleración de la IA y la adopción de la nube. Se centra en el aprendizaje automático, el aprendizaje profundo y las soluciones de ML de extremo a extremo.

cornee geenen es un líder de proyecto en la cartera de datos de NXP que apoya a la organización en su transformación digital para centrarse en los datos.

bart zeeman es un estratega apasionado por los datos y el análisis en NXP-CTO, donde impulsa mejores decisiones basadas en datos para un mayor crecimiento e innovación.

Ahsan Alí es un científico aplicado en Amazon Machine Learning Solutions Lab, donde trabaja con clientes de diferentes dominios para resolver sus problemas urgentes y costosos utilizando técnicas de IA/ML de última generación.

yifu-hu es un científico aplicado en el laboratorio de soluciones de aprendizaje automático de Amazon, donde ayuda a diseñar soluciones creativas de ML para abordar los problemas comerciales de los clientes en diversas industrias.

mehdi noori es Gerente de Ciencias Aplicadas en Amazon ML Solutions Lab, donde ayuda a desarrollar soluciones de ML para grandes organizaciones en varias industrias y lidera la vertical de Energía. Le apasiona usar AI/ML para ayudar a los clientes a alcanzar sus objetivos de sostenibilidad.

Huzefa Rangwala es Gerente Senior de Ciencias Aplicadas en AIRE, AWS. Dirige un equipo de científicos e ingenieros para habilitar el descubrimiento de activos de datos basado en el aprendizaje automático. Sus intereses de investigación son la IA responsable, el aprendizaje federado y las aplicaciones de ML en el cuidado de la salud y las ciencias de la vida.

punto_img

Información más reciente

punto_img