Logotipo de Zephyrnet

Etiqueta: Abrazando la cara

Implementación de transformadores en PNL en 5 líneas de códigos

Implementando Transformers en PNL - Analytics Vidhya...

Logre un rendimiento 12 veces mayor y la latencia más baja para las aplicaciones de procesamiento de lenguaje natural de PyTorch listas para usar en AWS Inferentia

Clientes de AWS como Snap, Alexa y Autodesk han estado usando AWS Inferentia para lograr el mayor rendimiento y el menor costo en una amplia...

Funcionamiento interno de BERT

Creé este cuaderno para comprender mejor el funcionamiento interno de Bert. Seguí muchos tutoriales para tratar de entender el...

GPT2 para clasificación de texto usando transformadores faciales abrazados

Este cuaderno se usa para ajustar el modelo GPT2 para la clasificación de texto usando la biblioteca de transformadores Hugging Face en un conjunto de datos personalizado. Hugging Face es muy amable con nosotros...

AWS y Hugging Face colaboran para simplificar y acelerar la adopción de modelos de procesamiento de lenguaje natural

Al igual que la visión por computadora hace unos años, el campo del procesamiento del lenguaje natural (NLP, por sus siglas en inglés), con una década de antigüedad, está experimentando un renacimiento fascinante. No un...

Hugging Face triplica la inversión en modelos de aprendizaje automático de código abierto

El poder del audio Desde podcasts hasta Clubhouse, el audio de marca es más importante que nunca. Aprender...

Ajuste los transformadores en PyTorch usando transformadores de rostro abrazado

Este cuaderno está diseñado para usar un modelo de transformadores previamente entrenado y ajustarlo en una tarea de clasificación. El enfoque de este tutorial será...

Voz a texto con Wav2Vec 2.0

Voz a texto con Wav2Vec 2.0 = Publicación anterior Siguiente publicación => Etiquetas: Hugging Face, NLP, Python, PyTorch, Transformer...

Preentrenamiento de modelos de Transformers en PyTorch usando transformadores de cara abrazados

Este cuaderno se utiliza para preentrenar modelos de transformadores utilizando Hugging Face en su propio conjunto de datos personalizado. ¿Qué quiero decir con preentrenar transformadores? La definición de preentrenamiento es entrenar...

Acercarse (casi) a cualquier problema de aprendizaje automático

Acercarse a (casi) cualquier problema de aprendizaje automático = Publicación anterior Siguiente publicación => Etiquetas: aprendizaje profundo, libro electrónico gratuito, aprendizaje automático,...

Paquete Hugging Face Transformers: qué es y cómo usarlo

Paquete Hugging Face Transformers: qué es y cómo usarlo = Publicación anterior Siguiente publicación => ...

Introducción a 5 bibliotecas esenciales de procesamiento de lenguaje natural

Primeros pasos con 5 bibliotecas esenciales de procesamiento de lenguaje natural = Publicación anterior Etiquetas: preparación de datos, preprocesamiento de datos, datos...

Información más reciente

punto_img
punto_img