Logotipo de Zephyrnet

Nuevas e importantes capacidades facilitan el uso de Amazon Bedrock para crear y escalar aplicaciones de IA generativa y lograr resultados impresionantes | Servicios web de Amazon

Fecha:

Presentamos Amazon Bedrock al mundo hace poco más de un año, ofreciendo una forma completamente nueva de crear aplicaciones de inteligencia artificial (IA) generativa. Con la selección más amplia de modelos básicos (FM) propios y de terceros, así como capacidades fáciles de usar, Amazon Bedrock es la forma más rápida y sencilla de crear y escalar aplicaciones seguras de IA generativa. Ahora decenas de miles de clientes utilizan Amazon Bedrock para crear y escalar aplicaciones impresionantes. Están innovando de forma rápida, sencilla y segura para avanzar en sus estrategias de IA. Y estamos apoyando sus esfuerzos mejorando Amazon Bedrock con capacidades nuevas e interesantes que incluyen aún más opciones de modelos y características que facilitan la selección del modelo correcto, personalizar el modelo para un caso de uso específico y salvaguardar y escalar aplicaciones de IA generativa.

Los clientes de diversas industrias, desde finanzas hasta viajes, hotelería, atención médica y tecnología de consumo, están logrando avances notables. Están obteniendo un valor empresarial real al trasladar rápidamente aplicaciones de IA generativa a producción para mejorar las experiencias de los clientes y aumentar la eficiencia operativa. Consideremos la Bolsa de Valores de Nueva York (NYSE), el mercado de capitales más grande del mundo que procesa miles de millones de transacciones cada día. NYSE está aprovechando la elección de FM de Amazon Bedrock y las capacidades generativas de IA de vanguardia en varios casos de uso, incluido el procesamiento de miles de páginas de regulaciones para brindar respuestas en un lenguaje fácil de entender.

La aerolínea global United Airlines modernizó su sistema de servicio al pasajero para traducir códigos de reserva de pasajeros heredados a un inglés sencillo para que los agentes puedan brindar atención al cliente rápida y eficiente. LexisNexis Legal & Professional, un proveedor líder mundial de información y análisis, desarrolló un asistente de IA generativa legal personalizado en Lexis+ AI. Los clientes de LexisNexis reciben resultados confiables dos veces más rápido que el producto de la competencia más cercano y pueden ahorrar hasta cinco horas por semana en investigación y resúmenes legales. Y HappyFox, un software de asistencia técnica en línea, seleccionó Amazon Bedrock por su seguridad y rendimiento, aumentando la eficiencia de su sistema de tickets automatizado impulsado por IA en su solución de atención al cliente en un 40 % y la productividad de los agentes en un 30 %.

Y en Amazon, seguimos innovando con IA generativa para ofrecer experiencias más inmersivas y atractivas a nuestros clientes. La semana pasada Amazon Music anunció Maestro. Maestro es un generador de listas de reproducción con inteligencia artificial impulsado por Amazon Bedrock que brinda a los suscriptores de Amazon Music una forma más fácil y divertida de crear listas de reproducción basadas en indicaciones. Maestro ahora se está lanzando en versión beta para un pequeño número de clientes de EE. UU. en todos los niveles de Amazon Music.

Con Amazon Bedrock, nos centramos en las áreas clave que los clientes necesitan para crear aplicaciones de IA generativa de nivel empresarial y listas para producción al costo y la velocidad adecuados. Hoy me complace compartir las nuevas funciones que anunciamos en las áreas de elección de modelo, herramientas para crear aplicaciones de IA generativa y privacidad y seguridad.

1. Amazon Bedrock amplía la elección de modelos con Llama 3 modelos y le ayuda a encontrar el mejor modelo para sus necesidades

En estos primeros días, los clientes todavía están aprendiendo y experimentando con diferentes modelos para determinar cuáles usar para diversos propósitos. Quieren poder probar fácilmente los últimos modelos y probar qué capacidades y características les darán los mejores resultados y características de costos para sus casos de uso. La mayoría de los clientes de Amazon Bedrock utilizan más de un modelo, y Amazon Bedrock ofrece la selección más amplia de modelos de lenguaje grande (LLM) propios y de terceros y otros FM. Esto incluye modelos de laboratorios AI21, Antrópico, Adherirse, Meta, Mistral IAy Estabilidad IA, así como el nuestro Modelos de Amazon Titan. De hecho, Joel Hron, director de IA y Thomson Reuters Labs de Thomson Reuters dijo recientemente Esto sobre su adopción de Amazon Bedrock: "Tener la capacidad de utilizar una amplia gama de modelos a medida que aparecen fue un factor clave para nosotros, especialmente dada la rapidez con la que está evolucionando este espacio". Los modelos de vanguardia de la familia de modelos Mistral AI, incluidos Mistral 7B, Mixtral 8x7By Mistral grande Haga que los clientes se entusiasmen con su alto rendimiento en generación de texto, resúmenes, preguntas y respuestas y generación de código. Desde que presentamos la familia de modelos Anthropic Claude 3, miles de clientes han experimentado cómo Claude 3 Haiku, Sonnet y Opus han establecido nuevos puntos de referencia en tareas cognitivas con inteligencia, velocidad y rentabilidad inigualables. Después de la evaluación inicial utilizando Claude 3 Haiku y Opus en Amazon Bedrock, BlueOcean.ai, una plataforma de inteligencia de marca, obtuvo una reducción de costos de más del 50 % cuando pudieron consolidar cuatro llamadas API independientes en una sola llamada más eficiente.

Masahiro Oba, director general de gobernanza federada del grupo de plataforma DX en la corporación Sony Group, compartió:

“Si bien existen muchos desafíos al aplicar la IA generativa al negocio, las diversas capacidades de Amazon Bedrock nos ayudan a adaptar las aplicaciones de IA generativa al negocio de Sony. Podemos aprovechar no solo las poderosas capacidades LLM de Claude 3, sino también las capacidades que nos ayudan a proteger las aplicaciones a nivel empresarial. Estoy realmente orgulloso de trabajar con el equipo de Bedrock para democratizar aún más la IA generativa dentro del Grupo Sony”.

Recientemente me senté con Aaron Linsky, director de tecnología de Artificial Investment Associate Labs en Bridgewater Associates, una importante empresa de gestión de activos, donde están utilizando IA generativa para mejorar su “Artificial Investment Associate”, un gran paso adelante para sus clientes. Se basa en su experiencia en brindar asesoramiento experto basado en reglas para la toma de decisiones de inversión. Con Amazon Bedrock, pueden utilizar los mejores FM disponibles, como Claude 3, para diferentes tareas, combinando la comprensión fundamental del mercado con las capacidades de razonamiento flexibles de la IA. Amazon Bedrock permite una experimentación fluida con modelos, lo que permite a Bridgewater construir un sistema de inversión potente y de mejora automática que combina asesoramiento sistemático con capacidades de vanguardia, creando un proceso en evolución centrado en la IA.

Para brindar aún más opciones de modelos a los clientes, hoy estamos haciendo Modelos Meta Llama 3 disponibles en Amazon Bedrock. Los modelos Llama 3 3B y Llama 8 3B de Llama 70 están diseñados para construir, experimentar y escalar responsablemente aplicaciones de IA generativa. Estos modelos se mejoraron significativamente con respecto a la arquitectura del modelo anterior, incluida la ampliación del entrenamiento previo, así como enfoques de ajuste fino de las instrucciones. Llama 3 8B sobresale en resumen de texto, clasificación, análisis de sentimientos y traducción, ideal para recursos limitados y dispositivos periféricos. Llama 3 70B brilla en la creación de contenido, IA conversacional, comprensión del lenguaje, I+D, empresas, resúmenes precisos, clasificación matizada/análisis de sentimientos, modelado del lenguaje, sistemas de diálogo, generación de código y seguimiento de instrucciones. Leer más sobre Meta Llama 3 ya disponible en Amazon Bedrock.

También anunciamos compatibilidad próximamente con los FM empresariales Command R y Command R+ de Cohere.. Estos modelos son altamente escalables y están optimizados para tareas de contexto prolongado, como generación aumentada de recuperación (RAG) con citas para mitigar las alucinaciones, uso de herramientas de varios pasos para automatizar tareas comerciales complejas y soporte para 10 idiomas para operaciones globales. Command R+ es el modelo más potente de Cohere optimizado para tareas de contexto prolongado, mientras que Command R está optimizado para cargas de trabajo de producción a gran escala. Con los modelos Cohere próximamente en Amazon Bedrock, las empresas pueden crear aplicaciones de IA generativa de nivel empresarial que equilibren una gran precisión y eficiencia para las operaciones diarias de IA más allá de la prueba de concepto.

Amazon Titan Image Generator ya está disponible de forma general y Amazon Titan Text Embeddings V2 próximamente

Además de agregar los modelos 3P más capaces, Amazon Titan Image Generator ya está disponible de forma generalizada. Con Amazon Titan Image Generator, los clientes de industrias como la publicidad, el comercio electrónico, los medios y el entretenimiento pueden generar de manera eficiente imágenes realistas con calidad de estudio en grandes volúmenes y a bajo costo, utilizando indicaciones en lenguaje natural. Pueden editar imágenes generadas o existentes mediante indicaciones de texto, configurar las dimensiones de la imagen o especificar la cantidad de variaciones de la imagen para guiar el modelo. De forma predeterminada, cada imagen producida por Amazon Titan Image Generator contiene una marca de agua invisible, lo que se alinea con el compromiso de AWS de promover una IA responsable y ética al reducir la difusión de información errónea. La función de detección de marcas de agua identifica imágenes creadas por Image Generator y está diseñada para ser resistente a manipulaciones, lo que ayuda a aumentar la transparencia en torno al contenido generado por IA. La detección de marcas de agua ayuda a mitigar los riesgos de propiedad intelectual y permite a los creadores de contenido, organizaciones de noticias, analistas de riesgos, equipos de detección de fraude y otros identificar y mitigar mejor la difusión de contenido engañoso generado por IA. Leer más sobre Detección de marcas de agua para Titan Image Generator.

Próximamente, Amazon Titan Text Embeddings V2 ofrece de manera eficiente respuestas más relevantes para casos de uso empresarial críticos como la búsqueda. Los modelos de incorporación eficientes son cruciales para el rendimiento cuando se aprovecha RAG para enriquecer las respuestas con información adicional. Embeddings V2 está optimizado para flujos de trabajo RAG y proporciona una integración perfecta con Bases de conocimiento para Amazon Bedrock para entregar respuestas más informativas y relevantes de manera eficiente. Embeddings V2 permite una comprensión más profunda de las relaciones de datos para tareas complejas como recuperación, clasificación, búsqueda de similitudes semánticas y mejora de la relevancia de la búsqueda. Al ofrecer tamaños de incrustación flexibles de 256, 512 y 1024 dimensiones, Embeddings V2 prioriza la reducción de costos y al mismo tiempo conserva el 97 % de la precisión para los casos de uso de RAG, superando a otros modelos líderes. Además, los tamaños de integración flexibles satisfacen diversas necesidades de aplicaciones, desde implementaciones móviles de baja latencia hasta flujos de trabajo asincrónicos de alta precisión.

La evaluación del nuevo modelo simplifica el proceso de acceso, comparación y selección de LLM y FM

Elegir el modelo adecuado es un primer paso fundamental hacia la creación de cualquier aplicación de IA generativa. Los LLM pueden variar drásticamente en rendimiento según la tarea, el dominio, las modalidades de datos y otros factores. Por ejemplo, es probable que un modelo biomédico supere a los modelos de atención sanitaria general en contextos médicos específicos, mientras que un modelo de codificación puede enfrentar desafíos con las tareas de procesamiento del lenguaje natural. El uso de un modelo excesivamente potente podría conducir a un uso ineficiente de los recursos, mientras que un modelo con poca potencia podría no cumplir con los estándares mínimos de rendimiento, lo que podría generar resultados incorrectos. Y seleccionar un FM inadecuado al inicio de un proyecto podría socavar la confianza de las partes interesadas.

Con tantos modelos para elegir, queremos que a los clientes les resulte más fácil elegir el adecuado para su caso de uso.

La herramienta de evaluación de modelos de Amazon Bedrock, ahora disponible de forma generalizada, simplifica el proceso de selección al permitir la evaluación comparativa y la comparación con conjuntos de datos específicos y métricas de evaluación, lo que garantiza que los desarrolladores seleccionen el modelo que mejor se alinee con los objetivos de su proyecto. Esta experiencia guiada permite a los desarrolladores evaluar modelos según criterios adaptados a cada caso de uso. A través de la evaluación de modelos, los desarrolladores seleccionan modelos candidatos para evaluar: opciones públicas, modelos personalizados importados o versiones ajustadas. Definen tareas de prueba, conjuntos de datos y métricas de evaluación relevantes, como precisión, latencia, proyecciones de costos y factores cualitativos. Leer más sobre Evaluación de modelos en Amazon Bedrock.

La capacidad de seleccionar entre los FM de mejor rendimiento en Amazon Bedrock ha sido extremadamente beneficiosa para Elastic Security. James Spiteri, director de gestión de productos de Elastic, compartió:

“Con sólo unos pocos clics, podemos evaluar un único mensaje en varios modelos simultáneamente. Esta funcionalidad de evaluación de modelos nos permite comparar los resultados, las métricas y los costos asociados entre diferentes modelos, lo que nos permite tomar una decisión informada sobre qué modelo sería más adecuado para lo que estamos tratando de lograr. Esto ha simplificado significativamente nuestro proceso, ahorrándonos una cantidad considerable de tiempo en la implementación de nuestras aplicaciones en producción”.

2. Amazon Bedrock ofrece capacidades para adaptar la IA generativa a sus necesidades comerciales

Si bien los modelos son increíblemente importantes, se necesita más que un modelo para crear una aplicación que sea útil para una organización. Es por eso que Amazon Bedrock tiene capacidades para ayudarlo a adaptar fácilmente las soluciones de IA generativa a casos de uso específicos. Los clientes pueden usar sus propios datos para personalizar aplicaciones de forma privada mediante ajustes o utilizando bases de conocimiento para una experiencia RAG completamente administrada para brindar respuestas más relevantes, precisas y personalizadas. Agents for Amazon Bedrock permite a los desarrolladores definir tareas, flujos de trabajo o procesos de toma de decisiones específicos, lo que mejora el control y la automatización y, al mismo tiempo, garantiza una alineación coherente con un caso de uso previsto. Empezando hoy, ahora puedes usar Agentes con modelos Anthropic Claude 3 Haiku y Sonnet. También presentamos una experiencia de consola de AWS actualizada, que admite un esquema simplificado y retorno de control para facilitar el comienzo a los desarrolladores. Leer más sobre Agentes para Amazon Bedrock, ahora más rápidos y fáciles de usar.

Con la nueva importación de modelos personalizados, los clientes pueden aprovechar todas las capacidades de Amazon Bedrock con sus propios modelos.

Todas estas características son esenciales para crear aplicaciones de IA generativa, por lo que queríamos ponerlas a disposición de aún más clientes, incluidos aquellos que ya han invertido importantes recursos en ajustar los LLM con sus propios datos sobre diferentes servicios o en entrenar modelos personalizados de rascar. Muchos clientes tienen modelos personalizados disponibles en Amazon SageMaker, que proporciona la gama más amplia de más de 250 FM previamente entrenados. Estos FM incluyen modelos de última generación como Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B y el impresionante Falcon 180B. Amazon SageMaker ayuda a organizar y ajustar los datos, crear una infraestructura de capacitación escalable y eficiente y luego implementar modelos a escala con baja latencia y de manera rentable. Ha supuesto un punto de inflexión para los desarrolladores a la hora de preparar sus datos para la IA, gestionar experimentos, entrenar modelos más rápido (por ejemplo, Perplexity AI entrena modelos un 40 % más rápido en Amazon SageMaker) y reducir la latencia de inferencia (por ejemplo, Workday ha reducido la latencia de inferencia en un 80 % con Amazon SageMaker) y mejorar la productividad de los desarrolladores (por ejemplo, NatWest redujo su tiempo de obtención de valor para la IA de 12 a 18 meses a menos de siete meses usando Amazon SageMaker). Sin embargo, poner en funcionamiento estos modelos personalizados de forma segura e integrarlos en aplicaciones para casos de uso empresarial específicos todavía presenta desafíos.

Por eso hoy presentamos Importación de modelos personalizados de Amazon Bedrock, que permite a las organizaciones aprovechar sus inversiones existentes en IA junto con las capacidades de Amazon Bedrock. Con Custom Model Import, los clientes ahora pueden importar y acceder a sus propios modelos personalizados creados en arquitecturas de modelos abiertos populares, incluidas Flan-T5, Llama y Mistral, como una interfaz de programación de aplicaciones (API) totalmente administrada en Amazon Bedrock. Los clientes pueden tomar modelos que personalizaron en Amazon SageMaker u otras herramientas y agregarlos fácilmente a Amazon Bedrock. Después de una validación automatizada, pueden acceder sin problemas a su modelo personalizado, como con cualquier otro modelo en Amazon Bedrock. Obtienen los mismos beneficios, incluida una escalabilidad perfecta y potentes capacidades para proteger sus aplicaciones, el cumplimiento de los principios de IA responsable, así como la capacidad de ampliar la base de conocimientos de un modelo con RAG, crear fácilmente agentes para completar tareas de varios pasos y realizar realizando ajustes para seguir enseñando y refinando modelos. Todo sin necesidad de gestionar la infraestructura subyacente.

Con esta nueva capacidad, facilitamos a las organizaciones la elección de una combinación de modelos de Amazon Bedrock y sus propios modelos personalizados, manteniendo al mismo tiempo la misma experiencia de desarrollo optimizada. Hoy, Amazon Bedrock Custom Model Import está disponible en versión preliminar y admite tres de las arquitecturas de modelo abierto más populares y hay planes para más en el futuro. Leer más sobre Importación de modelos personalizados para Amazon Bedrock.

ASAPP es una empresa de inteligencia artificial generativa con una trayectoria de 10 años en la creación de modelos de aprendizaje automático.

“Nuestro agente de chat y voz con IA generativa conversacional aprovecha estos modelos para redefinir la experiencia de servicio al cliente. Para brindarles a nuestros clientes una automatización integral, necesitamos agentes LLM, base de conocimientos y flexibilidad en la selección de modelos. Con Custom Model Import, podremos utilizar nuestros modelos personalizados existentes en Amazon Bedrock. Bedrock nos permitirá incorporar a nuestros clientes más rápido, aumentar nuestro ritmo de innovación y acelerar el tiempo de comercialización de nuevas capacidades de productos”.

– Priya Vijayarajendran, presidenta de Tecnología.

3. Amazon Bedrock proporciona una base segura y responsable para implementar salvaguardas fácilmente

A medida que las capacidades generativas de IA progresan y se expanden, generar confianza y abordar las preocupaciones éticas se vuelve aún más importante. Amazon Bedrock aborda estas preocupaciones aprovechando la infraestructura segura y confiable de AWS con medidas de seguridad líderes en la industria, cifrado de datos sólido y estrictos controles de acceso.

Guardrails para Amazon Bedrock, ahora disponible de forma generalizada, ayuda a los clientes a prevenir contenido dañino y administrar información confidencial dentro de una aplicación.

También ofrecemos Guardrails para Amazon Bedrock, que ya está disponible de forma generalizada. Guardrails ofrece protección de seguridad líder en la industria, brindando a los clientes la capacidad de definir políticas de contenido, establecer límites de comportamiento de las aplicaciones e implementar salvaguardas contra riesgos potenciales. Guardrails para Amazon Bedrock es la única solución ofrecida por un importante proveedor de nube que permite a los clientes crear y personalizar protecciones de seguridad y privacidad para sus aplicaciones de IA generativa en una única solución. Ayuda a los clientes a bloquear hasta un 85 % más de contenido dañino que la protección proporcionada de forma nativa por los FM en Amazon Bedrock. Guardrails brinda soporte integral para el filtrado de contenido dañino y capacidades sólidas de detección de información de identificación personal (PII). Guardrails funciona con todos los LLM de Amazon Bedrock, así como con modelos ajustados, lo que impulsa la coherencia en la forma en que los modelos responden al contenido no deseado y dañino. Puede configurar umbrales para filtrar contenido en seis categorías: odio, insultos, sexual, violencia, mala conducta (incluida la actividad delictiva) y ataque rápido (jailbreak e inyección rápida). También puede definir un conjunto de temas o palabras que deben bloquearse en su aplicación de IA generativa, incluidas palabras dañinas, malas palabras, nombres de competidores y productos. Por ejemplo, una aplicación bancaria puede configurar una barrera para detectar y bloquear temas relacionados con consejos de inversión. Una aplicación de centro de contacto que resuma las transcripciones del centro de llamadas puede usar la redacción de PII para eliminar PII en los resúmenes de llamadas, o un chatbot conversacional puede usar filtros de contenido para bloquear contenido dañino. Leer más sobre Barandillas para Amazon Bedrock.

Empresas como Aha!, una empresa de software que ayuda a más de 1 millón de personas a dar vida a su estrategia de producto, utiliza Amazon Bedrock para potenciar muchas de sus capacidades de IA generativa.

“Tenemos control total sobre nuestra información a través de las políticas de privacidad y protección de datos de Amazon Bedrock, y podemos bloquear contenido dañino a través de Guardrails para Amazon Bedrock. Simplemente lo aprovechamos para ayudar a los gerentes de producto a descubrir información analizando los comentarios enviados por sus clientes. Este es solo el comienzo. Continuaremos basándose en la tecnología avanzada de AWS para ayudar a los equipos de desarrollo de productos de todo el mundo a priorizar con confianza qué construir a continuación”.

Con aún más opciones de FM líderes y características que lo ayudan a evaluar modelos y proteger aplicaciones, así como aprovechar sus inversiones anteriores en IA junto con las capacidades de Amazon Bedrock, los lanzamientos de hoy hacen que sea aún más fácil y rápido para los clientes crear y escalar IA generativa. aplicaciones. Esta publicación de blog destaca solo un subconjunto de las nuevas funciones. Puede obtener más información sobre todo lo que hemos lanzado en los recursos de esta publicación, incluido hacer preguntas y resumir datos de un solo documento sin configurar una base de datos vectorial en las Bases de conocimiento y el Disponibilidad general de soporte para múltiples fuentes de datos con bases de conocimiento..

Los primeros usuarios que aprovechan las capacidades de Amazon Bedrock están obteniendo una ventaja crucial: impulsan ganancias de productividad, impulsan descubrimientos innovadores en todos los dominios y ofrecen experiencias de cliente mejoradas que fomentan la lealtad y el compromiso. Estoy emocionado de ver qué harán nuestros clientes a continuación con estas nuevas capacidades.

Como siempre dice mi mentor Werner Vogels "Ahora ve a construir" y agregaré "... ¡con Amazon Bedrock!"

Recursos

Consulte los siguientes recursos para obtener más información sobre este anuncio:


Acerca del autor.

Swami Sivasubramanian es vicepresidente de datos y aprendizaje automático en AWS. En este rol, Swami supervisa todos los servicios de AWS Database, Analytics, AI & Machine Learning. La misión de su equipo es ayudar a las organizaciones a poner sus datos a trabajar con una solución de datos completa e integral para almacenar, acceder, analizar, visualizar y predecir.

punto_img

Información más reciente

punto_img