Logotipo de Zephyrnet

Las tendencias de IA más importantes en 2024 – Blog de IBM

Fecha:


Las tendencias de IA más importantes en 2024 – Blog de IBM



Dirigir a su equipo a lo largo de su plan para el éxito.

2022 fue el año en que la inteligencia artificial (IA) generativa irrumpió en la conciencia pública, y 2023 fue el año en que comenzó a arraigarse en el mundo empresarial. Por lo tanto, 2024 será un año crucial para el futuro de la IA, ya que los investigadores y las empresas buscan establecer cómo este salto evolutivo en la tecnología puede integrarse de la manera más práctica en nuestra vida cotidiana.

La evolución de la IA generativa ha reflejado la de las computadoras, aunque en una línea de tiempo dramáticamente acelerada. Las enormes computadoras centrales de unos pocos actores, operadas centralmente, dieron paso a máquinas más pequeñas y más eficientes, accesibles a empresas e instituciones de investigación. En las décadas siguientes, los avances graduales produjeron computadoras domésticas con las que los aficionados podían jugar. Con el tiempo, se hicieron omnipresentes potentes ordenadores personales con interfaces intuitivas sin código.

La IA generativa ya ha alcanzado su fase de “aficionado” y, al igual que con las computadoras, un mayor progreso apunta a lograr un mayor rendimiento en paquetes más pequeños. En 2023 se produjo una explosión de tecnologías cada vez más eficientes. modelos de cimientos con licencias abiertas, comenzando con el lanzamiento de la familia LlaMa de grandes modelos de lenguaje (LLM) de Meta y seguido por empresas como StableLM, Falcon, Mistral y llamas 2. DeepFloyd y Stable Diffusion han logrado una paridad relativa con los principales modelos propietarios. Mejorados con técnicas de ajuste y conjuntos de datos desarrollados por la comunidad de código abierto, muchos modelos abiertos ahora pueden superar a todos, excepto a los modelos de código cerrado más potentes, en la mayoría de los puntos de referencia, a pesar de contar con recuentos de parámetros mucho más pequeños.

A medida que se acelera el ritmo del progreso, las capacidades en constante expansión de los modelos de última generación atraerán la mayor atención de los medios. Pero los desarrollos de mayor impacto pueden ser aquellos centrados en la gobernanza, el middleware, las técnicas de capacitación y los canales de datos que hacen que la IA generativa sea más eficiente. digno de confianza, sostenible, y accesible, tanto para empresas como para usuarios finales.

A continuación se presentan algunas tendencias actuales importantes de IA a las que debemos prestar atención el próximo año.

  • Verificación de la realidad: expectativas más realistas
  • IA multimodal
  • Modelos de lenguajes más pequeños y avances de código abierto
  • Escasez de GPU y costos de la nube
  • La optimización del modelo es cada vez más accesible
  • Modelos locales personalizados y canales de datos
  • Agentes virtuales más potentes
  • Preocupaciones sobre regulación, derechos de autor y ética de la IA
  • IA en la sombra (y políticas corporativas de IA)

Verificación de la realidad: expectativas más realistas

Cuando la IA generativa alcanzó por primera vez la conciencia masiva, el conocimiento de un líder empresarial típico procedía principalmente de materiales de marketing y cobertura de noticias sin aliento. La experiencia tangible (si la había) se limitaba a jugar con ChatGPT y DALL-E. Ahora que el polvo se ha calmado, la comunidad empresarial ahora tiene una comprensión más refinada de las soluciones impulsadas por IA.

El ciclo de exageración de Gartner posiciona a la IA generativa directamente en el “pico de expectativas infladas”, en la cúspide de un deslizamiento hacia el “punto más bajo de la desilusión”.[i]—en otras palabras, a punto de entrar en un período de transición (relativamente) decepcionante—, mientras que el informe “Estado de la IA generada en la empresa” de Deloitte del primer trimestre de 1 indicó que muchos líderes “esperan impactos transformadores sustanciales en el corto plazo”.[ii] Es probable que la realidad se encuentre en un punto intermedio: la IA generativa ofrece oportunidades y soluciones únicas, pero no lo será todo para todos.

La comparación de los resultados del mundo real con las expectativas es en parte una cuestión de perspectiva. Las herramientas independientes como ChatGPT suelen ocupar un lugar central en la imaginación popular, pero la integración fluida en servicios establecidos a menudo produce más poder de permanencia. Antes del actual ciclo de exageración, las herramientas de aprendizaje automático generativo como la función "Smart Compose" implementada por Google en 2018 no fueron anunciadas como un cambio de paradigma, a pesar de ser presagios de los servicios de generación de texto actuales. De manera similar, muchas herramientas de IA generativa de alto impacto se están implementando como elementos integrados de entornos empresariales que mejoran y complementan, en lugar de revolucionar o reemplazar, las herramientas existentes: por ejemplo, las funciones "Copilot" en Microsoft Office, funciones "Generative Fill" en Adobe Photoshop o agentes virtuales en aplicaciones de productividad y colaboración.

Cuando la IA generativa cobre impulso por primera vez en los flujos de trabajo cotidianos tendrá más influencia en el futuro de las herramientas de IA que el hipotético lado positivo de cualquier capacidad específica de IA. Según un reciente Encuesta de IBM a más de 1,000 empleados en empresas de escala empresarial, los tres factores principales que impulsaron la adopción de la IA fueron los avances en las herramientas de IA que las hacen más accesibles, la necesidad de reducir costos y automatizar procesos clave y la creciente cantidad de IA integrada en aplicaciones comerciales estándar disponibles.

Multimodal IA (y vídeo)

Dicho esto, la ambición de una IA generativa de última generación está creciendo. La próxima ola de avances se centrará no sólo en mejorar el rendimiento dentro de un dominio específico, sino también en multimodal modelos que puede tomar múltiples tipos de datos como entrada. Si bien los modelos que operan a través de diferentes modalidades de datos no son un fenómeno estrictamente nuevo (los modelos de texto a imagen como CLIP y los modelos de voz a texto como Wave2Vec existen desde hace años), normalmente solo han operado en una dirección, y fueron capacitados para realizar una tarea específica.

La generación entrante de modelos interdisciplinarios, que comprende modelos propietarios como GPT-4V de OpenAI o Gemini de Google, así como modelos de código abierto como LLaVa, Adept o Qwen-VL, puede moverse libremente entre el procesamiento del lenguaje natural (NLP) y las tareas de visión por computadora. Los nuevos modelos también traen video en el redil: a finales de enero, Google anunció Lumiere, un modelo de difusión de texto a video que también puede realizar tareas de conversión de imagen a video o usar imágenes como referencia de estilo.

El beneficio más inmediato de la IA multimodal son aplicaciones de IA y asistentes virtuales más intuitivos y versátiles. Los usuarios pueden, por ejemplo, preguntar sobre una imagen y recibir una respuesta en lenguaje natural, o pedir en voz alta instrucciones para reparar algo y recibir ayudas visuales junto con instrucciones de texto paso a paso.

En un nivel superior, la IA multimodal permite que un modelo procese entradas de datos más diversas, enriqueciendo y ampliando la información disponible para entrenamiento e inferencia. El vídeo, en particular, ofrece un gran potencial para el aprendizaje holístico. "Hay cámaras que están encendidas las 24 horas del día, los 7 días de la semana y capturan lo que sucede tal como sucede, sin ningún filtro, sin ninguna intencionalidad", dice Peter Norvig, miembro distinguido de Educación en el Instituto Stanford para la Inteligencia Artificial Centrada en el Humano (HAI). .[iii] “Los modelos de IA no habían tenido ese tipo de datos antes. Esos modelos simplemente comprenderán mejor todo”.

Modelos de lenguajes más pequeños y avances de código abierto

En los modelos de dominio específico, en particular los LLM, es probable que hayamos llegado al punto de rendimientos decrecientes a partir de recuentos de parámetros más grandes. Sam Altman, director ejecutivo de OpenAI (cuyo modelo GPT-4 se rumorea que tiene alrededor de 1.76 trillón parámetros), lo sugirió en el evento Imaginación en Acción del MIT en abril pasado: "Creo que estamos en el final de la era en la que habrá estos modelos gigantes, y los mejoraremos de otras maneras", predijo. . "Creo que se ha prestado demasiada atención al recuento de parámetros".

Los modelos masivos impulsaron esta era dorada de la IA en curso, pero no están exentos de inconvenientes. Sólo las empresas más grandes tienen los fondos y el espacio de servidores para entrenar y mantener modelos que consumen mucha energía y cuentan con cientos de miles de millones de parámetros. Según una estimación de la Universidad de Washington, entrenar un solo modelo del tamaño de GPT-3 requiere la anual consumo de electricidad de más de 1,000 hogares; un día estándar de consultas ChatGPT rivaliza con el consumo diario de energía de 33,000 hogares estadounidenses.[iv]

Mientras tanto, los modelos más pequeños consumen muchos menos recursos. Un influyente Documento de marzo de 2022 de Deepmind demostró que entrenar modelos más pequeños con más datos produce un mejor rendimiento que entrenar modelos más grandes con menos datos. Por lo tanto, gran parte de la innovación actual en los LLM se ha centrado en generar mayores resultados a partir de menos parámetros. Como lo demuestra el reciente progreso de los modelos en el rango de 3 a 70 mil millones de parámetros, en particular los construidos sobre los modelos de base LLaMa, Llama 2 y Mistral en 2023, los modelos se pueden reducir de tamaño sin mucho sacrificio de rendimiento.

El poder de los modelos abiertos seguirá creciendo. En diciembre de 2023, Mistral lanzó “Mixtral”, un mezcla de expertos (MoE) modelo que integra 8 redes neuronales, cada una con 7 mil millones de parámetros. Mistral afirma que Mixtral no solo supera a la variante de parámetro 70B de Llama 2 en la mayoría de los puntos de referencia a velocidades de inferencia 6 veces más rápidas, sino que incluso iguala o supera a OpenAI. muchos GPT-3.5 más grande en la mayoría de los puntos de referencia estándar. Poco después, Meta anunció en enero que ya había comenzado a entrenar los modelos Llama 3 y confirmó que serán de código abierto. Aunque los detalles (como el tamaño del modelo) no han sido confirmados, es razonable esperar que Llama 3 siga el marco establecido en las dos generaciones anteriores.

Estos avances en modelos más pequeños tienen tres beneficios importantes:

  • Ayudan a democratizar la IA: Los modelos más pequeños que pueden ejecutarse a menor costo en hardware más asequible permiten que más aficionados e instituciones estudien, entrenen y mejoren los modelos existentes.
  • Se pueden ejecutar localmente en dispositivos más pequeños: esto permite una IA más sofisticada en escenarios como la informática de punta y el Internet de las cosas (IoT). Además, ejecutar modelos localmente (como en el teléfono inteligente de un usuario) ayuda a eludir muchas preocupaciones de privacidad y ciberseguridad que surgen de la interacción con datos personales o de propiedad confidencial.
  • Hacen que la IA sea más explicable: cuanto más grande es el modelo, más difícil es señalar cómo y dónde toma decisiones importantes. IA explicable es esencial para comprender, mejorar y confiar en los resultados de los sistemas de IA.

Escasez de GPU y costos de la nube

La tendencia hacia modelos más pequeños estará impulsada tanto por la necesidad como por el vigor empresarial, a medida que los costos de la computación en la nube aumentan a medida que disminuye la disponibilidad de hardware.

"Las grandes empresas (y muchas más) están intentando incorporar capacidades de IA internamente, y hay un poco de carrera hacia las GPU", afirma James Landay, subdirector y director de investigación de Stanford HAI. "Esto creará una enorme presión no sólo para aumentar la producción de GPU, sino también para que los innovadores encuentren soluciones de hardware que sean más baratas y más fáciles de fabricar y usar".1

Como explica un informe de O'Reilly de finales de 2023, los proveedores de la nube soportan actualmente gran parte de la carga informática: relativamente pocos adoptantes de la IA mantienen su propia infraestructura, y la escasez de hardware solo elevará los obstáculos y los costos de configurar servidores locales. A largo plazo, esto puede ejercer una presión al alza sobre los costos de la nube a medida que los proveedores actualicen y optimicen su propia infraestructura para satisfacer eficazmente la demanda de la IA generativa.[V]

Para las empresas, navegar por este panorama incierto requiere flexibilidad, en términos de ambos modelos (apoyándose en modelos más pequeños y más eficientes cuando sea necesario o modelos más grandes y de mayor rendimiento cuando sea práctico) y el entorno de implementación. "No queremos limitar dónde la gente implementa [un modelo]", dijo el director ejecutivo de IBM, Arvind Krishna, en un Entrevista de diciembre de 2023 con CNBC, en referencia a IBM watsonx plataforma. “Entonces [si] quieren implementarlo en una nube pública grande, lo haremos allí. Si quieren implementarlo en IBM, lo haremos en IBM. Si quieren hacerlo por su cuenta y tienen suficiente infraestructura, lo haremos allí”.

La optimización del modelo es cada vez más accesible

La tendencia hacia maximizar el rendimiento de modelos más compactos se ve favorecida por los recientes resultados de la comunidad de código abierto. 

Muchos avances clave han sido (y seguirán siendo) impulsados ​​no solo por nuevos modelos básicos, sino también por nuevas técnicas y recursos (como conjuntos de datos de código abierto) para entrenar, ajustar, ajustar o alinear modelos previamente entrenados. Las técnicas independientes del modelo notables que se afianzaron en 2023 incluyen:

  • Adaptación de rango bajo (LoRA): En lugar de ajustar directamente miles de millones de parámetros del modelo, LoRA implica congelar los pesos del modelo previamente entrenado e inyectar capas entrenables, que representan la matriz de cambios en los pesos del modelo como 2 más pequeños (Rango inferior) matrices, en cada bloque transformador. Esto reduce drásticamente la cantidad de parámetros que deben actualizarse, lo que, a su vez, acelera drásticamente el ajuste y reduce la memoria necesaria para almacenar las actualizaciones del modelo.
  • Cuantificación: Al igual que reducir la tasa de bits de audio o video para reducir el tamaño del archivo y la latencia, la cuantificación reduce la precisión utilizada para representar los puntos de datos del modelo (por ejemplo, desde un punto flotante de 16 bits hasta un entero de 8 bits) para reducir el uso de memoria y acelerar la inferencia. QLoRA Las técnicas combinan la cuantificación con LoRA.
  • Optimización de preferencias directas (DPO): Los modelos de chat suelen utilizar aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) para alinear los resultados del modelo con las preferencias humanas. Aunque poderoso, RLHF es complejo e inestable. DPO promete beneficios similares a la vez que es computacionalmente liviano y sustancialmente más simple.

Junto con los avances paralelos en los modelos de código abierto en el espacio de 3 a 70 mil millones de parámetros, estas técnicas en evolución podrían cambiar la dinámica del panorama de la IA al proporcionar a los actores más pequeños, como nuevas empresas y aficionados, capacidades sofisticadas de IA que antes estaban fuera de su alcance.

Modelos locales personalizados y canales de datos

De este modo, las empresas en 2024 podrán buscar la diferenciación a través del desarrollo de modelos personalizados, en lugar de crear envoltorios en torno a servicios reempaquetados de la “Gran IA”. Con el marco de desarrollo y datos adecuado, los modelos y herramientas de IA de código abierto existentes se pueden adaptar a casi cualquier escenario del mundo real, desde usos de atención al cliente hasta gestión de la cadena de suministro y análisis de documentos complejos.

Los modelos de código abierto brindan a las organizaciones la oportunidad de desarrollar potentes modelos de IA personalizados, capacitados con sus datos patentados y ajustados para sus necesidades específicas, rápidamente, sin inversiones prohibitivamente costosas en infraestructura. Esto es especialmente relevante en ámbitos como el jurídico, el sanitario o el financiero, donde es posible que los modelos básicos no hayan aprendido vocabulario y conceptos altamente especializados en la formación previa.

Los sectores jurídico, financiero y sanitario también son excelentes ejemplos de industrias que pueden beneficiarse de modelos lo suficientemente pequeños como para ejecutarse localmente en hardware modesto. Mantener el entrenamiento, la inferencia y la inteligencia artificial recuperación de generación aumentada (RAG) local evita el riesgo de que se utilicen datos de propiedad o información personal confidencial para entrenar modelos de código cerrado o que pasen por manos de terceros. Y utilizar RAG para acceder a información relevante en lugar de almacenar todo el conocimiento directamente dentro del propio LLM ayuda a reducir el tamaño del modelo, aumentando aún más la velocidad y reduciendo los costos.

A medida que 2024 continúe nivelando el campo de juego de los modelos, la ventaja competitiva estará impulsada cada vez más por canales de datos patentados que permitan el mejor ajuste de la industria.

Agentes virtuales más potentes

Con herramientas más sofisticadas y eficientes y un año de información del mercado a su disposición, las empresas están preparadas para ampliar los casos de uso de agentes virtuales más allá de lo sencillo chatbots de experiencia del cliente.

A medida que los sistemas de IA aceleran e incorporan nuevos flujos y formatos de información, amplían las posibilidades no solo de comunicación y seguimiento de instrucciones, sino también de automatización de tareas. “2023 fue el año de poder chatear con una IA. Varias empresas lanzaron algo, pero la interacción siempre consistía en que usted escribía algo y él respondía algo”, dice Norvig de Stanford. “En 2024, veremos la capacidad de los agentes de hacer las cosas por usted. Hacer reservas, planificar un viaje, conectarse a otros servicios”.

La IA multimodal, en particular, aumenta significativamente las oportunidades de interacción fluida con agentes virtuales. Por ejemplo, en lugar de simplemente pedirle recetas a un robot, un usuario puede apuntar una cámara a un refrigerador abierto y solicitar recetas que se puedan preparar con los ingredientes disponibles. Be My Eyes, una aplicación móvil que conecta a personas ciegas y con baja visión con voluntarios para ayudar con tareas rápidas, está poniendo a prueba herramientas de inteligencia artificial que ayudan a los usuarios a interactuar directamente con su entorno a través de inteligencia artificial multimodal en lugar de esperar a un voluntario humano.

Explore IBM watsonx™ Assistant: IA conversacional líder en el mercado con integración perfecta para las herramientas que impulsan su negocio →

Preocupaciones sobre regulación, derechos de autor y ética de la IA

Las capacidades multimodales elevadas y las barreras de entrada reducidas también abren nuevas puertas para el abuso: las falsificaciones profundas, los problemas de privacidad, la perpetuación de prejuicios e incluso la evasión de las salvaguardias CAPTCHA pueden resultar cada vez más fáciles para los malos actores. En enero de 2024, una ola de deepfakes explícitos de celebridades llegó a las redes sociales; Una investigación de mayo de 2023 indicó que se habían publicado en línea 8 veces más deepfakes de voz en comparación con el mismo período en 2022.[VI]

La ambigüedad en el entorno regulatorio puede ralentizar la adopción, o al menos una implementación más agresiva, en el corto y mediano plazo. Existe un riesgo inherente a cualquier inversión importante e irreversible en una tecnología o práctica emergente que pueda requerir una importante reestructuración (o incluso volverse ilegal) tras una nueva legislación o cambios políticos en contra en los próximos años.

En diciembre de 2023, la Unión Europea (UE) alcanzó acuerdo provisional sobre la Ley de Inteligencia Artificial. Entre otras medidas, prohíbe el scraping indiscriminado de imágenes para crear bases de datos de reconocimiento facial, sistemas de categorización biométrica con potencial de sesgo discriminatorio, sistemas de “puntuación social” y el uso de IA para manipulación social o económica. También busca definir una categoría de sistemas de IA de “alto riesgo”, con potencial de amenazar la seguridad, los derechos fundamentales o el estado de derecho, que estarán sujetos a supervisión adicional. Asimismo, establece requisitos de transparencia para lo que llama sistemas de “IA de propósito general (GPAI)” (modelos básicos), incluida la documentación técnica y las pruebas adversas sistémicas.

Pero si bien algunos actores clave, como Mistral, residen en la UE, la mayor parte del desarrollo innovador de la IA se está produciendo en Estados Unidos, donde una legislación sustantiva sobre la IA en el sector privado requerirá la acción del Congreso, lo que puede ser poco probable en un año electoral. El 30 de octubre, la administración Biden emitió un orden ejecutiva integral detallar 150 requisitos para el uso de tecnologías de inteligencia artificial por parte de agencias federales; meses antes, la administración aseguró compromisos voluntarios de destacados desarrolladores de IA adherirse a ciertas barreras de seguridad y confianza. En particular, tanto California como Colorado están impulsando activamente su propia legislación sobre los derechos de privacidad de los datos de las personas con respecto a la inteligencia artificial.

China ha avanzado de manera más proactiva hacia restricciones formales a la IA, prohibiendo la discriminación de precios mediante algoritmos de recomendación en las redes sociales y exigiendo un etiquetado claro del contenido generado por IA. Las posibles regulaciones sobre IA generativa buscan exigir que los datos de capacitación utilizados para capacitar a los LLM y el contenido generado posteriormente por los modelos sean "verdaderos y precisos", lo que los expertos han tomado para indicar medidas para censurar los resultados de los LLM.

Mientras tanto, el papel del material protegido por derechos de autor en el entrenamiento de modelos de IA utilizados para la generación de contenidos, desde modelos de lenguaje hasta generadores de imágenes y modelos de vídeo, sigue siendo un tema muy controvertido. El resultado del alto perfil demanda interpuesta por el New York Times contra OpenAI puede afectar significativamente la trayectoria de la legislación sobre IA. Herramientas de confrontación, como Glaze y Hierba mora—ambos desarrollados en la Universidad de Chicago—han surgido en lo que podría convertirse en una especie de carrera armamentista entre creadores y desarrolladores de modelos.

 Descubra cómo IBM® watsonx.governance™ acelera los flujos de trabajo de IA responsables, transparentes y explicables →

IA en la sombra (y políticas corporativas de IA)

Para las empresas, este creciente potencial de consecuencias legales, regulatorias, económicas o de reputación se ve agravado por lo populares y accesibles que se han vuelto las herramientas de IA generativa. Las organizaciones no sólo deben tener una política corporativa cuidadosa, coherente y claramente articulada en torno a la IA generativa, sino también tener cuidado con IA en la sombra: el uso personal “no oficial” de la IA en el lugar de trabajo por parte de los empleados.

También denominada "TI en la sombra" o "BYOAI", la IA en la sombra surge cuando empleados impacientes que buscan soluciones rápidas (o simplemente quieren explorar nuevas tecnologías más rápido de lo que permite una política cautelosa de la empresa) implementan IA generativa en el lugar de trabajo sin pasar por TI para su aprobación o supervisión. . Muchos servicios orientados al consumidor, algunos gratuitos, permiten que incluso personas sin conocimientos técnicos improvisen el uso de herramientas de inteligencia artificial generativa. En un estudio de Ernst & Young, el 90% de los encuestados dijeron que utilizan la IA en el trabajo.[Vii]

Ese espíritu emprendedor puede ser excelente, en el vacío, pero los empleados ansiosos pueden carecer de información o perspectiva relevante sobre seguridad, privacidad o cumplimiento. Esto puede exponer a las empresas a un gran riesgo. Por ejemplo, un empleado podría, sin saberlo, proporcionar secretos comerciales a un modelo de inteligencia artificial de cara al público que se entrena continuamente con las aportaciones del usuario, o utilizar material protegido por derechos de autor para entrenar un modelo propietario para la generación de contenido y exponer a su empresa a acciones legales.

Como muchos acontecimientos en curso, esto subraya cómo los peligros de la IA generativa aumentan casi linealmente con sus capacidades. Con un gran poder viene una gran responsabilidad.

Avanzando

A medida que avanzamos en un año crucial para la inteligencia artificial, comprender y adaptarnos a las tendencias emergentes es esencial para maximizar el potencial, minimizar el riesgo y escalar responsablemente la adopción de la IA generativa.

Ponga la IA generativa a trabajar con watsonx™ →

Descubra cómo IBM puede ayudarle a mantenerse a la vanguardia de las tendencias de la IA →


[i] "Gartner sitúa la IA generativa en la cima de las expectativas infladas en el ciclo de exageración de las tecnologías emergentes de 2023" Gartner, 16 de agosto de 2023

[ii] "Informe del primer trimestre sobre el estado de la IA generativa en la empresa de Deloitte" Deloitte, enero de 2024

[iii] "Qué esperar de la IA en 2024" Universidad de Stanford, 8 de diciembre de 2023

[iv] "Preguntas y respuestas: un investigador de la Universidad de Washington analiza cuánta energía usa ChatGPT". Universidad de Washington, 27 de julio de 2023

[V] "IA generativa en la empresa" O'Reilly, 28 de noviembre de 2023

[VI] "Falsificarlo: las elecciones estadounidenses de 2024 coinciden con el auge de la IA" Reuters, 30 de mayo de 2023

[Vii] "Cómo las organizaciones pueden evitar que el uso vertiginoso de la IA alimente la ansiedad" Ernst & Young, diciembre de 2023

¿Le resultó útil este artículo?

No


Más de Inteligencia artificial




Crear experiencias excepcionales para los empleados

4 min leerA medida que la línea entre la vida personal y profesional de los empleados se vuelve más borrosa que nunca, los empleados esperan un lugar de trabajo más flexible y empático que los tenga plenamente en cuenta. Este cambio en las expectativas de los empleados se produce en un entorno desafiante de rápidos avances tecnológicos, crecientes brechas de habilidades y problemas socioeconómicos impredecibles. Y para colmo, la naturaleza misma de RR.HH. se resiste a la optimización, ya que las experiencias de los empleados son difíciles de cuantificar y las organizaciones son difíciles de cambiar. A pesar de estos desafíos,…




Seis formas en que la IA generativa puede optimizar la gestión de activos

3 min leerCada administrador de activos, independientemente del tamaño de la organización, enfrenta mandatos similares: optimizar la planificación del mantenimiento, mejorar la confiabilidad de los activos o equipos y optimizar los flujos de trabajo para mejorar la calidad y la productividad. En un estudio reciente del IBM Institute for Business Value sobre directores de cadenas de suministro, casi la mitad de los encuestados afirmaron que habían adoptado nuevas tecnologías en respuesta a los desafíos. Hay aún más ayuda en el horizonte con el poder de los modelos básicos de inteligencia artificial (IA) generativa, combinados con la IA tradicional, para...




Cómo la Recording Academy utiliza IBM watsonx para mejorar la experiencia de los fanáticos en los GRAMMYs®

3 min leerA través de los GRAMMYs®, la Recording Academy® busca reconocer la excelencia en las artes y ciencias de la grabación y garantizar que la música siga siendo una parte indeleble de nuestra cultura. Cuando las principales estrellas discográficas del mundo crucen la alfombra roja en la 66ª Entrega Anual de los GRAMMY, IBM estará allí una vez más. Este año, el desafío empresarial al que se enfrentan los GRAMMY fue paralelo al de otros eventos culturales icónicos, deportivos y de entretenimiento: en el panorama mediático actual, altamente fragmentado, crear impacto cultural significa impulsar contenido cautivador...




El asistente de IA para todos: watsonx Orchestrate combina IA generativa y automatización para impulsar la productividad

3 min leer¿Qué pasaría si los empleados tuvieran la capacidad de delegar sin esfuerzo tareas que consumen mucho tiempo, acceder a la información sin problemas a través de consultas simples y abordar proyectos complejos dentro de una aplicación única y optimizada? ¿Qué pasaría si los clientes tuvieran acceso a un agente virtual inteligente y amigable para brindar respuestas y permitir experiencias de autoservicio las 24 horas del día? Esta revolución tecnológica ahora es posible gracias a las capacidades innovadoras de la automatización impulsada por IA generativa. Con los avances actuales en la tecnología AI Assistant, las empresas pueden lograr resultados comerciales a una velocidad sin precedentes, convirtiendo...

Boletines informativos de IBM

Obtenga nuestros boletines y actualizaciones de temas que brindan el liderazgo intelectual más reciente y conocimientos sobre tendencias emergentes.

Subscribirme Ahora

Más boletines

punto_img

Información más reciente

punto_img