Logotipo de Zephyrnet

¿Quién es el propietario de la plataforma de IA generativa?

Fecha:

Estamos empezando a ver emerger las primeras etapas de una pila tecnológica en inteligencia artificial generativa (IA). Cientos de nuevas empresas se están apresurando a ingresar al mercado para desarrollar modelos básicos, crear aplicaciones nativas de IA y crear infraestructura/herramientas.

Muchas tendencias tecnológicas de moda se exageran mucho antes de que el mercado se ponga al día. Pero el auge de la IA generativa ha ido acompañado de ganancias reales en mercados reales y una tracción real de empresas reales. Modelos como Stable Diffusion y ChatGPT están estableciendo récords históricos de crecimiento de usuarios, y varias aplicaciones han alcanzado $100 millones de ingresos anuales menos de un año después del lanzamiento. Las comparaciones en paralelo muestran modelos de IA superando a los humanos en algunas tareas por múltiples órdenes de magnitud. 

Por lo tanto, hay suficientes datos iniciales para sugerir que se está produciendo una transformación masiva. Lo que no sabemos, y lo que ahora se ha convertido en la pregunta crítica, es: ¿En qué parte de este mercado se acumulará valor?

Durante el último año, nos reunimos con docenas de fundadores y operadores de empresas grandes que se ocupan directamente de la IA generativa. Hemos observado que proveedores de infraestructura son probablemente los mayores ganadores en este mercado hasta el momento, capturando la mayoría de los dólares que fluyen a través de la pila. Empresas de aplicaciones están aumentando los ingresos de primera línea muy rápidamente, pero a menudo luchan con la retención, la diferenciación de productos y los márgenes brutos. y la mayoría proveedores modelo, aunque responsables de la existencia misma de este mercado, aún no han alcanzado una gran escala comercial.

En otras palabras, las empresas que crean el mayor valor, es decir, entrenan modelos generativos de IA y los aplican en nuevas aplicaciones, no han capturado la mayor parte. Predecir lo que sucederá a continuación es mucho más difícil. Pero creemos que la clave para entender es qué partes de la pila son realmente diferenciadas y defendibles. Esto tendrá un gran impacto en la estructura del mercado (es decir, desarrollo horizontal frente a vertical de la empresa) y los impulsores del valor a largo plazo (p. ej., márgenes y retención). Hasta ahora, hemos tenido dificultades para encontrar defensa estructural dondequiera en la pila, fuera de los fosos tradicionales para titulares.

Somos increíblemente optimistas con la IA generativa y creemos que tendrá un impacto masivo en la industria del software y más allá. El objetivo de esta publicación es mapear la dinámica del mercado y comenzar a responder las preguntas más amplias sobre los modelos comerciales de IA generativa.

Pila tecnológica de alto nivel: infraestructura, modelos y aplicaciones

Para comprender cómo está tomando forma el mercado de la IA generativa, primero debemos definir cómo se ve la pila hoy. Aquí está nuestra vista preliminar.

La pila se puede dividir en tres capas:

  • Aplicaciones que integran modelos generativos de IA en un producto orientado al usuario, ya sea ejecutando sus propias canalizaciones de modelo ("aplicaciones de extremo a extremo") o confiando en una API de terceros
  • fexibles que impulsan los productos de IA, disponibles como API patentadas o como puntos de control de código abierto (que, a su vez, requieren una solución de alojamiento)
  • EN LA MINA proveedores (es decir, plataformas en la nube y fabricantes de hardware) que ejecutan cargas de trabajo de capacitación e inferencia para modelos de IA generativa

Es importante tener en cuenta: Este no es un mapa de mercado, sino un marco para analizar el mercado. En cada categoría, hemos enumerado algunos ejemplos de proveedores conocidos. No hemos intentado ser exhaustivos ni enumerar todas las increíbles aplicaciones generativas de IA que se han lanzado. Tampoco vamos a profundizar aquí en las herramientas de MLops o LLMops, que aún no están muy estandarizadas y se abordarán en una publicación futura.

La primera ola de aplicaciones de IA generativa está comenzando a escalar, pero lucha con la retención y la diferenciación

En ciclos tecnológicos anteriores, la sabiduría convencional era que para construir una gran empresa independiente, debe ser dueño del cliente final, ya sea que se trate de consumidores individuales o compradores B2B. Es tentador creer que las empresas más grandes en IA generativa también serán aplicaciones para usuarios finales. Hasta ahora, no está claro que ese sea el caso.

Sin duda, el crecimiento de las aplicaciones de IA generativa ha sido asombroso, impulsado por la pura novedad y una plétora de casos de uso. De hecho, conocemos al menos tres categorías de productos que ya han superado los 100 millones de dólares de ingresos anuales: generación de imágenes, redacción de textos publicitarios y redacción de códigos.

Sin embargo, el crecimiento por sí solo no es suficiente para crear empresas de software duraderas. Fundamentalmente, el crecimiento debe ser rentable, en el sentido de que los usuarios y clientes, una vez que se registren, generen ganancias (altos márgenes brutos) y se queden por mucho tiempo (alta retención). En ausencia de una fuerte diferenciación técnica, las aplicaciones B2B y B2C impulsan el valor del cliente a largo plazo a través de efectos de red, retención de datos o creación de flujos de trabajo cada vez más complejos.

En la IA generativa, esas suposiciones no necesariamente son ciertas. Entre las empresas de aplicaciones con las que hemos hablado, hay una amplia gama de márgenes brutos, tan altos como el 90 % en algunos casos, pero más a menudo tan bajos como el 50-60 %, impulsados ​​en gran medida por el costo de la inferencia del modelo. El crecimiento en la parte superior del embudo ha sido sorprendente, pero no está claro si las estrategias actuales de adquisición de clientes serán escalables; ya estamos viendo que la eficacia de la adquisición paga y la retención comienzan a disminuir. Muchas aplicaciones también son relativamente indiferenciadas, ya que se basan en modelos de IA subyacentes similares y no han descubierto efectos de red obvios, o datos/flujos de trabajo, que son difíciles de duplicar para los competidores.

Por lo tanto, aún no es obvio que la venta de aplicaciones para el usuario final sea el único camino, o incluso el mejor, para construir un negocio de IA generativa sostenible. Los márgenes deberían mejorar a medida que aumenta la competencia y la eficiencia en los modelos de lenguaje (más sobre esto a continuación). La retención debería aumentar a medida que los turistas AI abandonan el mercado. Y se puede argumentar con fuerza que las aplicaciones integradas verticalmente tienen una ventaja para impulsar la diferenciación. Pero aún queda mucho por demostrar.

Mirando hacia el futuro, algunas de las grandes preguntas que enfrentan las empresas de aplicaciones de IA generativa incluyen:

  • Integración vertical (“modelo + app”). El consumo de modelos de IA como servicio permite a los desarrolladores de aplicaciones iterar rápidamente con un equipo pequeño e intercambiar proveedores de modelos a medida que avanza la tecnología. Por otro lado, algunos desarrolladores argumentan que el producto is el modelo, y que el entrenamiento desde cero es la única forma de crear defensa, es decir, mediante el reentrenamiento continuo en datos de productos patentados. Pero tiene el costo de requisitos de capital mucho más altos y un equipo de producto menos ágil.
  • Funciones de creación frente a aplicaciones. Los productos de IA generativa toman varias formas diferentes: aplicaciones de escritorio, aplicaciones móviles, complementos de Figma/Photoshop, extensiones de Chrome, incluso bots de Discord. Es fácil integrar productos de IA donde los usuarios ya trabajan, ya que la interfaz de usuario generalmente es solo un cuadro de texto. ¿Cuáles de estas se convertirán en empresas independientes y cuáles serán absorbidas por empresas establecidas, como Microsoft o Google, que ya incorporan IA en sus líneas de productos?
  • Manejando a través del ciclo de exageración. Todavía no está claro si la rotación es inherente al lote actual de productos de IA generativa o si es un artefacto de un mercado temprano. O si el aumento del interés en la IA generativa se desvanecerá a medida que disminuya la exageración. Estas preguntas tienen implicaciones importantes para las empresas de aplicaciones, incluido cuándo pisar el acelerador en la recaudación de fondos; qué tan agresivamente invertir en la adquisición de clientes; qué segmentos de usuarios priorizar; y cuándo declarar la adecuación producto-mercado.

Los proveedores de modelos inventaron la IA generativa, pero no han alcanzado una gran escala comercial

Lo que ahora llamamos IA generativa no existiría sin el brillante trabajo de investigación e ingeniería realizado en lugares como Google, OpenAI y Stability. A través de arquitecturas de modelo novedosas y esfuerzos heroicos para escalar las canalizaciones de capacitación, todos nos beneficiamos de las alucinantes capacidades de los modelos de lenguaje extenso (LLM) actuales y los modelos de generación de imágenes.

Sin embargo, los ingresos asociados con estas empresas aún son relativamente pequeños en comparación con el uso y el rumor. En la generación de imágenes, Stable Diffusion ha experimentado un crecimiento explosivo de la comunidad, respaldado por un ecosistema de interfaces de usuario, ofertas alojadas y métodos de ajuste. Pero Stability ofrece sus principales puntos de control de forma gratuita como un principio fundamental de su negocio. En los modelos de lenguaje natural, OpenAI domina con GPT-3/3.5 y ChatGPT. Pero relativamente Hasta ahora existen pocas aplicaciones geniales basadas en OpenAI, y los precios ya han bajado. cayó una vez.

Esto puede ser sólo un fenómeno temporal. La estabilidad es una empresa nueva que aún no se ha centrado en la monetización. OpenAI tiene el potencial de convertirse en un negocio masivo, obteniendo una parte significativa de todos los ingresos de la categoría NLP a medida que se construyen más aplicaciones, especialmente si su integración en la cartera de productos de Microsoft va sin problemas Dado el enorme uso de estos modelos, es posible que los ingresos a gran escala no se queden atrás.

Pero también hay fuerzas compensatorias. Los modelos publicados como código abierto pueden ser alojados por cualquier persona, incluidas empresas externas que no asumen los costos asociados con la capacitación de modelos a gran escala (hasta decenas o cientos de millones de dólares). Y no está claro si algún modelo de código cerrado puede mantener su ventaja indefinidamente. Por ejemplo, estamos empezando a ver que los LLM creados por empresas como Anthropic, Cohere y Character.ai se acercan a los niveles de rendimiento de OpenAI, entrenados en conjuntos de datos similares (es decir, Internet) y con arquitecturas de modelos similares. El ejemplo de Stable Diffusion sugiere que if los modelos de código abierto alcanzan un nivel suficiente de rendimiento y apoyo de la comunidad, entonces las alternativas propietarias pueden tener dificultades para competir.

Quizás la conclusión más clara para los proveedores de modelos, hasta ahora, es que la comercialización probablemente esté ligada al alojamiento. La demanda de API propietarias (por ejemplo, de OpenAI) está creciendo rápidamente. Los servicios de hospedaje para modelos de código abierto (por ejemplo, Hugging Face y Replicate) están emergiendo como centros útiles para compartir e integrar fácilmente modelos, e incluso tener algunos efectos de red indirectos entre productores y consumidores de modelos. También existe una fuerte hipótesis de que es posible monetizar a través de acuerdos de optimización y hospedaje con clientes empresariales.

Sin embargo, más allá de eso, hay una serie de grandes preguntas que enfrentan los proveedores de modelos:

  • mercantilización. Existe la creencia común de que los modelos de IA convergerán en rendimiento con el tiempo. Hablando con los desarrolladores de aplicaciones, está claro que eso aún no ha sucedido, con líderes sólidos en modelos de texto e imagen. Sus ventajas no se basan en arquitecturas de modelo únicas, sino en altos requisitos de capital, datos de interacción de productos patentados y escaso talento de IA. ¿Servirá esto como una ventaja duradera?
  • Riesgo de graduación. Confiar en los proveedores de modelos es una excelente manera para que las empresas de aplicaciones comiencen e incluso hagan crecer sus negocios. Pero existe un incentivo para que construyan y/o alojen sus propios modelos una vez que alcancen la escala. Y muchos proveedores de modelos tienen distribuciones de clientes muy sesgadas, con unas pocas aplicaciones que representan la mayoría de los ingresos. ¿Qué sucede si estos clientes cambian al desarrollo de IA interno?
  • ¿Es importante el dinero? La promesa de la IA generativa es tan grande, y también potencialmente tan dañina, que muchos proveedores de modelos se han organizado como corporaciones de beneficio público (cuerpos B), emitieron acciones de ganancias limitadas o incorporaron explícitamente el bien público en su misión. Esto no ha obstaculizado en absoluto sus esfuerzos de recaudación de fondos. Pero hay una discusión razonable sobre si la mayoría de los proveedores de modelos realmente quieres para capturar valor, y si deberían hacerlo.

Los proveedores de infraestructura tocan todo y cosechan las recompensas

Casi todo en la IA generativa pasa a través de una GPU (o TPU) alojada en la nube en algún momento. Ya sea para proveedores de modelos/laboratorios de investigación que ejecutan cargas de trabajo de capacitación, empresas de hospedaje que ejecutan inferencia/ajuste fino o empresas de aplicaciones que combinan ambas cosas: FLOPS son el alma de la IA generativa. Por primera vez en mucho tiempo, el progreso de la tecnología informática más disruptiva está ligado masivamente a la computación.

Como resultado, gran parte del dinero en el mercado de IA generativa finalmente fluye hacia las empresas de infraestructura. para poner algo muy números aproximados a su alrededor: estimamos que, en promedio, las empresas de aplicaciones gastan alrededor del 20-40% de los ingresos en inferencia y ajuste por cliente. Por lo general, esto se paga directamente a los proveedores de la nube para las instancias de cómputo o a los proveedores de modelos de terceros, quienes, a su vez, gastan aproximadamente la mitad de sus ingresos en la infraestructura de la nube. Por lo tanto, es razonable suponer que entre el 10 y el 20 % de los ingresos totales en la IA generativa hoy va a los proveedores de la nube.

Además de esto, las nuevas empresas que entrenan sus propios modelos han recaudado miles de millones de dólares en capital de riesgo, la mayoría de los cuales (hasta un 80-90 % en las primeras rondas) generalmente también se gasta con los proveedores de la nube. Muchas empresas públicas de tecnología gastan cientos de millones al año en capacitación de modelos, ya sea con proveedores de nube externos o directamente con fabricantes de hardware.

Esto es lo que llamaríamos, en términos técnicos, "mucho dinero", especialmente para un mercado naciente. La mayor parte se gasta en el gran 3 nubes: Amazon Web Services (AWS), Google Cloud Platform (GCP) y Microsoft Azure. Estos proveedores de nube colectivamente gastar más de $ 100 mil millones por año en gastos de capital para garantizar que tengan las plataformas más completas, confiables y competitivas en costos. En IA generativa, en particular, también se benefician de las limitaciones de suministro porque tienen acceso preferencial a hardware escaso (por ejemplo, GPU Nvidia A100 y H100).

Curiosamente, sin embargo, estamos empezando a ver surgir una competencia creíble. Competidores como Oracle han hecho avances con grandes gastos de capital e incentivos de ventas. Y algunas nuevas empresas, como Coreweave y Lambda Labs, han crecido rápidamente con soluciones dirigidas específicamente a grandes desarrolladores de modelos. Compiten en costo, disponibilidad y soporte personalizado. También exponen abstracciones de recursos más granulares (es decir, contenedores), mientras que las nubes grandes ofrecen solo instancias de VM debido a los límites de virtualización de GPU.

Detrás de escena, ejecutando la gran mayoría de las cargas de trabajo de IA, es quizás el mayor ganador en IA generativa hasta el momento: Nvidia. La empresa reportado $ 3.8 millones de los ingresos de GPU del centro de datos en el tercer trimestre de su año fiscal 2023, incluyendo una porción significativa para casos de uso de IA generativa. Y han construido fuertes fosos en torno a este negocio a través de décadas de inversión en la arquitectura GPU, un ecosistema de software sólido y un uso profundo en la comunidad académica. Un análisis reciente descubrió que las GPU de Nvidia se citan en trabajos de investigación 90 veces más que las principales empresas emergentes de chips de IA combinadas.

Existen otras opciones de hardware, incluidas las unidades de procesamiento de tensores (TPU) de Google; GPU AMD Instinct; chips AWS Inferentia y Trainium; y aceleradores de IA de startups como Cerebras, Sambanova y Graphcore. Intel, que llegó tarde al juego, también está ingresando al mercado con sus chips Habana de alta gama y GPU Ponte Vecchio. Pero hasta ahora, pocos de estos nuevos chips han logrado una participación significativa en el mercado. Las dos excepciones a tener en cuenta son Google, cuyas TPU han ganado fuerza en la comunidad Stable Diffusion y en algunos grandes acuerdos de GCP, y TSMC, que se cree que fabrica todos de los chips enumerados aquí, incluidas las GPU Nvidia (Intel utiliza una combinación de sus propias fábricas y TSMC para fabricar sus chips).

La infraestructura es, en otras palabras, una capa lucrativa, duradera y aparentemente defendible en la pila. Las grandes preguntas que deben responder las empresas de infraestructura incluyen:

  • Aferrarse a las cargas de trabajo sin estado. Las GPU Nvidia son las mismas donde las alquiles. La mayoría de las cargas de trabajo de IA no tienen estado, en el sentido de que la inferencia del modelo no requiere bases de datos adjuntas ni almacenamiento (aparte de los propios pesos del modelo). Esto significa que las cargas de trabajo de IA pueden ser más portátiles entre nubes que las cargas de trabajo de aplicaciones tradicionales. ¿Cómo, en este contexto, los proveedores de la nube pueden crear adherencia y evitar que los clientes opten por la opción más barata?
  • Sobrevivir al final de la escasez de chips. Los precios para los proveedores de la nube y para la propia Nvidia se han visto respaldados por la escasez de suministros de las GPU más deseables. Un proveedor nos dijo que el precio de lista de los A100 en realidad ha aumentado desde el lanzamiento, lo cual es muy inusual para el hardware de cómputo. Cuando finalmente se elimine esta restricción de suministro, a través de una mayor producción y/o adopción de nuevas plataformas de hardware, ¿cómo afectará esto a los proveedores de la nube?
  • ¿Puede abrirse paso una nube desafiante? Somos fuertes creyentes de que nubes verticales tomará participación de mercado de los 3 grandes con ofertas más especializadas. Hasta ahora, en IA, los retadores han logrado una tracción significativa a través de una diferenciación técnica moderada y el apoyo de Nvidia, para quienes los proveedores de nube establecidos son tanto los clientes más importantes como los competidores emergentes. La pregunta a largo plazo es, ¿será esto suficiente para superar las ventajas de escala de los 3 grandes?

Entonces… ¿dónde se acumulará el valor?

Por supuesto, aún no lo sabemos. Pero según los primeros datos que tenemos para la IA generativa, combinada con nuestra experiencia con empresas anteriores de IA/ML, nuestra intuición es la siguiente. 

Hoy en día, no parece haber ningún foso sistémico en la IA generativa. Como aproximación de primer orden, las aplicaciones carecen de una fuerte diferenciación de productos porque utilizan modelos similares; los modelos enfrentan una diferenciación poco clara a largo plazo porque están entrenados en conjuntos de datos similares con arquitecturas similares; los proveedores de la nube carecen de una diferenciación técnica profunda porque ejecutan las mismas GPU; e incluso las empresas de hardware fabrican sus chips en las mismas fábricas.

Existen, por supuesto, los fosos estándar: fosos de escala ("¡Tengo o puedo recaudar más dinero que tú!"), Fosos de cadena de suministro ("¡Tengo las GPU, tú no!"), Fosos de ecosistema (" ¡Todos usan mi software ya!”), fosos algorítmicos (“¡Somos más inteligentes que tú!”), fosos de distribución (“¡Ya tengo un equipo de ventas y más clientes que tú!”) y fosos de flujo de datos (“¡Yo ¡He rastreado más Internet que tú!”). Pero ninguno de estos fosos tiende a ser duradero a largo plazo. Y es demasiado pronto para saber si los efectos de red fuertes y directos se están afianzando en alguna capa de la pila.

Según los datos disponibles, no está claro si habrá una dinámica a largo plazo en la que el ganador se lo lleve todo en la IA generativa.

esto es raro Pero para nosotros, son buenas noticias. El tamaño potencial de este mercado es difícil de entender, en algún lugar entre todo el software y todos los esfuerzos humanos — así que esperamos muchos, muchos jugadores y una sana competencia en todos los niveles de la pila. También esperamos que las empresas horizontales y verticales tengan éxito, con el mejor enfoque dictado por los mercados finales y los usuarios finales. Por ejemplo, si la principal diferenciación en el producto final es la propia IA, es probable que triunfe la verticalización (es decir, acoplar estrechamente la aplicación orientada al usuario al modelo local). Mientras que si la IA es parte de un conjunto de funciones de cola larga más grande, entonces es más probable que ocurra una horizontalización. Por supuesto, también deberíamos ver la construcción de fosos más tradicionales con el tiempo, e incluso podemos ver nuevos tipos de fosos.

Cualquiera que sea el caso, una cosa de la que estamos seguros es que la IA generativa cambia el juego. Todos estamos aprendiendo las reglas en tiempo real, hay una gran cantidad de valor que se desbloqueará y, como resultado, el panorama tecnológico se verá muy, muy diferente. ¡Y estamos aquí para ello!

Todas las imágenes de esta publicación se crearon con Midjourney.

punto_img

Información más reciente

café vc

café vc

punto_img