Logotipo de Zephyrnet

¿Puede Wall Street influir en el desarrollo de la IA?

Fecha:

La inteligencia artificial, en particular la IA generativa, sigue prometiendo una gran mejora de la productividad en muchas industrias, incluidas la banca y los seguros.

La IA también plantea muchos desafíos, como se manifiesta en su tendencia a alucinar. Otro es el potencial de abuso. Esto puede deberse a sesgos inconscientes en los conjuntos de entrenamiento de datos, que dan lugar a resultados discriminatorios para las personas de color. También puede reflejar cómo se programan los sistemas genAI, como lo demuestra el reciente alboroto por las imágenes “despiertas” de papas u otras figuras históricas que parecen cualquier cosa menos hombres blancos.

En los casos más extremos, los administradores de activos podrían recurrir a la IA para investigar o incluso negociar carteras. Las alucinaciones podrían arruinar una empresa; al igual que tratar de explicarle a un regulador por qué un robot provocó una falla repentina.

Es poco probable que la IA se desate de una manera tan dramática, pero se puede poner a funcionar de maneras más sutiles. De hecho, ya lo es.

Los bancos, las aseguradoras y las fintechs ya utilizan herramientas de inteligencia artificial para calificar las calificaciones crediticias o suscribir pólizas. La industria corre el riesgo de no poder explicar a un cliente descontento por qué se le negó un préstamo, por ejemplo.

La cuestión más mundana es cuándo se puede aplicar la IA. Por ejemplo, se puede utilizar software para analizar la salida de alguien en las redes sociales para juzgar su estado mental, lo que podría usarse para fijar el precio de un producto financiero. Esto plantea muchas preguntas.

¿Debería permitirse a las empresas considerar esos datos? Si no, ¿qué sustitutos explorarán para tener una visión de un cliente potencial? ¿Qué constituye la privacidad y cómo se hace cumplir?

Regulate por favor

La respuesta natural a estas preguntas es recurrir a los reguladores. Lo mejor es desarrollar un conjunto neutral de reglas para frenar los peores impulsos de una empresa. También es más fácil dejar que los reguladores hagan el trabajo pesado y conservar la libertad de encogerse de hombros si no lo hacen.

Se requiere regulación, pero ¿es suficiente? Tal vez, pero sólo si la industria financiera está satisfecha con dejar la innovación a las grandes empresas tecnológicas y a la nueva generación de startups de IA.

Cuando se trata de IA, la realidad es que los reguladores nunca podrán seguir el ritmo. Eso no es malo: esperamos que la innovación provenga del sector privado. Pero la naturaleza de la IA dificulta la regulación.

En primer lugar, hay pocas personas trabajando en los reguladores que tengan una gran experiencia en aprendizaje automático y otras herramientas de IA, y mucho menos genAI.

En segundo lugar, mantenerse al día en este mundo requiere disponer de enormes conjuntos de GPU, unidades de procesamiento de gráficos, los chips troncales que impulsan las aplicaciones de IA y el hardware de los centros de datos que componen la nube.

La industria de la IA incluye nuevas empresas como OpenAI, grandes empresas tecnológicas como Microsoft y Meta, especialistas en chips como Nvidia y proveedores de nube como AWS. Estos gigantes tienen recursos excepcionalmente vastos que absorben los mejores talentos y compran la potencia informática para ejecutar sistemas de inteligencia artificial.

Ni los reguladores ni las empresas pueden fijar la agenda mientras esto siga siendo así.

Poder adquisitivo

Los organismos reguladores pueden intentar establecer reglas –y deberían hacerlo, porque pueden dar forma a las normas básicas–, pero tendrán dificultades para abordar los matices de cómo evitar que los bancos y otras entidades abusen de los sistemas de inteligencia artificial.

Sin embargo, existen alternativas. Una es mirar retrospectivamente cómo los gobiernos han ayudado a respaldar sus economías de innovación en los primeros días. Por ejemplo, Silicon Valley debe gran parte de su éxito a los programas de compras masivas de la NASA y el ejército estadounidense en las décadas de 1950 y 1960.



De manera similar, sólo los gobiernos tienen el potencial de adentrarse en el mercado de la infraestructura de IA y comprar GPU para sus propios programas de investigación que puedan igualar la escala de las grandes tecnologías. Esta es una forma de establecer estándares, a través de la participación y el liderazgo, en lugar de intentar constantemente mantenerse al día escribiendo más reglas.

¿Qué pasa con los servicios financieros? Hasta el momento no hay señales de que los gobiernos estén preparados para desempeñar este papel, lo que deja a otras industrias a merced de las Big Tech.

La lección es similar: Wall Street necesita convertirse en un cliente tan importante para las grandes tecnológicas que pueda establecer estándares sobre cómo se trata la IA.

El problema es el tamaño. Ni siquiera JP Morgan tiene el peso para igualar a Microsoft en este ámbito. Nunca podría justificar el costo.

IA de código abierto

Pero ¿qué pasa con la industria como grupo? ¿Existe alguna manera para que las grandes finanzas –en alianza con las principales fintechs de todo el mundo– unan recursos y se conviertan en un cliente estratégico?

Los bancos no están acostumbrados a jugar juntos. Un enfoque así sería completamente extraño.

Por otro lado, los bancos se están adaptando lentamente al código abierto para desarrollar software. Reconocen que compartir código para muchas funciones no centrales (ser actores comunitarios en lugar de propietarios propietarios) puede crear software de mejor calidad y más resiliente.

¿El código abierto funciona para genAI?

La respuesta no está clara. Algunas grandes tecnológicas en este espacio han sido abiertas con su desarrollo, como Meta, que permite a las nuevas empresas de IA descargar y adaptar algunos de sus modelos.

Los estándares de la industria para el código abierto requieren que se permitan todos los casos de uso, pero pocas empresas emergentes de genAI realmente cumplen con ese criterio. La mayoría, incluido el absurdamente llamado OpenAI, operan en forma cerrada.

Esto se debe a que genAI no es como otras categorías de software. El código fuente es sólo un componente. Igual de importantes son los datos de entrenamiento y cómo se clasifican esos datos. Hoy en día no hay consenso dentro de la industria de la IA sobre lo que significa "código abierto".

Aquí está la apertura para las instituciones financieras. Los bancos, las bolsas y los proveedores de datos poseen colectivamente una masa crítica de datos, muchos de los cuales son específicos de los mercados de capitales y los servicios financieros. En teoría, si hubiera un mecanismo para agregar esta información, podría haber una base para desarrollar conjuntamente el código y los estándares que lo acompañan.

Los vendedores se resistirían a cualquier medida que destruyera su negocio; Los bancos y las aseguradoras no están dispuestos a colaborar en nada que pueda considerarse fundamental. Por otro lado, podría haber áreas dentro de los servicios financieros que, para la mayoría de los actores, no son fundamentales y en las que una solución industrial podría ser deseable. Me vienen a la mente la identidad digital, el cumplimiento, los informes y aspectos de la gestión de riesgos.

cavar Sabe que se trata de una noción muy especulativa, que tal vez nunca justifique el enorme esfuerzo que sería necesario para hacerla realidad. Por otro lado, ¿qué importancia tiene para la industria financiera dar forma a su futuro en lugar de esperar pasivamente a que Silicon Valley lo haga en su lugar? Quizás aquí es donde volvemos a la idea del gobierno como un gran cliente de la IA. Para que el gobierno actúe en esta capacidad, necesita programas propios. Regular los servicios financieros en la era de la IA parece un buen punto de partida.

punto_img

Información más reciente

punto_img