Logotipo de Zephyrnet

Necesitamos regulación para salvar a la humanidad de la IA... y para salvar las acciones de IA – CryptoInfoNet

Fecha:

Como inteligencia artificial (AI) los acontecimientos ponen el foco en la tecnología, los inversores, naturalmente, huelen las oportunidades en el aire. También huelen los formularios recién impresos y la burocracia del regulador que espera tomar su parte y obstaculizar la rugiente máquina de la innovación en IA. Pero a quienes les preocupa que el Tío Sam pueda aplastar la industria mediante nuevas regulaciones y restricciones, les diría que aquí ocurre exactamente lo contrario: las regulaciones pueden salvar a la industria de sí misma. Y por extensión, más regulaciones para la industria protegen, no dañan, a los inversores. 

En la mayoría de las industrias nuevas, la palabra “regulación” es tabú. Ahora bien, la industria de la IA no es exactamente nueva. El concepto moderno se remonta a la década de 1950, y las inversiones públicas y privadas en este campo han tenido altibajos durante los últimos 70 años aproximadamente. En los años 1980 y principios de los 1990 se produjo un ciclo de auge y caída en inversiones en inteligencia artificial. Las inversiones del gobierno japonés en los años 80 impulsaron el primer gran auge comercial de la IA. Sin embargo, en 1993, “más de 300 empresas cerraron sus puertas” cuando estalló la burbuja. Sin embargo, los avances modernos en la potencia informática y los grandes modelos de lenguaje (LLM) han dado nueva vida a la industria, y su potencial no sólo atrae a inversores sino también a reguladores.

Regulaciones de IA: un lío de intereses y riesgos

La cuestión de qué debería o incluso podría ser una “regulación de la IA” es competencia de políticos, formuladores de políticas y especialistas en ética. Lo que los inversores quieren saber es qué significaría esto para sus carteras, naturalmente. ¿Cuáles son los mayores riesgos? Y aquí es donde las leyes y regulaciones pueden brindar cierta protección y ayudar a gestionar esos riesgos.

Los mayores riesgos para los inversores se reducen a tres preocupaciones centrales superpuestas: fraude, protección de la propiedad intelectual y privacidad. Por supuesto, ya existen leyes que abordan estos tres temas individualmente. Sin embargo, el problema es que la IA representa una combinación excepcionalmente complicada de los tres riesgos que, sin marcos, leyes y regulaciones claros, amenazan el progreso de toda la industria.

La preocupación más apremiante de esa lista para los inversores es el fraude. Casi todo el mundo puede estar de acuerdo en que la prevención del fraude es una función importante y vital de la regulación.

Simios fraudulentos que montan cables: dos estudios de caso

Dos estudios de caso muestran el futuro potencial de las regulaciones de IA, el riesgo de fraude y los plazos regulatorios que los inversores deberían esperar. Ambos también personifican cómo el fraude dará forma a las acciones regulatorias futuras.

El primero es el mundo de las criptomonedas y los tokens no fungibles (NFT). La criptografía, una industria significativamente más nueva que la IA, ha experimentado una buena cantidad de auges y caídas y, lo más importante, fraude. La Comisión de Bolsa y Valores (SEC) y la Comisión Federal de Comercio (FTC) han pasado una buena década tratando de descubrir cómo incluir las criptomonedas en sus esquemas regulatorios. El Congreso aún tiene que aprobar ninguna legislación explícita relacionada con las criptomonedas a pesar de algunos intentos.

En ese tiempo, numerosos intercambios subieron y colapsaron. Los NFT pasaron de estar de moda en 2021 y 2022 a perdiendo el 95% de su valor, llevándose consigo miles de millones de dólares de los inversores. Es infame que el colapso de FTX y el prueba reciente de Sam Bankman-Fried implicó miles de millones de dólares en fondos utilizados de manera fraudulenta.

El segundo caso de estudio aquí es el de la ciberseguridad. A diferencia de las criptomonedas, existen bastantes leyes básicas establecidas en los libros de la industria. Las dos primeras leyes “verdaderas” de ciberseguridad fueron la Ley de Abuso y Fraude Informático de 1986 y la Ley de Control Integral del Crimen de 1984. Ambas se basaron en interpretaciones creativas y relativamente nuevas de los “cables” (como los cables telegráficos) y el fraude electrónico.

En las décadas posteriores, el Congreso ha aprobado leyes fragmentadas sobre temas cibernéticos con resultados mixtos. Esto ha dado lugar a que los estados aprovechen el relevo. El mundo de la ciberseguridad también proporciona un ejemplo de una industria con profundos intereses interconectados, muchos de los cuales no son diferentes de los riesgos y puntos ciegos regulatorios que enfrenta la industria de la inteligencia artificial. Uno de los más notables es la privacidad. Las preocupaciones sobre la privacidad individual, comúnmente asociadas con las redes sociales y el Internet de las cosas (IoT), también surgen con los modelos de entrenamiento de IA.

Ambos ejemplos aquí brindan lecciones para la industria de la IA en rápido crecimiento. El entorno de alto riesgo, alta recompensa y baja regulación del mundo de las criptomonedas está plagado de fraude e inestabilidad. La ciberseguridad es una industria mucho más antigua y establecida, pero el entorno regulatorio aún es irregular, especialmente en lo que respecta a la privacidad.

El estado actual de las regulaciones de IA

Entonces, para tener una idea de cuál de estos caminos regulatorios deberían esperar los inversores, observemos el entorno regulatorio actual para la inteligencia artificial.

Empezando por el panorama interno, bueno… no hay mucho, al menos legislativamente. El presidente Joe Biden, por otro lado, ha estado ocupado forjando un camino regulatorio a través de un compromiso voluntario y, más recientemente y más importante, una Orden Ejecutiva histórica y radical.

A principios de este año, la Casa Blanca anunció un compromiso voluntario no vinculante de "gestionar los riesgos que plantea la IA". Entre los firmantes de este compromiso se encuentran algunos grandes nombres como Amazon (NASDAQ:AMZN), Metaplataformas (NASDAQ:META), Alfabeto (NASDAQ:GOOG, NASDAQ:GOOGL) y OpenAI. La Oficina de Política Científica y Tecnológica (OSTP), un departamento de la Casa Blanca, también ha publicado un “Plan para una declaración de derechos de la IA”. Otro marco notablemente voluntario para el uso seguro y ético de la IA.

Según la Casa Blanca, "el uso seguro y ético de la IA" requiere "pruebas previas al despliegue" rigurosas y se crea con "consultas de diversas comunidades, partes interesadas y expertos en el campo para identificar preocupaciones, riesgos e impactos potenciales del sistema". Los sistemas de IA también deberían tener “evaluaciones e informes independientes” para garantizar que permanezcan seguros a largo plazo.

Orden ejecutiva de IA de Biden

En las primeras horas de la mañana del 30 de octubre, la Casa Blanca anunció el impulso regulatorio más completo en materia de IA. Impulsar este esfuerzo fue un orden ejecutiva radical (y un nuevo y elegante página web del NDN Collective ) que cubre todo, desde seguridad hasta privacidad, derechos civiles y más. Esta Orden Ejecutiva se basa en el compromiso voluntario antes mencionado y en la Declaración de Derechos de AI, y se centra predominantemente en lo que hacen la mayoría de las Órdenes Ejecutivas: movilizar a los numerosos departamentos y agencias del Poder Ejecutivo para que entren en acción.

Hay muchos detalles por resolver sobre cómo esta Orden Ejecutiva afectará a la industria, pero las conclusiones más importantes para los inversores son:

1. Los reguladores tardarán bastante tiempo en desarrollar estas nuevas directrices y políticas.

2. Cualesquiera que sean las regulaciones específicas que surjan de esta EO, se construirán sobre un terreno legal inestable hasta que el Congreso apruebe leyes relacionadas con la IA. Todavía depende del cumplimiento voluntario, con una excepción importante: la Ley de Producción de Defensa (DPA).

La invocación de la DPA por parte de Biden es tan notable como confusa. La DPA fue la única ley explícita a la que hace referencia la OE con algunas implicaciones potencialmente poderosas. El DPA se utilizó más recientemente en el contexto de la pandemia de Covid-19, pero normalmente se asocia con la producción en tiempos de guerra. Biden lo está usando aquí en un contexto puramente de seguridad nacional:

“…la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas. pruebas de seguridad del equipo”.

No está claro quién está cubierto por este “proceso de revisión” respaldado por la DPA, ya que otras agencias tienen responsabilidades regulatorias más específicas. Por ejemplo, el Instituto Nacional de Estándares y Tecnología (NIST) desarrollará estándares de seguridad de IA y el Departamento de Seguridad Nacional (DHS) es implementarlos para infraestructura crítica. Quizás lo más importante es que se necesita aclarar qué agencia implementará esta política.

Hay un candidato notable que la DPA casi definitivamente cubriría debido a sus contratos de defensa existentes: Palantir (NYSE:PLT). El contratista de defensa de Big Data y cada vez más centrado en la IA no es signatario del acuerdo de la Casa Blanca. compromiso voluntario. Esto podría tener más que ver con las inclinaciones políticas conservadoras-libertarias del presidente de Palantir, Peter Thiel, y su apoyo al expresidente Donald Trump, que con un rechazo rotundo a una mayor regulación. Sin embargo, esta omisión es notable ya que Palantir tiene grandes planes para "Tomar todo el mercado de la IA".

En conjunto, el marco regulatorio establecido por la Orden Ejecutiva de Biden es innovador y prepara al Congreso para construir el resto de la cámara regulatoria, por así decirlo.

Desafortunadamente, es posible que tengamos que esperar bastante tiempo para que los legisladores comiencen a “verter el concreto”.

¿Qué pasa con el Congreso?

La Orden Ejecutiva sobre IA de la Casa Blanca hace sólo dos referencias al Congreso, pero ambas son llamados para que el Congreso apruebe leyes bipartidistas sobre IA (una trataba explícitamente de aprobar una ley de privacidad).

Según el Centro Brennan para la Justicia, el Congreso ha aproximadamente 60 proyectos de ley relacionados con la IA participando en diversos comités.

Sin embargo, en el momento de escribir este artículo, la Cámara de Representantes acaba de terminar de acordar sobre un nuevo presidente de la Cámara y tiene “peces más importantes que hacer” con otra fecha límite inminente para el cierre del gobierno y la consiguiente batalla presupuestaria que se avecina. Sin mencionar los polémicos proyectos de ley de ayuda a Israel y Ucrania y una serie de otras preocupaciones más apremiantes.

Eso deja otras dos fuentes para las regulaciones de IA: estados individuales de EE. UU. y actores internacionales. El primer grupo, compuesto por sólo un puñado de los 50 estados del país, ha pasó un mosaico de las leyes pertinentes, siendo la IA y la privacidad del consumidor el foco principal. A nivel internacional, China está liderando el camino en la construcción de una conjunto complejo y avanzado de las regulaciones de IA. El marco regulatorio integral de la Unión Europea, titulado simplemente “Ley de IA” Se espera que esté finalizado y aprobado a finales de año.

Regulaciones de IA y lo que depara el futuro

Entonces, ¿dónde deja esto a esta industria de rápido crecimiento y potencialmente altamente disruptiva? ¿Tomará el camino criptográfico hacia la regulación, que ha estado plagado de fraude e inestabilidad? O el camino de la ciberseguridad, más lento, más estable pero todavía irregular. Bueno, por ahora, al menos en Estados Unidos, probablemente será una combinación de los dos.

La IA tiene el potencial disruptivo y generador de dinero con el que la industria de la criptografía sólo puede soñar. Sin embargo, también tiene el potencial y la utilidad general que ofrece la industria de la ciberseguridad. Para los inversores, y para no parecer demasiado sensacionalista, para la humanidad, se trata de una combinación arriesgada.

Existen innumerables aplicaciones potenciales de la IA en el mundo real, desde la agricultura hasta la defensa, las finanzas y la atención médica. Un robo de criptomonedas podría defraudar a los inversores con su dinero, o un pirata informático podría robar dinero de un banco, pero los riesgos de accidentes de IA o comportamiento malicioso podría ser catastrófico.

Las hipótesis sobre lo que podría salir mal son infinitas a medida que la IA se incorpora cada vez más a la vida cotidiana. Pero ya estamos viendo casos de uso maliciosos preocupantes para la IA. El reciente inicio de la guerra entre Israel y Hamas ha provocado una avalancha de información errónea en plataformas de redes sociales como X, anteriormente Twitter. Algunas de las imágenes falsas que se comparten en línea están generadas por IA y a menudo se crean con herramientas de fácil acceso como el Generador de imágenes de Bing. Con la tecnología en constante mejora, será más difícil identificar imágenes y vídeos falsos.

También nos enfrentamos a riesgos que antes sólo se encontraban en la ciencia ficción, como las “IA rebeldes”. Mientras que un planificador de comidas con IA Sugiriendo accidentalmente una receta para cloro gaseoso. Aunque hoy en día vale la pena reírse, sería mucho menos gracioso si fuera una IA encargada, por ejemplo, de una granja automatizada a gran escala que accidentalmente (o peor aún, intencionalmente) contaminara un cultivo de hortalizas.

Como dice el refrán: "Las normas de seguridad están escritas con sangre". Y realmente no deberíamos tener que esperar hasta que se haya derramado sangre para tomar medidas.

Legalmente, ya existe un caso “mazo” contra Google que, según la empresa, destruir el concepto de IA generativa. Lo que la industria necesita para evitar este destino son regulaciones claras y aplicables que puedan proteger tanto al público como a las empresas de IA de la ira legal de cada uno.

Por el bien de los inversores y de todos, es necesario que haya más supervisión regulatoria sobre la industria de la inteligencia artificial antes de que algo salga terriblemente mal. La nueva Orden Ejecutiva de la Casa Blanca proporciona un marco muy completo sobre numerosas cuestiones relacionadas con la IA y es un buen comienzo. Sin embargo, sin leyes aprobadas por el Congreso que proporcionen una base sólida sobre la cual los reguladores puedan desarrollarse, terminaremos con un lío de reguladores confundidos al estilo criptográfico. Esto sólo conducirá a que los participantes del mercado y los inversores se sientan confundidos. Y dado que el potencial de la IA es tan grande y peligroso, eso no es algo que nadie debería desear.

Entonces no, las regulaciones de IA no lo son. "el enemigo," como lo expresó un capitalista de riesgo, pero pueden actuar como barreras de seguridad que pueden ayudar a proteger a la industria y a los inversionistas de riesgos enormes.

Qué deben hacer los inversores ahora

Sin barreras de seguridad claras, invertir en el mundo de la inteligencia artificial es un negocio arriesgado. Los inversores que no estén demasiado preocupados por el impacto de estas regulaciones descartadas pueden hacer apuestas más arriesgadas sobre la gran cantidad de nuevas empresas que intentan hacerse ricas. O en jugadas establecidas pero que desprecian las regulaciones como Palantir.

De lo contrario, sería mejor para los inversores ver qué empresas están "siguiendo el juego" con el compromiso voluntario de la Casa Blanca. O aquellos que se están adaptando a los cambios regulatorios internacionales provenientes de la UE y China. Es probable que estas empresas vean estas nuevas regulaciones como algo con lo que pueden vivir o como algo que pueden utilizar en su beneficio.

De cualquier manera, el martillo de la regulación caerá en algún momento. Sería mejor para todos, no sólo para los inversores, que cayera antes de que la segunda mitad de la expresión “moverse rápido y romper cosas” acabe con la industria de la IA.

En la fecha de publicación, Andrew Bush ocupaba una posición LARGA en acciones de GOOGL y AMZN. Las opiniones expresadas en este artículo son las del autor y están sujetas a las pautas de publicación de InvestorPlace.com.

Andrew Bush es editor de noticias financieras de InvestorPlace y tiene dos títulos en Asuntos Internacionales. Ha trabajado en educación, el sector tecnológico y como analista de investigación para una firma consultora centrada en la seguridad nacional con sede en DC.

Link Fuente

#Regulación #Salvar #Humanidad #IA.. #Salvar #Acciones

punto_img

Información más reciente

punto_img