Logotipo de Zephyrnet

Psiquiatra encarcelado por imágenes de abuso sexual infantil creadas con IA

Fecha:

Un psiquiatra infantil fue encarcelado el miércoles por la producción, posesión y transporte de material de abuso sexual infantil (CSAM), incluido el uso de software de inteligencia artificial basado en la web para crear imágenes pornográficas de menores.

Los fiscales de Carolina del Norte dijeron que David Tatum, de 41 años, declarado culpable por un jurado en mayo, fue sentenciado a 40 años de prisión y 30 años de libertad supervisada, y se le ordenó pagar 99,000 dólares en restitución.

"Como psiquiatra infantil, Tatum conocía el impacto dañino y duradero que tiene la explotación sexual en el bienestar de los niños victimizados", dijo la fiscal federal Dena J. King en una declaración. "De todos modos, se involucró en la práctica depravada de utilizar grabaciones secretas de sus víctimas para crear imágenes y videos ilícitos de ellas".

Se involucró en la depravada práctica de utilizar grabaciones secretas de sus víctimas para crear imágenes y vídeos ilícitos de ellas.

“Tatum también hizo un mal uso de la inteligencia artificial de la peor manera posible: para victimizar a los niños”, dijo King, y agregó que su oficina está comprometida a procesar a quienes explotan la tecnología para dañar a los niños.

Su acusación [PDF] no proporciona detalles sobre el software de IA utilizado; otro tribunal documento [PDF] indica que Tatum, además de poseer, producir y transportar material sexualmente explícito de menores, vio imágenes generadas de niños en un sitio web falso.

Las pruebas del juicio citadas por el gobierno incluyen una grabación realizada en secreto de un menor (un primo) desnudándose y duchándose, y otros vídeos de niños participando en actos sexuales.

"Además, las pruebas del juicio también establecieron que Tatum utilizó IA para alterar digitalmente imágenes vestidas de menores, haciéndolas sexualmente explícitas", dijeron los fiscales. "Específicamente, la evidencia del juicio mostró que Tatum utilizó una aplicación de inteligencia artificial basada en la web para alterar imágenes de menores vestidos y convertirlas en pornografía infantil".

Hace dos meses, según CNN, un surcoreano fue condenado a dos años y medio de prisión por generar imágenes sexuales de niños.

El uso de modelos de IA para generar CSAM, entre otras cosas, se ha convertido en un motivo de grave preocupación entre los legisladores, los grupos de la sociedad civil y las empresas que venden servicios de IA.

en preparado comentarios [PDF] pronunciado en una audiencia del subcomité del Senado de EE. UU. a principios de este año, el director ejecutivo de OpenAI, Sam Altman, dijo: "GPT-4 tiene un 82 por ciento menos de probabilidades de responder a solicitudes de contenido no permitido en comparación con GPT-3.5, y utilizamos una sólida combinación de recursos humanos". y procesos de revisión automatizados para monitorear el uso indebido. Aunque estos sistemas no son perfectos, hemos logrado avances significativos y exploramos periódicamente nuevas formas de hacer que nuestros sistemas sean más seguros y confiables”.

Altman dijo que OpenAI también se basa en el servicio Safer de Thorn para detectar, bloquear e informar CSAM.

Sin embargo, los esfuerzos por detectar CSAM después de su creación podrían conducir a Disminución de la seguridad en línea. a través de los requisitos de vigilancia de la red. Un reciente reporte de la organización de investigación Balkan Insight dice que grupos como Thorn han estado apoyando la legislación de detección de CSAM para hacer obligatorio el escaneo de contenido en línea, en parte porque ellos brindan ese servicio. ®

punto_img

Información más reciente

punto_img