Tech
Lectura 2 - 3 minutos
Descubrimiento alarmante: Generadores de imágenes se entrenan con fotos de abuso infantil
TXT opy morales

Descubrimiento alarmante: Generadores de imágenes se entrenan con fotos de abuso infantil

Fotógraf@/ hipertextual
  • Like
  • Comentar

Un reciente informe del Stanford Internet Observatory ha desvelado un hallazgo alarmante: miles de imágenes de abuso sexual infantil se han identificado en el conjunto de datos LAION-5B, utilizado en el entrenamiento de generadores de imágenes de inteligencia artificial como Stable Diffusion de Stability AI.

Este descubrimiento plantea graves preocupaciones sobre la posibilidad de que estas herramientas de IA generen contenido dañino, poniendo en tela de juicio la seguridad y la ética en el uso de tales tecnologías. Ante esta situación, LAION, la entidad que gestiona el conjunto de datos, ha retirado temporalmente los conjuntos involucrados para su revisión.

Investigadores del observatorio, en colaboración con el Centro Canadiense de Protección Infantil, inspeccionaron unas 5.8 mil millones de imágenes del índice de LAION, encontrando más de 3,200 imágenes sospechosas de contener abuso sexual infantil, de las cuales aproximadamente 1,000 han sido confirmadas por fuentes externas.

Este caso resalta una debilidad crítica en el rápido y competitivo desarrollo de proyectos de IA generativa, donde la meticulosidad en excluir contenido perjudicial ha sido insuficiente. Además, se reporta la preocupante transformación de fotos de adolescentes en redes sociales en imágenes desnudas y la creación de representaciones explícitas de menores.

Con el objetivo de erradicar este contenido inapropiado, se han pedido acciones para limpiar o eliminar los modelos de IA entrenados con datos de LAION-5B y prevenir la distribución de versiones problemáticas de Stable Diffusion.

Entidades como Hugging Face y CivitAI también están siendo examinadas para mejorar sus prácticas y controles de seguridad. Stability AI, creador de Stable Diffusion, ha utilizado LAION-5B en su entrenamiento, lo que incrementa las preocupaciones sobre el mal uso potencial de sus modelos. La compañía asegura que aloja versiones filtradas de Stable Diffusion y ha tomado medidas para mitigar riesgos.

Como respuesta al informe, se resalta la importancia de mejorar los filtros para detectar y eliminar contenido ilegal. OpenAI, creador de DALL-E y ChatGPT, afirma no usar LAION y ha adaptado sus modelos para rechazar solicitudes con contenido sexual involucrando menores. Google, por su parte, optó por no publicar su modelo Imagen tras encontrar contenido inapropiado en datos de LAION.

El informe de Stanford también cuestiona el uso de imágenes de niños sin consentimiento familiar, incluso en contextos inocuos. Las autoridades reguladoras de EE. UU. han instado al Congreso a investigar el impacto de la IA en la explotación infantil y prohibir la creación de material de abuso infantil generado por IA (CSAM).

Este preocupante hallazgo enfatiza la urgente necesidad de establecer protocolos más estrictos y una colaboración efectiva entre desarrolladores, expertos en seguridad infantil y autoridades para prevenir la proliferación de contenido dañino y asegurar un uso responsable de la inteligencia artificial.

Visto 2527 veces
Inicia sesión y comenta
Ant. Innovación en pagos: Cómo transformarán el 2024 las tendencias digitales
Sig. Futuro electrizante: Audi, Porsche y Volkswagen adoptan carga eléctrica de Tesla

Hay 7192 invitados y ningún miembro en línea

© 2024 LaUnión.News. All Rights Reserved. Design & Developed by La Unión Digital Back To Top

Publish modules to the "offcanvas" position.