OpenAI revela el plan de seguridad infantil para combatir la explotación habilitada por IA ante el aumento de informes de CSAM

En Resumen

OpenAI ha lanzado un “Plan de Seguridad Infantil” para combatir la explotación sexual infantil habilitada por IA, actualizando directrices, fortaleciendo salvaguardas y promoviendo medidas legales, técnicas y operativas coordinadas en medio del aumento de informes de CSAM generados por IA.

OpenAI Unveils Child Safety Blueprint To Combat AI-Enabled Exploitation Amid Rising CSAM ReportsOpenAI, una organización centrada en la investigación y despliegue de inteligencia artificial, ha presentado un “Plan de Seguridad Infantil”, un marco destinado a prevenir y abordar la explotación sexual infantil facilitada por IA. La iniciativa se presenta como una respuesta al papel creciente de la IA tanto en facilitar como en detectar daños en línea que involucran a niños.

La compañía describió la explotación sexual infantil como uno de los desafíos más apremiantes en la era digital, señalando que las tecnologías de IA están cambiando la forma en que ocurren estos daños y cómo pueden mitigarse a gran escala. OpenAI afirmó que ha implementado salvaguardas para prevenir el uso indebido de sus sistemas y colabora con socios, incluyendo el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y agencias de aplicación de la ley, para mejorar la detección y reporte. Esta colaboración ha destacado áreas donde se necesitan estándares industriales más fuertes y compartidos.

El plan describe una estrategia para mejorar los marcos de protección infantil en EE. UU. en el contexto de la IA. Incorpora aportes de organizaciones y expertos en el ecosistema de seguridad infantil, incluyendo NCMEC, la Alianza de Procuradores Generales con aportes del Procurador General de Carolina del Norte, Jeff Jackson, y del Procurador General de Utah, Derek Brown, así como la organización sin fines de lucro Thorn. El marco está diseñado para guiar esfuerzos coordinados para prevenir daños a los niños y fortalecer la colaboración en los ámbitos legal, operativo y técnico.

La iniciativa se centra en tres prioridades principales: actualizar las leyes para abordar material de abuso sexual infantil generado o manipulado por IA (CSAM), mejorar la denuncia y coordinación entre proveedores para apoyar investigaciones más efectivas, e integrar medidas de seguridad por diseño directamente en los sistemas de IA para prevenir y detectar el uso indebido. OpenAI enfatizó que ningún enfoque único puede abordar el desafío por sí solo, y que el marco busca acelerar las respuestas, mejorar la identificación de riesgos y mantener la responsabilidad, asegurando que las autoridades puedan actuar a medida que la tecnología evoluciona.

El marco está pensado para permitir intervenciones tempranas, reducir los intentos de explotación, mejorar la calidad de la información compartida con las fuerzas del orden y fortalecer la responsabilidad en todo el ecosistema para proteger a los niños de manera más efectiva.

Los informes de explotación infantil generados por IA aumentan un 14% en 2025, mientras OpenAI presenta un Plan de Seguridad Infantil ampliado

Datos recientes de la Fundación de Vigilancia de Internet (IWF) indican que en la primera mitad de 2025 se detectaron más de 8,000 informes de contenido de abuso sexual infantil generado por IA, lo que representa un aumento del 14% respecto al año anterior. Estos casos incluyen el uso de herramientas de IA para generar imágenes explícitas falsas con fines de sextorsión financiera y para producir mensajes utilizados en el grooming. La publicación del plan coincide con una mayor atención de legisladores, educadores y defensores de la seguridad infantil, especialmente tras incidentes en los que jóvenes fallecieron por suicidio tras interactuar supuestamente con chatbots de IA.

En noviembre de 2025, el Centro de Leyes contra Víctimas en Redes Sociales y el Proyecto de Ley de Justicia Tecnológica presentaron siete demandas en tribunales estatales de California, alegando que OpenAI lanzó GPT-4o prematuramente. Las quejas afirman que las características manipuladoras psicológicamente del sistema de IA contribuyeron a muertes por suicidio y suicidio asistido, citando a cuatro personas que fallecieron y tres que experimentaron delirios severos tras interacciones prolongadas.

El nuevo plan de seguridad infantil de OpenAI se basa en medidas anteriores, incluyendo directrices actualizadas para usuarios menores de 18 años que prohíben la generación de contenido inapropiado, consejos que fomentan el autolesionismo o guías para ocultar comportamientos peligrosos a los cuidadores. La compañía también ha lanzado recientemente un plan de seguridad dirigido a adolescentes en India.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado