Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
OpenAI revela el plan de seguridad infantil para combatir la explotación habilitada por IA ante el aumento de informes de CSAM
En Resumen
OpenAI ha lanzado un “Plan de Seguridad Infantil” para combatir la explotación sexual infantil habilitada por IA, actualizando directrices, fortaleciendo salvaguardas y promoviendo medidas legales, técnicas y operativas coordinadas en medio del aumento de informes de CSAM generados por IA.
La compañía describió la explotación sexual infantil como uno de los desafíos más apremiantes en la era digital, señalando que las tecnologías de IA están cambiando la forma en que ocurren estos daños y cómo pueden mitigarse a gran escala. OpenAI afirmó que ha implementado salvaguardas para prevenir el uso indebido de sus sistemas y colabora con socios, incluyendo el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y agencias de aplicación de la ley, para mejorar la detección y reporte. Esta colaboración ha destacado áreas donde se necesitan estándares industriales más fuertes y compartidos.
El plan describe una estrategia para mejorar los marcos de protección infantil en EE. UU. en el contexto de la IA. Incorpora aportes de organizaciones y expertos en el ecosistema de seguridad infantil, incluyendo NCMEC, la Alianza de Procuradores Generales con aportes del Procurador General de Carolina del Norte, Jeff Jackson, y del Procurador General de Utah, Derek Brown, así como la organización sin fines de lucro Thorn. El marco está diseñado para guiar esfuerzos coordinados para prevenir daños a los niños y fortalecer la colaboración en los ámbitos legal, operativo y técnico.
La iniciativa se centra en tres prioridades principales: actualizar las leyes para abordar material de abuso sexual infantil generado o manipulado por IA (CSAM), mejorar la denuncia y coordinación entre proveedores para apoyar investigaciones más efectivas, e integrar medidas de seguridad por diseño directamente en los sistemas de IA para prevenir y detectar el uso indebido. OpenAI enfatizó que ningún enfoque único puede abordar el desafío por sí solo, y que el marco busca acelerar las respuestas, mejorar la identificación de riesgos y mantener la responsabilidad, asegurando que las autoridades puedan actuar a medida que la tecnología evoluciona.
El marco está pensado para permitir intervenciones tempranas, reducir los intentos de explotación, mejorar la calidad de la información compartida con las fuerzas del orden y fortalecer la responsabilidad en todo el ecosistema para proteger a los niños de manera más efectiva.
Los informes de explotación infantil generados por IA aumentan un 14% en 2025, mientras OpenAI presenta un Plan de Seguridad Infantil ampliado
Datos recientes de la Fundación de Vigilancia de Internet (IWF) indican que en la primera mitad de 2025 se detectaron más de 8,000 informes de contenido de abuso sexual infantil generado por IA, lo que representa un aumento del 14% respecto al año anterior. Estos casos incluyen el uso de herramientas de IA para generar imágenes explícitas falsas con fines de sextorsión financiera y para producir mensajes utilizados en el grooming. La publicación del plan coincide con una mayor atención de legisladores, educadores y defensores de la seguridad infantil, especialmente tras incidentes en los que jóvenes fallecieron por suicidio tras interactuar supuestamente con chatbots de IA.
En noviembre de 2025, el Centro de Leyes contra Víctimas en Redes Sociales y el Proyecto de Ley de Justicia Tecnológica presentaron siete demandas en tribunales estatales de California, alegando que OpenAI lanzó GPT-4o prematuramente. Las quejas afirman que las características manipuladoras psicológicamente del sistema de IA contribuyeron a muertes por suicidio y suicidio asistido, citando a cuatro personas que fallecieron y tres que experimentaron delirios severos tras interacciones prolongadas.
El nuevo plan de seguridad infantil de OpenAI se basa en medidas anteriores, incluyendo directrices actualizadas para usuarios menores de 18 años que prohíben la generación de contenido inapropiado, consejos que fomentan el autolesionismo o guías para ocultar comportamientos peligrosos a los cuidadores. La compañía también ha lanzado recientemente un plan de seguridad dirigido a adolescentes en India.