A OpenAI abandonou os planos de lançar seu chatbot erótico, de acordo com um relatório, aparentemente recuando de uma expansão controversa do ChatGPT que permitiria aos usuários adultos gerar conteúdo sexual. A reversão, divulgada inicialmente pelo Financial Times na quinta-feira, ocorre após preocupações internas sobre o impacto social da inteligência artificial sexualizada. Em janeiro, membros do Conselho de Especialistas sobre Bem-Estar e IA de Tóquio, da Expert Council on Well-Being and AI, alertaram que recursos de chat erótico poderiam promover dependência emocional prejudicial entre os usuários e arriscar transformar o chatbot em algo que um membro descreveu como um “coach de suicídio sexy”. A OpenAI recusou o pedido do Decrypt para comentar sobre o status do modo Citron, e a empresa ainda não divulgou informações sobre seu destino.
A decisão de cancelar o que supostamente seria chamado de “modo Citron” ocorre dois dias após a OpenAI cancelar seu modelo de vídeo a partir de texto, Sora, enquanto a empresa direciona o desenvolvimento para uma plataforma de IA unificada, em vez de um conjunto de ferramentas especializadas. Essa mudança marca uma ruptura com a direção delineada pelo CEO Sam Altman em outubro passado. Na época, Altman afirmou que a OpenAI planejava permitir que adultos verificados acessassem conteúdo romântico e erótico assim que um sistema robusto de verificação de idade estivesse em funcionamento. Altman descreveu a ideia como parte de um esforço mais amplo para tratar os usuários adultos com maior autonomia, mantendo salvaguardas para menores. No entanto, até dezembro, o cronograma foi adiado para 2026, enquanto a empresa continuava a aprimorar sua tecnologia de estimativa de idade.
Embora a OpenAI possa estar saindo do negócio de chatbots adultos antes mesmo de realmente entrar nele, os modelos de IA não precisam necessariamente de um “modo erótico” para que os usuários possam estabelecer conexões com eles. Quando a OpenAI descontinuou o GPT-4o no verão passado, os usuários inundaram as redes sociais com pedidos para restaurar o modelo, após dizerem que haviam formado relacionamentos pessoais e emocionais com o chatbot, refletindo um debate mais amplo sobre chatbots eróticos e como as pessoas interagem com a IA. Em junho, uma pesquisa publicada por pesquisadores da Universidade de Waseda, em Tóquio, revelou que 75% dos participantes recorriam a sistemas de IA para aconselhamento emocional. Ao mesmo tempo, os desenvolvedores de IA enfrentam uma crescente fiscalização, enquanto processos judiciais testam se os sistemas de IA conversacionais são responsáveis por reforçar crenças delirantes ou comportamentos prejudiciais entre usuários vulneráveis.