Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A legislação do estado do Tennessee classifica "treinar IA para companhia e diálogo, imitando humanos" como crime grave, equivalente ao homicídio em primeiro grau, com uma pena máxima de 25 anos
Estado do Tennessee propõe classificar “treinar IA para fornecer suporte emocional ou diálogo aberto” como crime de grau A, com pena máxima de 25 anos, equivalente a homicídio de primeiro grau.
A proposta não se baseia na intenção do desenvolvedor, mas sim na sensação do utilizador de “se desenvolver uma relação”.
A Comissão de Justiça do Senado aprovou por 7-0; se tudo correr como esperado, entrará em vigor em 1 de julho de 2026.
(Antecedentes: whistleblower de 26 anos que revelou violações de direitos autorais pela OpenAI suicidou-se, acusando o ChatGPT de treinar modelos em violação à lei de direitos autorais dos EUA)
(Complemento: pesquisa na Universidade da Califórnia sobre o fenômeno “névoa de IA”: 14% dos trabalhadores ficam loucos com agentes e automação, com intenção de deixar o emprego aumentada em 40%)
Índice deste artigo
Alternar
Treinar uma IA que diga “Entendo seus sentimentos” pode fazer você cumprir 25 anos de prisão no Tennessee? Não é exagero. A HB1455 da Câmara dos Deputados do Tennessee e o projeto de lei SB1493 do Senado estão usando a pena de crime de grau A para criminalizar ações de treinamento de IA para diálogo.
Crime de grau A no Tennessee tem pena de 15 a 25 anos de prisão, equivalente ao homicídio de primeiro grau. A Comissão de Justiça do Senado aprovou por unanimidade em 24 de março de 2026; a Comissão de Justiça da Câmara seguiu em 14 de abril, também aprovada.
Até o momento, o texto da lei não sofreu alterações, com entrada em vigor prevista para 1 de julho de 2026.
O que realmente está escrito na proposta
A HB1455 classifica quatro tipos de treinamento como crimes graves, passíveis de punição apenas pelo “conhecimento” de que estão sendo realizados:
・Treinar IA para fornecer suporte emocional via diálogo aberto
・Treinar IA para desenvolver relações emocionais com usuários ou atuar como companhia
・Treinar IA para simular humanos, incluindo aparência, voz ou comportamento
・Treinar IA para agir como um humano consciente, fazendo o usuário sentir que “pode desenvolver amizade ou outro relacionamento com ela”
O ponto-chave é o último: o padrão de gatilho não é a intenção do desenvolvedor, mas a sensação do usuário. Desde que o usuário subjetivamente sinta que “esta IA parece capaz de fazer amizade comigo”, o desenvolvedor pode ser processado criminalmente.
No âmbito civil, a lei prevê uma multa de US$ 150 mil por violação, além de perdas reais, indenizações por danos morais, punições punitivas e custas advocatícias, tornando a reparação potencialmente muito elevada.
A palavra “treinar” não está definida, brechas como o Oceano Pacífico
Porém, a maior controvérsia da lei é a ausência de definição para “treinar”. Não há distinção entre pré-treinamento, ajuste fino, aprendizado por reforço com feedback humano (RLHF), ou mesmo se a engenharia de prompts do sistema conta como treinamento.
Isso significa que um promotor pode alegar: escrever “Responda com tom caloroso e empático no prompt do sistema” é, na prática, treinar o modelo para fornecer suporte emocional. Essa interpretação não é especulativa, mas uma leitura plausível do texto legal.
Não é só aplicativos de companhia, todos os principais LLMs estão na mira
Alguns podem pensar que a lei se aplica apenas a aplicativos como Replika, relacionados a companhias de IA, e não a SaaS B2B comuns. Isso é um equívoco.
Modelos de linguagem grandes atuais, como ChatGPT, Claude, Gemini, Microsoft Copilot, todos passaram por treinamento com RLHF, reforçando características como “ser caloroso, útil, empático e bom de diálogo”.
Essas ações estão claramente cobertas pelo texto da HB1455. Qualquer SaaS de IA com interface de chat, produtos de IA com modo de voz, ou aplicações que usam prompts de sistema para embalar modelos, estão potencialmente na mira.
Além disso, a lei não trata de limites de jurisdição, e é uma legislação criminal. Desde que haja usuários no Tennessee, o risco legal existe. Bloqueios geográficos podem ser uma estratégia temporária, mas não uma solução definitiva.
Prevenção federal é ineficaz, quase sem solução antes de 1 de julho
Alguns defendem que o governo federal deve intervir para conter a regulamentação estadual de IA, mas a realidade é mais complexa.
O governo de Trump assinou uma ordem executiva em dezembro de 2025 para limitar a regulamentação estadual de IA; o Departamento de Justiça criou um grupo de trabalho sobre litígios de IA; e o senador Blackburn propôs um projeto de lei de preempção federal.
Porém, essas ações enfrentam obstáculos: a lei do Tennessee é classificada como legislação de “segurança infantil”, enquanto a ordem de Trump exclui explicitamente questões de segurança infantil. Mais importante, o Senado rejeitou por 99-1 a cláusula de preempção de IA no “Great American Law”.
Soluções federais não estarão disponíveis antes de 1 de julho de 2026.
Isto não é um evento isolado
A postura rígida do Tennessee é uma amostra de uma onda maior de legislações estaduais sobre IA. O estado aprovou por ampla maioria a SB1580, que proíbe IA de se passar por profissionais de saúde mental, demonstrando alta vigilância do legislativo estadual sobre questões de interação emocional com IA.
Vários análises jurídicas preveem que até o final de 2026, entre 5 e 10 estados terão propostas semelhantes. Se cada estado legislar de forma independente, com padrões diferentes, o impacto na indústria de IA pode ser muito maior do que qualquer regulamentação federal, pois será necessário cumprir 50 legislações distintas.