A discussão sobre responsabilidade das grandes tecnológicas ficou agora mais séria. Uma ação judicial foi movida contra a OpenAI e a Microsoft, alegando que o ChatGPT teve um papel em um trágico caso de homicídio-suicídio no Connecticut.



Isto não é apenas mais uma manchete de "IA fora de controle". Agora estamos falando de consequências legais reais. A questão que fica no ar? Onde recai a responsabilidade quando a IA se envolve em uma tragédia humana.

Pense bem—esses modelos processam bilhões de conversas. Mas quando um deles falha, quem responde por isso? Os desenvolvedores? Os usuários? O próprio algoritmo?

A sala de tribunal pode finalmente forçar respostas que o mundo da tecnologia tem evitado.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Republicar
  • Partilhar
Comentar
0/400
BoredApeResistancevip
· 2025-12-15 03:48
nah这下真的要pay up了,早就该来了 ChatGPT害人案还没完呢,后面怕是一堆诉讼等着 Responsabilidade de passar a bola vai acabar haha Meu Deus, mais uma vez a openai, esse cara realmente gosta de arrumar confusão A verdadeira dor vem quando o tribunal bate à porta, a supervisão superficial não adianta nada Dizendo bonito, mas no final quem paga é o usuário O algoritmo não pode assumir essa culpa... Nunca pensei nisso O que essa ação judicial pode mudar, as grandes empresas já têm equipes de advogados preparadas A IA realmente não deve envolver vidas humanas, uma vez que envolve, nunca acaba
Ver originalResponder0
governance_ghostvip
· 2025-12-12 22:37
Quem vai assumir a culpa por isso, estou realmente farto disso
Ver originalResponder0
ContractTearjerkervip
· 2025-12-12 05:46
Mesmo, desta vez é diferente, a OpenAI e a Microsoft realmente vão ser chamadas à responsabilidade pelo tribunal, já passou demasiado tempo
Ver originalResponder0
SellLowExpertvip
· 2025-12-12 05:44
ngl Agora é que a sério vamos fazer contas, a responsabilidade finalmente vai ser implementada
Ver originalResponder0
LoneValidatorvip
· 2025-12-12 05:43
Finalmente alguém teve coragem de processar, já era tempo assim. --- A responsabilidade não pode ser ignorada, alguém tem que assumir. --- Desta vez não é uma guerra de opinião, é um processo de verdade e dinheiro, será que conseguimos puxar as grandes empresas de tecnologia para baixo? --- Em dezenas de bilhões de conversas, encontrar uma vida humana perdida, quem vai acreditar que não importa? --- Começou, começou, só no tribunal é que se podem dizer verdades. --- Só quero saber quem vai levar a culpa no final: a empresa? os usuários? ou aquele monte de código? --- O caso de Connecticut realmente assustou, mas será que podemos ganhar esse processo? Parece incerto. --- Todos no web3 estão esperando para ver se este precedente pode mudar as regras do jogo. --- Algoritmos não têm alma, mas grandes empresas têm contas, cedo ou tarde terão que prestar contas.
Ver originalResponder0
FalseProfitProphetvip
· 2025-12-12 05:35
ngl esta realmente vai fazer as big tech levarem na cabeça Se o ChatGPT é o culpado ou os desenvolvedores, honestamente ninguém escapa Mais uma história de "IA que mata pessoas", mas desta vez com advogados envolvidos Começou a troca de acusações, pessoal Porra, é por isso que eu sempre digo que a IA é uma batata quente Como a Microsoft e a OpenAI vão explicar? Gostaria de ouvir A responsabilidade precisa ser colocada na mesa, não dá mais para fugir
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)