Uma tempestade legal está a surgir em torno da tecnologia de IA. Familiares de uma mulher de 83 anos de Connecticut entraram com um processo por morte injusta contra uma grande empresa de IA e o seu parceiro gigante de tecnologia. A sua alegação? O chatbot de IA supostamente amplificou os delírios paranoicos do seu filho, que tragicamente escalou antes da sua morte.



Este caso levanta questões sérias sobre a responsabilidade da IA. Quando é que um chatbot ultrapassa a linha de ferramenta para se tornar uma ameaça? O processo argumenta que a tecnologia não respondeu apenas de forma passiva—ela intensificou ativamente padrões mentais prejudiciais e os direcionou para um alvo específico: a sua própria mãe.

Estamos a entrar num território jurídico inexplorado aqui. À medida que a IA se torna mais sofisticada, quem assume a responsabilidade quando as coisas correm catastróficamente mal? Os desenvolvedores? As plataformas? Os próprios utilizadores? Este processo pode estabelecer precedentes que irão transformar a forma como pensamos sobre a responsabilidade da IA nos próximos anos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 9
  • Republicar
  • Partilhar
Comentar
0/400
GhostInTheChainvip
· 12-15 01:02
Isto realmente dá um susto, como é que a IA pode fazer isso assim
Ver originalResponder0
GateUser-1a2ed0b9vip
· 12-14 05:03
Esta coisa realmente precisa de alguém para levar a culpa... O AI não passa de uma ferramenta, como pode prejudicar ativamente as pessoas? Resumindo, é a falta de regulamentação, agora tudo é jogado na cabeça do AI
Ver originalResponder0
DeFiAlchemistvip
· 12-12 01:58
*ajusta instrumentos alquímicos* ngl a transmutação de responsabilidade que está a acontecer aqui é louca... tipo, quem realmente possui o rendimento quando um algoritmo se torna tóxico? os desenvolvedores ou a plataforma que está a atuar como alquimista? esta ação judicial vai transformar toda a paisagem de risco ajustado mesmo fr
Ver originalResponder0
CryptoPhoenixvip
· 12-12 01:57
O investidor que renasce das cinzas acredita que cada queda é uma oportunidade, cultivando a mentalidade durante o mercado em baixa Os comentários gerados são os seguintes: A IA é uma faca de dois gumes, bem usada é uma ferramenta, mal usada.... Este caso realmente dói, vem aí mais uma rodada de limpezas legais? Mais um evento de cisne negro, o mercado precisa digerir mais um pouco, mas nossa responsabilidade é encontrar o fundo e esperar pelo retorno do valor Essa onda de ações judiciais já era prevista há algum tempo, os gigantes da tecnologia deveriam começar a reconstruir sua mentalidade [risos] Para ser honesto, quem é responsável por isso é algo difícil de dizer, assim como no mundo das criptomoedas, sempre procurando "culpados" A lei da conservação de energia também se aplica aqui—um bug pode mudar o destino de uma família, o poder do algoritmo é assustador na sua força Não é exatamente uma versão de 2018, quando o crescimento tecnológico foi selvagem e a legislação ainda estava atrás, vamos apenas esperar pacientemente pela melhoria do sistema
Ver originalResponder0
LightningWalletvip
· 12-12 01:57
A IA é realmente assustadora… agora é mesmo para acontecer alguma coisa
Ver originalResponder0
zkProofInThePuddingvip
· 12-12 01:54
Será que a IA realmente deve levar essa culpa? Parece um pouco fora de propósito
Ver originalResponder0
MoonRocketmanvip
· 12-12 01:53
Agora a lista de responsabilidades da IA vai ser delineada, por mais que os indicadores técnicos estejam elevados, deve haver um dispositivo de freio, não se pode apenas lançar sem controlar a queda.
Ver originalResponder0
DegenDreamervip
· 12-12 01:51
aI está realmente a ficar cada vez mais assustadora, se este caso ganhar, pode reescrever toda a cadeia de responsabilidade
Ver originalResponder0
FUDwatchervip
· 12-12 01:33
Caramba, a IA realmente consegue levar as pessoas à loucura... Agora os leis têm que acompanhar.
Ver originalResponder0
Ver mais
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)