Meta óculos inteligentes enfrentam ação coletiva federal: após vazamento de privacidade, usuários processam a empresa; o que dizem os advogados?

動區BlockTempo

Em março de 2026, dois autores processaram a Meta e a Luxottica em uma ação coletiva federal, acusando que os clipes de vídeo das funcionalidades de IA dos óculos inteligentes Ray-Ban foram enviados a revisores humanos no Quénia, violando a promessa da Meta de que “os óculos foram desenhados para a privacidade”. O advogado foi direto: as leis atuais são totalmente insuficientes para lidar com o que estas empresas estão a fazer.
(Resumo: Os óculos inteligentes da Meta foram expostos: imagens privadas de utilizadores a tomar banho, a ter relações sexuais, números de cartões de crédito… foram todas enviadas ao Quénia para treinar a IA)
(Suporte: Um ex-executivo da Meta revelou que Zuckerberg cometeu crimes de conivência: criou secretamente uma ferramenta de “censura de discursos no Facebook em Taiwan e Hong Kong”, vendendo a privacidade dos utilizadores do Facebook)

Índice do artigo

Toggle

  • Quem processa quem e porquê?
  • Responsabilidade legal ambígua, mas responsabilidade de comunicação clara
  • A lei protege quem usa os óculos, não quem é filmado
  • Com a adição do reconhecimento facial, a situação evolui para “identificação em zero segundos”

A arma do processo vem do próprio texto da Meta: “Os óculos foram desenhados para a privacidade, controlados por si.” Em 2023, ao promover os óculos inteligentes Ray-Ban, a Meta estampou esta frase no material publicitário. Três anos depois, esta frase aparece na seção de citações de uma ação coletiva federal.

Quem processa quem e porquê?

No início deste mês, a Blockworks citou uma investigação conjunta do diário sueco “Dagens Nyheter” e do “Göteborgs-Posten”: os utilizadores dos óculos inteligentes da Meta estavam a enviar toda a sua vida privada para o Quénia. O conteúdo visto pelos revisores incluía imagens de casas de banho, clipes de relações sexuais, bem como números de cartões de crédito e arquivos financeiros.

Rapidamente, as autoras Gina Bartone e Mateo Canu processaram a Meta Platforms e o fabricante de óculos Luxottica of America em uma ação coletiva federal. As principais acusações da ação: os clipes de vídeo gravados quando os utilizadores ativam a funcionalidade de IA não são processados como afirmado na publicidade, mas são enviados para revisores humanos da Sama, uma empresa terceirizada no Quénia. Durante todo o processo, a Meta nunca informou claramente os utilizadores.

A ação afirma que as duas empresas violaram leis federais e de vários estados sobre privacidade.

Responsabilidade legal ambígua, mas responsabilidade de comunicação clara

O advogado de privacidade e IA Brian Hall (do escritório de advocacia Stubbs Alderton & Markiles) afirmou à Fortune que a primeira coisa que disse foi: “Isto é horrível, é precisamente o que todos imaginamos que poderia acontecer.”

Mas ele imediatamente aponta as dificuldades reais que o processo enfrenta: os termos de serviço da Meta já estipulam que os revisores de dados “podem revisar conteúdo interativo de forma automatizada ou manual”. Ou seja, os utilizadores, ao clicar para aceitar os termos, teoricamente, já autorizaram esse processo.

A responsabilidade legal, portanto, cai em uma área cinzenta. Mas Hall não acredita que isso permita à Meta escapar ilesa: “Esta é uma responsabilidade de comunicação. Esta é informação e imagens extremamente sensíveis.” O fato de os termos estarem escritos em profundidade não significa que equivale a consentimento informado, e se houve informação suficiente é o cerne da disputa do processo.

A lei protege quem usa os óculos, não quem é filmado

A ação também revela uma lacuna mais fundamental no sistema. O que os óculos inteligentes gravam muitas vezes não é apenas a vida do utilizador: mas sim os rostos e comportamentos de todas as pessoas ao redor, que não têm conhecimento disso e não deram consentimento.

Hall aponta diretamente para este dilema: “A triste verdade é que as nossas leis de privacidade não foram desenhadas para proteger os observadores, foram desenhadas para proteger a capacidade do utilizador de gerir os seus próprios dados.”

As pessoas filmadas, no atual quadro legal, quase não têm vias de recurso.

Com a adição do reconhecimento facial, a situação evolui para “identificação em zero segundos”

Hall também propôs um cenário hipotético, suficiente para aumentar a escala desta discussão: se a Meta introduzisse uma funcionalidade de reconhecimento facial em tempo real nos óculos Ray-Ban, as atuais lacunas de privacidade passariam de embaraçosas para “perigosas”.

“Em tribunal, para reconhecer uma pessoa, antes era preciso revirar o Facebook e o Instagram, agora é zero segundos, automático, sem custo,” disse ele, “pode-se estar sentado no tribunal a identificar testemunhas em tempo real.”

Isto não é um cenário de ficção científica. O assistente de IA da Meta já consegue identificar objetos e cenários diante da câmara; o reconhecimento facial está a um passo. A conclusão de Hall é que a legislação atual é completamente insuficiente para lidar com o que a Meta e outras empresas de redes sociais estão a fazer.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário