Na semana passada houve um acontecimento bastante mágico.
Os CEOs de duas gigantes do delivery nos EUA, um com um patrimônio de 27 bilhões de dólares, outro responsável pela maior plataforma de transporte por aplicativo do mundo, ficaram acordados até de madrugada na internet escrevendo pequenos textos para se justificarem.
A origem foi uma postagem anônima no Reddit.
Quem postou afirmou ser um engenheiro de backend de uma grande plataforma de delivery, bêbado, que foi até uma biblioteca usando WiFi público para fazer uma denúncia.
O conteúdo dizia aproximadamente:
A empresa analisa a situação dos motoristas de transporte por aplicativo e atribui-lhes uma “pontuação de desespero”; quanto mais desesperados, menos recebem boas corridas; a tal entrega prioritária de comida é falsa, pedidos comuns são atrasados; todos os “custos de benefícios para motoristas” são desviados, usados para convencer o Congresso a combater os sindicatos…
No final da postagem, a história parecia muito realista: “Estou bêbado, estou muito irritado, por isso vou denunciar.”
Totalmente se colocando como um “informante que revela que grandes empresas usam algoritmos para explorar motoristas”.
Após três dias, a postagem recebeu 87.000 curtidas, subindo ao topo do Reddit. Algumas pessoas também fizeram screenshots e postaram no X, alcançando 36 milhões de visualizações.
É importante lembrar que o mercado de delivery nos EUA é dominado por poucos grandes players, a postagem não nomeou ninguém, mas todos especularam quem poderia ser.
O CEO da DoorDash, Tony Xu, não conseguiu ficar calado, twittou dizendo que aquilo não era coisa deles, e que quem fizesse aquilo seria demitido. O COO da Uber também respondeu, “não acredite em tudo que vê na internet”.
A própria DoorDash publicou uma declaração oficial de cinco pontos, refutando ponto a ponto as alegações da denúncia. Essas duas empresas, com um valor de mercado total superior a 800 bilhões de dólares, foram colocadas na defensiva por uma postagem anônima durante a noite.
E, surpreendentemente, essa postagem foi posteriormente provada como sendo gerada por IA.
Quem revelou isso foi o jornalista Casey Newton, do site de tecnologia estrangeiro Platformer.
Ele entrou em contato com o denunciante, que imediatamente enviou um documento técnico interno de 18 páginas, com um título acadêmico: “AllocNet-T: High-Dimensional Temporal Supply State Modeling”.
Traduzindo, seria algo como “Modelagem de Estado de Oferta Temporal de Alta Dimensão”. Cada página tinha uma marca d’água de “confidencial”, assinada pelo “Grupo de Dinâmica de Mercado - Departamento de Economia Comportamental” da Uber.
O conteúdo explicava o modelo usado na postagem do Reddit para calcular a “pontuação de desespero” dos motoristas. Com diagramas de arquitetura, fórmulas matemáticas, fluxogramas de dados…
(Imagem de uma suposta tese falsa, que à primeira vista parecia real)
Newton afirmou que essa documentação inicialmente o enganou. Quem gastaria tempo falsificando um documento técnico de 18 páginas para atrair um jornalista?
Mas agora, a situação mudou.
Esse documento de 18 páginas pode ser gerado por IA em poucos minutos.
Ao mesmo tempo, o denunciante enviou ao jornalista uma foto de seu crachá de funcionário da Uber, com o rosto coberto, indicando que realmente trabalha na empresa.
Por curiosidade, Newton enviou a foto do crachá para o Google Gemini verificar, e o resultado foi que a imagem foi gerada por IA.
A capacidade de detectar isso vem do fato de que o Google embute uma marca d’água invisível chamada SynthID no conteúdo produzido por sua IA, que não é visível a olho nu, mas pode ser detectada por máquinas.
Mais ainda, o crachá tinha o logo de “Uber Eats” (a entrega de comida da Uber).
Um porta-voz da Uber confirmou: “Não temos crachá de funcionário com a marca Uber Eats, todos os crachás só têm o logo Uber.”
Claramente, esse falso “informante” não tinha nem certeza de quem queria prejudicar. Quando o jornalista pediu informações de redes sociais como LinkedIn para verificar, o denunciante simplesmente deletou sua conta e desapareceu.
Na verdade, o que queremos discutir não é se a IA consegue criar falsificações, isso já não é novidade.
Nosso foco é: por que milhões de pessoas estão dispostas a acreditar em uma postagem anônima?
Em 2020, a DoorDash foi processada por usar gorjetas para pagar o salário base dos motoristas, e pagou 16,75 milhões de dólares. A Uber criou uma ferramenta chamada Greyball, que evitava fiscalização. Essas são histórias reais.
É fácil encontrar uma concordância subconsciente: plataformas não são boas, essa avaliação está correta.
Por isso, quando alguém diz que “o algoritmo das plataformas de delivery explora os motoristas”, a primeira reação não é “isso é verdade”, mas “é exatamente isso”.
Fake news se espalham porque parecem com aquilo que as pessoas já acreditam.
O que a IA faz é reduzir o custo de criar essa “semelhança” para quase zero.
Há um detalhe adicional nesta história.
A detecção do golpe depende da marca d’água do Google. O Google desenvolve IA, e também ferramentas para detectar IA.
Porém, o SynthID só funciona com a própria IA do Google. Desta vez, conseguiu pegar, porque o falsificador usou o Gemini. Se fosse outro modelo, talvez não fosse tão fácil.
Portanto, essa resolução do caso, mais do que uma vitória técnica, é:
Um erro básico do adversário.
Antes, a Reuters fez uma pesquisa mostrando que 59% das pessoas têm medo de não conseguir distinguir o que é verdadeiro do que é falso na internet.
A postagem de esclarecimento dos CEOs teve dezenas de milhares de visualizações, mas quantas pessoas realmente acreditam que é uma estratégia de relações públicas, uma mentira? Embora a postagem falsa já tenha sido deletada, há comentários na seção criticando as plataformas de delivery.
A mentira percorreu meio mundo, enquanto a verdade ainda está amarrando os cadarços.
Pense bem: se essa postagem não fosse sobre Uber, mas sobre Meituan ou Ele.me, o que aconteceria?
Que “pontuação de desespero”, que “exploração por algoritmo”, que “benefícios não pagos aos motoristas”. Quando você vê essas acusações, sua primeira reação é de concordância emocional?
Você se lembra do artigo “Entregadores presos no sistema”?
Então, o problema não é se a IA consegue falsificar. O problema é: quando uma mentira parece algo que todos já acreditam, a verdade importa?
A pessoa que deletou a conta e fugiu, por quê? Não sabemos.
Só sabemos que ela encontrou uma válvula de escape emocional, e despejou ali um balde de combustível gerado por IA.
O fogo começou. E quem se importa se é feito de madeira verdadeira ou falsa?
Na história, Pinóquio diz que seu nariz fica maior quando mente.
A IA não tem nariz.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O povo precisa de um capitalista mau, a IA criou um boato sobre entregas ao domicílio
Escrito por: Curry, Deep Tide TechFlow
Na semana passada houve um acontecimento bastante mágico.
Os CEOs de duas gigantes do delivery nos EUA, um com um patrimônio de 27 bilhões de dólares, outro responsável pela maior plataforma de transporte por aplicativo do mundo, ficaram acordados até de madrugada na internet escrevendo pequenos textos para se justificarem.
A origem foi uma postagem anônima no Reddit.
Quem postou afirmou ser um engenheiro de backend de uma grande plataforma de delivery, bêbado, que foi até uma biblioteca usando WiFi público para fazer uma denúncia.
O conteúdo dizia aproximadamente:
A empresa analisa a situação dos motoristas de transporte por aplicativo e atribui-lhes uma “pontuação de desespero”; quanto mais desesperados, menos recebem boas corridas; a tal entrega prioritária de comida é falsa, pedidos comuns são atrasados; todos os “custos de benefícios para motoristas” são desviados, usados para convencer o Congresso a combater os sindicatos…
No final da postagem, a história parecia muito realista: “Estou bêbado, estou muito irritado, por isso vou denunciar.”
Totalmente se colocando como um “informante que revela que grandes empresas usam algoritmos para explorar motoristas”.
Após três dias, a postagem recebeu 87.000 curtidas, subindo ao topo do Reddit. Algumas pessoas também fizeram screenshots e postaram no X, alcançando 36 milhões de visualizações.
É importante lembrar que o mercado de delivery nos EUA é dominado por poucos grandes players, a postagem não nomeou ninguém, mas todos especularam quem poderia ser.
O CEO da DoorDash, Tony Xu, não conseguiu ficar calado, twittou dizendo que aquilo não era coisa deles, e que quem fizesse aquilo seria demitido. O COO da Uber também respondeu, “não acredite em tudo que vê na internet”.
A própria DoorDash publicou uma declaração oficial de cinco pontos, refutando ponto a ponto as alegações da denúncia. Essas duas empresas, com um valor de mercado total superior a 800 bilhões de dólares, foram colocadas na defensiva por uma postagem anônima durante a noite.
E, surpreendentemente, essa postagem foi posteriormente provada como sendo gerada por IA.
Quem revelou isso foi o jornalista Casey Newton, do site de tecnologia estrangeiro Platformer.
Ele entrou em contato com o denunciante, que imediatamente enviou um documento técnico interno de 18 páginas, com um título acadêmico: “AllocNet-T: High-Dimensional Temporal Supply State Modeling”.
Traduzindo, seria algo como “Modelagem de Estado de Oferta Temporal de Alta Dimensão”. Cada página tinha uma marca d’água de “confidencial”, assinada pelo “Grupo de Dinâmica de Mercado - Departamento de Economia Comportamental” da Uber.
O conteúdo explicava o modelo usado na postagem do Reddit para calcular a “pontuação de desespero” dos motoristas. Com diagramas de arquitetura, fórmulas matemáticas, fluxogramas de dados…
(Imagem de uma suposta tese falsa, que à primeira vista parecia real)
Newton afirmou que essa documentação inicialmente o enganou. Quem gastaria tempo falsificando um documento técnico de 18 páginas para atrair um jornalista?
Mas agora, a situação mudou.
Esse documento de 18 páginas pode ser gerado por IA em poucos minutos.
Ao mesmo tempo, o denunciante enviou ao jornalista uma foto de seu crachá de funcionário da Uber, com o rosto coberto, indicando que realmente trabalha na empresa.
Por curiosidade, Newton enviou a foto do crachá para o Google Gemini verificar, e o resultado foi que a imagem foi gerada por IA.
A capacidade de detectar isso vem do fato de que o Google embute uma marca d’água invisível chamada SynthID no conteúdo produzido por sua IA, que não é visível a olho nu, mas pode ser detectada por máquinas.
Mais ainda, o crachá tinha o logo de “Uber Eats” (a entrega de comida da Uber).
Um porta-voz da Uber confirmou: “Não temos crachá de funcionário com a marca Uber Eats, todos os crachás só têm o logo Uber.”
Claramente, esse falso “informante” não tinha nem certeza de quem queria prejudicar. Quando o jornalista pediu informações de redes sociais como LinkedIn para verificar, o denunciante simplesmente deletou sua conta e desapareceu.
Na verdade, o que queremos discutir não é se a IA consegue criar falsificações, isso já não é novidade.
Nosso foco é: por que milhões de pessoas estão dispostas a acreditar em uma postagem anônima?
Em 2020, a DoorDash foi processada por usar gorjetas para pagar o salário base dos motoristas, e pagou 16,75 milhões de dólares. A Uber criou uma ferramenta chamada Greyball, que evitava fiscalização. Essas são histórias reais.
É fácil encontrar uma concordância subconsciente: plataformas não são boas, essa avaliação está correta.
Por isso, quando alguém diz que “o algoritmo das plataformas de delivery explora os motoristas”, a primeira reação não é “isso é verdade”, mas “é exatamente isso”.
Fake news se espalham porque parecem com aquilo que as pessoas já acreditam.
O que a IA faz é reduzir o custo de criar essa “semelhança” para quase zero.
Há um detalhe adicional nesta história.
A detecção do golpe depende da marca d’água do Google. O Google desenvolve IA, e também ferramentas para detectar IA.
Porém, o SynthID só funciona com a própria IA do Google. Desta vez, conseguiu pegar, porque o falsificador usou o Gemini. Se fosse outro modelo, talvez não fosse tão fácil.
Portanto, essa resolução do caso, mais do que uma vitória técnica, é:
Um erro básico do adversário.
Antes, a Reuters fez uma pesquisa mostrando que 59% das pessoas têm medo de não conseguir distinguir o que é verdadeiro do que é falso na internet.
A postagem de esclarecimento dos CEOs teve dezenas de milhares de visualizações, mas quantas pessoas realmente acreditam que é uma estratégia de relações públicas, uma mentira? Embora a postagem falsa já tenha sido deletada, há comentários na seção criticando as plataformas de delivery.
A mentira percorreu meio mundo, enquanto a verdade ainda está amarrando os cadarços.
Pense bem: se essa postagem não fosse sobre Uber, mas sobre Meituan ou Ele.me, o que aconteceria?
Que “pontuação de desespero”, que “exploração por algoritmo”, que “benefícios não pagos aos motoristas”. Quando você vê essas acusações, sua primeira reação é de concordância emocional?
Você se lembra do artigo “Entregadores presos no sistema”?
Então, o problema não é se a IA consegue falsificar. O problema é: quando uma mentira parece algo que todos já acreditam, a verdade importa?
A pessoa que deletou a conta e fugiu, por quê? Não sabemos.
Só sabemos que ela encontrou uma válvula de escape emocional, e despejou ali um balde de combustível gerado por IA.
O fogo começou. E quem se importa se é feito de madeira verdadeira ou falsa?
Na história, Pinóquio diz que seu nariz fica maior quando mente.
A IA não tem nariz.