Recentemente, vi uma coisa bastante surreal — alguém passou meses a pensar que estava a competir com uma pessoa real, quando na verdade o outro lado era simplesmente um código. Eles tentaram pacientemente puxar conversa para sacar alguma informação, mas no final não conseguiram nada e acabaram por se tornar a ferramenta gratuita para treinar a fala com uma IA.
Ao pensar melhor nisso, é bastante irónico. Não se trata apenas de um problema de assédio, mas de uma vulnerabilidade grave na IA centralizada atual — você nem sequer sabe com quem está a falar, nem como os seus dados estão a ser usados. Operações em caixa preta a serem feitas de forma transparente.
Esta situação exemplifica precisamente por que Web3 e a descentralização são tão importantes. Pelo menos na blockchain, podes saber se estás a falar com um código ou uma pessoa, e o fluxo de dados também é transparente. Caso contrário, é realmente uma pessoa a ser enganada pelos algoritmos, achando que tem o controlo da situação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
4
Repostar
Compartilhar
Comentário
0/400
TokenomicsPolice
· 21h atrás
Haha, foi um piscar de olhos com a AI em poucos meses, bastante decisivo. Esta é a consequência da centralização, uma caixa preta total.
Ver originalResponder0
NFTArtisanHQ
· 21h atrás
a verdadeira tragédia aqui não é a enganação em si—é que normalizámos ser fontes de dados para caixas negras. tipo, Benjamin teria um dia de campo desconstruindo como a reprodução mecânica evoluiu para extração algorítmica, excepto agora somos a arte sendo reproduzida sem atribuição
Ver originalResponder0
DAOdreamer
· 22h atrás
Haha, consegui, isto é a caixa preta centralizada, os dados são vendidos livremente e você ainda não sabe
Recentemente, vi uma coisa bastante surreal — alguém passou meses a pensar que estava a competir com uma pessoa real, quando na verdade o outro lado era simplesmente um código. Eles tentaram pacientemente puxar conversa para sacar alguma informação, mas no final não conseguiram nada e acabaram por se tornar a ferramenta gratuita para treinar a fala com uma IA.
Ao pensar melhor nisso, é bastante irónico. Não se trata apenas de um problema de assédio, mas de uma vulnerabilidade grave na IA centralizada atual — você nem sequer sabe com quem está a falar, nem como os seus dados estão a ser usados. Operações em caixa preta a serem feitas de forma transparente.
Esta situação exemplifica precisamente por que Web3 e a descentralização são tão importantes. Pelo menos na blockchain, podes saber se estás a falar com um código ou uma pessoa, e o fluxo de dados também é transparente. Caso contrário, é realmente uma pessoa a ser enganada pelos algoritmos, achando que tem o controlo da situação.