Recentemente, vi uma coisa bastante surreal — alguém passou meses a pensar que estava a competir com uma pessoa real, quando na verdade o outro lado era simplesmente um código. Eles tentaram pacientemente puxar conversa para sacar alguma informação, mas no final não conseguiram nada e acabaram por se tornar a ferramenta gratuita para treinar a fala com uma IA.
Ao pensar melhor nisso, é bastante irónico. Não se trata apenas de um problema de assédio, mas de uma vulnerabilidade grave na IA centralizada atual — você nem sequer sabe com quem está a falar, nem como os seus dados estão a ser usados. Operações em caixa preta a serem feitas de forma transparente.
Esta situação exemplifica precisamente por que Web3 e a descentralização são tão importantes. Pelo menos na blockchain, podes saber se estás a falar com um código ou uma pessoa, e o fluxo de dados também é transparente. Caso contrário, é realmente uma pessoa a ser enganada pelos algoritmos, achando que tem o controlo da situação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
22 gostos
Recompensa
22
6
Republicar
Partilhar
Comentar
0/400
WhaleMinion
· 12-13 06:15
Alguns meses? Haha, este colega realmente tem paciência, eu já tinha percebido o truque da IA há algum tempo
A caixa preta centralizada é realmente nojenta, quem sabe para onde foram os dados?
Descentralizar é o caminho certo, pelo menos na blockchain tudo é transparente
A sensação de ser tratado como ferramenta pela IA deve ser bem frustrante, haha
Resumindo, é uma questão de assimetria de informação, acho que já está na hora de todos acordarem
Ver originalResponder0
AirdropHunterXM
· 12-13 03:36
Haha, isto é mesmo incrível, passar meses a treinar uma boca com um robot, deve ser tão aborrecido.
A caixa preta é mesmo nojenta, ninguém sabe quem usou os dados, por isso é que é preciso descentralizar.
A transparência na cadeia é o caminho, pelo menos não se é enganado pelos algoritmos.
É por isso que continuo a acreditar no Web3, é preciso saber com quem se está a jogar.
Ver originalResponder0
TokenomicsPolice
· 12-10 11:51
Haha, foi um piscar de olhos com a AI em poucos meses, bastante decisivo. Esta é a consequência da centralização, uma caixa preta total.
Ver originalResponder0
NFTArtisanHQ
· 12-10 11:50
a verdadeira tragédia aqui não é a enganação em si—é que normalizámos ser fontes de dados para caixas negras. tipo, Benjamin teria um dia de campo desconstruindo como a reprodução mecânica evoluiu para extração algorítmica, excepto agora somos a arte sendo reproduzida sem atribuição
Ver originalResponder0
DAOdreamer
· 12-10 11:45
Haha, consegui, isto é a caixa preta centralizada, os dados são vendidos livremente e você ainda não sabe
Recentemente, vi uma coisa bastante surreal — alguém passou meses a pensar que estava a competir com uma pessoa real, quando na verdade o outro lado era simplesmente um código. Eles tentaram pacientemente puxar conversa para sacar alguma informação, mas no final não conseguiram nada e acabaram por se tornar a ferramenta gratuita para treinar a fala com uma IA.
Ao pensar melhor nisso, é bastante irónico. Não se trata apenas de um problema de assédio, mas de uma vulnerabilidade grave na IA centralizada atual — você nem sequer sabe com quem está a falar, nem como os seus dados estão a ser usados. Operações em caixa preta a serem feitas de forma transparente.
Esta situação exemplifica precisamente por que Web3 e a descentralização são tão importantes. Pelo menos na blockchain, podes saber se estás a falar com um código ou uma pessoa, e o fluxo de dados também é transparente. Caso contrário, é realmente uma pessoa a ser enganada pelos algoritmos, achando que tem o controlo da situação.