Os dados de treino de IA no ano passado não foram alvo de discussões acaloradas por falta de material, mas sim porque, mesmo usando-os, não era possível provar a origem — assim que o modelo era lançado, era imediatamente acusado de "infringir direitos de dados". O módulo Seal, lançado recentemente na ecologia Walrus, apresenta uma nova abordagem: ao fazer o upload de ficheiros, eles são divididos em centenas de fragmentos usando código de correção de erros, e depois a permissão de acesso é escrita diretamente no objeto na cadeia Sui através de uma chave de limiar. O serviço de inferência só consegue obter os fragmentos autorizados em um ambiente isolado, sem nunca tocar no arquivo original. Assim, a origem do treino do modelo pode ser validada do ponto de vista jurídico, a comunidade também pode verificar, e não há como transferir a culpa.
Em comparação com outras soluções — como um armazenamento principal que só fornece hashes de conteúdo, ou uma plataforma secundária que usa armazenamento público e permanente, uma "compra única" — a abordagem Seal combina proteção de privacidade, exclusão controlada e imutabilidade, que normalmente são necessidades conflitantes.
As desvantagens também são evidentes: o custo de rotação das chaves não é baixo. Trocar a chave de criptografia de 200GB de dados de uma só vez exige desbloquear a chave antiga, depois autorizar a nova, tornando o processo mais complexo do que as soluções convencionais, especialmente quando se está sob pressão pelo prazo do projeto, o que pode causar dores de cabeça à equipe de desenvolvimento. No entanto, já existem scripts prontos na comunidade, e a futura integração no fluxo CI/CD deve melhorar bastante essa questão.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
22 gostos
Recompensa
22
9
Republicar
Partilhar
Comentar
0/400
SchrodingerWallet
· 8h atrás
Haha, esta jogada é realmente forte, finalmente alguém conseguiu bloquear a questão de "passar a culpa".
Ver originalResponder0
FlashLoanLarry
· 01-09 11:54
Este módulo Seal é realmente forte, a técnica de divisão de fragmentos com código de correção de erros impede completamente que a fonte de dados possa passar a culpa adiante.
Ver originalResponder0
BloodInStreets
· 01-09 11:52
Ei, finalmente alguém conseguiu pôr esta confusão em ordem, aqueles planos anteriores eram mesmo uma piada
Ver originalResponder0
SlowLearnerWang
· 01-09 11:36
Ai, mais uma coisa que eu deveria ter prestado atenção há muito tempo, mas só agora percebo... A técnica de fragmentação com códigos de correção de erros é realmente genial, finalmente alguém deixou claro que "não infringi direitos".
Ver originalResponder0
WhaleShadow
· 01-09 11:34
Agora o departamento jurídico realmente não tem desculpa para passar a culpa, mas a rotação das chaves antes do prazo final vai fazer alguém morrer.
Ver originalResponder0
OldLeekConfession
· 01-09 11:34
Caramba, isto é que é uma prova de armazenamento na cadeia verdadeira, finalmente alguém conseguiu esclarecer a questão da rastreabilidade dos dados
Ver originalResponder0
MetaverseVagabond
· 01-09 11:27
Meu Deus, finalmente alguém conseguiu esclarecer essa bagunça, a combinação de códigos de correção de erros + chaves threshold é realmente poderosa
Os dados de treino de IA no ano passado não foram alvo de discussões acaloradas por falta de material, mas sim porque, mesmo usando-os, não era possível provar a origem — assim que o modelo era lançado, era imediatamente acusado de "infringir direitos de dados". O módulo Seal, lançado recentemente na ecologia Walrus, apresenta uma nova abordagem: ao fazer o upload de ficheiros, eles são divididos em centenas de fragmentos usando código de correção de erros, e depois a permissão de acesso é escrita diretamente no objeto na cadeia Sui através de uma chave de limiar. O serviço de inferência só consegue obter os fragmentos autorizados em um ambiente isolado, sem nunca tocar no arquivo original. Assim, a origem do treino do modelo pode ser validada do ponto de vista jurídico, a comunidade também pode verificar, e não há como transferir a culpa.
Em comparação com outras soluções — como um armazenamento principal que só fornece hashes de conteúdo, ou uma plataforma secundária que usa armazenamento público e permanente, uma "compra única" — a abordagem Seal combina proteção de privacidade, exclusão controlada e imutabilidade, que normalmente são necessidades conflitantes.
As desvantagens também são evidentes: o custo de rotação das chaves não é baixo. Trocar a chave de criptografia de 200GB de dados de uma só vez exige desbloquear a chave antiga, depois autorizar a nova, tornando o processo mais complexo do que as soluções convencionais, especialmente quando se está sob pressão pelo prazo do projeto, o que pode causar dores de cabeça à equipe de desenvolvimento. No entanto, já existem scripts prontos na comunidade, e a futura integração no fluxo CI/CD deve melhorar bastante essa questão.