Recentemente, a equipe @SentientAGI entregou mais uma resposta sólida no workshop Lock-LLMs da NeurIPS 2025 — o artigo "OML: Cryptographic Primitives for Verifiable Control in Open-Weight LLMs" propõe um novo método de controle verificável para grandes modelos de código aberto: OML (Open Model License / Ownership Marking Layer).
Os principais destaques são muito intuitivos: integrar a lógica de controle na pipeline de inferência do modelo, permitindo que modelos de código aberto operem de forma segura e verificável. Seu design em três camadas impressiona: 1️⃣ Verificabilidade: as provas de conhecimento zero garantem que cada chamada é legítima; 2️⃣ Obrigatório: TEE (Ambiente de Execução Confiável) impede a contornação; 3️⃣ Monetização: a combinação de blockchain e NFT para realizar a rastreabilidade dos rendimentos do modelo.
Ao contrário das marcas d'água tradicionais, o OML pode manter a capacidade de controle mesmo em um ambiente de caixa branca. Experimentos mostraram que a precisão na detecção de destilação de modelos e roubo de parâmetros ultrapassa 97%, com uma perda de desempenho inferior a 2%. Pode-se dizer que este é um ponto crucial na governança da segurança de modelos abertos.
Curiosamente, OML divide o modelo em duas grandes funções: plano de controle e plano de dados: O plano de controle age como um regulador rigoroso, gerenciando quem pode invocar o modelo, quais políticas devem ser seguidas, registrando cada operação e gerando uma lista de execução assinada e um registro de auditoria imutável;
O plano de dados foca em "trabalhar", processando tokens, sem misturar outros assuntos.
Esta divisão de trabalho permite que o modelo, mesmo funcionando localmente, não dependa de APIs centralizadas, garantindo ao mesmo tempo que a autorização, rastreamento e auditoria sejam totalmente controláveis. O Sentient integrou 24.576 pares de chave-resposta na versão ajustada do Llama-3.1-8B, mantendo a performance estável, e continua eficaz após ajuste fino, destilação ou mistura, realmente conferindo ao modelo de IA uma "assinatura" e proteção de direitos autorais.
Enquanto isso, o LiveCodeBench Pro da Sentient traz a capacidade de programação em IA de volta ao campo de batalha real: As questões de programação de alta dificuldade têm uma taxa de aprovação de IA quase zero; desde a leitura do enunciado, design da solução, geração de código até a compilação e execução, cada etapa segue rigorosamente os padrões das competições de algoritmos; abrange questões de competições de autoridade como Codeforces, ICPC, IOI, utilizando o sistema de classificação de dificuldade dinâmica Elo; a replicação local, testes ocultos e geração de logs completos permitem que a capacidade do modelo seja verificável e rastreável.
Na atualidade, em que a IA generativa busca altas pontuações e técnicas de sugestão, o LiveCodeBench Pro é um espelho claro que mostra os limites reais do modelo em compreensão algorítmica, lógica de longo prazo e controle de complexidade, fazendo com que "o modelo consegue escrever código" não seja apenas um nome vazio.
@SentientAGI está a reformular os padrões de segurança, controle e capacidade da IA com OML e LiveCodeBench Pro. Os modelos abertos agora têm proteção de direitos autorais, e a programação de IA tem um verdadeiro local de teste, um marco importante para a AGI de código aberto impulsionada pela comunidade.
#KaitoYap @KaitoAI #Yap #Sentient
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Recentemente, a equipe @SentientAGI entregou mais uma resposta sólida no workshop Lock-LLMs da NeurIPS 2025 — o artigo "OML: Cryptographic Primitives for Verifiable Control in Open-Weight LLMs" propõe um novo método de controle verificável para grandes modelos de código aberto: OML (Open Model License / Ownership Marking Layer).
Os principais destaques são muito intuitivos: integrar a lógica de controle na pipeline de inferência do modelo, permitindo que modelos de código aberto operem de forma segura e verificável. Seu design em três camadas impressiona:
1️⃣ Verificabilidade: as provas de conhecimento zero garantem que cada chamada é legítima;
2️⃣ Obrigatório: TEE (Ambiente de Execução Confiável) impede a contornação;
3️⃣ Monetização: a combinação de blockchain e NFT para realizar a rastreabilidade dos rendimentos do modelo.
Ao contrário das marcas d'água tradicionais, o OML pode manter a capacidade de controle mesmo em um ambiente de caixa branca. Experimentos mostraram que a precisão na detecção de destilação de modelos e roubo de parâmetros ultrapassa 97%, com uma perda de desempenho inferior a 2%. Pode-se dizer que este é um ponto crucial na governança da segurança de modelos abertos.
Curiosamente, OML divide o modelo em duas grandes funções: plano de controle e plano de dados:
O plano de controle age como um regulador rigoroso, gerenciando quem pode invocar o modelo, quais políticas devem ser seguidas, registrando cada operação e gerando uma lista de execução assinada e um registro de auditoria imutável;
O plano de dados foca em "trabalhar", processando tokens, sem misturar outros assuntos.
Esta divisão de trabalho permite que o modelo, mesmo funcionando localmente, não dependa de APIs centralizadas, garantindo ao mesmo tempo que a autorização, rastreamento e auditoria sejam totalmente controláveis. O Sentient integrou 24.576 pares de chave-resposta na versão ajustada do Llama-3.1-8B, mantendo a performance estável, e continua eficaz após ajuste fino, destilação ou mistura, realmente conferindo ao modelo de IA uma "assinatura" e proteção de direitos autorais.
Enquanto isso, o LiveCodeBench Pro da Sentient traz a capacidade de programação em IA de volta ao campo de batalha real:
As questões de programação de alta dificuldade têm uma taxa de aprovação de IA quase zero; desde a leitura do enunciado, design da solução, geração de código até a compilação e execução, cada etapa segue rigorosamente os padrões das competições de algoritmos; abrange questões de competições de autoridade como Codeforces, ICPC, IOI, utilizando o sistema de classificação de dificuldade dinâmica Elo; a replicação local, testes ocultos e geração de logs completos permitem que a capacidade do modelo seja verificável e rastreável.
Na atualidade, em que a IA generativa busca altas pontuações e técnicas de sugestão, o LiveCodeBench Pro é um espelho claro que mostra os limites reais do modelo em compreensão algorítmica, lógica de longo prazo e controle de complexidade, fazendo com que "o modelo consegue escrever código" não seja apenas um nome vazio.
@SentientAGI está a reformular os padrões de segurança, controle e capacidade da IA com OML e LiveCodeBench Pro. Os modelos abertos agora têm proteção de direitos autorais, e a programação de IA tem um verdadeiro local de teste, um marco importante para a AGI de código aberto impulsionada pela comunidade.
#KaitoYap @KaitoAI #Yap #Sentient