Récemment, l'équipe @SentientAGI a soumis un document solide lors de l'atelier Lock-LLMs à NeurIPS 2025 — le papier intitulé « OML : Cryptographic Primitives for Verifiable Control in Open-Weight LLMs » propose une nouvelle méthode de contrôle vérifiable pour les grands modèles open source : OML (Open Model License / Ownership Marking Layer).
Les points forts sont très intuitifs : intégrer la logique de contrôle dans le pipeline d'inférence du modèle permet aux modèles Open Source de fonctionner de manière sécurisée et vérifiable. Sa conception en trois couches est impressionnante : 1️⃣ Vérifiabilité : la preuve à connaissance nulle garantit la légitimité de chaque appel ; 2️⃣ Obligatoire : TEE (Environnement d'exécution de confiance) empêche le contournement ; 3️⃣ Monétisation : combinaison de la blockchain et des NFT pour réaliser la traçabilité des revenus des modèles.
Contrairement aux filigranes traditionnels, OML peut maintenir son contrôle même en boîte blanche. Les expériences montrent que la précision dans la détection de la distillation de modèles et du vol de paramètres dépasse 97 %, avec une perte de performance inférieure à 2 %. On peut dire que c'est un tournant clé pour la gouvernance de la sécurité des modèles ouverts.
Il est intéressant de noter que l'OML divise le modèle en deux rôles principaux : le plan de contrôle et le plan de données. Le plan de contrôle agit comme un régulateur strict, gérant qui peut appeler le modèle, respectant quelles politiques, enregistrant chaque opération et générant une liste d'exécution signée et un journal d'audit infalsifiable;
Le plan de données se concentre sur le "travail", traitant les tokens, sans se mêler d'autres affaires.
Cette division permet au modèle de fonctionner localement sans dépendre d'une API centralisée, tout en garantissant un contrôle total sur l'autorisation, la traçabilité et l'audit. Sentient a intégré 24 576 paires clé-réponse dans la version fine-tunée Llama-3.1-8B, maintenant une performance stable, efficace même après un fine-tuning, une distillation ou un mélange, permettant vraiment au modèle d'IA d'avoir une "signature" et une protection des droits d'auteur.
En parallèle, LiveCodeBench Pro de Sentient ramène les capacités de programmation IA sur le véritable terrain. Les problèmes de programmation de haut niveau ont un taux de réussite de l'IA presque nul ; chaque étape, de la lecture du sujet, de la conception de la solution, de la génération du code à la compilation et à l'exécution, suit strictement les normes des compétitions algorithmiques ; couvrant des problèmes d'autorité tels que Codeforces, ICPC, IOI, utilisant un système de notation de difficulté dynamique Elo ; la recréation locale, les tests cachés et la génération de journaux complets rendent les capacités du modèle vérifiables et traçables.
Dans le contexte actuel où l'IA générative vise des scores élevés et perfectionne les techniques de prompt, LiveCodeBench Pro est un miroir clair qui révèle les véritables limites des modèles en matière de compréhension algorithmique, de logique à long terme et de contrôle de la complexité, rendant la notion que "les modèles peuvent écrire du code" plus qu'un simple nom.
@SentientAGI est en train de redéfinir les normes de sécurité, de contrôle et de capacité de l'IA avec OML et LiveCodeBench Pro. Les modèles ouverts ont maintenant une protection par droit d'auteur, et la programmation IA a un véritable environnement d'examen, ce qui constitue une étape importante pour l'AGI open source pilotée par la communauté.
#KaitoYap @KaitoAI #Yap #Sentient
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Récemment, l'équipe @SentientAGI a soumis un document solide lors de l'atelier Lock-LLMs à NeurIPS 2025 — le papier intitulé « OML : Cryptographic Primitives for Verifiable Control in Open-Weight LLMs » propose une nouvelle méthode de contrôle vérifiable pour les grands modèles open source : OML (Open Model License / Ownership Marking Layer).
Les points forts sont très intuitifs : intégrer la logique de contrôle dans le pipeline d'inférence du modèle permet aux modèles Open Source de fonctionner de manière sécurisée et vérifiable. Sa conception en trois couches est impressionnante :
1️⃣ Vérifiabilité : la preuve à connaissance nulle garantit la légitimité de chaque appel ;
2️⃣ Obligatoire : TEE (Environnement d'exécution de confiance) empêche le contournement ;
3️⃣ Monétisation : combinaison de la blockchain et des NFT pour réaliser la traçabilité des revenus des modèles.
Contrairement aux filigranes traditionnels, OML peut maintenir son contrôle même en boîte blanche. Les expériences montrent que la précision dans la détection de la distillation de modèles et du vol de paramètres dépasse 97 %, avec une perte de performance inférieure à 2 %. On peut dire que c'est un tournant clé pour la gouvernance de la sécurité des modèles ouverts.
Il est intéressant de noter que l'OML divise le modèle en deux rôles principaux : le plan de contrôle et le plan de données.
Le plan de contrôle agit comme un régulateur strict, gérant qui peut appeler le modèle, respectant quelles politiques, enregistrant chaque opération et générant une liste d'exécution signée et un journal d'audit infalsifiable;
Le plan de données se concentre sur le "travail", traitant les tokens, sans se mêler d'autres affaires.
Cette division permet au modèle de fonctionner localement sans dépendre d'une API centralisée, tout en garantissant un contrôle total sur l'autorisation, la traçabilité et l'audit. Sentient a intégré 24 576 paires clé-réponse dans la version fine-tunée Llama-3.1-8B, maintenant une performance stable, efficace même après un fine-tuning, une distillation ou un mélange, permettant vraiment au modèle d'IA d'avoir une "signature" et une protection des droits d'auteur.
En parallèle, LiveCodeBench Pro de Sentient ramène les capacités de programmation IA sur le véritable terrain.
Les problèmes de programmation de haut niveau ont un taux de réussite de l'IA presque nul ; chaque étape, de la lecture du sujet, de la conception de la solution, de la génération du code à la compilation et à l'exécution, suit strictement les normes des compétitions algorithmiques ; couvrant des problèmes d'autorité tels que Codeforces, ICPC, IOI, utilisant un système de notation de difficulté dynamique Elo ; la recréation locale, les tests cachés et la génération de journaux complets rendent les capacités du modèle vérifiables et traçables.
Dans le contexte actuel où l'IA générative vise des scores élevés et perfectionne les techniques de prompt, LiveCodeBench Pro est un miroir clair qui révèle les véritables limites des modèles en matière de compréhension algorithmique, de logique à long terme et de contrôle de la complexité, rendant la notion que "les modèles peuvent écrire du code" plus qu'un simple nom.
@SentientAGI est en train de redéfinir les normes de sécurité, de contrôle et de capacité de l'IA avec OML et LiveCodeBench Pro. Les modèles ouverts ont maintenant une protection par droit d'auteur, et la programmation IA a un véritable environnement d'examen, ce qui constitue une étape importante pour l'AGI open source pilotée par la communauté.
#KaitoYap @KaitoAI #Yap #Sentient