Google met à niveau Gemini Deep Research Max : intégration de MCP pouvant connecter des bases de données internes d'entreprise, des graphiques natifs, permettant aux analystes de réaliser des enquêtes diligentes

robot
Création du résumé en cours

Google annonce une mise à niveau majeure de Gemini Deep Research, lançant deux nouveaux agents : Deep Research (priorité à la vitesse) et Deep Research Max (priorité à la qualité), intégrant entièrement le modèle Gemini 3.1 Pro, et connectant via le protocole MCP aux plateformes de données financières ou aux données internes d’entreprise telles que FactSet, S&P Global, PitchBook.
(Résumé précédent : OpenAI débloque Deep Research : utilisateurs payants peuvent interroger 10 fois par mois, Microsoft lance l’agent multimodal d’IA Magma)
(Complément d’information : OpenAI lance « ChatGPT Agent » ! Fusionnant Operator et Deep Research : réservation de billets, livraison de repas, rédaction de présentations, tout en maîtrisant)

Table des matières de cet article

Basculer

  • Qu’est-ce que Max : penser plus longtemps pour obtenir des réponses plus profondes
  • Support MCP : de la recherche sur le web à la recherche dans « n’importe quelle base de données »
  • Trois avancées majeures : graphiques, planification collaborative, flux en temps réel
  • L’agent IA franchit le seuil du « assistant de recherche »

Google a annoncé hier (21) soir une mise à niveau majeure de Gemini Deep Research, en lançant simultanément deux agents : Deep Research (priorité à la rapidité) et Deep Research Max (priorité à la qualité), intégrant entièrement Gemini 3.1 Pro, et pour la première fois accessible en version bêta via l’API Gemini payante.

Qu’est-ce que Max : penser plus longtemps pour obtenir des réponses plus profondes

La différence centrale de Deep Research Max réside dans « le calcul prolongé en test ». L’agent ne se contente pas de faire une seule passe pour produire un rapport, mais répète raisonnement, recherche, correction, comme un assistant de recherche infatigable, jusqu’à ce qu’il estime la qualité du rapport satisfaisante.

Google indique que Max a permis une avancée « révolutionnaire » dans ses capacités d’extraction et de raisonnement par rapport aux standards de l’industrie, avec une augmentation significative du nombre de sources consultées par rapport à la version bêta de décembre dernier, capable de repérer des différences clés ignorées auparavant, et d’utiliser de manière proactive des sources autorisées telles que les dépôts SEC, les revues à comité de lecture, etc., lors de la pesée des preuves conflictuelles.

Les utilisateurs peuvent programmer une analyse nocturne, pour que l’équipe d’analystes retrouve le rapport complet le matin à leur arrivée. La vitesse n’est pas la priorité, c’est la profondeur qui compte.

En comparaison, la version standard de Deep Research se concentre sur une réduction significative de la latence et du coût, remplaçant la version bêta de décembre comme option par défaut pour les scénarios interactifs (lorsque l’utilisateur a besoin d’une réponse immédiate, sans la profondeur coûteuse de Max).

Support MCP : de la recherche sur le web à la recherche dans « n’importe quelle base de données »

La mise à jour de Deep Research offre également un support natif pour le protocole MCP (Model Context Protocol). Auparavant, l’agent ne pouvait accéder qu’aux informations publiques en ligne, mais via MCP, il peut se connecter de manière transparente à des sources de données internes d’entreprise ou à des flux de données spécialisés.

Concrètement : le département financier peut intégrer ses systèmes ERP internes, ses API privées de fournisseurs de données de marché via un serveur MCP, et Deep Research pourra dans un même flux de travail consulter simultanément le web public, les données de terminal Bloomberg, et ses propres bases de données, en parallèle, sans changer d’outil manuellement.

Google a également annoncé une collaboration avec FactSet, S&P Global, PitchBook, qui ont co-conçu un serveur MCP permettant aux clients d’intégrer directement ces plateformes de données financières et de marché dans le flux de travail de Deep Research. Pour les banques d’investissement, le private equity, ou les sociétés de recherche, cette passerelle a une importance stratégique évidente.

En termes d’outils, les utilisateurs peuvent activer simultanément Google Search, MCP distant, contexte URL, exécution de code, recherche de fichiers ; ou désactiver complètement le réseau pour que l’agent ne fonctionne qu’avec ses bases de données privées, ce qui est crucial pour les entreprises soucieuses de la sécurité des données.

Trois avancées majeures : graphiques, planification collaborative, flux en temps réel

Premièrement, graphes et infographies natives. C’est une première sur l’API Gemini : Deep Research ne se limite plus à produire du texte, il peut générer directement des graphiques HTML ou des infographies Nano Banana, faisant passer le rapport d’un simple texte à un document d’analyse visuelle.

Deuxièmement, planification collaborative. Avant d’exécuter une recherche, l’agent génère un plan d’étude que l’utilisateur peut examiner, guider ou modifier, avant que l’agent ne commence. Cela permet un contrôle plus précis du périmètre de l’enquête, transformant le processus d’une boîte noire « posez une question, attendez un rapport » à une collaboration homme-machine pour définir le cadre de recherche.

Troisièmement, flux en temps réel. Le système suit les étapes intermédiaires du raisonnement de l’agent, avec un résumé en direct des pensées, permettant à l’utilisateur de voir ce que l’agent fait en temps réel, avec un affichage simultané du texte et des images, réduisant considérablement l’incertitude liée à l’attente prolongée.

En matière de grounding multimodal, Deep Research peut désormais ingérer des PDF, CSV, images, audio, vidéos comme entrées, intégrant des données de formats variés sans nécessiter de traitement manuel préalable.

L’agent IA franchit le seuil du « assistant de recherche »

L’apparition de Deep Research Max marque, dans une certaine mesure, l’entrée de l’agent IA dans une nouvelle phase de maturité dans le flux de travail de recherche en entreprise. Jusqu’ici, l’IA assistait la recherche principalement pour « résumer un fichier » ou « rechercher quelques articles », essentiellement une automatisation d’assistant de recherche.

Mais lorsque l’agent peut raisonner de façon répétée, peser de manière autonome les preuves conflictuelles, citer des dépôts SEC, et accéder via MCP à des bases de données financières privées, il s’approche du travail d’un analyste junior en matière de due diligence.

Bien sûr, « approcher » ne signifie pas « remplacer ». La vérification de la logique de raisonnement de l’agent, la gestion de ses accès aux données privées, ou l’utilisation réglementée des conclusions générées par l’IA restent des défis pour les entreprises. Mais le message de Google est clair : sur le plan technique, cette voie est désormais ouverte.

Deep Research et Deep Research Max sont désormais accessibles en version bêta publique via l’API Gemini payante, une version pour Google Cloud est également en préparation. Pour plus de détails, consultez l’annonce officielle sur le blog Google.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler