Google запускає Deep Research Agent» швидко освоїти автоматичний запуск 160 пошукових запитів для створення графіків, що претендує на рівень дослідницької співпраці AI

Google AI офіційно запустила дві автономні дослідницькі агенти — Deep Research та Deep Research Max, побудовані на базі Gemini 3.1 Pro, які автоматично планують дослідницький шлях, виконують до 160 пошукових запитів у мережі, підключаються до внутрішніх баз даних компанії (через MCP) та безпосередньо у звіті створюють графіки. Це перехід від «спілкування з AI» до «дозволу AI виконати повне дослідження», що є оновленням визначення AI-агента від Google.
(Попередній огляд: Google оновлює Gemini Deep Research Max: інтеграція MCP для підключення внутрішніх баз даних компанії, нативні графіки, реалізація аналізу та належної перевірки аналітиків)
(Додатковий контекст: 黃仁勳 надіслав всім співробітникам листа з підтримкою OpenAI Codex: понад 10 000 співробітників NVIDIA вже використовують, GPT-5.5 працює на GB200)

Якщо ви користувалися звичайною функцією діалогу Gemini для досліджень, ви, ймовірно, знаєте межі — один запит, один відповідь, пошук максимум кілька разів, і вам доводиться самостійно зводити висновки. Серія Deep Research робить інакше: вона спочатку обговорює з вами план дослідження, ви погоджуєтеся, і вона сама виконує його, з максимальною тривалістю 60 хвилин, і після завершення видає повний звіт з графіками.

Цього разу Google випустила дві версії — Deep Research і Deep Research Max, які відрізняються швидкістю та глибиною дослідження.

Як обрати між двома версіями

Deep Research — швидкісна версія, кожне завдання виконує близько 80 пошукових запитів, підходить для швидких взаємодій та швидкого отримання результатів. Ви вводите запит і отримуєте відповідь за кілька хвилин.

Deep Research Max — версія для глибокого аналізу, кожне завдання виконує близько 160 пошукових запитів, споживає в 3-4 рази більше токенів (приблизно 900 000 вхідних + 80 000 вихідних), підходить для нічних глибоких досліджень. Вона повторно уточнює звіт, що Google називає «розширеним обчисленням під час тестування» (extended test-time compute).

Щодо вартості, стандартна версія коштує приблизно $1-3 за завдання, Max — приблизно $3-7. Враховуючи тариф на токени Gemini 3.1 Pro: $2.00 за мільйон токенів для вхідних і $12.00 за мільйон для вихідних.

Три ключові функції

Інтеграція MCP з внутрішніми базами даних: за допомогою Model Context Protocol (MCP) ви можете підключити Deep Research до власних джерел даних. Google співпрацює з FactSet, S&P Global, PitchBook для розробки інтеграції MCP, що дозволяє фахівцям з фінансової перевірки (due diligence) напряму запитувати корпоративні фінансові звіти з баз даних, а не лише шукати у відкритому доступі.

Також можна повністю вимкнути пошук у мережі і працювати лише з внутрішніми даними.

Нативний вивід графіків: у звіті можна безпосередньо створювати HTML-графіки або інфографіку, без необхідності вручну переносити дані до Excel для побудови графіків. Це проміжний продукт між чистим текстовим звітом і візуалізацією, і його можна використовувати для подальшого редагування.

Колаборативне планування дослідження: агент не виконує дослідження напряму, а спочатку генерує план, який ви можете переглянути, змінити і підтвердити перед запуском. Якщо результат вас не задовольняє, можна продовжити багатократні діалоги для уточнення або коригування напрямку.

Обидві версії наразі перебувають у статусі Public Preview і доступні через платний рівень API Gemini. Щоб спробувати, можна безпосередньо працювати через Google AI Studio, SDK для Python і JavaScript вже відкриті для підтримки, і для тих, у кого є безкоштовні обмеження — це не пропустити.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити