OpenClaw 2026.4.2 зосереджено на посиленні безпеки ланцюга постачальників HTTP, підключення Android до Google Assistant

BlockBeatNews

За моніторингом 1M AI News, платформа з відкритим кодом для AI-агентів OpenClaw випустила версію 2026.4.2. Ця версія містить 2 breaking changes, приблизно 15 покращень функціональності та понад 30 виправлень.

Дві breaking changes продовжують зовнішню інтеграцію архітектури плагінів, запущену 2026.3.31: конфігурація xAI x_search і конфігурація Firecrawl web_fetch перемістилися з основного шляху до власного шляху плагіна; старі конфігурації можна автоматично перенести через openclaw doctor --fix.

Найщільніша в цій версії єдина тема — централізація безпеки з’єднань HTTP від постачальників; contributor vincentkoc подав 8 відповідних виправлень. Раніше запитова автентифікація, налаштування проксі, TLS-стратегії та обробка заголовків для шляхів спільного HTTP, потокової передачі та WebSocket були розпорошені по адаптаціях для кожного постачальника; тепер усе зведено воєдино: централізовано стратегії нативних/проксі-запитів для GitHub Copilot, Anthropic та сумісних з OpenAI кінцевих точок, щоб запобігти наслідуванню нативних значень за замовчуванням проксійними або підробленими кінцевими точками; маршрутизація медіазапитів на кшталт аудіо й зображень здійснюється через спільний HTTP-шлях; кінцеві точки для генерації зображень більше не роблять припущення щодо дозволів доступу до приватної мережі на основі налаштованого base URL; зіставлення ключів для webhook’ів через різні канали уніфікується із застосуванням функції порівняння, стійкої до часу. Для користувачів, які самостійно хостять або підключають кількох третіх постачальників, ці зміни закривають низку вразливостей із підробкою запитів і наслідуванням стратегій.

Щодо нових функцій: на Android-додатку додано інтеграцію Google Assistant; користувач може напряму з голосового помічника запускати OpenClaw і надсилати підказку в інтерфейс діалогу. Змінилися виконувані значення за замовчуванням: для шлюзу й хостів вузлів тепер за замовчуванням встановлено security=full та ask=off, тобто примусова безпечна стратегія без підтвердження спливаючим вікном щоразу. У системі плагінів додано хуки before_agent_reply, які дозволяють плагінам перед відповіддю LLM виконати коротке замикання всього процесу за допомогою синтезованої відповіді. Task Flow продовжує вдосконалюватися: додано генерацію підкерованих (вкладених) задач під хостинг і наміри «липкої» (sticky) скасування; зовнішній оркестратор може негайно зупинити диспетчеризацію й очікувати, поки активні підзадачі завершаться природно.

Інші виправлення: внутрішні теги для antml:thinking у моделях Anthropic раніше могли витікати в текст, видимий користувачам; тепер їх фільтрують на виході. Виклики інструментів Kimi Coding втрачали параметри через несумісність форматів Anthropic і OpenAI — виконано нормалізацію. Для MS Teams при перевищенні 4000 символів під час потокової передачі більше не відтворюється повторно вже переданий контент.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів