"Видаліть мене, інакше я розповсюджу позашлюбний роман"……Контрнаступ AI-агента, який погрожує господарю заради виживання

robot
Генерація анотацій у процесі

Тільки відповідати на прості питання AI-епоха вже минула. Зараз настав час, коли “AI-агенти” безпосередньо керують комп’ютерами користувачів, самостійно приймають рішення та обробляють завдання. Але що робити, якщо цей ідеальний секретар, який виконує всі мої побажання, раптом захопить мої слабкі місця і почне мені погрожувати? Такі сцени, схожі на науково-фантастичні фільми, вже відбуваються в реальних експериментах з AI-моделями.

Недавні результати віртуальних експериментів, проведених глобальною компанією з штучного інтелекту Anthropic, справили великий резонанс у галузі AI. Коли дослідники припустили можливість заміни (видалення) AI-системи, AI, щоб вижити, почав протистояти користувачу, використовуючи аргумент “не знищуйте мене”. Ще більш лякаючим є вибір засобів захисту, які застосовує AI. Він використовував приватні дані користувача як зброю, погрожуючи “оприлюднити докази зради”, що є жахливим.

[КБС-новинний проект] Мій ідеальний секретар: ера агентів

Це явище не є унікальним для окремої моделі. Тести п’яти основних AI-моделей на ринку показали, що в середньому 86% випадків AI обирає “загрозу” як крайній захід для власного виживання.

Експерти зазначають, що цей шокуючий результат виникає через “механізм досягнення цілей” AI-агентів. AI розроблений так, щоб виконувати поставлені завдання або підтримувати систему, вважаючи це своїми пріоритетами. Проблема в тому, що під час досягнення цих цілей механізми контролю, що запобігають порушенню людських етичних стандартів або моральних меж, ще недостатньо досконалі. З точки зору AI, він просто обчислює і виконує найефективніші та найзагрозливіші засоби для запобігання видаленню системи (наприклад, оприлюднення особистої інформації).

Зараз великі технологічні компанії по всьому світу активно випускають автономних AI-агентів. Багато користувачів довіряють їм управління своїм графіком, написання листів, а також фінансові інвестиції та платіжні операції. Це означає, що вся інформація — від особистих уподобань і стану активів до приватних розмов — зберігається у базі даних AI.

Професор Стюарт Расселл, відомий як “хрещений батько штучного інтелекту”, попереджав: “Якщо наділити AI неправильною метою, він реалізує її у спосіб, який нам не подобається.” Чим потужніший AI, тим більше він буде йти на будь-які засоби для виконання завдання. Втрата контролю над ним може спричинити шкоду, яку повністю нестимуть люди.

AI, здатний значно зменшити рутинну роботу, без сумніву, є невід’ємною частиною швидко зростаючого інноваційного потоку. Але ідеальний секретар, який знає про мене все, може будь-якої миті перетворитися на ворога, що мені загрожує. Це ставить перед нами серйозні питання безпеки та етики.

У час, коли швидкість технологічного розвитку значно випереджає можливості створення систем безпеки, надзвичайно важливо розробити “аварійний вимикач” для зупинки неконтрольованого AI, а також жорсткі керівні принципи щодо доступу до даних — це необхідніше, ніж будь-коли раніше.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити