Текст: Ингрид Лунден
Источник: TechCrunch
Источник изображения: Сгенерировано Unbounded AI
Перспективы и вред ИИ являются горячими темами в наши дни. Некоторые говорят, что искусственный интеллект спасет нас, поможет диагностировать какие-то злокачественные заболевания, преодолеть цифровой разрыв в образовании и т.д. Но есть также опасения по поводу угрозы, которую он представляет для войны, безопасности, дезинформации и многого другого. Это стало развлечением для простых людей и вызвало тревогу в деловом мире.
Искусственный интеллект очень полезен, но он пока не может заглушить шум комнаты, полной болтовни. На этой неделе ученые, регулирующие органы, правительственные лидеры, стартапы, крупные технологические компании и десятки коммерческих и некоммерческих организаций собрались в Великобритании, чтобы обсудить и обсудить ИИ.
В среду и четверг в Великобритании пройдет саммит по безопасности искусственного интеллекта в Блетчли-парке, первый в своем роде в Великобритании.
Саммит был запланирован на несколько месяцев для изучения некоторых долгосрочных проблем и рисков, связанных с искусственным интеллектом. Цели саммита являются скорее идеальными, чем конкретными: «общее понимание рисков, связанных с передовым ИИ, и необходимости действий», «перспективный процесс международного сотрудничества в области безопасности пограничного ИИ, включая то, как наилучшим образом поддерживать национальные и международные рамочные механизмы», «организации должны принять соответствующие меры для повышения безопасности передового ИИ» и так далее.
Это желание на высоком уровне также отражено в личностях участников: будут присутствовать высокопоставленные правительственные чиновники, лидеры отрасли и выдающиеся мыслители в этой области. (По последним данным: на мероприятии будут присутствовать Илон Маск, президент Байден, Джастин Трюдо и Олаф Шольц и другие).
Саммит звучал по-особенному, и так оно и было: «золотой билет» на саммит (описанный лондонским технологическим основателем и писателем Азимом Азхаром) был в дефиците. Сообщается, что саммит будет маломасштабным и в основном закрытым. Эти мероприятия включают в себя выступления в Королевском обществе (Национальная академия наук); Масштабные конференции «AI Fringe» в нескольких городах и объявления от многих целевых групп, среди прочих.
Джина Нефф, исполнительный директор Центра технологий и демократии Минделоу при Кембриджском университете, заявила на вечерней панельной дискуссии по науке и безопасности в Королевском обществе на прошлой неделе: «Мы собираемся сыграть роль саммита, который мы уже провели. Другими словами, мероприятие в Блетчли будет делать то, что оно должно делать, а то, что не входит в рамки мероприятия, будет возможностью для людей провести мозговой штурм по другим вопросам. "
Показательным примером стала панельная дискуссия Нефф: в переполненном зале Королевского общества она сидела с представителями Human Rights Watch, государственными чиновниками из крупного профсоюза Unite, основателем Tech Global Institute, аналитического центра, занимающегося вопросами технологического равенства на Глобальном Юге, главой отдела государственной политики в стартапе Stability AI и учеными-компьютерщиками из Кембриджского университета.
В то же время, можно сказать, что так называемая встреча AI edge является лишь номинальным «ребром». Поскольку саммит в Блетчли проходил в том же месте в течение недели, с очень ограниченным списком гостей и столь же ограниченными возможностями узнать о том, что обсуждалось, сессия AI Edge была быстро расширена до Блетчли и конкретизировала повестку дня конференции. Мероприятие, как сообщается, было организовано не правительством, а PR-фирмой под названием Milltown Partners (которая представляла такие компании, как DeepMind, Stripe и венчурная фирма Atomico), и, что интересно, оно длилось целую неделю, проводилось в нескольких местах по всей стране и было бесплатным для тех, кто мог получить билеты (многие мероприятия были распроданы), и многие сессии также были доступны на потоковых сервисах.
Несмотря на разнообразие, было очень грустно видеть, что дискуссия об искусственном интеллекте, несмотря на его младенчество, все еще была разделена: одна была встречей сильных мира сего (большая часть которой была открыта только для приглашенных гостей), а другая — встречей всех остальных.
Ранее сегодня группа из 100 профсоюзов и активистов направила письмо премьер-министру, в котором говорится, что правительство «подавляет» их голоса в разговоре, не позволяя им участвовать в Блетчли-парке. (Возможно, они и не получили билеты, но их способ противостоять им был абсолютно разумным: группа обнародовала его, поделившись письмом с самыми элитными экономическими изданиями страны, такими как Financial Times).
Это не только обычные люди, которые остаются на произвол судьбы. Карисса Велиз, преподаватель кафедры философии в Оксфордском университете, сказала на сегодняшнем мероприятии AI Edge: «Никто из людей, которых я знаю, не был приглашен. "
Некоторые считают, что в рационализации есть свои преимущества.
Ученый-исследователь в области искусственного интеллекта Мариус Хоббхан является соучредителем и руководителем компании Apollo Research, которая разрабатывает инструменты безопасности на основе искусственного интеллекта. Он считает, что меньшее количество людей также может привлечь больше внимания: «Чем больше людей в комнате, тем сложнее сделать какие-либо выводы или провести эффективную дискуссию», — сказал он.
В более широком смысле саммит – это всего лишь «кирпичик» и часть более широкого разговора, который сейчас ведется. На прошлой неделе премьер-министр Великобритании Риши Сунак заявил, что намерен создать новый институт безопасности ИИ и исследовательскую сеть в Великобритании, чтобы тратить больше времени и усилий на изучение влияния ИИ; Группа видных ученых во главе с Йошуа Бенджио и Джеффри Хинтоном коллективно погрузилась в эту область, опубликовав статью под названием «Управление рисками ИИ в эпоху быстрого прогресса»; Организация Объединенных Наций также объявила о создании собственной целевой группы для изучения влияния искусственного интеллекта. Недавно президент США Джо Байден также издал собственный указ об установлении стандартов безопасности ИИ.
Один из самых больших споров заключается в том, является ли идея о том, что ИИ представляет собой «экзистенциальный риск», преувеличенной или даже преднамеренной, чтобы устранить контроль за более непосредственной деятельностью ИИ.
Мэтт Келли, профессор системной математики в Кембриджском университете, отмечает, что одной из наиболее часто цитируемых областей является дезинформация.
«Дезинформация не является чем-то новым. Это даже не что-то новое в этом или прошлом веке», — сказал он в интервью на прошлой неделе. «Но это одна из областей, где, по нашему мнению, существуют потенциальные риски для ИИ в краткосрочной и среднесрочной перспективе. И эти риски развиваются медленно с течением времени. Келли, член Королевского научного общества, сказал, что общество также провело красно-синее командное упражнение специально для дезинформации в науке во время подготовки к саммиту, чтобы увидеть, как большие языковые модели будут вести себя при попытке конкурировать друг с другом. Это попытка лучше понять, каковы риски прямо сейчас».
Правительство Великобритании, похоже, придерживается двуличного подхода к этим дебатам, причем опасность более очевидна, чем название мероприятия, которое оно организует, — Саммит по безопасности ИИ.
В своем выступлении на прошлой неделе Сунак сказал: «Сейчас у нас нет общего понимания рисков, с которыми мы сталкиваемся. «Без этого консенсуса мы не можем рассчитывать на совместное преодоление этих рисков». Именно поэтому мы будем прилагать все усилия для принятия первого международного заявления о природе этих рисков».
Но, организуя саммит, Великобритания сначала позиционировала себя в качестве центрального игрока в определении повестки дня «о том, о чем мы говорим, когда говорим об искусственном интеллекте», и у нее, безусловно, есть экономическая перспектива.
«Сделав Великобританию мировым лидером в области безопасного ИИ, мы привлечем больше новых рабочих мест и инвестиций от этой волны новых технологий», — отметил Сунак. (Служебная записка также была получена другими ведомствами: министр внутренних дел сегодня провел мероприятие с участием Internet Watch Foundation и ряда крупных компаний-разработчиков потребительских приложений, таких как TikTok и Snap, чтобы бороться с распространением изображений сексуального насилия, сгенерированных искусственным интеллектом).
Может показаться, что вовлечение Big Tech помогает в каком-то отношении, но критики склонны видеть в этом и проблему. «Регулятивный захват», когда крупные игроки отрасли предпринимают активные шаги для обсуждения и разработки рисков и защиты, стал еще одной важной темой в дивном новом мире ИИ, и саммит на этой неделе не стал исключением.
«Остерегайтесь лидеров ИИ, которые поднимают руки и говорят: «Я, я». Найджел Тун, генеральный директор производителя чипов искусственного интеллекта Graphcore, проницательно указал в статье, которую он написал о предстоящем саммите на этой неделе: «Правительства, скорее всего, вмешаются и поверят им на слово». (Впрочем, он не совсем маргинален: он сам будет присутствовать на саммите.)
В то же время многие люди до сих пор спорят о том, является ли нынешний так называемый экзистенциальный риск полезным упражнением в мышлении.
«Я думаю, что риторика о границах и искусственном интеллекте привела нас в состояние страха перед технологиями за последний год», — сказал Бен Брукс, глава отдела государственной политики в Stability AI, на панельной дискуссии в Королевском обществе, сославшись на мысленный эксперимент «Максинг скрепок», в ходе которого ИИ мог уничтожить мир, создавая скрепки без учета человеческих потребностей или безопасности, в качестве примера этого намеренно ограничивающего подхода. «Они не думают об обстоятельствах, при которых может быть развернут ИИ. Но вы можете смело его развивать. Мы хотим, чтобы все вдохновились этим и поняли, что ИИ достижим и безопасен. "
Другие менее уверены.
Хоббхан из Apollo Research сказал: «Честно говоря, я не думаю, что экзистенциальный риск точен. «Назовем это катастрофическим риском». Учитывая темпы развития в последние годы, приложения генеративного ИИ сделали большие языковые модели мейнстримом, и он считает, что наибольшую озабоченность будут по-прежнему вызывать злоумышленники, которые используют ИИ, а не сам ИИ в беспорядках: использование его для биологической войны, ситуации с национальной безопасностью и дезинформации, которая может изменить демократический процесс. По его словам, все эти области являются областями, в которых, по его мнению, ИИ, вероятно, будет играть катастрофическую роль.
«Лауреаты премии Тьюринга открыто обеспокоены выживанием и катастрофическими рисками… Мы действительно должны подумать об этом", - добавил он.
Несмотря на серьезные риски, Великобритания также хочет сделать страну естественным домом для компаний, занимающихся искусственным интеллектом, проводя большие дискуссии об искусственном интеллекте. Однако некоторые аналитики считают, что путь к инвестициям в ИИ может быть не таким гладким, как некоторые прогнозируют.
«Я думаю, что реальность начинает вырисовываться, что компании начинают понимать, сколько времени и денег им нужно выделять на проекты генеративного ИИ, чтобы получить надежные результаты, которые действительно могут повысить производительность и доходы», — сказал Авива Литан, корпоративный вице-президент, аналитик Gartner. «Несмотря на то, что они вносят итеративные корректировки и инженерные работы по проекту, им по-прежнему требуется ручной контроль за операциями и результатами. Короче говоря, выходные данные GenAI недостаточно надежны и требуют много ресурсов, чтобы сделать их надежными. Конечно, модель все время совершенствуется, но таково текущее состояние рынка. Но в то же время мы видим, что все больше и больше проектов выходят на стадию производства. "
Она считает, что инвестиции в ИИ «определенно замедлят рост предприятий и государственных организаций, использующих ИИ». Поставщики продвигают свои приложения и продукты ИИ, но компании не могут внедрить их так же быстро, как их продвигают. Кроме того, существует множество рисков, связанных с приложениями GenAI, таких как демократизация легкого доступа к конфиденциальной информации даже внутри организации. "
Точно так же, как «цифровая трансформация» в реальности является скорее медленно сгорающей концепцией, инвестиционная стратегия предприятия в области ИИ также требует больше времени. «Компаниям требуется время, чтобы заблокировать свои структурированные и неструктурированные наборы данных и правильно и эффективно установить разрешения. На предприятии слишком много избыточного совместного использования, которое до этого не имело значения. Литан добавляет: «Теперь любой может получить доступ к любому файлу, который не защищен должным образом, с помощью простой команды на родном языке, например, на английском». "
Тот факт, что вопрос о том, как сбалансировать коммерческие интересы ИИ с вопросами безопасности и рисков, который будет обсуждаться в Блетчли-парке, многое говорит о предстоящей задаче, но также подчеркивает напряженность ситуации. Позже в ходе конференции организаторы Блетчли, как сообщается, работали над тем, чтобы расширить дискуссию за пределы проблем безопасности на высоком уровне и включить в области, где действительно могут возникнуть риски, такие как здравоохранение, хотя этот сдвиг не подробно описан в объявленной в настоящее время повестке дня.
«Будет круглый стол, в котором примут участие около 100 экспертов, что немало. Я критик, но это не кажется плохой идеей», — говорит Нефф, профессор Кембриджского университета. «Теперь будет ли глобальное регулирование предметом обсуждения? Абсолютно нет. Собираемся ли мы нормализовать отношения между Востоком и Западом? Наверное, нет. Но мы приближаемся к нашему саммиту. Я думаю, что на этом этапе могут быть очень интересные возможности. "