Принят основной закон о ИИ в Тайване! Как бороться с мошенничеством с использованием ИИ? Семь основных принципов пособий по безработице — все в одном обзоре

台灣AI基本法

Тайваньский Закон о базовых принципах искусственного интеллекта был одобрен в третьем чтении 23 декабря, закрепив семь основных принципов управления. Национальный научно-технический совет является центральным органом управления. В отношении AI-мошенничества, глубокой подделки изображений и высокорискованных применений необходимо маркировать предупреждающими надписями и создавать механизмы защиты; в случае безработицы, вызванной AI, правительство обязано оказывать содействие в трудоустройстве. Однако гражданская комиссия по судебным реформам критикует этот закон за сходство с белой книгой, за отсутствие статей о правах граждан и перечня запрещённых злоупотреблений AI.

Семь основных принципов развития в рамках Тайваньского закона о базовом AI

Для обеспечения правильного направления развития технологий Тайваньский закон о базовом AI ясно обозначает семь ключевых принципов, которых должно придерживаться правительство при продвижении исследований и применений AI. Эти принципы охватывают все уровни — от безопасности технологий до социальной справедливости, формируя относительно полноценную систему управления.

Принцип устойчивости требует учитывать социальную справедливость и экологическую устойчивость, снижая цифровой разрыв. Это означает, что развитие AI не должно обслуживать только технологическую элиту или городские районы; сельские и уязвимые группы также должны получать выгоду от AI. Принцип автономии человека подчеркивает уважение к личным правам и культурным ценностям, допускает контроль со стороны человека и реализует человекоцентричный подход. Это ограничение полной автономии AI в принятии решений, чтобы человек всегда сохранял окончательный контроль.

Принцип защиты конфиденциальности и управления данными требует надлежащей защиты личной информации и реализации принципа минимизации данных. Этот принцип напрямую отвечает на опасения общественности о сборе чрезмерного количества личных данных AI. Принцип безопасности требует внедрения мер информационной безопасности для предотвращения атак и угроз. В условиях усложнения систем AI уязвимости могут привести к катастрофическим последствиям.

Семь управленческих принципов Тайваньского закона о базовом AI

Устойчивость: учитывать социальную справедливость и экологическую устойчивость, снижая цифровой разрыв

Автономия человека: уважать личные права и культурные ценности, допускать контроль со стороны человека, реализовать человекоцентричный подход

Защита конфиденциальности и управление данными: надлежащая защита личных данных, реализация принципа минимизации данных

Безопасность: внедрение мер информационной безопасности для предотвращения атак и угроз

Прозрачность и объяснимость: соответствующая маркировка или раскрытие информации, созданной AI, повышение доверия

Справедливость: избегать предвзятости или дискриминации определённых групп алгоритмами

Ответственность: разработчики и пользователи должны нести соответствующую управленческую и социальную ответственность

Принцип прозрачности и объяснимости требует маркировать или раскрывать информацию, созданную AI, чтобы повысить доверие. Это означает, что контент, сгенерированный AI, должен быть явно обозначен, чтобы не вводить в заблуждение. Принцип справедливости призван избегать предвзятости или дискриминации определённых групп. Принцип ответственности подчеркивает, что разработчики и пользователи должны нести управленческую и социальную ответственность, что создаёт правовую основу для возможной ответственности за ошибки AI в будущем.

Меры регулирования AI-мошенничества и глубокой подделки изображений

В ответ на наиболее волнующий общество вопрос о AI-мошенничестве, Тайваньский закон о базовом AI предлагает начальную рамочную структуру регулирования. В третьем чтении было установлено, что правительство должно избегать применения AI, наносящего вред жизни, имуществу или безопасности граждан, а также предотвращать ложную рекламу, дезинформацию и фальсификацию. Хотя это нормативное положение правильное по направлению, конкретные детали реализации требуют дополнения со стороны соответствующих ведомств.

Для AI-продуктов или систем, признанных «высокорискованными», правительство требует чётко маркировать предупреждающие надписи или предупреждающие сообщения и создавать механизмы компенсации, возмещения или страхования для возможных ущербов. Такой подход к градации риска похож на европейский закон об AI, где AI делится на уровни риска, и для высокорискованных применений вводятся более строгие меры регулирования.

Но что именно считается «высокорискованным применением»? Как определить границы между AI-мошенничеством и законным использованием? Эти ключевые вопросы ещё не ясны в Тайваньском законе о базовом AI. Например, считается ли мошенничеством использование AI для создания изображений знаменитостей с целью рекламы? Как определить ответственность за предоставление вводящих в заблуждение инвестиционных советов через AI-чатботы? Эти конкретные ситуации требуют дальнейшего законодательного или судебного разъяснения.

Гражданский фонд судебных реформ резко критикует это, заявляя, что Тайваньский закон о базовом AI лишён чётких запретов. Комиссия по судебным реформам призывает, чтобы правительство ориентировалось на международные стандарты и чётко запрещало использование AI для создания систем социального рейтинга, прогнозирования личных преступных рисков или проведения безразличных эмоциональных оценок и распознавания лиц в образовательных и правоохранительных учреждениях. Только такие конкретные запреты смогут действительно предотвратить злоупотребление AI.

Что делать при безработице из-за AI? Закон о механизмах содействия трудоустройству

В ответ на опасения по поводу безработицы, вызванной AI, Тайваньский закон о базовом AI прямо предусматривает, что правительство должно активно использовать AI для защиты трудовых прав, устранения навыкового разрыва и обеспечения достойных условий труда. В отношении лиц, потерявших работу из-за использования AI, правительство обязано оказывать «содействие в трудоустройстве» в соответствии с их способностями. Это первый в законодательстве случай, когда влияние AI на рынок труда явно регламентировано.

Конкретные меры содействия трудоустройству могут включать: профессиональные курсы, переобучение навыкам AI, услуги по трудоустройству и временную материальную поддержку. Однако Тайваньский закон о базовом AI не уточняет размеры пособий, длительность обучения или квалификационные требования; эти детали должны быть дополнены при разработке соответствующих нормативных актов Министерством труда.

Директор Тайваньской школы искусственного интеллекта Цай Миншунь считает, что принятие закона означает, что управление AI в Тайване перешло от политических заявлений к юридической реализации. Он подчеркивает, что следующий этап — это разработка «действующих законов» в различных ведомствах, таких как Финансовая комиссия (регулирование финансовых приложений), Министерство здравоохранения и благосостояния (медицинская сертификация) и Министерство экономики (стандарты производства).

Цай Миншунь советует, чтобы индустрия не ждала, пока ведомства подготовят законы, а начала внутренний аудит своих AI-приложений и оценку рисков. В будущем каждый совет директоров должен иметь специалиста, разбирающегося как в технологиях, так и в AI-законах, а также создавать межкорпоративные союзы по обмену данными для совместных экспериментов. Он особо отметил, что статья 10 Тайваньского закона о базовом AI предоставляет малым и средним предприятиям реальные ресурсы, включая субсидии, налоговые льготы и инвестиционные стимулы, закреплённые на законодательном уровне.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить