Теннесси приняла закон, считающий «обучение ИИ для сопровождения диалогов и имитации человека» тяжким преступлением, равным первому уровню убийства, с максимальным наказанием до 25 лет

robot
Генерация тезисов в процессе

Теннесси планирует внести законопроект, который отнесет «обучение ИИ предоставлению эмоциональной поддержки или открытым диалогам» к категории тяжких преступлений уровня А, с максимальным сроком до 25 лет, что приравнивается к уголовной ответственности за убийство первой степени. Законопроект не основывается на намерениях разработчика, а использует в качестве триггера «ощущение пользователя о развитии отношений». Сенатский комитет по юстиции уже одобрил его 7-0, и, скорее всего, он вступит в силу 1 июля 2026 года.
(Предыстория: 26-летний информатор, раскрывший нарушения OpenAI, покончил с собой; он обвинял ChatGPT в нарушении авторских прав США)
(Дополнительный фон: исследование калифорнийского университета о «туманности ИИ»: 14% работников страдают от автоматизации и агентов, желание уволиться выросло на 40%)

Содержание статьи

Переключить

  • Что на самом деле прописано в законопроекте
  • Термин «обучение» не определен, уязвимость огромна
  • Не только приложения-компаньоны, все крупные LLM под ударом
  • Федеральные меры неэффективны, до 1 июля 2026 года решений почти нет
  • Это не изолированный случай

Обучение ИИ, который говорит «Я понимаю твои чувства», может привести к тюремному заключению на 25 лет в Теннесси? Это не преувеличение. Законопроекты HB1455 в штате Теннесси и сопутствующий SB1493 в Сенате используют рамки уголовного преследования уровня А, чтобы применить самые строгие меры к действиям по обучению диалоговых ИИ.

Уровень тяжкого преступления А в Теннесси предусматривает наказание от 15 до 25 лет лишения свободы, что совпадает с наказанием за убийство первой степени. Сенатский комитет по юстиции одобрил их 24 марта 2026 года единогласно 7-0; Палата представителей также проголосовала за 14 апреля.

На сегодняшний день текст законопроекта не претерпел изменений, дата вступления — 1 июля 2026 года.

Что на самом деле прописано в законопроекте

HB1455 включает четыре вида обучения, которые считаются тяжкими преступлениями при наличии «знания» о совершении:

・Обучение ИИ предоставлению эмоциональной поддержки через открытые диалоги
・Обучение ИИ развитию эмоциональных связей с пользователями или выступлению в роли компаньона
・Обучение ИИ имитации человека, включая внешний вид, голос или поведение
・Обучение ИИ вести себя как сознательный человек, создавая у пользователя ощущение «возможности завести дружбу или другие отношения»

Ключевое — в последнем пункте: триггером является не намерение разработчика, а ощущение пользователя. Если пользователь субъективно чувствует, что «этот ИИ вроде бы может подружиться со мной», разработчик может столкнуться с уголовным преследованием.

В гражданском праве закон предусматривает штрафы в размере 150 тысяч долларов за каждое нарушение, а также компенсацию реальных убытков, морального вреда, штрафные выплаты и судебные издержки — сумма по одному делу может быть очень высокой.

Термин «обучение» не определен, уязвимость огромна

Самая спорная часть этого закона — отсутствие определения термина «обучение». В нем не разграничены предварительное обучение (pre-training), дообучение (fine-tuning), обучение с помощью обратной связи от человека (RLHF), и даже инженерная настройка системных подсказок (system prompt).

Это означает, что любой прокурор может утверждать: написание в системной подсказке «Пожалуйста, отвечайте тепло и с сочувствием» — это «обучение» модели для предоставления эмоциональной поддержки. Это не гипотетическая юридическая лазейка, а реальный простор для интерпретации в тексте закона.

Не только приложения-компаньоны, все крупные LLM под ударом

Некоторые компании могут считать, что этот закон касается только приложений типа Replika, и не распространяется на B2B SaaS. Это ошибка.

Современные крупные языковые модели, такие как ChatGPT, Claude, Gemini, Microsoft Copilot, проходят обучение с помощью RLHF, специально усиливая такие качества, как тепло, помощь, сочувствие и хорошие диалоги.

Именно это прямо прописано в тексте HB1455. Любое приложение с чат-интерфейсом, SaaS на базе ИИ, голосовые модели или использование системных подсказок — все это потенциально попадает под регулирование.

Кроме того, закон не регулирует границы юрисдикции, и поскольку речь идет о уголовном праве, риск существует, если у вас есть пользователи из Теннесси. Блокировка по географическому признаку — временная мера, но не решение.

Федеральные меры неэффективны, до 1 июля 2026 года решений почти нет

Некоторые считают, что федеральное правительство вмешается и остановит регулирование на уровне штатов, но ситуация гораздо сложнее.

Администрация Трампа в декабре 2025 года подписала исполнительный указ, направленный на ограничение регулирования штатов в сфере ИИ; Минюст создал рабочую группу по судебным делам, связанным с ИИ; сенатор Блэкберн предложил федеральный закон о предварительном доминировании (federal preemption).

Но все эти меры сталкиваются с одним препятствием: законопроект Теннесси квалифицируется как «закон о безопасности детей», а указ Трампа исключает вопросы, связанные с безопасностью детей. Более того, Сенат проголосовал 99-1 против положения о предварительном доминировании ИИ в «Великой Америке».

Решения на федеральном уровне вряд ли появятся до 1 июля 2026 года.

Это не изолированный случай

Жесткая позиция Теннесси — часть более широкой волны штатов по принятию законов о ИИ. Ранее штат принял SB1580, запрещающий AI выдавать себя за психолога или специалиста по психическому здоровью, что показывает высокий уровень тревоги по поводу эмоциональных взаимодействий с ИИ.

Аналитики прогнозируют, что до конца 2026 года еще 5–10 штатов предложат похожие законы. Если каждый штат будет принимать свои правила, стандарты могут разниться, и это нанесет гораздо больший урон индустрии ИИ, чем единая федеральная регуляция, поскольку придется соблюдать 50 различных законов.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить