Регулирование ИИ: обязанности, риски, маркировка, правовые аспекты

Avatar
Lisa Ernst · 21.09.2025 · Технологии · 5 мин

Введение Закона ЕС об искусственном интеллекте ставит перед творцами и командами в DACH-регионе новые вызовы в отношении маркировки, авторского права и документации. Закон вступил в силу 01.08.2024 с поэтапными обязанностями до 2027 года. Особенно важны требования к прозрачности и авторскому праву для GPAI (General-Purpose AI), которые вступили в силу 02.08.2025.

Обзор Закона ЕС об ИИ

Закон ЕС об ИИ — первый во всей Евросоюзе обширный закон об ИИ. Он устанавливает правила, основанные на рисках, варьирующиеся от запретов до требований прозрачности. Со дня 02.08.2025 он также касается GPAI-моделей, таких как крупные языковые модели, с конкретными требованиями. Закон направлен на обеспечение доверия, соответствия авторскому праву и прослеживаемости в обращении с ИИ.

Статья 50 Закона ЕС об ИИ обязывает маркировать взаимодействия с ИИ и синтетический или манипулированный контент (глубокие подделки, определённые текстовые случаи) как искусственный. Эта маркировка должна быть технически распознаваемой, например, через метаданные или водяные знаки. Для провайдеров GPAI требуются прозрачность согласно Статья 53, включая понятное резюме обучающих данных, а также соблюдение авторского права. При системном риске добавляются дополнительные обязанности согласно Статье 55.

Платформы, такие как YouTube, уже внедрили собственные руководящие принципы. YouTube требует чёткой декларации реалистично изменённых или синтетических материалов. При отсутствии раскрытия YouTube может пометить контент сам. В качестве технического решения для происхождения медиа становится стандарт C2PA/Content Credentials, стандарт для информации о происхождении, защищённой от манипуляций.

В контексте DACH следует учитывать, что Швейцария, хотя и не является членом ЕС, с 01.09.2023 приняла обновлённый закон о защите данных (nDSG), обязывающий компании к современной, прозрачной обработке данных.

Реализация и график

Хронология внедрения Закона ЕС об ИИ хорошо определена: 12.07.2024 опубликован в Официальном журнале. Закон вступил в силу 01.08.2024, однако ещё без применимых обязанностей. С 02.02.2025 вступают запреты на некоторые практики ИИ и грамотность по ИИ. Правила GPAI, управление, конфиденциальность и санкционный режим вступили в силу 02.08.2025. Одновременно государства-члены должны назначить надзорные органы и установить правила штрафов.

Параллельно ЕС опубликовал 10.07.2025 добровольный, но официально признанный Кодекс практик для GPAI, который упрощает компаниям доказательство соответствия. 24.07.2025 последовало обязательное шаблон общественного резюме обучающих данных в соответствии со ст. 53(1)(d), которое обязательно к использованию.

YouTube ввёл обязанность раскрывать реалистично синтетический контент в 2024/2025. При чувствительных темах метки отображаются более заметно. Монетизация остаётся возможной, если контент соответствует партнёрским и рекламным правилам.

Quelle: YouTube

Влияние и соответствие

ЕС делает ставку на ранние, выполнимые правила, чтобы обеспечить доверие, соблюдение авторского права и прослеживаемость. Особенно в GPAI речь идёт о минимальном стандарте документирования и уважении авторских прав, включая исключения на TDM и сохранение прав. Комиссия подтвердила соблюдение графика, несмотря на просьбы отрасли замедлить темп, и предоставила сопутствующие вспомогательные документы, такие как Code of Practice и образцы.

Платформы вроде YouTube обеспечивают параллельную прозрачность для зрителей, не наказывая полностью контент на основе ИИ. Вместо запрета используются метки, с большим акцентом на оригинальность и качество. Это проявляется в правилах монетизации: контент на базе ИИ не исключается в принципе, а привязан к соблюдению общих правил.

Quelle: YouTube

Для поставщиков GPAI или донастройки (Fine-Tuning) это означает необходимость надёжной документации (технология, политика авторских прав) и общественного, понятного резюме обучающих данных по европейскому шаблону. Производители контента должны видимо помечать реально синтетические фрагменты и рассмотреть использование Content Credentials (C2PA) в качестве технического доказательства источника. Поддержание «Model Cards» или «System Cards» служит надёжным артефактом прозрачности для классификации возможностей, ограничений и рисков.

В странах DACH Швейцарский nDSG остаётся отдельно релевантным. Компании должны планировать свои процессы так, чтобы соблюдался как EU AI Act (для рынка ЕС), так и nDSG (для Швейцарии). Размер штрафов по AI Act установлен до 35 млн евро или 7% мирового годового оборота; государства-члены должны определить конкретные принципы применения.

Соблюдение новых правил ИИ требует значительных усилий и адаптации в компаниях.

Quelle: techzeitgeist.de

Соблюдение новых правил ИИ требует значительных усилий и адаптации в компаниях.

Анализ и заблуждения

Фактически, требования GPAI (Ст. 53 и далее) действуют с 02.08.2025. Кодекс практик служит как подтверждённая дорожная карта, а сводка обучающих данных по образцу ЕС обязательна к публикации. YouTube требует раскрытие реалистично синтетического контента и может самостоятельно пометить такие материалы. Монетизация зависит от соблюдения общих правил и не исключает контент на базе ИИ по умолчанию.

Неясно, как будут сочетаться метки платформ, метаданные C2PA и будущие требования ЕС к машиночитаемой маркировке. ЕС рассматривает несколько технических вариантов (водяные знаки, метаданные, криптография) без фиксации одной обязательной технологии. Утверждения, что ЕС перенёс сроки, неверны; Комиссия подтверждала соблюдение графика. Также утверждение, что видеоролики с ИИ на YouTube монетизированы невозможно, вводит заблуждение; главное — оригинальность, соблюдение правил и прозрачность.

Соблюдение новых правил ИИ требует значительных усилий и адаптации в компаниях.

Quelle: techzeitgeist.de

Соблюдение новых правил ИИ требует значительных усилий и адаптации в компаниях.

Промышленные ассоциации и правительства настаивали на паузе из-за сложности и затрат. Комиссия предпочла продолжать и опираться на сопровождающие руководства и Кодекс практик, чтобы повысить правовую ясность. СМИ и отраслевые организации видят в чётких обязательствах, таких как сводки обучающих данных, шанс сделать авторское право более заметным и устранить недоразумения.

Перспективы

Открытые вопросы касаются взаимной совместимости меток платформ, C2PA и будущих требований ЕС к машиночитаемой маркировке. ЕС работает над дополнительными руководствами, в том числе по ст. 50, и собирает предложения по реализации. Также не ясно, как строго надзор будет проверять сводки обучающих данных и как часто ожидаются обновления.

Риск-ориентированный подход Закона ЕС об ИИ классифицирует ИИ-системы по потенциальному риску для основных прав и безопасности.

Quelle: haufe-akademie.de

Риск-ориентированный подход Закона ЕС об ИИ классифицирует ИИ-системы по потенциальному риску для основных прав и безопасности.

Направление ясно: видимость вместо догадок. Тот, кто разрабатывает модели, должен понятно документировать и уважать авторские права. Тот, кто публикует контент, должен надёжно маркировать реальные элементы ИИ и по возможности опираться на надёжные доказательства происхождения. Уже существуют практические инструменты, такие как Code of Practice, YouTube-метки и C2PA, которые позволяют рассматривать доверие и охват как общую валюту.

Teilen Sie doch unseren Beitrag!