В Совете по цифровой экономике при Совете Федерации уверены, что ответственность должно нести лицо, которое контролирует работу системы ИИ и принимает решения о ее использовании. Такой подход кажется наиболее верным, учитывая не только правовую, но и этическую сторону вопроса.
Для чего нужна маркировка контента от ИИ?
ИИ может быть использован для генерации и распространения фальсифицированного контента — изображений, аудио- и видеозаписей, что грозит негативными последствиями. Для того чтобы ограничить возможности манипуляций с такими произведениями, и планируется использовать маркировку.
YouTube в этом плане является хорошим примером. Отметка о том, что применялись технологии ИИ, ставится, только когда на видео изменены лицо и голос человека или созданы реалистичные сцены. В определенных случаях YouTube сам будет добавлять отметку о сгенерированном видео, даже если автор не указал ее.
Как регулируется использование ИИ за рубежом?
В большинстве стран не признают наличие авторских прав у ИИ.
США
Законопроект Generative AI Copyright Disclosure:
- устанавливает обязанность технологических компаний по раскрытию всех данных, использованных в обучении ИИ и охраняемых авторским правом;
- требует внесения в Реестр авторских прав отчетов с указанием всех данных, охраняемых авторским правом, и уведомления о любых изменениях данных.
Великобритания
В Парламенте Великобритании представили отчет, в котором отразили пробелы в регулировании ИИ в творческих отраслях, включая проблему снижения гонораров у многих артистов, связанную в том числе с цифровизацией отрасли. Отмечены также платформы искусственного интеллекта, позволяющие свободно воспроизводить защищенный авторским правом контент. Рекомендовано создание механизма, обеспечивающего получение согласия авторов и выплату им вознаграждения за использование их произведений искусственным интеллектом.
Европейский союз
13 марта Европарламент принял первый в мире закон об искусственном интеллекте Европейского союза (The EU AI Act). Закон регламентирует разработку и использование ИИ, предусматривает значительные штрафы и широкий набор обязательных требований для организаций, занимающихся разработкой и внедрением ИИ, и будет применяться не только к европейским компаниям, но и к организациям вне ЕС, если их ИИ-системы используются в Европе. Для реализации закона создается Европейский офис по ИИ, который будет обеспечивать соблюдение правил, обязательных при создании и использовании систем ИИ общего назначения (GPAI).
ИИ общего назначения (GPAI) — это модель ИИ, в том числе самоуправляемая, обученная на большом количестве данных, достаточно универсальная и способная компетентно выполнять широкий спектр задач. Самым известным примером GPAI является ChatGPT.
ИИ-системы распределяются по группам, исходя из степени риска: недопустимый, высокий, ограниченный и минимальный. Правила работы зависят от категории. Например, законом разрешены даже ИИ-системы с недопустимыми рисками, но в исключительных случаях — в правоохранительных целях по решению суда (например, распознавание лиц в режиме реального времени для поиска пропавшего ребенка).
Заключение
Быстрое развитие технологий заставляет оперативно принимать необходимые законодательные решения. Однако в правовом регулировании ИИ-систем важно учитывать не только вопрос нарушения авторских прав и ответственности, но и этические аспекты использования новейших технологий.
Мировая тенденция правового регулирования ИИ-систем следует по пути прозрачности, оценки рисков и определения ответственности. Законопроекты, рассматриваемые сейчас в РФ, также учитывают эти тенденции, что, в частности, отражается в инициативе по маркировке контента, созданного ИИ.