Каково текущее состояние законодательства, регулирующего ИИ? Сравнение Японии и ЕС и ключевые моменты стратегии
Генеративные ИИ, такие как ChatGPT, становятся большим трендом. Теперь, когда генеративный ИИ начал внедряться в бизнес-среду, его называют вдохновителем «четвертого бума ИИ». В соответствии с этим, на мировом уровне также продвигается разработка правовой рамки для регулирования ИИ.
В данной статье мы рассмотрим законы, связанные с ИИ, и объясним правильное обращение с конфиденциальной информацией, такой как интеллектуальная собственность и личные данные.
Определение и история ИИ (искусственного интеллекта)
ИИ (искусственный интеллект) относится к технологиям, позволяющим компьютерам выполнять задачи, требующие интеллекта. В юридическом контексте строгого определения не существует, и существует множество различных определений. Ниже приведены некоторые из них.
Источник | Определение / Комментарий |
«Кодзиэн» | Компьютерная система, обладающая интеллектуальными функциями, такими как рассуждение и принятие решений. |
«Энциклопедия Британника» | Наука и техника > Компьютеры и ИИ. Способность цифровых компьютеров или компьютерных роботов выполнять задачи, связанные с интеллектуальными существами. |
Статья Японского общества искусственного интеллекта «ИИ как общее знание» | Ответ на вопрос «Что такое ИИ?» не является простым. Среди экспертов в области ИИ существуют значительные дебаты, и различия во мнениях настолько велики, что могут составить целую книгу. Обобщая, можно сказать, что это технология, позволяющая машинам выполнять интеллектуальную работу, аналогичную человеческой. |
Научная статья «Глубокое обучение и искусственный интеллект» | ИИ — это область науки, стремящаяся конструктивно понять механизмы человеческого интеллекта. |
Научная статья «В поисках идеального общества искусственного интеллекта» | ИИ и другие информационные технологии являются прежде всего инструментами. |
ИИ представляет собой различные технологии, программное обеспечение, компьютерные системы и алгоритмы, позволяющие воспроизводить человеческие интеллектуальные способности на компьютере.
Среди ключевых направлений специализированного ИИ можно выделить следующие:
- Обработка естественного языка (машинный перевод, синтаксический анализ, морфологический анализ, RNN и т.д.)
- Экспертные системы, имитирующие рассуждения и принятие решений специалистами
- Распознавание образов и звуков, выявление и извлечение определенных паттернов из данных
Исследования и разработки в области ИИ начались в 1950-х годах, на заре эры компьютеров, первый бум ИИ пришелся на 1970-е годы с исследованиями в области «поиска и рассуждения», второй бум ИИ произошел в 1980-е годы благодаря исследованиям в области «представления знаний», что привело к появлению экспертных систем и вызвало два волны интереса к данной области.
С появлением больших данных в 2000-х годах и внедрением Alexnet в 2012 году, которое продемонстрировало пользу глубокого обучения (deep learning) в обработке изображений, исследования в этой области активизировались, что привело к третьему буму ИИ.
Между 2016 и 2017 годами появились ИИ, использующие глубокое обучение и обучение с подкреплением (Q-обучение, метод градиента стратегии), что стало ключевым моментом третьего бума ИИ. Основные прорывы были достигнуты в области обработки естественного языка и обработки изображений с помощью датчиков, но влияние оказалось значительным и в таких областях, как технологическое развитие, социология, этика и экономика.
30 ноября 2022 года запуск ChatGPT от OpenAI, генеративного ИИ для обработки естественного языка, привлек внимание как универсальный инструмент, что способствовало росту бизнеса, связанного с генеративным ИИ. Некоторые называют это явление четвертым бумом ИИ.
Бизнес-сценарии, в которых следует проверить законодательство, касающееся ИИ
Генеративный ИИ, являющийся одним из видов ИИ, полезен как инструмент, но в то же время может способствовать распространению ложной информации, преступлениям и даже угрожать демократии.
Риски, связанные с ИИ, теперь стали неизбежной проблемой. В этой связи мы рассмотрим бизнес-сценарии, в которых необходимо проверить законодательство, с точки зрения как пользователей, так и провайдеров.
Использование генеративного ИИ для создания текстов
С момента запуска ChatGPT в ноябре 2022 года, генеративный ИИ для создания текстов привлек мировое внимание как универсальный инструмент, способный повысить эффективность работы и обеспечить высокую стоимостную эффективность благодаря своей способности справляться со сложными задачами.
Вместе с тем стали известны риски, связанные с использованием генеративного ИИ для создания текстов. Важно учитывать эти потенциальные риски и знать, какие законы необходимо соблюдать для их избежания.
У ChatGPT, как представителя генеративного ИИ для создания текстов, существует риск утечки введенной пользователем информации (промптов), если не предпринять никаких мер. У ChatGPT есть функции сбора, сохранения и использования промптов, что создает риск утечки личной информации, конфиденциальных данных компании, а также информации, полученной в результате заключения соглашений о неразглашении (NDA) и другой конфиденциальной информации.
Кроме того, существует риск распространения ChatGPT специфических ложных сведений (галлюцинаций) и нарушения авторских прав, среди прочего. Поэтому необходима проверка фактов выдаваемой информации.
Использование генеративного ИИ для создания изображений
При использовании генеративного ИИ для создания изображений в бизнесе необходимо учитывать риск нарушения авторских прав.
Согласно OpenAI, авторские права на изображения и тексты, созданные с помощью ChatGPT и подобных инструментов, в основном принадлежат пользователю, создавшему их. Пользователи могут использовать ChatGPT и аналогичные инструменты для любых целей, включая коммерческое использование.
Однако при использовании необходимо учитывать следующее:
Обучающие данные ChatGPT включают в себя большое количество контента, опубликованного в интернете, большая часть которого является объектами авторского права (тексты, изображения, музыка, видео и т.д.). Следовательно, существует риск, что созданный контент может нарушить авторские права других лиц.
Разработка ИИ и предоставление услуг генеративного ИИ
Бизнес в области ИИ связан с различными законами, и на международном уровне ведется работа над созданием правовых рамок, что требует соблюдения существующих законов и гибкого подхода к новым законодательным инициативам.
В следующей главе мы рассмотрим законы, касающиеся ИИ в Японии, и первый в мире международный закон ЕС об ИИ, принятый в декабре 2023 года.
Законы Японии, касающиеся ИИ
В настоящее время в Японии отсутствует законодательство с принудительной силой, регулирующее ИИ, и принята политика саморегулирования. Здесь мы объясним действующие законы, на которые следует обратить внимание при использовании ИИ.
Ссылка: Министерство экономики, торговли и промышленности | «Руководящие принципы управления для практики принципов ИИ вер. 1.1»[ja]
Закон о авторском праве
В январе 2019 года (эра Хэйсэй 31) был введен в действие «Измененный закон об авторском праве», в котором было добавлено новое положение о ограничении прав (исключение, не требующее разрешения) для «анализа информации» (статья 30-4 пункт 1 номер 2 данного закона). Действия, связанные с использованием произведений, не направленные на восприятие выраженных в них идей или эмоций, такие как анализ информации в процессе разработки и обучения ИИ, теперь могут осуществляться без разрешения правообладателя.
Это изменение ввело определение «анализа информации», что ясно указывает на включение машинного обучения, в том числе глубокого обучения ИИ, в понятие «анализа информации».
Анализ информации (извлечение информации, касающейся языка, звука, изображений и других элементов из множества произведений или другой большой объем информации, и проведение сравнения, классификации или другого анализа этой информации)
Закон об авторском праве, статья 30-4 пункт 1 номер 2
Однако следует быть осторожным, поскольку произведения, созданные с использованием ИИ, которые имеют сходство или зависимость от произведений других лиц, могут быть признаны нарушением авторских прав.
Кроме того, ввод произведений в ChatGPT в качестве запроса может привести к нарушению прав на воспроизведение и других прав. Использование генеративного ИИ для модификации произведений других лиц может привести к нарушению прав на адаптацию и других прав.
Согласно условиям использования OpenAI, права на контент, созданный с помощью ChatGPT, принадлежат пользователю, и его коммерческое использование разрешено, но в случаях, когда трудно определить, нарушает ли контент авторские права, рекомендуется проконсультироваться со специалистом.
В случае, если правообладатель укажет на нарушение авторских прав, может возникнуть гражданская ответственность (прекращение использования, компенсация ущерба, моральный ущерб, восстановление репутации и другие правовые меры) или уголовная ответственность.
Закон о предотвращении недобросовестной конкуренции
1 июля 2019 года (эра Хэйсэй 31) вступил в силу измененный Закон о предотвращении недобросовестной конкуренции. До этого момента было сложно предотвратить недобросовестную конкуренцию в отношении объектов, которые не подпадали под защиту патентного закона или закона об авторском праве, или не соответствовали определению «коммерческой тайны» по Закону о предотвращении недобросовестной конкуренции.
Поэтому в этом изменении были определены гражданские меры против злонамеренных действий, таких как незаконное получение или использование данных определенной ценности (ограниченно доступные данные), включая право на требование прекращения и оценку размера ущерба.
Законы ЕС об использовании ИИ
Правовая система ЕС состоит из трех частей: первичного права (договоры), вторичного права (законодательство ЕС) и судебной практики. Вторичное право, основанное на первичном праве (договорах), представляет собой законодательство, которое напрямую или косвенно обязывает страны-члены ЕС и называется производным правом ЕС. Вторичное право делится на пять основных типов, но «Регламент по ИИ» ЕС относится к категории регламентов, являясь единым правилом, которое напрямую обязывает страны-члены ЕС.
В то время как директивы (Directives) требуют от каждой страны-члена ЕС внести соответствующие изменения или создать новое национальное законодательство для реализации содержания директивы, что представляет собой косвенную юридическую обязанность. Сроки для этого, как правило, составляют три года после публикации в Официальном журнале ЕС.
Связанные статьи: Маст-рид для компаний, развивающих бизнес в Европе: ключевые аспекты законодательства и правовой системы ЕС[ja]
В этой главе мы рассмотрим последние тенденции в законодательстве ЕС, касающемся использования ИИ, сосредоточив внимание на «директивах» и «регламентах».
Проект Директивы об Ответственности за ИИ
28 сентября 2022 года Европейская комиссия опубликовала проект Директивы об ответственности за ИИ вместе с предложением по изменению Директивы о ответственности за продукцию. Этот документ устанавливает правила юридической ответственности для бизнеса, работающего с ИИ в ЕС, в соответствии с Законом об ИИ и станет важной правовой рамкой. С июня 2023 года он будет подпадать под действие Директивы ЕС о коллективных исках, поэтому японским компаниям также необходимо ознакомиться с его содержанием.
Это значительное изменение в правилах гражданской ответственности для программного обеспечения, включая системы ИИ в ЕС, адаптированное к цифровой эпохе циркулярной экономики и глобальных цепочек создания стоимости.
Связанные статьи: Текущее состояние и перспективы регулирования ИИ в ЕС? Влияние на японские компании также объясняется[ja]
Целью проекта Директивы об ответственности за ИИ является установление правил внедоговорной гражданской ответственности за ущерб, вызванный системами ИИ, для улучшения функционирования внутреннего рынка ЕС.
То есть, она не ограничивается ответственностью по договору (ответственность за неисполнение обязательств и ответственность за несоответствие договору), а также не ограничивается только теми случаями, когда возникает ответственность из-за недостаточной безопасности, подпадающей под Директиву о ответственности за продукцию, и включает ответственность за ущерб на основе вины (например, ответственность за причинение вреда).
Например, ущерб, вызванный системами подбора персонала на основе ИИ, включая дискриминацию, также может быть предметом ответственности.
Проект Директивы предусматривает меры по снижению бремени доказывания для разработчиков “систем ИИ высокого риска”, определенных в Законе об ИИ, для решения проблемы “черного ящика” ИИ, включая “предположение о причинно-следственной связи” и “систему раскрытия доказательств”.
В случае несоблюдения приказа о раскрытии доказательств, по проекту Директивы об ответственности за ИИ предусматривается обязанность предполагать нарушение обязанностей и причинно-следственную связь, а по предложению изменения Директивы о ответственности за продукцию – предполагать наличие дефекта и причинно-следственную связь, причем предусмотрены более строгие санкции, чем в японском гражданском процессуальном праве, для обеспечения выполнения приказа.
На первом этапе проект Директивы ограничивается мерами по снижению бремени доказывания, связанными с “черным ящиком” ИИ, и вводит новые положения о праве на иск, раскрытии доказательств, сохранении доказательств и предположении о причинно-следственной связи, определяя требования к каждому из них.
На втором этапе предусмотрен пересмотр и оценка. Европейская комиссия установит программу мониторинга, будет пересматривать информацию о инцидентах и оценивать целесообразность применения ответственности без вины (строгой ответственности) к операторам систем ИИ высокого риска и необходимость введения обязательного страхования, а также представлять отчеты Европейскому совету и Европейскому парламенту.
Проект поправок к Директиве о ответственности за продукцию
“Директива о ответственности за продукцию”, принятая в 1985 году, представляет собой закон ЕС, защищающий потребителей, и определяет ответственность производителей за ущерб, причиненный дефектными товарами.
В проекте поправок к этой директиве предлагается расширить понятие “продукция” за счет включения в него “программного обеспечения”, и в случае обнаружения “дефектов” в системах искусственного интеллекта (AI), к операторам таких систем будет применяться ответственность без вины. Кроме того, в критерии определения “дефектности” добавляются такие аспекты, как способность к обучению после установки и обновления программного обеспечения.
В действующем в Японии “Законе о ответственности за продукцию” программное обеспечение обычно не рассматривается как движимое имущество, и, следовательно, не входит в категорию “продукции”, к которой применим данный закон. Однако предлагаемые поправки предусматривают изменение концепции “продукции”. Эти поправки также вводят “меры по снижению нагрузки на доказывание”, что может оказать значительное влияние на программное обеспечение, включая системы AI и продукты передовых технологий.
Закон об ИИ
«Закон об ИИ (AI Act)» — это комплексный набор единых правил ЕС (вторичное законодательство), направленный на регулирование бизнеса в области искусственного интеллекта, состоящий из 85 статей. Это первый в мире международный закон, регулирующий ИИ, который был принят после предварительного соглашения между Европейской комиссией, Европейским парламентом и Советом Европы 9 декабря 2023 года. Ожидается, что он вступит в силу и будет полностью применяться в 2024 году.
Данный закон является ключевым элементом цифровой стратегии ЕС, известной как «Европа, подходящая для цифровой эпохи», и направлен на решение новых вызовов и рисков, возникающих в эволюционирующую цифровую эпоху. Он также является частью широкого пакета по ИИ, который стремится обеспечить безопасность ИИ и защиту основных прав, а также усилить работу, инвестиции и инновации в области ИИ по всему ЕС.
«Закон об ИИ» ЕС будет прямо применяться во всех странах-членах ЕС, а также будет иметь трансграничное применение для компаний, ведущих деятельность в пределах ЕС, и будет распространяться на компании, находящиеся за пределами ЕС.
В случае нарушения предусмотрены крупные штрафы, исчисляемые от общего мирового оборота (до 30 миллионов евро или до 6% от всего мирового оборота, в зависимости от того, что выше), что может привести к невозможности вести бизнес в сфере ИИ внутри ЕС.
Таким образом, компании, уже использующие ИИ на рынке ЕС, включая японские, а также те, кто планирует выход на рынок ЕС в будущем, должны будут соответствовать новым регулированиям ИИ ЕС.
Основные положения «Закона об ИИ» можно разделить на три характеристики: «классификация ИИ на основе риска», «требования и обязанности» и «поддержка инноваций».
Регулированию подлежат компании, внедряющие системы и услуги ИИ на европейском рынке, включая разработчиков, деплойеров, поставщиков, импортеров, дистрибьюторов и пользователей ИИ.
Уровень риска ИИ будет классифицироваться на четыре категории, и к каждой из них будут применяться соответствующие регуляции. Для достижения принципов ИИ необходимо также обеспечить меры по повышению грамотности в области ИИ среди разработчиков, пользователей и поставщиков. Подробнее смотрите в связанных статьях.
Связанные статьи: Текущее состояние и перспективы закона об ИИ в ЕС? Также объясняется влияние на японские компании[ja]
Ключевые аспекты законодательства, касающегося ИИ
В этом разделе мы рассмотрим ключевые аспекты законодательства, на которые следует обратить внимание при использовании компаниями генеративного ИИ.
Авторские права на произведения, созданные ИИ
Среди юридических вопросов, связанных с произведениями, созданными генеративным ИИ, следует учитывать следующее:
- Не нарушают ли эти произведения авторские права
- Могут ли произведения, созданные генеративным ИИ, быть признаны объектами авторского права
Как было сказано выше, произведения, созданные с помощью ChatGPT, могут быть признаны нарушающими авторские права, если они схожи или зависимы от существующих авторских произведений. Но могут ли произведения, созданные генеративным ИИ, быть признаны объектами авторского права?
Согласно закону об авторском праве, «произведение» определяется как «оригинальное выражение идей или чувств». Поскольку ИИ не обладает идеями или чувствами, существует мнение, что контент, созданный генеративным ИИ, не может быть признан объектом авторского права.
В то же время, процесс создания контента с помощью ИИ может быть непрозрачным для пользователя, что делает сложным получение от ИИ ожидаемого результата. Если на этапе формулировки запроса пользователь проявляет творческий подход, его «идеи или чувства» могут быть «оригинально выражены» с помощью генеративного ИИ, что, в свою очередь, может быть признано объектом авторского права.
Обработка персональных данных при использовании ИИ
При использовании ИИ необходимо учитывать возможность нарушения закона о защите персональных данных. Необходимы меры предосторожности, такие как избегание ввода персональных и приватных данных.
Если в запросе содержится персональная информация, это может рассматриваться как передача персональных данных третьим лицам со стороны провайдера услуг. В общем случае для передачи персональных данных третьим лицам требуется согласие субъекта данных, поэтому без такового может возникнуть нарушение закона о защите персональных данных.
В случае ChatGPT, даже если пользователь случайно введет персональные данные, система не позволит их отобразить в чате. Это соответствует политике OpenAI, которая не сохраняет и не отслеживает персональную информацию. Однако в других сервисах и платформах условия могут отличаться, поэтому необходима осторожность.
Меры по управлению рисками при работе компаний с ИИ
Меры по управлению рисками зависят от бизнес-стратегии компании, целей использования ИИ и связанных с этим законодательных регулирований, поэтому важно принимать соответствующие меры в зависимости от ситуации и целей.
Для минимизации рисков компаниям, использующим генеративный ИИ, следует учитывать следующие пункты:
- Развитие персонала: Для адекватного использования генеративного ИИ необходимы специализированные знания и навыки. Важно обучать и тренировать сотрудников для понимания правильных методов использования.
- Разработка, внедрение и управление внутренними руководствами: Снижение рисков возможно путем разработки внутренних руководств по использованию генеративного ИИ и обеспечения их соблюдения сотрудниками.
- Создание организации для продвижения использования и мер по управлению рисками: Эффективно создать организацию для продвижения использования генеративного ИИ и распределить команду по управлению рисками внутри организации.
- Внедрение системы: Для адекватного внедрения генеративного ИИ необходимо тщательно подходить к выбору и проектированию системы.
Кроме того, риски, связанные с использованием генеративного ИИ, разнообразны и включают в себя утечку информации, нарушение прав и приватности, опасения по поводу точности и безопасности информации, а также риски предвзятости. Для избежания этих рисков необходимо внедрить адекватные механизмы управления и рамки управления рисками.
Связанные статьи: «Риски внедрения ChatGPT в компаниях. Разбор случаев утечки конфиденциальной информации и мер по их предотвращению»[ja]
Заключение: Законы об ИИ находятся в стадии разработки, поэтому необходимо быть в курсе изменений
Законы, касающиеся бизнеса в области искусственного интеллекта, включая первый в мире международный «Закон о регулировании ИИ» в ЕС (принят 9 декабря 2023 года), находятся на стадии разработки правовых рамок. Поэтому от компаний требуется соблюдение существующих законов и гибкое приспособление к новым нормативным актам.
В Японии прямых законов, регулирующих ИИ, пока нет, однако необходимо тщательно понимать и адекватно реагировать на существующие связанные законы, такие как Закон о защите авторских прав, Закон о защите личных данных и Закон о предотвращении недобросовестной конкуренции. Кроме того, важно внимательно следить за будущими изменениями в этих и связанных законах и оперативно на них реагировать.
Информация о мерах, предпринимаемых нашей фирмой
Юридическая фирма “Монолит” обладает богатым опытом в области IT, особенно в интернете и праве. Бизнес, связанный с искусственным интеллектом, сопряжен с множеством юридических рисков, и поддержка адвокатов, специализирующихся на юридических вопросах, связанных с ИИ, является абсолютно необходимой.
Наша фирма предоставляет высококвалифицированную юридическую поддержку бизнесу, связанному с ИИ, включая ChatGPT, с помощью команды адвокатов и инженеров, специализирующихся на ИИ. Мы предлагаем создание договоров, анализ законности бизнес-моделей, защиту интеллектуальной собственности и решения в области конфиденциальности. Подробности смотрите в статье ниже.
Сферы деятельности юридической фирмы “Монолит”: Юридические услуги в области ИИ (включая ChatGPT и др.)[ja]
Category: IT