MONOLITH LAW OFFICE+81-3-6262-3248Будні дні 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

General Corporate

Створення AI та японське авторське право: Юридичний посібник з управління ризиками для компаній

General Corporate

Створення AI та японське авторське право: Юридичний посібник з управління ризиками для компаній

Штучний інтелект, що генерує контент, може принести революцію у всі аспекти ведення бізнесу. Від створення контенту до наукових досліджень та обслуговування клієнтів – сфери застосування цієї технології розширюються щодня. Однак, ця інновація ставить перед компаніями нові юридичні виклики, особливо у контексті японського законодавства про авторське право. У той час як багато компаній розглядають можливість впровадження або вже використовують штучний інтелект, що генерує контент, для них є життєво важливим точно розуміти та управляти ризиками порушення авторських прав, які можуть супроводжувати такі технології. Японське законодавство про авторське право має унікальну структуру, яка застосовує різні правові принципи на етапах розробки та використання ШІ, що додає складності. Розуміння цієї двоїстої структури, яка передбачає відносно ліберальні правила на етапі навчання для стимулювання розвитку ШІ, але накладає сувору відповідальність на користувачів, які використовують результати роботи ШІ, є першим кроком у управлінні ризиками. У цій статті ми систематично розглянемо основні юридичні питання, які виникають у зв’язку з використанням генеративного ШІ в рамках японського законодавства про авторське право. Зокрема, ми розглянемо правове регулювання на етапі «розробки та навчання» ШІ, ризики порушення авторських прав при використанні контенту, створеного ШІ, на етапі «генерації та використання» у бізнесі, приналежність авторських прав на продукти, створені ШІ, а також відповідальність компаній та юридичні заходи у випадку порушення авторських прав, виходячи з позиції Агентства культурних справ Японії, і запропонуємо стратегічний підхід, який повинні застосовувати керівники компаній та юристи.

Розвиток штучного інтелекту та етапи навчання в контексті законодавства про авторське право в Японії

Для того, щоб генеративний штучний інтелект (AI) міг проявляти високі здібності, необхідно навчити його на величезній кількості даних. Ці дані можуть включати текст, зображення, музику, програмний код та інші твори, які захищені авторським правом. Законодавство про авторське право в Японії спрощує використання таких творів у розробці AI, дозволяючи під певними умовами використовувати твори без дозволу власників авторських прав.

Ключовим моментом є стаття 30-4 Закону про авторське право в Японії, введена під час змін у законодавстві у 2018 році (Heisei 30). Ця стаття дозволяє використання творів не з метою “сприйняття виражених у них ідей або емоцій” і вважається однією з “гнучких обмежень прав”. Навчання AI не має на меті насолоджуватися творами (тобто “сприймати” їх), а замість цього полягає у аналізі інформації для виявлення та аналізу шаблонів і структур, що містяться у даних. Таким чином, розробники AI можуть використовувати дані, опубліковані в Інтернеті, для навчання без дозволу власників авторських прав, якщо це відповідає “несприймальному” використанню. Ця норма підкріплена політичним наміром сприяти технологічним інноваціям та підвищенню конкурентоспроможності промисловості в Японії.

Однак, існують важливі винятки з цього принципу. Стаття 30-4 Закону про авторське право в Японії містить застереження, що “у випадках, коли використання твору відповідно до його типу та призначення, а також способу використання може несправедливо зашкодити інтересам власника авторських прав, ця норма не застосовується”. Що становить “несправедливу шкоду” вимагає індивідуального та конкретного розгляду, але деякі типові випадки були визначені в документі, опублікованому Агентством культурних справ Японії, під назвою “Про підходи до AI та авторського права”.

Наприклад, незаконне копіювання та використання для навчання AI баз даних, які спеціально організовані та продаються для цілей навчання AI, без сплати винагороди, може прямо конкурувати з ринком постачальника бази даних та значно зашкодити його інтересам. Також, навчання AI виключно на творах певного творця з метою створення контенту, що імітує його стиль, може виходити за рамки “несприймального” використання та вважатися таким, що має і сприймальну мету. Крім того, збір даних для навчання AI з відомих джерел порушення авторських прав, так званих піратських копій, також вважається дією, що сприяє порушенню прав.

Ці приклади показують, що дотримання вимог законодавства на етапі розвитку AI вимагає не лише технічної можливості копіювання даних, але й більш складного рішення про те, чи не завдає така діяльність економічної шкоди існуючим ринкам або законним інтересам правовласників. Компанії, які займаються розробкою AI або замовляють її, повинні здійснювати ретельний due diligence щодо джерела навчальних даних та способу їх використання, щоб переконатися, що вони відповідають цим юридичним та етичним стандартам.

Ризики порушення авторських прав при використанні AI-генерованих матеріалів

Навіть якщо розробка та навчання штучного інтелекту (AI) відбувається відповідно до статті 30-4 Японського закону про авторські права, це не гарантує, що контент, створений за допомогою AI, не порушує авторських прав. Юридичний захист обмежується лише етапом навчання, тому на етапі генерації та використання користувач AI безпосередньо несе ризик бути притягнутим до відповідальності за порушення авторських прав.

Згідно з судовою практикою в Японії, для встановлення факту порушення авторських прав зазвичай необхідно виконання двох умов: «схожість» та «залежність». Схожість означає, що новий твір суттєво подібний до творчих виразів існуючого авторського твору. Проста ідея, стиль або банальний вираз, якщо вони є спільними, не вважаються схожістю. Залежність означає, що новий твір створено на основі існуючого авторського твору, і якщо новий твір створено випадково, не знаючи про існуючий твір, то залежність відкидається.

При використанні генеративного AI цілком можливо, що створений матеріал буде схожим на існуючий авторський твір. Проблема полягає у визначенні залежності. Якщо користувач AI свідомо використовує певний авторський твір та дає інструкції (промпти) для його відтворення, то залежність очевидна. Однак, складніше визначити залежність, коли користувач не знав про конкретний авторський твір, але AI створив схожий матеріал, оскільки використовував цей твір як дані для навчання. Хоча юридична позиція ще не встановлена, існує дискусія про те, що факт включення відповідного авторського твору до даних для навчання AI може свідчити про залежність. Дані для навчання моделі AI часто є величезними та непрозорими, тому користувачам фактично неможливо повністю розуміти їх зміст. Це створює істотний юридичний ризик, який важко контролювати для компаній.

Оскільки повністю уникнути цього ризику неможливо, компаніям необхідно управляти ризиками та розробляти практичні заходи для підготовки до можливих спорів. По-перше, важливо розробити чіткі внутрішні керівні принципи щодо використання генеративного AI та забезпечити ретельне навчання співробітників. Необхідно визначити, для яких цілей, які інструменти AI та як їх можна використовувати. По-друге, перед публікацією AI-генерованого контенту, особливо якщо він буде опублікований зовні, слід ввести процес перевірки та редагування людиною. Матеріали, створені AI, слід розглядати як «чернетку», а до остаточного продукту додавати творчі судження людини, щоб зменшити схожість з оригінальним авторським твором. По-третє, бажано зберігати записи процесу генерації наскільки це можливо. Записи про використані промпти можуть бути корисними для демонстрації відсутності наміру порушення у випадку спорів щодо залежності.

Порівняння ключових правових аспектів AI та авторського права

Правові проблеми, що стосуються AI та авторського права в Японії, значно відрізняються залежно від етапу життєвого циклу AI. Нижче наведена таблиця, яка порівнює та систематизує основні правові питання на етапах “розробки та навчання” та “генерації та використання”. Через це порівняння можна чітко зрозуміти, як змінюються відповідальність та характер ризиків.

Пункт порівнянняЕтап розробки та навчанняЕтап генерації та використання
Основні пов’язані закониСтаття 30-4 Закону про авторське право ЯпоніїПрава на копіювання та адаптацію в рамках Закону про авторське право Японії
Центральні правові питанняЧи є мета використання “некомерційною”, та чи “несправедливо пошкоджує” вона інтереси власника авторського праваЧи є продукт “схожим” на існуючі авторські твори та чи “залежить” він від них
Основні суб’єкти відповідальностіРозробники AIКористувачі AI
Характер правових ризиківПравові недоліки процесу розробки через незаконний збір даних та навчанняПряма відповідальність за ненавмисне створення та публікацію порушуючих авторське право матеріалів

Авторське право на твори, створені штучним інтелектом в Японії

Коли компанії використовують штучний інтелект для створення маркетингових матеріалів, дизайнів, звітів та іншого контенту, виникає надзвичайно важливе питання: “Чи виникають авторські права на такі твори і, якщо так, кому вони належать?” Це питання визначає, чи може компанія захистити контент, створений її зусиллями, як інтелектуальну власність та запобігти його несанкціонованому використанню іншими компаніями.

Згідно з пунктом 1 статті 2 Японського закону про авторське право, твори визначаються як “вирази ідей або емоцій, які є творчими і належать до літератури, науки, мистецтва або музики”. Основою цього визначення є припущення, що суб’єктом творчості є людина. Оскільки штучний інтелект не є людиною, за чинним законодавством Японії права автора на контент, створений штучним інтелектом автономно, не визнаються.

Отже, питання про те, чи можуть твори, створені штучним інтелектом, мати авторські права, залежить від наявності “творчого внеску людини” у процесі їх створення. Авторські права можуть бути застосовані до людини як автора тільки в тому випадку, якщо людина використовує штучний інтелект як “інструмент” і може бути оцінена як творець ідей або емоцій.

Чи визнається “творчий внесок” залежить від ступеня участі людини. Наприклад, якщо людина вводить простий і загальний запит, такий як “кіт, освітлений заходом сонця”, і штучний інтелект самостійно вирішує більшу частину конкретного виразу, творчий внесок людини може бути визнаний недостатнім, і твору може бути відмовлено в авторських правах.

З іншого боку, якщо людина має конкретний творчий задум і включає багато детальних інструкцій у запит для його реалізації, повторюючи спроби і помилки, щоб вивести певний вираз, весь цей процес інструкцій та вибору може бути оцінений як творчий акт, і твору можуть бути надані авторські права. Крім того, якщо людина вибирає та розміщує кілька зображень, створених штучним інтелектом, і вносить значні правки та доповнення для завершення одного твору, на цю творчу редакцію та обробку людини чітко народжуються авторські права.

Це має важливе стратегічне значення для компаній. Щоб створити цінну інтелектуальну власність за допомогою штучного інтелекту, необхідно не просто наказувати штучному інтелекту генерувати контент, але й умисно включати творчий внесок людини в процес і документувати його. Записи детальної історії запитів, процесу відбору результатів генерації та конкретного вмісту подальшої обробки людиною можуть стати важливими доказами для захисту авторських прав на цей контент у майбутньому.

Відповідальність та правові заходи, з якими може зіткнутися компанія

У разі ненавмисного порушення авторських прав через використання генеративного AI, компанія може зіткнутися з серйозними правовими наслідками. Власникам авторських прав надано кілька потужних правових інструментів для захисту своїх прав на основі японського закону про авторські права та японського цивільного кодексу.

Найбільш безпосереднім заходом є цивільний позов. Власник авторських прав може подати позов про заборону порушення або про запобігання такому порушенню. Це може змусити компанію негайно припинити використання контенту, що порушує права, та видалити його з вебсайту. Крім того, компанія може зіткнутися з позовом про відшкодування збитків, які власник авторських прав поніс через порушення. Розрахунок суми збитків може бути складним, але вона може бути значною, заснованою на прибутку, отриманому компанією в результаті порушення. Якщо порушено права особистості автора, може бути вимога про вжиття заходів для відновлення репутації, таких як публікація вибачень.

Окрім цивільної відповідальності, порушення авторських прав може стати предметом кримінального переслідування. У випадках особливої тяжкості, за скаргою правовласника, справа може перерости в кримінальну. Для осіб можливе покарання у вигляді ув’язнення до 10 років або штрафу до 10 мільйонів ієн, але якщо юридична особа здійснює порушення в рамках своєї діяльності, на неї може бути накладено штраф до 300 мільйонів ієн, що є дуже суворим покаранням.

Відповідальність, як правило, несе користувач AI, який використовує генерований контент, тобто сама компанія. Однак, якщо сервіс, наданий розробником AI, спеціально або з високою ймовірністю генерує щось, що схоже на конкретний твір, розробник також може нести спільну відповідальність через технічні проблеми.

Наразі в Японії ще мало вирішених судових справ, які б безпосередньо стосувалися питань авторських прав на генеративний AI. Однак, вже виникають конкретні спори, як наприклад, коли одна з провідних японських газет подала позов проти зарубіжного оператора генеративного AI за незаконне використання та навчання на основі їхніх платних статей, вимагаючи компенсації збитків. У ситуації, коли судові рішення відсутні, офіційна позиція та керівні принципи, надані Агентством культурних справ, набувають великого значення як фактичний стандарт поведінки для оцінки правових ризиків та визначення стандартів, яких слід дотримуватися компаніям. Тому стратегія дотримання компанією правил повинна базуватися на суворому дотриманні цих рекомендацій регулюючого органу.

Підсумки

Генеративний штучний інтелект може принести компаніям невимірні вигоди, однак він також несе істотні юридичні ризики в рамках японського законодавства про авторське право. Юридична система Японії дозволяє гнучкий підхід на етапі навчання AI для стимулювання розвитку, але накладає сувору відповідальність за порушення авторських прав на користувачів, які використовують результати роботи AI. Глибоке розуміння цієї двоїстої структури є ключем до безпечного використання AI технологій компаніями. Навіть якщо дані для навчання AI були зібрані законно, користувачі, які створюють контент, можуть зіткнутися з серйозною цивільною та кримінальною відповідальністю, якщо їхні твори схожі на існуючі авторські роботи. Для компаній важливо вжити активних та конкретних заходів управління ризиками, таких як розробка внутрішніх керівних принципів, впровадження ретельного процесу перевірки людиною та документування творчого процесу для забезпечення інтелектуальних прав.

Юридична фірма “Моноліт” має досвід надання великої кількості порад клієнтам у Японії щодо складних юридичних питань, пов’язаних з генеративним AI та авторським правом. У нашій фірмі працюють фахівці, які володіють не тільки японською адвокатською кваліфікацією, але й мають кваліфікацію іноземних адвокатів та володіють англійською мовою, що дозволяє нам надавати детальну підтримку компаніям, які розгортають міжнародну діяльність, для точного відповідання японській юридичній системі. Ми надаємо професійні юридичні послуги, такі як консультації з питань, описаних у цій статті, та підтримка у створенні конкретних внутрішніх систем.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Повернутись до початку