MONOLITH LAW OFFICE+81-3-6262-3248Будні дні 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

IT

Які ризики використання ChatGPT у бізнесі? Роз'яснення юридичних питань

IT

Які ризики використання ChatGPT у бізнесі? Роз'яснення юридичних питань

З моменту свого запуску ChatGPT привернув значну увагу по всьому світу завдяки своїй корисності. Водночас стало відомо, що використання цього інструменту може супроводжуватися різними ризиками. Законодавство ще на стадії розробки, тому багато керівників відчувають занепокоєння щодо ризиків та методів хеджування ризиків при використанні ChatGPT у бізнесі.

У цій статті ми розглянемо правові ризики та заходи щодо їх запобігання при використанні ChatGPT у бізнесі.

Чотири ризики використання ChatGPT у бізнесі

Навіть у корпоративному середовищі, використання генеративних AI для обробки природної мови, таких як ChatGPT, набирає обертів. У фінансовому році 2022 (Рейва 4 (2022)) рівень впровадження в компаніях становив 13,5%, і цей показник зростає до 24,0%, якщо включити компанії, які планують його впровадження. (Джерело: Міністерство внутрішніх справ і комунікацій Японії | Біла книга з інформаційних та комунікаційних технологій Рейва 5 (2023) року, Дослідження тенденцій використання комунікацій «Стан впровадження систем та послуг IoT та AI в компаніях[ja]»)

Безперечно, технології AI, включаючи ChatGPT, можуть бути ефективними для підвищення ефективності бізнес-процесів і можуть відкрити більше бізнес-можливостей. Однак, вони також несуть із собою численні юридичні ризики. Тому необхідно глибоко розуміти ці ризики перед тим, як приймати рішення про використання AI у бізнесі.

Наприклад, експерти піднімають питання потенційних ризиків AI, таких як проблеми з авторським правом, поширення неправдивої інформації, витік конфіденційної інформації, проблеми з приватністю, а також зловживання у сфері кібербезпеки.

У цьому розділі ми розглянемо чотири ризики, пов’язані з використанням ChatGPT у бізнесі.

Ризики витоку інформації через функцію навчання

ChatGPT, з одного боку, є зручним, але, з іншого боку, оскільки це AI-чатбот, створений на основі навчання за допомогою різноманітних даних з Інтернету, існує ризик витоку інформації, якщо не вжити жодних заходів безпеки, оскільки введена інформація може бути використана для навчання.

Згідно з політикою використання даних[en] компанії OpenAI, дані, які користувачі вводять у ChatGPT, можуть бути зібрані та використані (для навчання) OpenAI, якщо користувач не використовує API ChatGPT або не подає запит на відмову від участі.

Необхідно бути обережним і уникати введення особистої або конфіденційної інформації без вжиття заходів безпеки. Навіть якщо ви випадково введете особисту інформацію в ChatGPT, з’явиться попереджувальне повідомлення, і ChatGPT не зберігатиме та не відстежуватиме особисту інформацію, а також не зможе вивести її у чаті.

Водночас, у минулому були випадки, коли через помилки в системі компанії OpenAI, яка керує ChatGPT, відбувався витік зареєстрованої користувачами особистої інформації.

Пов’язана стаття: Які ризики витоку інформації в ChatGPT? Представляємо 4 основні заходи безпеки[ja]

Ризик недостовірності інформації

Ризик недостовірності інформації

З травня 2023 року завдяки новій функції веб-перегляду ChatGPT, яка дозволяє виконувати пошук, ChatGPT став здатний збирати найсвіжішу інформацію та відповідати на запитання, базуючись на отриманих результатах.

Проте, незважаючи на те, що ChatGPT видає відповіді, які здаються правдивими, його надійність не гарантована. Відповіді, генеровані ChatGPT, не обов’язково базуються на точності інформації з навчальних даних, а скоріше створюються як текст, який визначається як найбільш імовірний. Тому перевірка фактів є невід’ємною частиною використання відповідей ChatGPT. Якщо компанія поширить неправдиву інформацію, базуючись на відповідях ChatGPT, це може зашкодити її репутації.

3 квітня 2023 року Токійський університет висловив занепокоєння щодо технічних проблем ChatGPT та його впливу на майбутнє суспільства, випустивши наступну заяву:

「Принцип роботи ChatGPT полягає у створенні текстів, які здаються правдоподібними, на основі машинного навчання та підсиленого навчання великої кількості існуючих текстів та контенту. Тому вміст, який він пише, може містити неправду. Це схоже на розмову з дуже кмітливою особою, яка вдає з себе знавця. (Хоча в останній версії GPT-4 точність значно покращилася, і він є досить компетентним співрозмовником.) Тому для ефективного використання ChatGPT потрібні спеціалізовані знання, критичний перегляд відповідей та їх відповідне коригування. Крім того, ChatGPT не може аналізувати чи описувати нові знання, яких немає в існуючій інформації. Це означає, що навіть з появою ChatGPT люди не можуть припиняти вчитися та досліджувати. Однак, якщо особа з культурою та спеціалізованими знаннями критично аналізує відповіді та вміло ними користується, можна значно підвищити ефективність рутинних завдань.」 – так вказує університет.

Цитата: Токійський університет | «Про генеративний AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion тощо)[ja]»

Юридичні ризики, такі як порушення авторських прав та приватності

Оцінка порушення авторських прав у ChatGPT розділяється на два етапи: «етап розробки та навчання AI» та «етап генерації та використання». Оскільки дії щодо використання творів на кожному з етапів різняться, то й статті Японського закону про авторські права також відрізняються. Тому необхідно розглядати обидва етапи окремо.

Довідка: Агентство культурних справ | Семінар про авторські права у 2023 році (Рейва 5)[ja]

У січні 2019 року було внесено зміни до Японського закону про авторські права, зокрема, новий пункт 30-4, який стосується «етапу розробки та навчання AI». Використання творів для аналізу інформації під час розробки AI, яке не має на меті сприйняття виражених у творах ідей чи емоцій, може здійснюватися без дозволу власника авторських прав, як правило.

З іншого боку, якщо вироби, створені за допомогою ChatGPT, мають схожість або залежність (модифікацію) від авторських творів, це може бути визнано порушенням авторських прав. Тому перед публікацією важливо перевірити правовласників інформації, на яку посилався ChatGPT, та переконатися, що не існує схожого змісту до того, що було створено. Крім того, при цитуванні твору необхідно вказувати джерело (обмеження прав), а при перепублікації отримати дозвіл власника авторських прав для належного використання.

Згідно з умовами використання OpenAI, контент, створений за допомогою ChatGPT, може використовуватися в комерційних цілях, але якщо важко визначити, чи є контент порушенням авторських прав, рекомендується звернутися до фахівця.

У разі звинувачення у порушенні авторських прав з боку правовласника, може виникнути цивільна відповідальність (компенсація збитків, відшкодування моральної шкоди, заборона використання, відновлення репутації тощо) або кримінальна відповідальність (приватний обвинувачення). У випадку компаній можуть застосовуватися санкції до обох – фізичних та юридичних осіб, що може призвести до значних збитків.

Також необхідно бути обережними з особистою інформацією та приватністю, не вводячи їх у ChatGPT. Як зазначено вище, навіть якщо особиста інформація була введена в ChatGPT, система не зберігає та не відстежує цю інформацію і не може її вивести у чаті. Однак це політика OpenAI, і в інших платформах або сервісах ситуація може бути іншою.

Про ризики витоку особистої інформації та компенсацію збитків можна прочитати в наступній статті.

Пов’язана стаття: Ризик витоку особистої інформації компанії та компенсація збитків[ja]

Ризик ненавмисного створення шкідливого контенту

Ризик ненавмисного створення шкідливого контенту

Залежно від вмісту даних, на яких навчався ChatGPT, та змісту запитів, існує ризик створення шкідливого контенту. Якщо публікувати контент, створений ChatGPT, без належної перевірки, це може зашкодити репутації компанії та вартості бренду, а також призвести до юридичних проблем.

Хоча шкідливий контент налаштований так, щоб його не можна було вводити чи виводити через ChatGPT, важко відрізнити шкідливі програмні коди, шахрайські послуги тощо, і вони можуть бути виведені. З огляду на такі ризики, важливо завжди мати систему перевірки створеного контенту.

Розуміння умов використання для уникнення ризиків при використанні ChatGPT

При використанні ChatGPT у бізнесі необхідно, для уникнення ризиків, спочатку користуватися сервісом відповідно до умов використання та політики конфіденційності OpenAI. Оскільки умови використання часто оновлюються, при бізнес-використанні важливо перевіряти зміни та бути в курсі актуальних умов використання.

Пов’язана стаття: Роз’яснення умов використання OpenAI, на що звернути увагу при комерційному використанні?[ja]

Необхідні заходи для уникнення ризиків при використанні ChatGPT у бізнесі

Створення внутрішніх правил

Для уникнення ризиків, пов’язаних з ChatGPT, та його належного використання у бізнесі, компаніям необхідно впровадити наступну систему управління.

Створення внутрішніх правил

1 травня 2023 року (Рейва 5 рік) Громадська асоціація Японії з глибокого навчання (Japanese JDLA) опублікувала “Керівництво з використання генеративного AI”, яке узагальнює етичні, правові та соціальні питання (ELSI), пов’язані з ChatGPT. У різних сферах, включаючи промисловість, академічні кола та урядові установи, також ведеться робота над розробкою подібних керівництв.

При впровадженні ChatGPT у компанії важливо не лише підвищувати рівень обізнаності співробітників з інформаційної безпеки та проводити внутрішнє навчання, але й розробити власні керівні принципи використання ChatGPT. Створення та широке поширення чітких внутрішніх правил дозволить очікувати на певне зниження ризиків.

Джерело: Громадська асоціація Японії з глибокого навчання (Japanese JDLA) | “Керівництво з використання генеративного AI[ja]

Призначення відповідальної особи за використання ChatGPT

Призначення відповідальної особи в компанії для нагляду за використанням ChatGPT, постійний моніторинг дотримання керівництва та управління ризиками також є ефективним способом уникнення ризиків.

Моніторинг поведінки ChatGPT, коригування результатів його роботи та управління даними можна порівняти з системним аудитом. Системний аудит об’єктивно оцінює ефективність, безпеку та надійність інформаційних систем і проводиться з метою оптимізації бізнес-процесів та підтримки трансформації організації. Призначення відповідальної особи для аудиту дозволяє підвищити прозорість операцій та зміцнити відповідальність.

Висновок: Заходи уникнення ризиків є невід’ємними при використанні ChatGPT у бізнесі

Тут ми детально розглянули ризики та заходи щодо їх уникнення, пов’язані з використанням ChatGPT у бізнесі.

У випадку швидко розвиваючихся AI-технологій, таких як ChatGPT, необхідно вживати різноманітні заходи: від розробки внутрішніх правил використання до перевірки законності бізнес-моделей, створення договорів та правил користування, захисту інтелектуальної власності та забезпечення конфіденційності. У цьому процесі незамінною є співпраця з фахівцями, які добре обізнані з AI-технологіями.

Інформація про заходи, що їх пропонує наша юридична фірма

Юридична фірма “Моноліт” має багатий досвід у сфері ІТ, зокрема інтернету, та права. Бізнес, пов’язаний з штучним інтелектом (AI), супроводжується численними юридичними ризиками, тому підтримка адвокатів, які спеціалізуються на правових питаннях AI, є абсолютно необхідною.

Наша фірма пропонує різноманітну юридичну підтримку для бізнесу, пов’язаного з AI, включаючи ChatGPT, завдяки команді адвокатів, які спеціалізуються на AI, та інженерів. Детальнішу інформацію ви знайдете у статті нижче.

Сфери діяльності юридичної фірми “Моноліт”: Юридичні послуги з AI (включаючи ChatGPT та інші)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Повернутись до початку