Що таке управління ШІ, яким мають займатися компанії? Роз'яснення ключових моментів на основі «Настанов для операторів ШІ»

19 квітня 2024 року (令和6年) Міністерство внутрішніх справ та комунікацій та Міністерство економіки, торгівлі та промисловості Японії опублікували “Гайдлайни для AI-підприємств”. Метою цих гайдлайнів є сприяння безпечному використанню штучного інтелекту та просування його соціальної імплементації. Вони орієнтовані на компанії, що займаються розробкою, наданням та використанням AI, а також на державні установи, освітні заклади, NPO та NGO.
У “Гайдлайнах для AI-підприємств” підкреслюється важливість створення системи управління AI для всіх суб’єктів, що розробляють, надають та використовують AI. Але які саме заходи повинні вжити компанії для створення такої системи управління AI?
У цій статті ми розглянемо ключові аспекти управління AI, які компанії повинні впроваджувати на основі “Гайдлайнів для AI-підприємств”.
Що таке Японські Гайдлайни для AI-підприємців
Японські Гайдлайни для AI-підприємців – це документ, розроблений у 2024 році Міністерством внутрішніх справ та комунікацій спільно з Міністерством економіки, торгівлі та промисловості Японії. Його метою є сприяння безпечному та впевненому використанню штучного інтелекту (AI) шляхом надання єдиних рекомендацій для управління AI в нашій країні.
Джерело: Гайдлайни для AI-підприємців (Версія 1.0) | Міністерство економіки, торгівлі та промисловості[ja]
Ці гайдлайни були розроблені шляхом інтеграції та перегляду вже існуючих “Гайдлайнів для розробки AI”, “Гайдлайнів для використання AI” та “Гайдлайнів для управління, спрямованих на практичне застосування принципів AI”. Вони були створені для того, щоб підприємці, які використовують AI, могли перевірити рекомендації для безпечного та впевненого використання AI.
Детальніше про Гайдлайни для AI-підприємців можна дізнатися з статті “Японський адвокат пояснює зміст Гайдлайнів для AI-підприємців Міністерства економіки, торгівлі та промисловості”, тому будь ласка, зверніться до неї для отримання інформації.
Пов’язані статті: Японський адвокат пояснює зміст Гайдлайнів для AI-підприємців Міністерства економіки, торгівлі та промисловості[ja]
Що таке управління штучним інтелектом в Японії
Управління штучним інтелектом (AI) в Японії, згідно з Настановами для операторів AI, визначається як “дизайн та управління технічними, організаційними та соціальними системами за участю зацікавлених сторін з метою управління ризиками, що виникають внаслідок використання AI, на прийнятному рівні для зацікавлених сторін, одночасно максимізуючи позитивний вплив (користь), який він надає”.
Крім того, Настанови для операторів AI в Японії зазначають, що “для безпечного та впевненого використання AI, важливо побудувати систему управління AI, яка дозволить управляти ризиками на прийнятному для зацікавлених сторін рівні та максимізувати користь, співпрацюючи між усіма учасниками та практикуючи спільні принципи на всьому ланцюжку створення вартості”.
Отже, побудова системи управління AI є важливою для кожного суб’єкта, що займається розробкою, наданням та використанням AI.
Практика “Аджайл-гавернансу” у створенні AI-гавернансу в Японії

У створенні AI-гавернансу важливим вважається застосування практики “Аджайл-гавернансу”.
“Аджайл-гавернанс” – це підхід, який не передбачає встановлення жорстких правил заздалегідь, а замість цього передбачає гнучке реагування на зміни зовнішнього середовища та ризиків шляхом безперервного циклу “аналізу середовища та ризиків”, “встановлення цілей”, “дизайну системи”, “операцій” та “оцінки”.
У сфері AI-бізнесу, через складність та швидкі зміни, цілі також постійно змінюються.
Тому, при створенні AI-гавернансу, замість того, щоб заздалегідь встановлювати правила чи процедури, необхідний гнучкий підхід, який відповідає масштабам та специфіці кожної компанії. У зв’язку з цим, у Японських рекомендаціях для AI-підприємців рекомендується створення гавернансу за методом “Аджайл-гавернансу”.
Слово “аджайл” в англійській мові означає “швидкий”, “спритний”.
Застосування “Аджайл-гавернансу” у Японських рекомендаціях для AI-підприємців описано наступним чином:
- Проведення “аналізу середовища та ризиків”, який включає зміни в соціальному прийнятті AI-систем та послуг, а також аналіз можливих переваг та ризиків, пов’язаних з використанням AI-систем та послуг.
- Прийняття рішення про розробку, надання та використання AI-систем та послуг, і у разі позитивного рішення – “встановлення цілей”.
- Розробка “дизайну системи управління AI” для досягнення встановлених цілей гавернансу AI та їх “операцій”. При цьому компанії повинні забезпечити прозорість та відповідальність (наприклад, справедливість) щодо зовнішніх зацікавлених сторін щодо цілей гавернансу AI та їх операційного стану.
- Постійний моніторинг ефективності системи управління AI та її “оцінка”.
- Після запуску AI-систем та послуг, знову проводиться “аналіз середовища та ризиків” з урахуванням змін у зовнішньому середовищі, та при необхідності переглядаються цілі.
Конкретні дієві цілі для реалізації пунктів 1–5 описані у додатку до Японських рекомендацій для AI-підприємців[ja], тому давайте перевіримо кожен пункт детально.
Цілі поведінки для практики аджайл-гавернансу
Давайте перевіримо цілі поведінки для практики аджайл-гавернансу на основі додатку до керівництва для AI-підприємців у Японії.
Аналіз довкілля та ризиків в Японії
Для впровадження “Аналізу довкілля та ризиків” в рамках аджайл-гавернансу в Японії, Додаток до Настанови для операторів штучного інтелекту визначає наступні три цілі діяльності:
- Розуміння переваг/ризиків
- Розуміння суспільного сприйняття штучного інтелекту
- Розуміння рівня освоєння штучного інтелекту власною компанією
Розуміння переваг/ризиків
Однією з цілей дій для проведення “аналізу довкілля та ризиків” є “розуміння переваг/ризиків”.
У додатку до Настанов для операторів штучного інтелекту (AI) це пояснюється наступним чином.
Ціль дій 1-1【Розуміння переваг/ризиків】
Кожен суб’єкт під керівництвом керівного складу повинен уточнити мету розробки, надання та використання AI, а потім конкретно зрозуміти не тільки переваги, які можна отримати від AI, але й непередбачувані ризики, що стосуються бізнесу кожного суб’єкта, доповідати про них керівному складу, ділитися ними з керівним складом та своєчасно оновлювати розуміння.
Цитата: Додаток до Настанов для операторів штучного інтелекту (AI)
Особливо важливими є наступні пункти:
- Чітке визначення мети розробки, надання та використання AI для створення цінності в бізнесі та вирішення соціальних проблем
- Конкретне розуміння переваг та ризиків, які пов’язані з власним бізнесом
- Звернення уваги на “ризики”, яких слід уникати, та питання, що стосуються декількох суб’єктів, забезпечуючи переваги та знижуючи ризики на всьому ланцюгу створення цінностей/ланцюгу ризиків
- Створення механізму для швидкого звітування/спільного використання інформації з керівним складом
Розуміння суспільної прийнятності ШІ
Другою ціллю дій для “аналізу ризиків та довкілля” є “розуміння суспільної прийнятності штучного інтелекту (ШІ)”.
У додатку до Настанов для операторів ШІ це пояснюється наступним чином:
Ціль дій 1-2【Розуміння суспільної прийнятності ШІ】
Від кожного суб’єкта очікується, що під керівництвом керівного складу, перед початком повномасштабної розробки, надання та використання ШІ, він зрозуміє поточний стан суспільної прийнятності на основі думок зацікавлених сторін. Також очікується, що після початку повномасштабної розробки, надання та використання систем та послуг ШІ, враховуючи зміни в зовнішньому середовищі, зацікавлені сторони своєчасно переглянуть свої думки.
Цитата: Додаток до Настанов для операторів ШІ
Основні пункти для впровадження наступні:
- Ідентифікація зацікавлених сторін
- Зусилля зацікавлених сторін для розуміння суспільної прийнятності при розробці, наданні та використанні ШІ
- Після запуску систем та послуг ШІ враховувати швидкі зміни в зовнішньому середовищі та за потреби своєчасно переглядати думки зацікавлених сторін
Розуміння рівня освоєння AI власною компанією
Третьою ціллю дій для виконання “аналізу ризиків та навколишнього середовища” є “розуміння рівня освоєння AI власною компанією”.
У додатку до Настанов для операторів AI це пояснюється наступним чином:
Ціль дій 1-3【Розуміння рівня освоєння AI власною компанією】
Кожна сторона, під керівництвом керівного складу, на основі виконання цілей дій 1-1 та 1-2, за винятком випадків, коли вирішено, що ризик є незначним, повинна оцінити рівень освоєння AI власною компанією. Оцінка має базуватися на таких факторах, як ступінь досвіду розробки, надання та використання AI систем та послуг, кількість та рівень досвіду співробітників, включаючи інженерів, які беруть участь у цих процесах, а також рівень грамотності цих співробітників у сфері AI технологій та етики. Очікується, що компанія буде періодично переоцінювати свій рівень освоєння AI та, за можливості, публікувати результати для зацікавлених сторін у межах розумного. У випадку, коли вирішено не оцінювати рівень освоєння AI через незначний ризик, очікується, що факт невиконання оцінки та його причини будуть опубліковані для зацікавлених сторін.
Цитата: Додаток до Настанов для операторів AI
Основні пункти для виконання наступні:
- Розглянути необхідність оцінки рівня освоєння AI, виходячи з сфери діяльності та розміру кожної сторони
- Якщо вирішено, що оцінка рівня освоєння AI необхідна, візуалізувати здатність реагування на ризики, пов’язані з AI, та оцінити рівень освоєння
- Навіть якщо вирішено, що оцінка рівня освоєння AI не потрібна, за можливості опублікувати цей факт та його причини для зацікавлених сторін у межах розумного
Встановлення цілей

Як дієві цілі для впровадження “Встановлення цілей” в рамках аджайл-губернансу, у додатку до настанов для AI-підприємців визначено наступні дієві цілі.
Дієва ціль 2-1【Встановлення цілей AI-губернансу】
Кожен суб’єкт, під керівництвом керівного складу, повинен враховувати можливі переваги/ризики, які можуть принести AI-системи та послуги, суспільну прийнятність розробки, надання та використання AI-систем та послуг, а також рівень володіння AI власної компанії. Водночас, звертаючи увагу на важливість процесу встановлення цілей AI-губернансу, суб’єкт повинен розглянути можливість встановлення власних цілей AI-губернансу (наприклад, AI-політики) та встановити їх. Також очікується, що встановлені цілі будуть оприлюднені для зацікавлених сторін. Якщо суб’єкт вирішує не встановлювати цілі AI-губернансу через незначні потенційні ризики, очікується, що він оприлюднить цей факт разом з причинами для зацікавлених сторін. Якщо вважається, що “загальні настанови” цього керівництва функціонують належним чином, можна використовувати ці “загальні настанови” як цілі замість власних цілей AI-губернансу.
Навіть якщо цілі не встановлюються, очікується, що суб’єкт зрозуміє важливість цього керівництва та за потреби впроваджуватиме заходи, що стосуються дієвих цілей 3 до 5.
Цитата: Додаток до настанов для AI-підприємців
Основні пункти для впровадження:
- Розглянути можливість встановлення “Цілей AI-губернансу” для кожного суб’єкта
- Якщо вирішено, що встановлення цілей є необхідним, то встановити ці цілі
- Навіть якщо вирішено, що встановлення цілей не є необхідним, за можливості оприлюднити цей факт разом з причинами для зацікавлених сторін у розумних межах.
Дизайн системи (створення системи управління AI) в Японії
Для реалізації “Дизайну системи (створення системи управління AI)” в рамках аджайл-гавернансу в Японії, в додатку до настанов для AI-підприємців визначено наступні чотири цілі дій:
- Обов’язкова оцінка цілей та відхилень та реагування на відхилення
- Підвищення рівня грамотності персоналу в області управління AI
- Посилення управління AI за допомогою співпраці між різними суб’єктами та відділами
- Зменшення навантаження на користувачів, пов’язаного з інцидентами, шляхом профілактики та швидкого реагування
Обов’язковість оцінки цілей та відхилень та реагування на відхилення
Однією з ключових цілей для реалізації “Системного дизайну (побудови систем управління штучним інтелектом)” є “Обов’язковість оцінки цілей та відхилень та реагування на відхилення”.
У Настановах для операторів штучного інтелекту в Японії зазначено наступне:
Цільовий показник 3-1【Обов’язковість оцінки цілей та відхилень, а також реагування на відхилення】
Кожен суб’єкт під керівництвом керівного складу повинен визначити відхилення від цілей управління штучним інтелектом (AI) та оцінити вплив цих відхилень. У разі виявлення ризику, враховуючи його масштаб, обсяг та частоту виникнення, слід вирішити, чи є прийняття цього ризику раціональним. Якщо прийняття ризику визнано нераціональним, слід переглянути підходи до розробки, надання та використання AI, інтегрувавши процес перегляду на відповідних етапах системи управління AI, а також на етапах проектування, розробки, перед запуском та після запуску AI систем та послуг. Керівний склад повинен розробити основні принципи та політику для процесу перегляду, а оперативний склад повинен конкретизувати цей процес. Також очікується, що у процес оцінки відхилень будуть залучені особи, які не беруть безпосередньої участі у розробці, наданні та використанні AI. Водночас, недоречно відмовляти у розробці, наданні та використанні AI лише на підставі наявності відхилень. Тому оцінка відхилень є лише кроком для оцінки ризиків та не більше ніж початком для вдосконалення.
Цитата: Додаток до Настанов для операторів штучного інтелекту
Основні пункти для практичного застосування:
- Визначити та оцінити ступінь відхилення поточних AI систем та послуг від “Цілей управління AI”.
- У разі виявлення ризику від використання AI систем та послуг, вирішити, чи є прийняття цього ризику раціональним.
- Якщо прийняття ризику визнано нераціональним, переглянути підходи до розробки, надання та використання, інтегрувавши процес перегляду на відповідних етапах та в процесі прийняття рішень усередині організації.
- Керівний склад повинен взяти на себе лідерство та відповідальність за ці дії, а оперативний склад повинен конкретизувати та забезпечити їхнє безперервне виконання.
- Для формування спільного розуміння всередині організації, слід поділитися визначеними пунктами оцінки відхилень.
Підвищення рівня AI-грамотності персоналу в управлінні AI
Другою цільовою дією, яка визначається для реалізації “Системного дизайну (побудови системи управління AI)”, є “Підвищення рівня AI-грамотності персоналу в управлінні AI”.
У Настанові для операторів AI в Японії зазначено наступне:
Цільова дія 3-2【Підвищення рівня AI-грамотності персоналу системи управління AI】
Від кожного суб’єкта очікується, що під керівництвом керівництва компанії, він розгляне використання зовнішніх навчальних матеріалів та стратегічно підвищить рівень AI-грамотності для належного управління системою управління AI. Наприклад, можна забезпечити освіту для підвищення загальної AI-грамотності, що стосується етики AI та надійності AI, для членів правління, керівної команди та відповідальних осіб, які несуть відповідальність за правові та етичні аспекти систем та послуг AI, а для осіб, які займаються розробкою, наданням та використанням проектів систем та послуг AI, можна забезпечити навчання не тільки з етики AI, але й з технологій AI, включаючи генеративний AI, а також надати всім освіту щодо місця та важливості системи управління AI.
Цитата: Додаток до Настанови для операторів AI
Серед ключових пунктів для практичного застосування можна виділити наступні:
- Використовувати навчальні та навчальні матеріали, відповідні до посади та обов’язків, для підвищення рівня AI-грамотності
- Застосовувати навчальні та навчальні матеріали, відповідні до ролі, яку кожен учасник відіграє
- Зокрема, щодо важливої AI-етики, вживати заходів, таких як забезпечення навчання для всіх співробітників
Посилення управління штучним інтелектом через співпрацю між суб’єктами та відділами
Третьою цільовою дією, яка визначається для впровадження “Системного дизайну (будівництва систем управління штучним інтелектом)”, є “Посилення управління штучним інтелектом через співпрацю між суб’єктами та відділами”.
У Настановах для операторів штучного інтелекту в Японії зазначено наступне:
Цільова дія 3-3【Посилення управління штучним інтелектом через співпрацю між суб’єктами та відділами】
Очікується, що суб’єкти, за винятком випадків, коли вони самостійно здійснюють всі процеси від підготовки наборів даних для навчання до розробки, надання та використання систем та послуг штучного інтелекту, під керівництвом керівництва компанії, з увагою до комерційної таємниці, визначать та поділяться інформацією, яка необхідна для вирішення операційних проблем систем та послуг штучного інтелекту, які не можуть бути повністю вирішені власними силами, забезпечуючи при цьому справедливу конкуренцію. При цьому очікується, що вони домовляться про обсяги розкриття інформації та розглянуть укладення угод про збереження конфіденційності для забезпечення необхідного обміну інформацією.
Цитата: Додаток до Настанов для операторів штучного інтелекту
Серед ключових пунктів для практичного застосування можна виділити наступні:
- Визначення проблем у функціонуванні систем та послуг штучного інтелекту, які не можуть бути вирішені окремими суб’єктами, та інформації, необхідної для їх вирішення
- Спільне використання інформації між суб’єктами з урахуванням інтелектуальної власності та приватності в межах можливого та розумного
※ Важливо звернути увагу на те, що ці дії передбачають дотримання різних законів та регуляцій, політики штучного інтелекту суб’єктів, комерційної таємниці, даних з обмеженим доступом тощо, з основою у забезпеченні справедливої конкуренції.
Зменшення навантаження на користувачів через профілактику та швидке реагування на інциденти
Четвертою ціллю дій для реалізації “Системного дизайну (будівництва систем управління штучним інтелектом)” є “зменшення навантаження на користувачів через профілактику та швидке реагування на інциденти”.
У Настанові для операторів штучного інтелекту в Японії зазначено наступне:
Ціль дій 3-4【Профілактика та швидке реагування для зменшення навантаження, пов’язаного з інцидентами, на користувачів AI та осіб, що не використовують AI у своїй діяльності】
Від кожної сторони очікується, що під керівництвом керівного складу, вони зменшать навантаження, пов’язане з інцидентами, на користувачів AI та осіб, що не використовують AI у своїй діяльності, через профілактику та швидке реагування на інциденти.
Цитата: Додаток до Настанови для операторів штучного інтелекту
- Попередження інцидентів, таких як збої системи, витік інформації, виникнення претензій, та швидке реагування у разі їх виникнення
- Створення структури для профілактики інцидентів та швидкого реагування на них
Застосування

Для реалізації застосування “Аджайл-гаверненсу” в Японії, в додатку до керівництва для AI-операторів визначено наступні три цілі дій:
- Забезпечення стану, в якому можливо пояснити ситуацію з управління системами штучного інтелекту (AI)
- Забезпечення стану, в якому можливо пояснити ситуацію з управління кожною окремою системою AI
- Розгляд активного розкриття інформації про практику застосування AI-гаверненсу
Забезпечення стану, в якому можна пояснити ситуацію з управлінням AI-системами
Однією з цілей дій для “впровадження” є “забезпечення стану, в якому можна пояснити ситуацію з управлінням AI-системами”.
У Настановах для операторів AI в Японії зазначено наступне:
Ціль дій 4-1【Забезпечення стану, в якому можна пояснити ситуацію з управлінням AI-системами】
Від кожної сторони очікується, що під керівництвом керівного складу, наприклад, буде здійснюватися запис процесу оцінки відхилень, згідно з ціллю дій 3-1, та інші дії, що забезпечують прозорість та відповідальність у ситуації з управлінням AI-системами перед зацікавленими сторонами.
Цитата: Додаток до Настанов для операторів AI
Як ключовий момент управління, важливо забезпечити, щоб ситуація з управлінням AI-системами була в межах, які є відповідними та розумними, та могла бути пояснена зацікавленим сторонам.
Забезпечення стану, що дозволяє пояснити індивідуальні умови експлуатації систем AI
Другою цільовою дією для “експлуатації” є “забезпечення стану, що дозволяє пояснити умови експлуатації систем AI”, як це визначено в японських рекомендаціях для операторів AI.
Цільова дія 4-2【Забезпечення стану, що дозволяє пояснити індивідуальні умови експлуатації систем AI】
Від кожного суб’єкта очікується, що під керівництвом керівного складу, він буде постійно проводити оцінку відхилень під час тимчасової та повноцінної експлуатації кожної системи чи сервісу AI, моніторити стан тимчасової та повноцінної експлуатації, обертати PDCA (планувати-робити-перевіряти-діяти) та записувати результати. Від суб’єктів, які розробляють системи AI, очікується підтримка моніторингу, який проводять суб’єкти, що надають чи використовують системи AI.
Цитата: Додаток до рекомендацій для операторів AI
Основні моменти практики наступні:
- Моніторинг стану експлуатації AI кожним суб’єктом, обертання PDCA та запис результатів.
- У випадку, коли окремим суб’єктам важко впоратися самостійно, вони повинні координувати свої дії між собою.
Розгляд активного розкриття стану практики управління штучним інтелектом в Японії
Третьою ціллю дій для “впровадження” є “забезпечення стану, що може бути пояснений, для системи управління штучним інтелектом та розгляд активного розкриття стану практики управління штучним інтелектом (AI) в Японії”.
У Настановах для операторів штучного інтелекту в Японії зазначено наступне:
Цільові завдання 4-3 [Розгляд активного розкриття стану практики управління штучним інтелектом]
Від кожної сторони очікується, що вона розгляне можливість розкриття інформації, пов’язаної з встановленням цілей управління штучним інтелектом, створенням та впровадженням системи управління штучним інтелектом, як нематеріальної інформації в Кодексі корпоративного управління. Навіть для компаній, які не є публічними, очікується, що вони розглянуть можливість розкриття інформації про свою діяльність у сфері управління штучним інтелектом. Крім того, очікується, що вони оприлюднять факт нерозкриття такої інформації разом з його причинами для зацікавлених сторін.
Цитата: Додаток до Настанов для операторів штучного інтелекту
Основні пункти для практичного застосування наступні:
- Розглянути забезпечення прозорості інформації про управління штучним інтелектом, починаючи від основних підходів компанії до штучного інтелекту та закінчуючи створенням та впровадженням системи управління штучним інтелектом.
- При розкритті інформації про управління штучним інтелектом розглянути можливість її позиціонування як нематеріальної інформації в Кодексі корпоративного управління.
- У разі нерозкриття інформації про управління штучним інтелектом оприлюднити цей факт разом з його причинами для зацікавлених сторін.
Оцінка

Для здійснення “оцінки” в рамках аджайл-гавернансу, в додатку до керівництва для AI-підприємців в Японії визначено наступні дві цілі дій:
- Перевірка функціональності системи управління AI
- Розгляд думок зовнішніх зацікавлених сторін
Перевірка функціональності системи управління AI
Першою ціллю дій для “оцінки” є “Перевірка функціональності системи управління AI”.
У керівництві для AI-підприємців зазначено наступне:
Ціль дій 5-1【Перевірка функціональності системи управління AI】:
Від кожного суб’єкта очікується, що під керівництвом керівного складу, особи з відповідною спеціалізацією, незалежні від проектування та експлуатації системи управління AI, оцінять, чи система управління AI правильно спроектована та експлуатується, тобто чи вона функціонує належним чином для досягнення цілей управління AI через реалізацію цілей дій 3 та 4, та чи потрібно вносити постійні поліпшення.
Цитата: Керівництво для AI-підприємців
Основні пункти практики наступні:
- Керівний склад має ясно висловити ключові точки оцінки для постійного поліпшення власними словами
- Призначити осіб з відповідною спеціалізацією, незалежних від проектування та експлуатації системи управління AI
- Моніторити, чи система управління AI функціонує належним чином
- На основі результатів моніторингу впроваджувати постійні поліпшення
Розгляд думок зовнішніх зацікавлених сторін
Другою ціллю дій для “оцінки” є “Розгляд думок зовнішніх зацікавлених сторін”.
У керівництві для AI-підприємців зазначено наступне:
Ціль дій 5-2【Розгляд думок зацікавлених сторін】:
Від кожного суб’єкта очікується, що під керівництвом керівного складу, він розгляне можливість запитувати у зацікавлених сторін думки щодо системи управління AI та її експлуатації. Якщо після розгляду вирішено не впроваджувати ці думки, очікується, що суб’єкт пояснить причини зацікавленим сторонам.
Цитата: Додаток до керівництва для AI-підприємців
Основні пункти практики наступні:
- Розглянути можливість запитувати у зацікавлених сторін думки щодо системи управління AI та її експлуатації
- Якщо вирішено не впроваджувати ці думки, пояснити причини зацікавленим сторонам
Переоцінка екологічних ризиків
Однією з цілей дій для впровадження аджайл-гаверненсу є “своєчасне повторне виконання цілей дій 1-1 до 1-3”.
У Настанові для операторів AI в Японії (Japanese AI Operators Guidelines) зазначено наступне:
Ціль дій 6-1【Своєчасне повторне виконання цілей дій 1-1 до 1-3】:
Від кожного суб’єкта очікується, що під керівництвом керівного складу він швидко усвідомлює зміни зовнішнього середовища, такі як поява нових технологій, зміни соціальних систем, таких як регулювання, та своєчасно переоцінює, оновлює розуміння та здобуває нові точки зору тощо, і на основі цього вдосконалює або перебудовує системи AI, покращує їхнє використання. Крім того, при виконанні цілі дій 5-2 очікується, що буде розглянуто отримання зовнішніх думок, спрямованих на перегляд загального управління AI, включно з аналізом екологічних ризиків, що також є важливим аспектом аджайл-гаверненсу, зазначеного в цих рекомендаціях, не тільки існуючої системи управління AI та її використання.
Цитата: Додаток до Настанови для операторів AI
До ключових пунктів практики можна віднести наступне:
- Усвідомлення змін зовнішнього середовища, таких як поява нових технологій, інновації, пов’язані з AI, зміни соціальних систем, таких як регулювання;
- Своєчасне переоцінювання, оновлення розуміння, здобуття нових точок зору тощо, та відповідне вдосконалення, перебудова та зміна використання систем AI;
- Закріплення концепції управління AI як частини корпоративної культури.
Основні моменти, на які слід звернути увагу при створенні управління AI в Японії
Вищеописані методи управління AI базуються на “AI事業者ガイドライン” (Настановах для AI-підприємців) та методології аджайл-габернансу.
Проте, ці методики були розроблені як універсальні для всіх AI-підприємців, тому необхідно індивідуально розглядати, до якого бізнес-моделі розробки, надання чи використання належить ваша компанія, а також які саме AI-системи та сервіси ви пропонуєте.
Необхідність визначення, яка організаційна структура та процедури потрібні вашій компанії, які дії та документація необхідні, залежить від конкретного випадку. Крім того, важливо враховувати, як це вплине на майбутні бізнес-переваги та уникнення недоліків.
Крім того, AI-бізнес може приховувати різноманітні юридичні ризики. Тому ми рекомендуємо залучати підтримку адвоката з самого початку планування заходів.
Підсумок: Оптимізація до Японських Гайдлайнів для AI-підприємців за допомогою адвоката
У цій статті ми розглянули побудову AI-говернансу відповідно до Японських Гайдлайнів для AI-підприємців.
Методи AI-говернансу детально визначені у Японських Гайдлайнах для AI-підприємців, і керівникам необхідно створювати організації всередині компанії та готувати документацію як частину говернансу.
У світі AI-бізнесу, де зміни відбуваються дуже швидко, оптимізація до нових і складних гайдлайнів може бути викликом. Ми рекомендуємо з самого початку звертатися за порадою до фахівців, які мають глибокі знання як в IT-сфері, так і в праві, щоб побудувати найбільш оптимальний AI-говернанс для вашої компанії.
Заходи, що пропонує наша юридична фірма
Юридична фірма “Моноліт” має багатий досвід у сфері ІТ, зокрема інтернету, та права.
Бізнес, пов’язаний з штучним інтелектом (AI), супроводжується численними юридичними ризиками, і підтримка адвокатів, які спеціалізуються на правових питаннях AI, є надзвичайно важливою. Наша фірма пропонує висококваліфіковану юридичну підтримку для бізнесу, пов’язаного з AI, включаючи ChatGPT, завдяки команді адвокатів, обізнаних з AI, та інженерів. Ми надаємо послуги зі створення контрактів, оцінки законності бізнес-моделей, захисту інтелектуальної власності, та вирішення питань приватності. Детальніше про це читайте у наступних статтях.
Сфери діяльності юридичної фірми “Моноліт”: Юридичні послуги з AI (включаючи ChatGPT тощо)[ja]
Category: IT