एआईलाई नियमन गर्ने कानूनी अवस्थाको वर्तमान स्थिति के हो? जापान र ईयूको तुलना र उपायका मुख्य बिन्दुहरूको व्याख्या

ChatGPT जस्ता जेनेरेटिभ AI अहिले ठूलो चर्चा बनेको छ। अहिलेको व्यापारिक परिदृश्यमा पनि समावेश गरिन थालेको यो जेनेरेटिभ AI लाई “चौथो AI बूम” को प्रारम्भकर्ता पनि भनिन्छ। यससँगै, विश्वव्यापी रूपमा AI लाई नियमन गर्ने कानूनी संरचनाको विकास पनि अगाडि बढिरहेको छ।
यस लेखमा, जापानमा AI सम्बन्धी कानूनी प्रणालीलाई उठान गर्दै, बौद्धिक सम्पत्ति अधिकार, व्यक्तिगत जानकारी जस्ता गोप्य जानकारीको उचित व्यवस्थापनको बारेमा व्याख्या गरिनेछ।
AI(人工知能)の定義と歴史
AI(artificial intelligence) भनेको “人工知能” हो। कानुनी रूपमा यसको कडा परिभाषा छैन, र विभिन्न परिभाषाहरू दिइएका छन्। तल यसको एक उदाहरण प्रस्तुत गरिएको छ।
स्रोत | परिभाषा・व्याख्या |
「広辞苑」 | तर्क र निर्णय जस्ता बौद्धिक कार्यहरू गर्न सक्ने कम्प्युटर प्रणाली। |
「ブリタニカ百科事典」 | विज्ञान र प्रविधि > कम्प्युटर・AI। बौद्धिक अस्तित्वसँग सम्बन्धित कार्यहरू डिजिटल कम्प्युटर वा कम्प्युटर रोबोटले गर्ने क्षमता। |
人工知能学会記事「教養知識としてのAI」 | 「AI भनेको के हो?」 भन्ने प्रश्नको उत्तर सरल छैन। AI विशेषज्ञहरूबीच ठूलो बहस छ, र यसले एक पुस्तक बन्न सक्छ। त्यसमा, साझा भागलाई निकालेर, एक शब्दमा भन्नुपर्दा, “मानव जस्तै बौद्धिक कार्यहरूलाई यान्त्रिक रूपमा पूरा गर्ने प्रविधि” भन्न सकिन्छ। |
शैक्षिक लेख “深層学習と人工知能” | AI भनेको मानव बुद्धिको संरचना बुझ्न खोज्ने शैक्षिक क्षेत्र हो। |
शैक्षिक लेख “人工知能社会のあるべき姿を求めて” | AI लगायतका सूचना प्रविधिहरू केवल उपकरण हुन्। |
AI भनेको मानवको बौद्धिक क्षमता कम्प्युटरमा पुनःनिर्माण गर्ने विभिन्न प्रविधि, सफ्टवेयर समूह, कम्प्युटर प्रणाली, र एल्गोरिदमहरू हुन्।
मुख्य विशेषीकृत AI को रूपमा, तलका कुराहरू उल्लेख गर्न सकिन्छ।
- प्राकृतिक भाषा प्रशोधन (मेसिन अनुवाद, वाक्य संरचना विश्लेषण, रूपात्मक विश्लेषण, RNN आदि)
- विशेषज्ञहरूको तर्क र निर्णयको नक्कल गर्ने विशेषज्ञ प्रणाली
- डेटाबाट विशेष ढाँचाहरू पत्ता लगाउने र निकाल्ने छवि पहिचान, ध्वनि पहिचान आदि
AI(人工知能) भन्ने क्षेत्र, कम्प्युटरको प्रारम्भिक काल 1950 दशकदेखि अनुसन्धान र विकास हुँदै आएको छ। पहिलो AI बूम 1970 दशकसम्म “खोज र तर्क” को अनुसन्धान थियो, दोस्रो AI बूम 1980 दशकमा “ज्ञान प्रतिनिधित्व” को अनुसन्धानद्वारा विशेषज्ञ प्रणालीको जन्म भयो, र दुई पटकको परिप्रेक्ष्यमा बूम भयो।
2000 दशकमा प्रवेश गरेपछि बिग डाटा देखा पर्यो, र 2012 पछि Alexnet को आगमनले छवि प्रशोधनमा गहिरो शिक्षण (深層学習) को उपयोगिता विश्वव्यापी रूपमा मान्यता प्राप्त गर्यो, र अनुसन्धान तीव्र गतिमा सक्रिय भयो, तेस्रो AI बूम आयो।
2016 देखि 2017 सम्म, गहिरो शिक्षण (深層学習) र सुदृढीकरण शिक्षण (Q शिक्षण・方策勾配法) लाई समावेश गरेको AI देखा पर्यो।
तेस्रो AI बूमको मुख्य क्रान्ति, प्राकृतिक भाषा प्रशोधन・सेन्सरद्वारा छवि प्रशोधन जस्ता दृश्य पक्षमा स्पष्ट छ, तर प्रविधि विकास・समाजशास्त्र・नैतिकशास्त्र・अर्थशास्त्र जस्ता क्षेत्रमा पनि ठूलो प्रभाव पारिरहेको छ।
2022 नोभेम्बर 30 मा, OpenAI बाट लन्च गरिएको प्राकृतिक भाषा प्रशोधन उत्पन्न गर्ने AI ChatGPT ले बहुउपयोगी उपकरणको रूपमा ध्यान आकर्षित गर्यो, जसले उत्पन्न गर्ने AI व्यवसायलाई सक्रिय बनायो। यस सामाजिक घटनालाई चौथो AI बूम भन्नेहरू पनि छन्।
जापानमा AI सम्बन्धी कानुनहरूलाई ध्यान दिनुपर्ने व्यवसायिक परिदृश्य

AI को एक प्रकार, जेनेरेटिभ AI, उपयोगी उपकरण हो, तर यसले गलत जानकारीको प्रसार, अपराधलाई प्रोत्साहन, र कहिलेकाहीं लोकतन्त्रलाई धम्की दिने जोखिमहरू पनि समेटेको छ।
यस्ता AI का जोखिम तत्वहरू अब टार्न नसकिने चुनौती बनेका छन्। त्यसैले, कानुनी नियमनलाई ध्यान दिनुपर्ने व्यवसायिक परिदृश्यको बारेमा, प्रयोगकर्ता र प्रदायकको दृष्टिकोणबाट व्याख्या गरिन्छ।
पाठ्य सामग्री उत्पन्न गर्ने AI को प्रयोग
२०२२ (Reiwa 4) को नोभेम्बरमा “ChatGPT” को लन्च भएदेखि, पाठ्य सामग्री उत्पन्न गर्ने AI जटिल अनुरोधहरूलाई सम्बोधन गर्न सक्ने भएकाले, कामको दक्षता र उच्च लागत प्रदर्शनको अपेक्षा गर्न सकिने बहुउद्देश्यीय उपकरणको रूपमा विश्वव्यापी रूपमा चर्चामा आयो।
तर, पाठ्य सामग्री उत्पन्न गर्ने AI को प्रयोगसँग सम्बन्धित जोखिमहरू पनि चिनिन थालेका छन्। यस्ता सम्भावित जोखिमहरूलाई टार्नका लागि, कुन-कुन जोखिमहरू छन् र कुन-कुन जापानी कानुनहरू पालना गर्नुपर्छ भन्ने कुरामा ध्यान दिनु आवश्यक छ।
पाठ्य सामग्री उत्पन्न गर्ने AI को प्रतिनिधि ChatGPT मा, कुनै उपाय नअपनाएमा प्रयोगकर्ताले इनपुट गरेको जानकारी (प्रोम्प्ट) चुहिने जोखिम छ। ChatGPT मा प्रोम्प्ट संकलन, भण्डारण, र प्रयोग गर्ने क्षमता भएकाले, व्यक्तिगत जानकारी वा कम्पनीको गोप्य जानकारी, गोपनीयता सम्झौता (NDA) आदि मार्फत प्राप्त गरिएको गोप्य जानकारी चुहिने जोखिम छ।
यसका अतिरिक्त, ChatGPT विशेषको गलत जानकारी उत्पन्न (हल्युसिनेसन) र प्रसार गर्ने जोखिम, र कपीराइट उल्लङ्घन जस्ता जोखिमहरू पनि छन्। त्यसैले, उत्पन्न सामग्रीको तथ्य जाँच अपरिहार्य छ।
छवि उत्पन्न गर्ने AI को प्रयोग
व्यवसायमा छवि उत्पन्न गर्ने AI को प्रयोग गर्दा, कपीराइट उल्लङ्घनको जोखिमलाई ध्यानमा राख्नुपर्छ।
ChatGPT आदि द्वारा उत्पन्न छवि वा पाठ्य सामग्रीको कपीराइट, सामान्यतया उत्पन्न गर्ने प्रयोगकर्ताले राख्छ। OpenAI का अनुसार, प्रयोगकर्ताले कुनै पनि उद्देश्य (व्यावसायिक प्रयोग समेत) का लागि ChatGPT आदि प्रयोग गर्न सक्छन्।
तर, प्रयोग गर्दा निम्न बुँदाहरूमा ध्यान दिन आवश्यक छ।
ChatGPT को अध्ययन डाटामा, इन्टरनेटमा सार्वजनिक गरिएका धेरै सामग्रीहरू समावेश छन्, र यी सामग्रीहरूको अधिकांश कपीराइट सामग्री हुन् (पाठ्य सामग्री, छवि, संगीत, भिडियो आदि)। त्यसैले, उत्पन्न सामग्रीले अन्यको कपीराइट उल्लङ्घन गर्ने सम्भावना छ।
AI विकास र जेनेरेटिभ AI सेवा प्रदान
AI व्यवसायमा विभिन्न कानुनहरू सम्बन्धित छन्, र विश्वव्यापी रूपमा कानुनी संरचनाको विकास भइरहेको छ, त्यसैले, विद्यमान जापानी कानुनहरू पालना गर्दै नयाँ कानुनहरूमा लचिलो रूपमा प्रतिक्रिया दिनुपर्ने आवश्यकता छ।
अर्को अध्यायमा, जापानको AI सम्बन्धी कानुनहरू र २०२३ (Reiwa 5) को डिसेम्बरमा स्थापित विश्वको पहिलो अन्तर्राष्ट्रिय EU “AI नियमन कानुन” को बारेमा व्याख्या गरिनेछ।
जापानमा AI सम्बन्धी कानूनी व्यवस्था
हाल जापानमा, AI लाई बाध्यकारी कानूनी नियमहरूद्वारा नियमन गरिएको छैन, र यसलाई स्व-नियमनको नीतिद्वारा सम्बोधन गरिन्छ। यहाँ, AI को उपयोग गर्दा ध्यान दिनुपर्ने वर्तमान कानूनी व्यवस्थाहरूको व्याख्या गरिन्छ।
सन्दर्भ: आर्थिक उद्योग मन्त्रालय|「AI सिद्धान्तको कार्यान्वयनको लागि शासन-निर्देशिका ver. 1.1」[ja]
著作権法 (जापानी प्रतिलिपि अधिकार कानून)
平成31年 (2019) जनवरीमा लागू भएको “संशोधित著作権法” मा, अधिकार सीमितता प्रावधान (अनुमति आवश्यक नभएको अपवाद प्रावधान) मा “जानकारी विश्लेषण” (उक्त कानूनको धारा 30 को 4 को 1 उपधारा 2) नयाँ रूपमा समावेश गरिएको छ। AI विकास वा सिकाइ चरणमा जानकारी विश्लेषण जस्ता, प्रतिलिपि अधिकारमा व्यक्त विचार वा भावना उपभोग नगर्ने उद्देश्यका लागि प्रयोग कार्यहरू, सामान्यतया प्रतिलिपि अधिकारधारीको अनुमति बिना गर्न सकिन्छ।
यस संशोधनद्वारा “जानकारी विश्लेषण” को परिभाषा स्थापित गरिएपछि, AI को डीप लर्निङ समावेश गर्ने मेसिन लर्निङ पनि “जानकारी विश्लेषण” मा समावेश हुने स्पष्ट भएको छ।
जानकारी विश्लेषण (धेरै प्रतिलिपि अधिकार वा अन्य धेरै जानकारीबाट, उक्त जानकारीलाई बनाउने भाषा, ध्वनि, छवि वा अन्य तत्वहरू सम्बन्धी जानकारी निकालेर, तुलना, वर्गीकरण वा अन्य विश्लेषण गर्ने कार्यलाई जनाउँछ) को लागि प्रयोग गरिने अवस्थामा
著作権法第30条の4の1項2号
अर्कोतर्फ, AI को प्रयोगद्वारा सिर्जित कृतिहरूमा, अन्य व्यक्तिको प्रतिलिपि अधिकारसँग समानता वा निर्भरता देखिएमा, प्रतिलिपि अधिकार उल्लङ्घन हुने सम्भावना छ।
साथै, प्रतिलिपि अधिकारलाई ChatGPT मा प्रम्प्टको रूपमा इनपुट गर्दा, प्रतिलिपि अधिकार उल्लङ्घनको सम्भावना पनि रहन्छ। सिर्जनात्मक AI को प्रयोगद्वारा अन्य व्यक्तिको प्रतिलिपि अधिकारलाई परिवर्तन गर्दा, अनुकूलन अधिकार उल्लङ्घनको सम्भावना पनि रहन्छ।
OpenAI को प्रयोग नियम अनुसार, ChatGPT द्वारा सिर्जित सामग्रीको अधिकार प्रयोगकर्तालाई नै हुन्छ, र व्यावसायिक प्रयोग पनि सम्भव छ, तर सामग्री प्रतिलिपि अधिकार उल्लङ्घनमा पर्छ कि पर्दैन भन्ने निर्णय गर्न गाह्रो भएमा, विशेषज्ञसँग परामर्श गर्न सिफारिस गरिन्छ।
यदि प्रतिलिपि अधिकारधारीले प्रतिलिपि अधिकार उल्लङ्घनको आरोप लगाएमा, नागरिक जिम्मेवारी (प्रयोग रोकथाम, क्षतिपूर्ति, मानसिक पीडा, प्रतिष्ठा पुनर्स्थापना जस्ता कानूनी उपायहरू) वा आपराधिक जिम्मेवारीको सामना गर्नुपर्ने सम्भावना छ।
不正競争防止法 (जापानी अनुचित प्रतिस्पर्धा रोकथाम कानून)
平成31年 (2019) जुलाई 1 मा, संशोधित不正競争防止法 लागू भयो। पहिले, पेटेन्ट कानून वा著作権法को संरक्षणको दायरामा नपर्ने वस्तुहरू, वा不正競争防止法को “व्यापार गोप्य” मा नपर्ने वस्तुहरूमा, अनुचित प्रतिस्पर्धा रोक्न गाह्रो थियो।
यस संशोधनमा, निश्चित मूल्यवान डाटा (सीमित प्रदान डाटा) को अनुचित प्राप्ति कार्य वा अनुचित प्रयोग कार्य जस्ता दुष्ट कार्यहरूमा नागरिक उपाय (रोकथामको अधिकार, क्षतिपूर्ति रकमको अनुमान आदि) को प्रावधान गरिएको छ।
EUमा AI प्रयोग सम्बन्धी कानूनी प्रावधानहरू

EUको कानूनी प्रणाली तीन भागहरूमा विभाजित छ: पहिलो कानून (सन्धि), दोस्रो कानून (EU विधायन), र न्यायिक निर्णयहरू। दोस्रो कानून भनेको पहिलो कानून (सन्धि) को आधारमा बनाइएको कानून हो, जसले EU क्षेत्रभित्र प्रत्यक्ष वा अप्रत्यक्ष रूपमा सदस्य राष्ट्रहरूलाई बाध्य बनाउँछ, र यसलाई EU कानून (व्युत्पन्न कानून) भनिन्छ। दोस्रो कानूनलाई मुख्यतया पाँच प्रकारमा विभाजन गरिएको छ, तर EUको “AI नियमन कानून” नियम (Regulation) मा पर्दछ, जसले प्रत्यक्ष रूपमा EU सदस्य राष्ट्रहरूलाई बाध्य बनाउने एकीकृत नियम हो।
अर्कोतर्फ, निर्देशन (Directive) भनेको EU का प्रत्येक सदस्य राष्ट्रहरूले निर्देशन (Directive) को सामग्री कार्यान्वयन गर्नका लागि आन्तरिक कानूनलाई नयाँ रूपमा कानून बनाउने वा संशोधन गर्ने जस्ता अप्रत्यक्ष कानूनी दायित्वहरू हुन्। म्याद, सामान्यतया, EU राजपत्रमा प्रकाशित भएको ३ वर्ष भित्र हुन्छ।
सम्बन्धित लेख: युरोपमा व्यापार विस्तार गर्ने कम्पनीहरूका लागि आवश्यक EU का कानून र कानूनी प्रणालीको मुख्य बुँदाहरूको व्याख्या[ja]
यस खण्डमा, EUमा AI प्रयोगसँग सम्बन्धित कानूनी नियमनहरू मध्ये, “निर्देशन” र “नियम” को पछिल्लो प्रवृत्तिहरूको व्याख्या गरिनेछ।
AI जिम्मेवारी निर्देशन प्रस्ताव
२०२२ (2022) सेप्टेम्बर २८ मा, युरोपेली आयोगले “AI जिम्मेवारी निर्देशन प्रस्ताव” सँगै “उत्पादन जिम्मेवारी निर्देशन” को संशोधन प्रस्ताव सार्वजनिक गर्यो। “AI नियमन कानून” सँग मेल खाने, EU (युरोपेली संघ) मा AI व्यवसायको कानूनी जिम्मेवारी सम्बन्धी नियमहरू निर्धारण गर्दै, यो एक महत्वपूर्ण कानूनी ढाँचा बन्नेछ। २०२३ (2023) जुनदेखि लागू हुने EU को “सामूहिक मुद्दा निर्देशन” को विषयवस्तु हुने भएकाले, सम्बन्धित जापानी कम्पनीहरूले यसको विषयवस्तु बुझ्न आवश्यक छ।
डिजिटल युगको परिपत्र अर्थतन्त्र र विश्वव्यापी मूल्य श्रृंखलामा उपयुक्त बनाउन, EU मा AI प्रणालीहरू लगायत सफ्टवेयर सम्बन्धी नागरिक जिम्मेवारीको कानूनी नियमहरूमा ठूलो परिवर्तन गर्नेछ।
सम्बन्धित लेख: EU मा AI नियमन कानूनको वर्तमान स्थिति र दृष्टिकोण के हो? जापानी कम्पनीहरूमा प्रभावको व्याख्या[ja]
“AI जिम्मेवारी निर्देशन प्रस्ताव” को उद्देश्य AI प्रणालीबाट उत्पन्न हुने क्षतिहरूको लागि, गैर-सम्झौतागत कारणमा आधारित नागरिक जिम्मेवारीको नियमहरू निर्धारण गर्दै, EU भित्रको बजार कार्यक्षमता सुधार गर्नु हो।
अर्थात्, सम्झौतागत जिम्मेवारी (ऋणको उल्लंघन जिम्मेवारी, सम्झौता अनुपयुक्त जिम्मेवारी) लागू हुने विषयवस्तु होइन र “उत्पादन जिम्मेवारी निर्देशन” को लागू हुने विषयवस्तुमा सुरक्षा अपर्याप्त भएको कारण उत्पन्न हुनेमा सीमित छैन, लापरवाही जिम्मेवारीद्वारा हुने क्षति (अवैध कार्य जिम्मेवारी आदि) लाई ध्यान दिन आवश्यक छ।
उदाहरणका लागि, AI को भर्ती प्रणालीद्वारा हुने भेदभाव जस्ता क्षतिहरू पनि विषयवस्तुमा पर्नेछन्।
उक्त निर्देशन प्रस्तावले AI को ब्ल्याक बक्स समस्यालाई सम्बोधन गर्न, “AI नियमन कानून” मा निर्दिष्ट “उच्च जोखिमको AI प्रणाली” विकास गर्ने व्यवसायीहरूलाई प्रमाणको बोझ कम गर्ने उपायहरू लागू गरेको छ, जसमा “कारण सम्बन्धको अनुमान” र “प्रमाण खुलासा प्रणाली” नयाँ स्थापित गरिएका छन्।
प्रमाण खुलासा आदेश पालना नगरेको खण्डमा, “AI जिम्मेवारी निर्देशन प्रस्ताव” मा ध्यान दिनुपर्ने कर्तव्य उल्लंघन र कारण सम्बन्धको अनुमान गर्नुपर्नेछ, र “उत्पादन जिम्मेवारी निर्देशन संशोधन प्रस्ताव” मा दोष र कारण सम्बन्धको अनुमान गर्नुपर्नेछ, जसले खुलासा आदेश पालना गर्न, जापानी नागरिक मुद्दा कानूनभन्दा कडा सजाय लगाएको छ।
उक्त निर्देशन प्रस्तावको पहिलो चरणमा, AI को ब्ल्याक बक्सिकरण र त्यससँग सम्बन्धित “प्रमाणको बोझ कम गर्ने उपाय” मा सीमित गरिएको छ, जसमा मुद्दा दायर गर्ने योग्यता, प्रमाण खुलासा, प्रमाण संरक्षण, कारण सम्बन्धको अनुमान नयाँ स्थापित गरिएका छन् र प्रत्येक आवश्यकताहरू निर्दिष्ट गरिएका छन्।
दोस्रो चरणमा, समीक्षा र मूल्यांकन सम्बन्धी निर्दिष्ट गरिएको छ। युरोपेली आयोगमा अनुगमन कार्यक्रम स्थापना गरिएको छ, घटनाको जानकारी समीक्षा गर्ने, उच्च जोखिम AI प्रणालीको व्यवसायीहरूलाई बिना दोष जिम्मेवारी (कडा जिम्मेवारी) लगाउने उपयुक्तता र अनिवार्य बीमा लागू गर्ने आवश्यकताजस्ता थप उपायहरूको मूल्यांकन गर्ने, र युरोपेली परिषद् वा युरोपेली संसद आदि समक्ष प्रतिवेदन गर्ने व्यवस्था गरिएको छ।
製造物責任指令को संशोधन प्रस्ताव
「製造物責任指令」 भनेको 1985 (昭和60) मा उपभोक्तालाई सुरक्षा प्रदान गर्नका लागि बनाइएको EU कानुन हो, जसले दोषपूर्ण उत्पादनका कारण उपभोक्ताले क्षति बेहोरेको अवस्थामा उत्पादकको जिम्मेवारीलाई निर्दिष्ट गर्दछ।
संशोधन प्रस्तावमा,製造物責任को लागू हुने दायरामा नयाँ रूपमा “सफ्टवेयर” लाई “製造物” मा समावेश गरिएको छ, र यदि AI प्रणालीमा “欠陥” छ भने, AI प्रणालीको व्यवसायीलाई 無過失責任 लागू हुनेछ। साथै, “欠陥” को उपस्थिति वा अनुपस्थिति निर्धारण गर्ने मापदण्डमा नयाँ रूपमा, स्थापना पछि निरन्तर सिकाइ क्षमता र सफ्टवेयर अपडेटलाई समावेश गरिएको छ।
जापानको वर्तमान कानुन “製造物責任法” अन्तर्गत, सामान्यतया सफ्टवेयरलाई 動産 मानिदैन, त्यसैले कानुनको लागू हुने “製造物” मा समावेश हुँदैन, तर “製造物” को अवधारणालाई परिवर्तन गर्ने उपाय अपनाइएको छ। यस संशोधन प्रस्तावले पनि “立証負担の軽減措置” लाई लागू गर्दै, AI प्रणाली र अग्रणी प्रविधि उत्पादनहरू जस्ता सफ्टवेयरमा ठूलो प्रभाव पार्न सक्छ।
AI नियमन कानून
「AI नियमन कानून(AI Act)」 भनेको AI व्यवसायलाई लक्षित गरिएको समग्र EU को एकीकृत नियम (द्वितीयक कानून) हो, जसमा ८५ धाराहरू समावेश छन् र यो विश्वको पहिलो अन्तर्राष्ट्रिय AI नियमन गर्ने कानून हो। २०२३ डिसेम्बर ९ मा, युरोपेली आयोग, युरोपेली संसद, र युरोपेली परिषदको अस्थायी सहमति पछि यो कानून बनाइएको हो। २०२४ मा यो लागू हुने र पूर्ण रूपमा कार्यान्वयन हुने अपेक्षा गरिएको छ।
यो कानून, “A Europe fit for the Digital Age(डिजिटल युगको लागि उपयुक्त युरोप)” भनेर चिनिने EU को डिजिटल रणनीतिको मुख्य अंश हो, जसले विकसित हुँदै गरेको डिजिटल युगका नयाँ चुनौतीहरू र जोखिमहरूलाई सम्बोधन गर्न खोज्छ। यसले AI को सुरक्षा र आधारभूत अधिकारहरू सुनिश्चित गर्दै, EU भरमा AI को प्रयास, लगानी, र नवप्रवर्तनलाई सुदृढ पार्न लक्ष्य राखेको व्यापक AI प्याकेजको एक भाग पनि हो।
EU को 「AI नियमन कानून」 EU सदस्य राष्ट्रहरूमा प्रत्यक्ष लागू हुन्छ र EU भित्र व्यवसाय सञ्चालन गर्दा पनि सीमा पार लागू हुन्छ, जसले विदेशमा रहेका व्यवसायीहरूलाई पनि लागू हुन्छ।
उल्लंघन हुँदा, विश्वव्यापी बिक्री आधारमा ठूलो मात्रामा जरिवाना लगाइनेछ (अधिकतम ३० मिलियन युरो=करिब ४७ अर्ब येन वा विश्वव्यापी बिक्रीको ६% मध्ये जुन उच्च हुन्छ, त्यो सीमा हुनेछ), र EU क्षेत्रमा AI व्यवसाय गर्न नसक्ने सम्भावना पनि रहन्छ।
त्यसैले, जापानलाई समेत समेटेर EU बजारमा पहिले नै AI लागू गरिसकेका कम्पनीहरू वा भविष्यमा EU बजारमा प्रवेश गर्ने सोच बनाइरहेका कम्पनीहरूले EU को नयाँ AI नियमनसँग अनुकूल हुने उपायहरू अपनाउनु आवश्यक छ।
「AI नियमन कानून」को मुख्य बुँदाहरूलाई ठूलो गरी ३ विशेषताहरूमा विभाजन गरिएको छ: 「जोखिम आधारित AI वर्गीकरण」、「आवश्यकताहरू र दायित्वहरू」、「नवप्रवर्तन समर्थन」。
नियमनको लक्ष्य भनेको युरोपेली बजारलाई लक्षित गरेर AI प्रणाली र सेवाहरू प्रस्तुत गर्ने व्यवसायीहरू हुन्, जसमा AI विकासकर्ता, तैनाथकर्ता, प्रदायक, आयातकर्ता, विक्रेता, र प्रयोगकर्ताहरू समावेश छन्।
AI को जोखिम स्तरलाई ४ चरणमा वर्गीकृत गरिनेछ, र त्यस अनुसार नियमन लागू गरिनेछ। AI सिद्धान्तको प्राप्तिका लागि, AI विकासकर्ता, प्रयोगकर्ता, र प्रदायकहरूको AI साक्षरता सुनिश्चित गर्ने उपायहरू पनि आवश्यक छन् भन्ने दिशानिर्देश स्पष्ट रूपमा देखाइएको छ। थप जानकारीको लागि, सम्बन्धित लेखहरू हेर्नुहोस्।
सम्बन्धित लेख: EU मा AI नियमन कानूनको वर्तमान स्थिति र दृष्टिकोण के हो? जापानी कम्पनीहरूमा प्रभावको पनि व्याख्या[ja]
जापानमा AI सम्बन्धी कानूनी बुँदाहरूमा ध्यान दिनुपर्ने कुराहरू

यस खण्डमा, मुख्यतया जापानी कम्पनीहरूले उत्पन्न AI प्रयोग गर्न खोज्दा कानूनी रूपमा ध्यान दिनुपर्ने बुँदाहरूको व्याख्या गरिनेछ।
जापानमा AI सिर्जनाहरूको प्रतिलिपि अधिकार
उत्पन्न AI द्वारा सिर्जित सिर्जनाहरूमा ध्यान दिनुपर्ने कानूनी बुँदाहरू निम्नानुसार छन्:
- त्यो सिर्जना प्रतिलिपि अधिकार उल्लङ्घन गर्ने हो कि होइन
- उत्पन्न AI द्वारा सिर्जित सिर्जनामा प्रतिलिपि अधिकार मान्यता प्राप्त हुन्छ कि हुँदैन
पहिले उल्लेख गरिएझैं, ChatGPT द्वारा सिर्जित सिर्जनामा, यदि प्रतिलिपि अधिकारको समानता वा निर्भरता मान्यता प्राप्त हुन्छ भने, यो प्रतिलिपि अधिकार उल्लङ्घन हुनेछ। अर्कोतर्फ, उत्पन्न AI द्वारा सिर्जित सिर्जनामा प्रतिलिपि अधिकार मान्यता प्राप्त हुन्छ कि हुँदैन?
जापानी प्रतिलिपि अधिकार कानून अनुसार, “प्रतिलिपि अधिकार” भनेको “विचार वा भावना सिर्जनात्मक रूपमा व्यक्त गरिएको कुरा” हो। AI ले विचार वा भावना राख्दैन, त्यसैले उत्पन्न AI द्वारा सिर्जित सामग्रीमा प्रतिलिपि अधिकार मान्यता प्राप्त हुँदैन भन्ने धारणा पनि छ।
तर, AI द्वारा सामग्री सिर्जना गर्ने प्रक्रिया प्रयोगकर्ताका लागि ब्ल्याक बक्स (निर्णय प्रक्रिया अस्पष्ट) हुन्छ, जसले गर्दा प्रयोगकर्ताले AI लाई अपेक्षित सामग्री उत्पादन गर्न लगाउनु चुनौतीपूर्ण हुन्छ। त्यसैले, यदि प्रॉम्प्टको चरणमा प्रयोगकर्ताको सिर्जनात्मकता मान्यता प्राप्त हुन्छ भने, प्रयोगकर्ताको आफ्नै “विचार वा भावना” लाई उत्पन्न AI द्वारा “सिर्जनात्मक रूपमा व्यक्त गरिएको” मान्न सकिन्छ, र प्रतिलिपि अधिकार मान्यता प्राप्त हुन सक्छ।
जापानमा AI प्रयोग गर्दा व्यक्तिगत जानकारीको व्यवस्थापन
AI प्रयोग गर्दा, जापानी व्यक्तिगत जानकारी संरक्षण कानूनको उल्लङ्घन हुन सक्ने सम्भावनामा ध्यान दिन आवश्यक छ। व्यक्तिगत जानकारी वा गोपनीयता सम्बन्धी जानकारीहरू प्रविष्ट नगर्ने जस्ता उपायहरू आवश्यक हुन्छन्।
यदि प्रॉम्प्टमा व्यक्तिगत जानकारी प्रविष्ट गरियो भने, यो सेवा प्रदायकलाई व्यक्तिगत जानकारीको तेस्रो पक्षलाई प्रदान गरिएको मान्न सकिन्छ। व्यक्तिगत जानकारी तेस्रो पक्षलाई प्रदान गर्न, सामान्यतया व्यक्तिको सहमति आवश्यक हुन्छ, त्यसैले व्यक्तिको सहमति नभएमा, व्यक्तिगत जानकारी संरक्षण कानूनको उल्लङ्घन हुन सक्छ।
ChatGPT मा, यदि गल्तीले व्यक्तिगत जानकारी प्रविष्ट गरियो भने पनि, च्याटमा आउटपुट गर्न नसकिने व्यवस्था छ। यो OpenAI को नीति हो कि ChatGPT ले व्यक्तिगत जानकारीलाई सुरक्षित वा ट्र्याक गर्दैन, र अन्य सेवाहरू वा प्लेटफर्महरूमा फरक हुन सक्छ, त्यसैले ध्यान दिन आवश्यक छ।
जापानमा AI सम्बन्धी जोखिम व्यवस्थापनका उपायहरू
जोखिम व्यवस्थापन, जापानी कम्पनीहरूको व्यापार रणनीति, AI को प्रयोगको उद्देश्य, र सम्बन्धित कानूनी नियमहरूमा निर्भर गर्दछ। त्यसैले, परिस्थिति र उद्देश्य अनुसार उपयुक्त जोखिम व्यवस्थापनको उपायहरू अपनाउनु महत्त्वपूर्ण छ।
जापानमा AI को उपयोग गर्ने कम्पनीहरूले जोखिमलाई न्यूनतम गर्न निम्न बुँदाहरूलाई विचार गर्नुपर्छ।
- जनशक्ति विकास: AI को उपयुक्त प्रयोगका लागि विशेष ज्ञान र सीप आवश्यक छ। कर्मचारीहरूको शिक्षा र तालिम मार्फत, उपयुक्त प्रयोग विधिहरूको समझ दिलाउनु महत्त्वपूर्ण छ।
- आन्तरिक दिशानिर्देशको निर्माण, कार्यान्वयन, र सञ्चालन: AI को प्रयोग सम्बन्धी आन्तरिक दिशानिर्देश निर्माण गरी, कर्मचारीहरूलाई पालना गराएर जोखिमलाई कम गर्न सकिन्छ।
- प्रयोग र जोखिम व्यवस्थापनका लागि प्रवर्द्धन संगठनको निर्माण: AI को प्रयोगलाई प्रवर्द्धन गर्ने संगठन स्थापना गरी, जोखिम व्यवस्थापनको जिम्मेवारी लिने टोलीलाई संगठन भित्र राख्नु प्रभावकारी हुन्छ।
- प्रणालीको स्थापना: AI लाई उपयुक्त रूपमा स्थापना गर्न, प्रणालीको चयन र डिजाइनलाई सावधानीपूर्वक गर्न आवश्यक छ।
साथै, AI को प्रयोगसँग सम्बन्धित जोखिमहरू विविध छन्, जस्तै जानकारी चुहावट, अधिकार र गोपनीयताको उल्लंघन, जानकारीको शुद्धता र सुरक्षामा चिन्ता, र पूर्वाग्रहको जोखिम। यी जोखिमहरूलाई टार्न, उपयुक्त शासन र जोखिम व्यवस्थापनको ढाँचा अपनाउनु अत्यावश्यक छ।
सम्बन्धित लेख: 「ChatGPT को जापानी कम्पनीमा प्रयोग गर्दा जोखिम के हुन्? गोप्य जानकारी चुहावटका उदाहरण र उपायहरूको व्याख्या」[ja]
सारांश: जापानमा AI सम्बन्धी कानूनहरू विकासको क्रममा छन्, त्यसैले अपडेट रहन आवश्यक छ
AI व्यवसायसँग सम्बन्धित कानूनहरू, EU मा विश्वको पहिलो अन्तर्राष्ट्रिय “AI नियमन कानून” (२०२३ डिसेम्बर ९ मा स्थापित) बाट सुरु गर्दै, कानूनी संरचनाको विकासको चरणमा छन्। त्यसैले, कम्पनीहरूले विद्यमान कानूनहरूको पालना गर्दै नयाँ कानूनहरूसँग लचिलो रूपमा अनुकूलन गर्नुपर्ने आवश्यकता छ।
जापानमा, प्रत्यक्ष रूपमा AI लाई नियमन गर्ने कानूनहरू अझै छैनन्, तर जापानी प्रतिलिपि अधिकार कानून, जापानी व्यक्तिगत जानकारी संरक्षण कानून, र जापानी अनुचित प्रतिस्पर्धा रोकथाम कानून जस्ता सम्बन्धित कानूनहरूलाई राम्रोसँग बुझ्न र उपयुक्त रूपमा अनुकूलन गर्न आवश्यक छ। साथै, सम्बन्धित कानूनहरूको भविष्यमा हुने संशोधनको प्रवृत्तिलाई ध्यानपूर्वक अवलोकन गर्न र छिटो प्रतिक्रिया दिन आवश्यक छ।
हाम्रो कार्यालयद्वारा प्रदान गरिने उपायहरूको जानकारी
मोनोलिथ कानूनी फर्म, IT, विशेष गरी इन्टरनेट र कानूनी क्षेत्रमा व्यापक अनुभव भएको कानूनी फर्म हो। AI व्यवसायसँग धेरै कानूनी जोखिमहरू जोडिएका छन्, र AI सम्बन्धी कानूनी समस्याहरूमा विशेषज्ञता भएका वकिलहरूको समर्थन अत्यावश्यक छ।
हाम्रो कार्यालयले, AI मा विशेषज्ञता भएका वकिल र इन्जिनियरहरूको टोलीसँग मिलेर, ChatGPT सहितको AI व्यवसायका लागि, सम्झौता पत्र तयार पार्ने, व्यवसाय मोडेलको वैधता जाँच गर्ने, बौद्धिक सम्पत्ति अधिकारको संरक्षण गर्ने, गोपनीयता व्यवस्थापन जस्ता उच्चस्तरीय कानूनी समर्थन प्रदान गर्दछ। तलको लेखमा विस्तृत जानकारी समावेश गरिएको छ।
मोनोलिथ कानूनी फर्मको कार्यक्षेत्र: AI (ChatGPT आदि) कानूनी सेवा[ja]
Category: IT