MONOLITH LAW OFFICE+81-3-6262-3248काम करने के दिन 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

IT

AI को नियंत्रित करने वाले कानूनों की वर्तमान स्थिति क्या है? जापान और यूरोपीय संघ की तुलना और उपायों के बिंदु की व्याख्या

IT

AI को नियंत्रित करने वाले कानूनों की वर्तमान स्थिति क्या है? जापान और यूरोपीय संघ की तुलना और उपायों के बिंदु की व्याख्या

ChatGPT जैसे जेनरेटिव AI एक बड़े बूम का हिस्सा बन चुके हैं। अब व्यापारिक दृश्य में भी शामिल हो चुके इस जेनरेटिव AI को ‘चौथी AI बूम’ का अग्रदूत माना जा रहा है। इसके अनुरूप, विश्वभर में AI को नियंत्रित करने वाले कानूनी ढांचे की स्थापना भी आगे बढ़ रही है।

इस लेख में, हम AI से संबंधित कानूनों को उठाएंगे और बौद्धिक संपदा अधिकार, व्यक्तिगत जानकारी आदि की गोपनीय जानकारी के उचित हैंडलिंग के बारे में व्याख्या करेंगे।

AI(कृत्रिम बुद्धिमत्ता) की परिभाषा और इतिहास

AI (artificial intelligence) का अर्थ है ‘कृत्रिम बुद्धिमत्ता’। कानूनी रूप से इसकी कोई सख्त परिभाषा नहीं है, और इसे विभिन्न तरीकों से परिभाषित किया गया है। नीचे कुछ उदाहरण दिए गए हैं।

स्रोतपरिभाषा / व्याख्या
「कोजिएन」तर्क और निर्णय जैसे बौद्धिक कार्यों से युक्त कंप्यूटर सिस्टम।
「ब्रिटानिका एनसाइक्लोपीडिया」विज्ञान और तकनीक > कंप्यूटर और AI। डिजिटल कंप्यूटर या कंप्यूटर रोबोट द्वारा बौद्धिक अस्तित्व से संबंधित मुद्दों को करने की क्षमता (एबिलिटी)।
कृत्रिम बुद्धिमत्ता सोसाइटी आर्टिकल ‘AI के रूप में ज्ञान’‘AI क्या है’ के प्रश्न का उत्तर सरल नहीं है। AI के विशेषज्ञों के बीच भी बड़ी बहस है, और इस पर अलग-अलग विचारों के साथ एक पूरी किताब बन सकती है। इसमें, एक सामान्य बिंदु निकालते हुए, एक शब्द में कहें तो, ‘मशीनी तकनीक के माध्यम से मानव के समान बौद्धिक कार्यों को साकार करने की तकनीक’ कहा जा सकता है।
अकादमिक पेपर ‘गहरी सीखने और कृत्रिम बुद्धिमत्ता’AI, मानव बुद्धिमत्ता की संरचना को सिद्धांतिक रूप से समझने का प्रयास करने वाला एक अध्ययन क्षेत्र है
अकादमिक पेपर ‘कृत्रिम बुद्धिमत्ता समाज की आदर्श स्थिति की खोज में’AI सहित सूचना प्रौद्योगिकी एक उपकरण है

AI को विभिन्न प्रौद्योगिकियों, सॉफ्टवेयर समूहों, कंप्यूटर सिस्टमों, और एल्गोरिदम के रूप में भी कहा जाता है, जो मानव की बौद्धिक क्षमताओं को कंप्यूटर पर पुनः प्रस्तुत करते हैं।

मुख्य विशेषीकृत AI में निम्नलिखित शामिल हैं:

  • प्राकृतिक भाषा प्रोसेसिंग (मशीन अनुवाद, सिंटैक्स पार्सिंग, मॉर्फोलॉजिकल एनालिसिस, RNN आदि)
  • विशेषज्ञों के तर्क और निर्णय की नकल करने वाले एक्सपर्ट सिस्टम
  • डेटा से विशिष्ट पैटर्न का पता लगाने और निकालने वाली छवि पहचान, ध्वनि पहचान आदि

AI (कृत्रिम बुद्धिमत्ता) के क्षेत्र में अनुसंधान और विकास 1950 के दशक, कंप्यूटर के आरंभिक काल से जारी है, और पहला AI बूम 1970 के दशक तक ‘खोज और तर्क’ के अध्ययन के साथ, दूसरा AI बूम 1980 के दशक में ‘ज्ञान प्रतिनिधित्व’ के अध्ययन से एक्सपर्ट सिस्टम के जन्म के साथ हुआ, और दो बार पैराडाइम में बूम आया।

2000 के दशक में प्रवेश करते ही बिग डेटा का उदय हुआ, और 2012 के बाद से Alexnet के आगमन के साथ छवि प्रोसेसिंग में डीप लर्निंग (गहरी सीखने) की उपयोगिता को विश्व स्तर पर मान्यता मिली, और अनुसंधान तेजी से सक्रिय हो गया, जिससे तीसरा AI बूम आया।

2016 से 2017 के बीच, डीप लर्निंग (गहरी सीखने) और रीइन्फोर्समेंट लर्निंग (Q-लर्निंग, पॉलिसी ग्रेडिएंट मेथड्स) को अपनाने वाले AI का उदय हुआ।

तीसरे AI बूम की मुख्य क्रांति प्राकृतिक भाषा प्रोसेसिंग, सेंसर द्वारा छवि प्रोसेसिंग जैसे दृश्य पहलुओं में प्रमुख है, लेकिन तकनीकी विकास, समाजशास्त्र, नैतिकता, और अर्थशास्त्र जैसे क्षेत्रों पर भी बड़ा प्रभाव डाल रही है।

2022 नवंबर 30 को, OpenAI द्वारा लॉन्च किया गया प्राकृतिक भाषा प्रोसेसिंग जेनरेटिव AI, ChatGPT, एक सर्वगुण संपन्न उपकरण के रूप में ध्यान आकर्षित करने के साथ, जेनरेटिव AI व्यवसाय सक्रिय हो गया। इस सामाजिक घटना को कुछ लोग चौथे AI बूम के रूप में कहते हैं।

AI से संबंधित कानूनों की जांच करने वाले व्यावसायिक दृश्य

कानूनी नियमनों की जांच करने वाले व्यावसायिक दृश्य

AI की एक प्रकार, जेनरेटिव AI एक उपयोगी उपकरण है, लेकिन यह गलत सूचना के प्रसार, अपराध को बढ़ावा देने, और कभी-कभी लोकतंत्र को खतरे में डालने जैसे जोखिमों को भी समेटे हुए है।

ऐसे AI के जोखिम कारक अब एक अपरिहार्य चुनौती बन गए हैं। इसलिए, हम उपयोगकर्ता और प्रदाता के दृष्टिकोण से, कानूनी नियमनों की जांच करने वाले व्यावसायिक दृश्यों के बारे में विवरण प्रदान करेंगे।

लेखन जेनरेटिव AI का उपयोग

नवंबर 2022 में ‘ChatGPT’ के लॉन्च के बाद से, लेखन जेनरेटिव AI ने जटिल अनुरोधों का समर्थन करने की क्षमता के कारण, काम की दक्षता और उच्च कॉस्ट परफॉर्मेंस की उम्मीद के साथ, एक सार्वभौमिक उपकरण के रूप में विश्वव्यापी प्रशंसा प्राप्त की है।

इसके विपरीत, लेखन जेनरेटिव AI के उपयोग से जुड़े जोखिम भी ज्ञात हो गए हैं। इस तरह के संभावित जोखिमों से बचने के लिए, हमें किन जोखिमों का सामना करना पड़ सकता है और किन कानूनों का पालन करना चाहिए, इस पर ध्यान देना चाहिए।

ChatGPT के लिए प्रतिनिधित्व करने वाले लेखन जेनरेटिव AI में, यदि कोई उपाय नहीं किया जाता है, तो उपयोगकर्ता द्वारा दर्ज की गई जानकारी (प्रॉम्प्ट) के लीक होने का जोखिम होता है। ChatGPT में प्रॉम्प्ट को एकत्रित, संग्रहित और उपयोग करने की क्षमता होती है, जिससे व्यक्तिगत जानकारी, कंपनी की गोपनीय जानकारी, गोपनीयता समझौते (NDA) आदि के माध्यम से प्राप्त गोपनीय जानकारी के लीक होने का जोखिम होता है।

इसके अलावा, ChatGPT विशिष्ट गलत सूचना का उत्पादन (हैलुसिनेशन) और प्रसार, कॉपीराइट उल्लंघन आदि के जोखिमों को भी समेटे हुए है। इसलिए, उत्पादित सामग्री के लिए फैक्ट चेक अनिवार्य है।

इमेज जेनरेटिव AI का उपयोग

व्यावसायिक उपयोग में इमेज जेनरेटिव AI का उपयोग करते समय, कॉपीराइट उल्लंघन के जोखिम को ध्यान में रखना चाहिए।

ChatGPT आदि द्वारा उत्पन्न छवियों और लेखों के कॉपीराइट, मूल रूप से, उत्पन्न करने वाले उपयोगकर्ता के पास होते हैं। OpenAI के अनुसार, उपयोगकर्ता किसी भी उद्देश्य (व्यावसायिक उपयोग सहित) के लिए ChatGPT आदि का उपयोग कर सकते हैं।

हालांकि, उपयोग के समय निम्नलिखित बिंदुओं पर ध्यान देना आवश्यक है।

ChatGPT के प्रशिक्षण डेटा में इंटरनेट पर सार्वजनिक रूप से उपलब्ध बड़ी मात्रा में सामग्री शामिल है, और इन सामग्रियों का अधिकांश हिस्सा कॉपीराइट सामग्री है (पाठ, छवियां, संगीत, वीडियो आदि)। इसलिए, उत्पन्न सामग्री दूसरों के कॉपीराइट का उल्लंघन कर सकती है।

AI विकास और जेनरेटिव AI सेवाओं की पेशकश

AI व्यवसाय में कई कानून शामिल होते हैं, और वैश्विक स्तर पर कानूनी ढांचे की स्थापना आगे बढ़ रही है, इसलिए मौजूदा कानूनों का पालन करते हुए नए कानूनों के प्रति एक लचीला रवैया अपनाना आवश्यक है।

अगले अध्याय में, हम जापान के AI से संबंधित कानूनों और दिसंबर 2023 में बनाए गए विश्व के पहले अंतरराष्ट्रीय EU ‘AI नियमन कानून’ के बारे में विवरण प्रदान करेंगे।

जापान के AI संबंधित कानून

वर्तमान में जापान में, AI पर बलपूर्वक कानून द्वारा नियंत्रण नहीं है, और इसके बजाय स्व-नियमन की नीति अपनाई गई है। यहाँ, AI का उपयोग करते समय ध्यान में रखने योग्य मौजूदा कानूनों के बारे में व्याख्या की गई है।

संदर्भ: आर्थिक उद्योग मंत्रालय|「AI सिद्धांतों के व्यवहार के लिए गवर्नेंस गाइडलाइन्स संस्करण 1.1」[ja]

कॉपीराइट कानून

हेइसेई 31 (2019) जनवरी में लागू हुए ‘संशोधित कॉपीराइट कानून’ में, अधिकार सीमा नियम (अनुमति के बिना अपवाद) में ‘जानकारी विश्लेषण’ (उसी कानून के अनुच्छेद 30 के 4 का 1 खंड 2) नया जोड़ा गया है। AI विकास और सीखने की अवस्था में जानकारी विश्लेषण जैसे, कॉपीराइट वाली सामग्री में व्यक्त विचारों या भावनाओं का आनंद लेने के उद्देश्य के बिना उपयोग, मूलतः कॉपीराइट धारक की अनुमति के बिना किया जा सकता है।

इस संशोधन के साथ ‘जानकारी विश्लेषण’ की परिभाषा स्थापित होने के कारण, AI की डीप लर्निंग सहित मशीन लर्निंग भी ‘जानकारी विश्लेषण’ में शामिल होने के लिए स्पष्ट हो गई है।

जानकारी विश्लेषण (बहुत सारी कॉपीराइट सामग्री या अन्य बड़ी मात्रा में जानकारी से, संबंधित जानकारी को बनाने वाली भाषा, ध्वनि, छवि या अन्य तत्वों की जानकारी को निकालना, तुलना, वर्गीकरण या अन्य विश्लेषण करना) के उपयोग के मामले में

कॉपीराइट कानून अनुच्छेद 30 के 4 का 1 खंड 2

दूसरी ओर, AI द्वारा उत्पन्न कृतियों में, अगर अन्य कॉपीराइट सामग्री के साथ समानता या निर्भरता पाई जाती है, तो कॉपीराइट उल्लंघन का ध्यान रखना जरूरी है।

इसके अलावा, यदि कॉपीराइट सामग्री को ChatGPT में प्रॉम्प्ट के रूप में दर्ज किया जाता है, तो यह प्रतिलिपि अधिकार या अन्य उल्लंघन का कारण बन सकता है। यदि किसी अन्य की कॉपीराइट सामग्री को जेनरेटिव AI का उपयोग करके संशोधित किया जाता है, तो यह अनुकूलन अधिकार या अन्य उल्लंघन का कारण बन सकता है।

OpenAI के उपयोग की शर्तों के अनुसार, ChatGPT द्वारा बनाई गई सामग्री के अधिकार उपयोगकर्ता के पास होते हैं, और वाणिज्यिक उपयोग भी संभव है, लेकिन यदि सामग्री कॉपीराइट उल्लंघन के अंतर्गत आती है या नहीं, यह निर्णय करना कठिन होता है, तो विशेषज्ञ से परामर्श करना सुझावित है।

यदि कॉपीराइट धारक द्वारा कॉपीराइट उल्लंघन का आरोप लगाया जाता है, तो नागरिक दायित्व (उपयोग निषेध, क्षतिपूर्ति, मानहानि, नाम की पुनःस्थापना आदि के कानूनी उपाय) या आपराधिक दायित्व का सामना करना पड़ सकता है।

अनुचित प्रतिस्पर्धा निवारण कानून

हेइसेई 31 (2019) जुलाई 1 को, संशोधित अनुचित प्रतिस्पर्धा निवारण कानून लागू हुआ। पहले, पेटेंट कानून या कॉपीराइट कानून के संरक्षण के अधीन नहीं आने वाली चीजें, या अनुचित प्रतिस्पर्धा निवारण कानून के ‘व्यापार रहस्यों’ में नहीं आने वाली चीजें, अनुचित प्रतिस्पर्धा को रोकना कठिन था।

इसलिए, इस संशोधन में, कुछ मूल्यवान डेटा (सीमित प्रदान डेटा) की अनुचित प्राप्ति या अनुचित उपयोग जैसे दुर्भावनापूर्ण कृत्यों के खिलाफ नागरिक उपाय (रोकथाम की मांग, क्षतिपूर्ति की अनुमानित राशि आदि) निर्धारित किए गए हैं।

यूरोपीय संघ के AI उपयोग से संबंधित कानून

यूरोपीय संघ के AI उपयोग से जुड़े कानूनी नियमन

यूरोपीय संघ की कानूनी व्यवस्था, प्राथमिक कानून (संधियाँ), द्वितीयक कानून (यूरोपीय संघ का विधान) और न्यायिक निर्णयों के तीन भागों से मिलकर बनी है। द्वितीयक कानून, प्राथमिक कानून (संधियाँ) के आधार पर बनाया गया है और यह यूरोपीय संघ के भीतर सीधे या परोक्ष रूप से सदस्य देशों को बाध्य करने वाले नियमों का समूह है, जिसे यूरोपीय संघ का कानून (व्युत्पन्न कानून) कहा जाता है। द्वितीयक कानून मुख्य रूप से पांच प्रकार के होते हैं, लेकिन यूरोपीय संघ का ‘AI नियमन कानून’ एक नियमन (Regulation) के अंतर्गत आता है, जो सीधे यूरोपीय संघ के सदस्य देशों पर लागू होने वाला एकीकृत नियम है।

दूसरी ओर, निर्देश (Directive) वह होते हैं जिनके अंतर्गत यूरोपीय संघ के प्रत्येक सदस्य देश को, निर्देश (Directive) की सामग्री को लागू करने के लिए राष्ट्रीय कानूनों को नया बनाने या संशोधित करने जैसे परोक्ष रूप से कानूनी दायित्व उठाने पड़ते हैं। समय सीमा, मूल रूप से यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के बाद 3 वर्षों के भीतर होती है।

संबंधित लेख: यूरोप में व्यापार विस्तार करने वाली कंपनियों के लिए अनिवार्य यूरोपीय संघ के कानून और कानूनी व्यवस्था के मुख्य बिंदुओं की व्याख्या[ja]

इस अध्याय में, हम यूरोपीय संघ के AI उपयोग से संबंधित कानूनी नियमन के बीच ‘निर्देश’ और ‘नियमन’ के बारे में नवीनतम प्रवृत्तियों की व्याख्या करेंगे।

AI जिम्मेदारी निर्देश प्रस्ताव

28 सितंबर 2022 (2022年9月28日) को, यूरोपीय आयोग ने “AI जिम्मेदारी निर्देश प्रस्ताव” के साथ-साथ “उत्पाद जिम्मेदारी निर्देश” के संशोधन प्रस्ताव को प्रकाशित किया। यह EU (यूरोपीय संघ) में AI व्यवसायों की कानूनी जिम्मेदारियों के नियमों को निर्धारित करता है, जो “AI विनियमन कानून” के अनुरूप है, और एक महत्वपूर्ण कानूनी ढांचा बन जाता है। जून 2023 (2023年6月) से लागू होने वाले EU के “सामूहिक मुकदमा निर्देश” के दायरे में आने के कारण, संबंधित जापानी कंपनियों को भी इसकी सामग्री को समझने की आवश्यकता होगी।

डिजिटल युग की परिपत्र अर्थव्यवस्था और वैश्विक मूल्य श्रृंखला के लिए उपयुक्त बनाने के लिए, यह EU में AI सिस्टमों सहित सॉफ्टवेयर से संबंधित नागरिक जिम्मेदारियों के कानूनी नियमों में बड़े परिवर्तन करता है।

संबंधित लेख: EU में AI विनियमन कानून की वर्तमान स्थिति और संभावनाएं? जापानी कंपनियों पर प्रभाव भी समझाया गया है[ja]

“AI जिम्मेदारी निर्देश प्रस्ताव” का उद्देश्य AI सिस्टमों के कारण होने वाले नुकसान के लिए, अनुबंध के बाहर के कारणों पर आधारित नागरिक जिम्मेदारियों के नियमों को निर्धारित करना और EU क्षेत्र के बाजार कार्यों को सुधारना है।

इसका मतलब है कि, अनुबंध पर आधारित जिम्मेदारियां (ऋण निष्पादन जिम्मेदारी और अनुबंध अनुपालन जिम्मेदारी) लागू नहीं होती हैं और यह “उत्पाद जिम्मेदारी निर्देश” के दायरे में आती हैं, जो सुरक्षा की अपर्याप्तता से उत्पन्न होती हैं, लापरवाही के कारण होने वाले नुकसान (अवैध कृत्य जिम्मेदारी आदि) पर ध्यान देना आवश्यक है।

उदाहरण के लिए, AI अपनाने की प्रणालियों द्वारा उत्पन्न भेदभाव जैसे नुकसान भी इसके दायरे में आ सकते हैं।

यह निर्देश प्रस्ताव, AI की ब्लैक बॉक्स समस्या से निपटने के लिए, “AI विनियमन कानून” में निर्धारित “उच्च जोखिम वाले AI सिस्टम” को विकसित करने वाले व्यवसायियों के लिए प्रमाणित बोझ को कम करने के उपायों को लागू करता है, जिसमें “कारण संबंध का अनुमान” और “साक्ष्य प्रकटीकरण प्रणाली” नव स्थापित की गई है।

साक्ष्य प्रकटीकरण आदेश का पालन न करने पर, “AI जिम्मेदारी निर्देश प्रस्ताव” के अनुसार, ध्यान देने की जिम्मेदारी और कारण संबंध का अनुमान लगाना अनिवार्य है, और “उत्पाद जिम्मेदारी निर्देश संशोधन प्रस्ताव” के अनुसार, दोष और कारण संबंध का अनुमान लगाना अनिवार्य है, और जापानी नागरिक मुकदमा कानून से भी अधिक सख्त दंड लगाया जाता है।

यह निर्देश प्रस्ताव, पहले चरण के रूप में, AI के ब्लैक बॉक्सीकरण और उसके साथ “प्रमाणित बोझ को कम करने के उपायों” तक सीमित है, और मुकदमा योग्यता, साक्ष्य प्रकटीकरण, साक्ष्य संरक्षण, और कारण संबंध का अनुमान नव स्थापित किया गया है, और प्रत्येक आवश्यकता निर्धारित की गई है।

दूसरा चरण, समीक्षा और मूल्यांकन के बारे में निर्धारित है। यूरोपीय आयोग में एक मॉनिटरिंग प्रोग्राम स्थापित किया गया है, जो घटना की जानकारी की समीक्षा करता है, और उच्च जोखिम AI सिस्टम के व्यवसायियों पर नो-फॉल्ट जिम्मेदारी (सख्त जिम्मेदारी) लगाने की उपयुक्तता और अनिवार्य बीमा की आवश्यकता जैसे आगे के उपायों का मूल्यांकन करता है, और यूरोपीय परिषद और यूरोपीय संसद आदि को रिपोर्ट करता है।

उत्पाद दायित्व निर्देश का संशोधन प्रस्ताव

“उत्पाद दायित्व निर्देश” एक EU कानून है जो 1985 में बनाया गया था जिसका उद्देश्य उपभोक्ताओं की रक्षा करना है, और यह निर्देश उन मामलों में निर्माताओं की जिम्मेदारी को परिभाषित करता है जहां उपभोक्ता दोषपूर्ण उत्पादों के कारण हानि उठाते हैं।

संशोधन प्रस्ताव में, उत्पाद दायित्व के लागू होने वाले दायरे में “सॉफ्टवेयर” को नया “उत्पाद” के रूप में जोड़ा गया है, और यदि AI सिस्टम जैसे सॉफ्टवेयर में “दोष” पाया जाता है, तो AI सिस्टम के व्यवसायी पर बिना दोष की जिम्मेदारी लागू होगी। इसके अलावा, “दोष” के निर्णय के मानदंड के रूप में, स्थापना के बाद की निरंतर सीखने की क्षमता और सॉफ्टवेयर अपडेट को नया जोड़ा गया है।

जापानी वर्तमान कानून “उत्पाद दायित्व कानून” में, सामान्यतः सॉफ्टवेयर को चल संपत्ति के रूप में नहीं माना जाता है, इसलिए यह कानून के लागू होने वाले “उत्पाद” के दायरे में नहीं आता है, लेकिन “उत्पाद” की अवधारणा में परिवर्तन करने का उपाय किया जा रहा है। इस संशोधन प्रस्ताव में भी, “प्रमाणित करने के बोझ को कम करने के उपाय” को पेश किया गया है, जिससे AI सिस्टम और अग्रिम तकनीकी उत्पादों जैसे सॉफ्टवेयर पर बड़ा प्रभाव पड़ सकता है।

एआई विनियमन कानून

“एआई विनियमन कानून (AI Act)” एक व्यापक यूरोपीय संघ (EU) का एकीकृत नियम है जो एआई व्यवसायों को लक्षित करता है और यह 85 धाराओं से मिलकर बना विश्व का पहला अंतरराष्ट्रीय एआई विनियमन कानून है। यह 9 दिसंबर 2023 को यूरोपीय आयोग, यूरोपीय संसद, और यूरोपीय परिषद के अस्थायी समझौते के बाद बनाया गया था और इसके 2024 में प्रभावी होने और पूर्ण रूप से लागू होने की उम्मीद है।

यह कानून “डिजिटल युग के लिए उपयुक्त यूरोप” के रूप में जानी जाने वाली यूरोपीय संघ की डिजिटल रणनीति का केंद्रीय हिस्सा है, जो विकसित हो रहे डिजिटल युग की नई चुनौतियों और जोखिमों का सामना करने का प्रयास करता है। यह एआई की सुरक्षा और मौलिक अधिकारों की गारंटी देने और यूरोपीय संघ में एआई के प्रति दृष्टिकोण, निवेश, और नवाचार को मजबूत करने का लक्ष्य रखने वाले व्यापक एआई पैकेज का भी एक हिस्सा है।

यूरोपीय संघ का “एआई विनियमन कानून” यूरोपीय संघ के सदस्य देशों पर सीधे लागू होता है और यूरोपीय संघ के भीतर व्यापार करने पर भी पार-सीमा लागू होता है, और विदेश में स्थित व्यापारियों पर भी लागू होता है।

उल्लंघन के मामले में, विश्वव्यापी बिक्री के आधार पर भारी जुर्माना लगाया जाता है (अधिकतम 30 मिलियन यूरो = लगभग 47 अरब येन या विश्वव्यापी बिक्री का 6% जो भी अधिक हो, उसकी ऊपरी सीमा), और यूरोपीय संघ के भीतर एआई व्यापार करने में असमर्थ होने का भी जोखिम है।

इसलिए, जापानी कंपनियां सहित वे कंपनियां जो पहले से ही यूरोपीय संघ के बाजार में एआई का उपयोग कर रही हैं या जो भविष्य में यूरोपीय संघ के बाजार में प्रवेश करने का विचार कर रही हैं, उन्हें यूरोपीय संघ के नए एआई विनियमन के अनुरूप उपाय करने की आवश्यकता होगी।

“एआई विनियमन कानून” की मुख्य विशेषताएं मुख्य रूप से तीन विशेषताओं में विभाजित हैं: “जोखिम-आधारित एआई वर्गीकरण”, “आवश्यकताएं और दायित्व”, और “नवाचार समर्थन”।

विनियमन के अधीन वे व्यापारी हैं जो यूरोपीय बाजार को लक्षित करते हुए एआई सिस्टम और सेवाओं को पेश करते हैं, जिसमें एआई के विकासकर्ता, डिप्लॉयर, प्रदाता, आयातक, विक्रेता, और उपयोगकर्ता शामिल हैं।

एआई के जोखिम स्तर को चार स्तरों में वर्गीकृत किया जाता है, और उसके अनुसार विनियमन लागू होता है। एआई सिद्धांतों की प्राप्ति के लिए, एआई विकासकर्ताओं, उपयोगकर्ताओं, और प्रदाताओं की एआई साक्षरता सुनिश्चित करने के उपाय भी अनिवार्य हैं, जैसा कि निर्देशों में स्पष्ट रूप से दिखाया गया है। अधिक जानकारी के लिए, संबंधित लेख देखें।

संबंधित लेख: यूरोपीय संघ में एआई विनियमन कानून की वर्तमान स्थिति और भविष्य क्या है? जापानी कंपनियों पर प्रभाव भी समझाया गया है[ja]

AI संबंधित कानूनों में ध्यान देने योग्य बिंदु

AI संबंधित कानूनों में ध्यान देने योग्य बिंदु

इस अध्याय में, हम मुख्य रूप से उन कानूनी बिंदुओं पर चर्चा करेंगे जिनका ध्यान रखना जब कंपनियां जेनरेटिव AI का उपयोग करना चाहती हैं।

AI द्वारा निर्मित कृतियों के कॉपीराइट के बारे में

जेनरेटिव AI द्वारा निर्मित कृतियों के संबंध में ध्यान देने योग्य कानूनी बिंदुओं में निम्नलिखित शामिल हैं:

  • क्या वह कृति कॉपीराइट का उल्लंघन करती है
  • क्या जेनरेटिव AI द्वारा निर्मित कृति को कॉपीराइट मान्यता प्राप्त है

जैसा कि पहले उल्लेख किया गया है, यदि ChatGPT द्वारा निर्मित कृति में कॉपीराइट वाली कृति के साथ समानता या निर्भरता पाई जाती है, तो यह कॉपीराइट उल्लंघन माना जाएगा। दूसरी ओर, क्या जेनरेटिव AI द्वारा निर्मित कृतियों को कॉपीराइट मान्यता प्राप्त हो सकती है?

कॉपीराइट कानून के अनुसार, “कृति” को “विचारों या भावनाओं को सृजनात्मक रूप से व्यक्त करने वाला” के रूप में परिभाषित किया गया है। चूंकि AI विचारों या भावनाओं को नहीं रखता है, इसलिए यह माना जा सकता है कि जेनरेटिव AI द्वारा निर्मित सामग्री को कॉपीराइट मान्यता प्राप्त नहीं हो सकती है।

वहीं, AI द्वारा सामग्री के निर्माण की प्रक्रिया उपयोगकर्ता के लिए एक ब्लैक बॉक्स (निर्णय प्रक्रिया अस्पष्ट) होती है, इसलिए उपयोगकर्ता के लिए AI से अपेक्षित सामग्री को उत्पन्न करना कठिन होता है। इसलिए, यदि प्रॉम्प्ट के चरण में उपयोगकर्ता की सृजनात्मकता मान्यता प्राप्त होती है, तो यह कहा जा सकता है कि उपयोगकर्ता के “विचारों या भावनाओं” को जेनरेटिव AI द्वारा “सृजनात्मक रूप से व्यक्त” किया गया है, और इस मामले में कॉपीराइट मान्यता प्राप्त हो सकती है।

AI का उपयोग करते समय व्यक्तिगत जानकारी के संचालन के बारे में

AI का उपयोग करते समय, व्यक्तिगत जानकारी संरक्षण कानून का उल्लंघन होने की संभावना पर ध्यान देना आवश्यक है। व्यक्तिगत जानकारी और गोपनीयता से संबंधित जानकारी को इनपुट न करने जैसे उपाय आवश्यक हो सकते हैं।

यदि प्रॉम्प्ट में व्यक्तिगत जानकारी इनपुट की जाती है, तो यह सेवा प्रदाता द्वारा व्यक्तिगत जानकारी की तीसरे पक्ष को प्रदान करने के बराबर हो सकता है। व्यक्तिगत जानकारी को तीसरे पक्ष को प्रदान करने के लिए, सिद्धांत रूप में व्यक्ति की सहमति आवश्यक होती है, इसलिए यदि व्यक्ति की सहमति नहीं है, तो व्यक्तिगत जानकारी संरक्षण कानून का उल्लंघन हो सकता है।

ChatGPT में, यदि गलती से व्यक्तिगत जानकारी इनपुट की जाती है, तो भी चैट में उसे आउटपुट नहीं किया जा सकता है। यह OpenAI की नीति है कि ChatGPT व्यक्तिगत जानकारी को संग्रहीत या ट्रैक नहीं करता है, और अन्य सेवाओं या प्लेटफॉर्मों में यह भिन्न हो सकता है, इसलिए सावधानी बरतनी चाहिए।

कंपनियां जब AI से जुड़ती हैं तो रिस्क मैनेजमेंट

रिस्क मैनेजमेंट, कंपनी की व्यापार रणनीति, AI के उपयोग के उद्देश्य, और संबंधित कानूनी विनियमनों पर निर्भर करता है, इसलिए परिस्थितियों और उद्देश्यों के अनुसार उपयुक्त रिस्क मैनेजमेंट उपाय करना महत्वपूर्ण है।

जेनरेटिव AI का उपयोग करने वाली कंपनियों को रिस्क को कम से कम करने के लिए निम्नलिखित बिंदुओं पर विचार करना चाहिए:

  1. मानव संसाधन विकास: जेनरेटिव AI के उपयुक्त उपयोग के लिए विशेषज्ञ ज्ञान और कौशल की आवश्यकता होती है। कर्मचारियों को शिक्षा और प्रशिक्षण के माध्यम से, उपयुक्त उपयोग के तरीकों को समझाना महत्वपूर्ण है।
  2. कंपनी के दिशा-निर्देशों का निर्माण, परिचय, और संचालन: जेनरेटिव AI के उपयोग से संबंधित कंपनी के दिशा-निर्देशों को तैयार करके और कर्मचारियों को उनका पालन करने के लिए प्रेरित करके, रिस्क को कम किया जा सकता है।
  3. उपयोग और रिस्क मैनेजमेंट के लिए प्रमोशनल संगठन का निर्माण: जेनरेटिव AI के उपयोग को बढ़ावा देने वाले संगठन की स्थापना करना और संगठन के भीतर रिस्क मैनेजमेंट टीम को तैनात करना प्रभावी है।
  4. सिस्टम का परिचय: जेनरेटिव AI को उपयुक्त रूप से परिचय देने के लिए, सिस्टम का चयन और डिजाइन सावधानीपूर्वक करना आवश्यक है।

इसके अलावा, जेनरेटिव AI के उपयोग से जुड़े रिस्क विविध होते हैं, जैसे कि जानकारी का लीक होना, अधिकारों और गोपनीयता का उल्लंघन, जानकारी की सटीकता और सुरक्षा के प्रति चिंता, और बायस का रिस्क। इन रिस्कों से बचने के लिए, उपयुक्त गवर्नेंस और रिस्क मैनेजमेंट के ढांचे का परिचय देना अनिवार्य है।

संबंधित लेख: “ChatGPT के कॉर्पोरेट परिचय में जोखिम और गोपनीय जानकारी के लीक के मामले और उपायों की व्याख्या।”[ja]

सारांश: AI के कानून अभी विकास की प्रक्रिया में हैं, इसलिए अपडेट रहना जरूरी है

AI व्यापार से संबंधित कानून, EU में विश्व के पहले अंतरराष्ट्रीय ‘AI नियमन कानून’ (2023年(2023) दिसंबर 9 को बनाया गया) के शुरू होने के साथ, कानूनी ढांचे की स्थापना के चरण में हैं, इसलिए कंपनियों से मौजूदा कानूनों का पालन करते हुए नए कानूनों के प्रति लचीला रवैया अपनाने की अपेक्षा की जाती है।

जापान में, AI को सीधे नियंत्रित करने वाला कोई कानून अभी तक नहीं है, लेकिन कॉपीराइट कानून, व्यक्तिगत जानकारी सुरक्षा कानून, अनुचित प्रतिस्पर्धा निवारण कानून आदि संबंधित कानूनों को अच्छी तरह समझने और उचित तरीके से प्रतिक्रिया देने की आवश्यकता है। इसके अलावा, संबंधित कानूनों के भविष्य में होने वाले संशोधनों पर नजर रखना और तेजी से प्रतिक्रिया देना जरूरी है।

हमारे कार्यालय द्वारा उपायों का परिचय

मोनोलिथ लॉ फर्म, IT और विशेष रूप से इंटरनेट और कानून के दोनों क्षेत्रों में व्यापक अनुभव रखने वाला एक कानूनी कार्यालय है। AI व्यवसाय कई कानूनी जोखिमों के साथ आता है, और AI से संबंधित कानूनी मुद्दों में निपुण वकीलों का समर्थन अत्यंत आवश्यक है।

हमारा कार्यालय, AI में निपुण वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT सहित AI व्यवसाय के लिए अनुबंध निर्माण, व्यावसायिक मॉडल की कानूनी वैधता की जांच, बौद्धिक संपदा अधिकारों की सुरक्षा, प्राइवेसी संबंधी प्रतिक्रिया आदि, उच्च स्तरीय कानूनी समर्थन प्रदान कर रहा है। नीचे दिए गए लेख में विस्तार से बताया गया है।

मोनोलिथ लॉ फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

ऊपर लौटें