AI को नियंत्रित करने वाले कानूनों की वर्तमान स्थिति क्या है? जापान और यूरोपीय संघ की तुलना और उपायों के बिंदु की व्याख्या
ChatGPT जैसे जेनरेटिव AI एक बड़े बूम का हिस्सा बन चुके हैं। अब व्यापारिक दृश्य में भी शामिल हो चुके इस जेनरेटिव AI को ‘चौथी AI बूम’ का अग्रदूत माना जा रहा है। इसके अनुरूप, विश्वभर में AI को नियंत्रित करने वाले कानूनी ढांचे की स्थापना भी आगे बढ़ रही है।
इस लेख में, हम AI से संबंधित कानूनों को उठाएंगे और बौद्धिक संपदा अधिकार, व्यक्तिगत जानकारी आदि की गोपनीय जानकारी के उचित हैंडलिंग के बारे में व्याख्या करेंगे।
AI(कृत्रिम बुद्धिमत्ता) की परिभाषा और इतिहास
AI (artificial intelligence) का अर्थ है ‘कृत्रिम बुद्धिमत्ता’। कानूनी रूप से इसकी कोई सख्त परिभाषा नहीं है, और इसे विभिन्न तरीकों से परिभाषित किया गया है। नीचे कुछ उदाहरण दिए गए हैं।
स्रोत | परिभाषा / व्याख्या |
「कोजिएन」 | तर्क और निर्णय जैसे बौद्धिक कार्यों से युक्त कंप्यूटर सिस्टम। |
「ब्रिटानिका एनसाइक्लोपीडिया」 | विज्ञान और तकनीक > कंप्यूटर और AI। डिजिटल कंप्यूटर या कंप्यूटर रोबोट द्वारा बौद्धिक अस्तित्व से संबंधित मुद्दों को करने की क्षमता (एबिलिटी)। |
कृत्रिम बुद्धिमत्ता सोसाइटी आर्टिकल ‘AI के रूप में ज्ञान’ | ‘AI क्या है’ के प्रश्न का उत्तर सरल नहीं है। AI के विशेषज्ञों के बीच भी बड़ी बहस है, और इस पर अलग-अलग विचारों के साथ एक पूरी किताब बन सकती है। इसमें, एक सामान्य बिंदु निकालते हुए, एक शब्द में कहें तो, ‘मशीनी तकनीक के माध्यम से मानव के समान बौद्धिक कार्यों को साकार करने की तकनीक’ कहा जा सकता है। |
अकादमिक पेपर ‘गहरी सीखने और कृत्रिम बुद्धिमत्ता’ | AI, मानव बुद्धिमत्ता की संरचना को सिद्धांतिक रूप से समझने का प्रयास करने वाला एक अध्ययन क्षेत्र है |
अकादमिक पेपर ‘कृत्रिम बुद्धिमत्ता समाज की आदर्श स्थिति की खोज में’ | AI सहित सूचना प्रौद्योगिकी एक उपकरण है |
AI को विभिन्न प्रौद्योगिकियों, सॉफ्टवेयर समूहों, कंप्यूटर सिस्टमों, और एल्गोरिदम के रूप में भी कहा जाता है, जो मानव की बौद्धिक क्षमताओं को कंप्यूटर पर पुनः प्रस्तुत करते हैं।
मुख्य विशेषीकृत AI में निम्नलिखित शामिल हैं:
- प्राकृतिक भाषा प्रोसेसिंग (मशीन अनुवाद, सिंटैक्स पार्सिंग, मॉर्फोलॉजिकल एनालिसिस, RNN आदि)
- विशेषज्ञों के तर्क और निर्णय की नकल करने वाले एक्सपर्ट सिस्टम
- डेटा से विशिष्ट पैटर्न का पता लगाने और निकालने वाली छवि पहचान, ध्वनि पहचान आदि
AI (कृत्रिम बुद्धिमत्ता) के क्षेत्र में अनुसंधान और विकास 1950 के दशक, कंप्यूटर के आरंभिक काल से जारी है, और पहला AI बूम 1970 के दशक तक ‘खोज और तर्क’ के अध्ययन के साथ, दूसरा AI बूम 1980 के दशक में ‘ज्ञान प्रतिनिधित्व’ के अध्ययन से एक्सपर्ट सिस्टम के जन्म के साथ हुआ, और दो बार पैराडाइम में बूम आया।
2000 के दशक में प्रवेश करते ही बिग डेटा का उदय हुआ, और 2012 के बाद से Alexnet के आगमन के साथ छवि प्रोसेसिंग में डीप लर्निंग (गहरी सीखने) की उपयोगिता को विश्व स्तर पर मान्यता मिली, और अनुसंधान तेजी से सक्रिय हो गया, जिससे तीसरा AI बूम आया।
2016 से 2017 के बीच, डीप लर्निंग (गहरी सीखने) और रीइन्फोर्समेंट लर्निंग (Q-लर्निंग, पॉलिसी ग्रेडिएंट मेथड्स) को अपनाने वाले AI का उदय हुआ।
तीसरे AI बूम की मुख्य क्रांति प्राकृतिक भाषा प्रोसेसिंग, सेंसर द्वारा छवि प्रोसेसिंग जैसे दृश्य पहलुओं में प्रमुख है, लेकिन तकनीकी विकास, समाजशास्त्र, नैतिकता, और अर्थशास्त्र जैसे क्षेत्रों पर भी बड़ा प्रभाव डाल रही है।
2022 नवंबर 30 को, OpenAI द्वारा लॉन्च किया गया प्राकृतिक भाषा प्रोसेसिंग जेनरेटिव AI, ChatGPT, एक सर्वगुण संपन्न उपकरण के रूप में ध्यान आकर्षित करने के साथ, जेनरेटिव AI व्यवसाय सक्रिय हो गया। इस सामाजिक घटना को कुछ लोग चौथे AI बूम के रूप में कहते हैं।
AI से संबंधित कानूनों की जांच करने वाले व्यावसायिक दृश्य
AI की एक प्रकार, जेनरेटिव AI एक उपयोगी उपकरण है, लेकिन यह गलत सूचना के प्रसार, अपराध को बढ़ावा देने, और कभी-कभी लोकतंत्र को खतरे में डालने जैसे जोखिमों को भी समेटे हुए है।
ऐसे AI के जोखिम कारक अब एक अपरिहार्य चुनौती बन गए हैं। इसलिए, हम उपयोगकर्ता और प्रदाता के दृष्टिकोण से, कानूनी नियमनों की जांच करने वाले व्यावसायिक दृश्यों के बारे में विवरण प्रदान करेंगे।
लेखन जेनरेटिव AI का उपयोग
नवंबर 2022 में ‘ChatGPT’ के लॉन्च के बाद से, लेखन जेनरेटिव AI ने जटिल अनुरोधों का समर्थन करने की क्षमता के कारण, काम की दक्षता और उच्च कॉस्ट परफॉर्मेंस की उम्मीद के साथ, एक सार्वभौमिक उपकरण के रूप में विश्वव्यापी प्रशंसा प्राप्त की है।
इसके विपरीत, लेखन जेनरेटिव AI के उपयोग से जुड़े जोखिम भी ज्ञात हो गए हैं। इस तरह के संभावित जोखिमों से बचने के लिए, हमें किन जोखिमों का सामना करना पड़ सकता है और किन कानूनों का पालन करना चाहिए, इस पर ध्यान देना चाहिए।
ChatGPT के लिए प्रतिनिधित्व करने वाले लेखन जेनरेटिव AI में, यदि कोई उपाय नहीं किया जाता है, तो उपयोगकर्ता द्वारा दर्ज की गई जानकारी (प्रॉम्प्ट) के लीक होने का जोखिम होता है। ChatGPT में प्रॉम्प्ट को एकत्रित, संग्रहित और उपयोग करने की क्षमता होती है, जिससे व्यक्तिगत जानकारी, कंपनी की गोपनीय जानकारी, गोपनीयता समझौते (NDA) आदि के माध्यम से प्राप्त गोपनीय जानकारी के लीक होने का जोखिम होता है।
इसके अलावा, ChatGPT विशिष्ट गलत सूचना का उत्पादन (हैलुसिनेशन) और प्रसार, कॉपीराइट उल्लंघन आदि के जोखिमों को भी समेटे हुए है। इसलिए, उत्पादित सामग्री के लिए फैक्ट चेक अनिवार्य है।
इमेज जेनरेटिव AI का उपयोग
व्यावसायिक उपयोग में इमेज जेनरेटिव AI का उपयोग करते समय, कॉपीराइट उल्लंघन के जोखिम को ध्यान में रखना चाहिए।
ChatGPT आदि द्वारा उत्पन्न छवियों और लेखों के कॉपीराइट, मूल रूप से, उत्पन्न करने वाले उपयोगकर्ता के पास होते हैं। OpenAI के अनुसार, उपयोगकर्ता किसी भी उद्देश्य (व्यावसायिक उपयोग सहित) के लिए ChatGPT आदि का उपयोग कर सकते हैं।
हालांकि, उपयोग के समय निम्नलिखित बिंदुओं पर ध्यान देना आवश्यक है।
ChatGPT के प्रशिक्षण डेटा में इंटरनेट पर सार्वजनिक रूप से उपलब्ध बड़ी मात्रा में सामग्री शामिल है, और इन सामग्रियों का अधिकांश हिस्सा कॉपीराइट सामग्री है (पाठ, छवियां, संगीत, वीडियो आदि)। इसलिए, उत्पन्न सामग्री दूसरों के कॉपीराइट का उल्लंघन कर सकती है।
AI विकास और जेनरेटिव AI सेवाओं की पेशकश
AI व्यवसाय में कई कानून शामिल होते हैं, और वैश्विक स्तर पर कानूनी ढांचे की स्थापना आगे बढ़ रही है, इसलिए मौजूदा कानूनों का पालन करते हुए नए कानूनों के प्रति एक लचीला रवैया अपनाना आवश्यक है।
अगले अध्याय में, हम जापान के AI से संबंधित कानूनों और दिसंबर 2023 में बनाए गए विश्व के पहले अंतरराष्ट्रीय EU ‘AI नियमन कानून’ के बारे में विवरण प्रदान करेंगे।
जापान के AI संबंधित कानून
वर्तमान में जापान में, AI पर बलपूर्वक कानून द्वारा नियंत्रण नहीं है, और इसके बजाय स्व-नियमन की नीति अपनाई गई है। यहाँ, AI का उपयोग करते समय ध्यान में रखने योग्य मौजूदा कानूनों के बारे में व्याख्या की गई है।
संदर्भ: आर्थिक उद्योग मंत्रालय|「AI सिद्धांतों के व्यवहार के लिए गवर्नेंस गाइडलाइन्स संस्करण 1.1」[ja]
कॉपीराइट कानून
हेइसेई 31 (2019) जनवरी में लागू हुए ‘संशोधित कॉपीराइट कानून’ में, अधिकार सीमा नियम (अनुमति के बिना अपवाद) में ‘जानकारी विश्लेषण’ (उसी कानून के अनुच्छेद 30 के 4 का 1 खंड 2) नया जोड़ा गया है। AI विकास और सीखने की अवस्था में जानकारी विश्लेषण जैसे, कॉपीराइट वाली सामग्री में व्यक्त विचारों या भावनाओं का आनंद लेने के उद्देश्य के बिना उपयोग, मूलतः कॉपीराइट धारक की अनुमति के बिना किया जा सकता है।
इस संशोधन के साथ ‘जानकारी विश्लेषण’ की परिभाषा स्थापित होने के कारण, AI की डीप लर्निंग सहित मशीन लर्निंग भी ‘जानकारी विश्लेषण’ में शामिल होने के लिए स्पष्ट हो गई है।
जानकारी विश्लेषण (बहुत सारी कॉपीराइट सामग्री या अन्य बड़ी मात्रा में जानकारी से, संबंधित जानकारी को बनाने वाली भाषा, ध्वनि, छवि या अन्य तत्वों की जानकारी को निकालना, तुलना, वर्गीकरण या अन्य विश्लेषण करना) के उपयोग के मामले में
कॉपीराइट कानून अनुच्छेद 30 के 4 का 1 खंड 2
दूसरी ओर, AI द्वारा उत्पन्न कृतियों में, अगर अन्य कॉपीराइट सामग्री के साथ समानता या निर्भरता पाई जाती है, तो कॉपीराइट उल्लंघन का ध्यान रखना जरूरी है।
इसके अलावा, यदि कॉपीराइट सामग्री को ChatGPT में प्रॉम्प्ट के रूप में दर्ज किया जाता है, तो यह प्रतिलिपि अधिकार या अन्य उल्लंघन का कारण बन सकता है। यदि किसी अन्य की कॉपीराइट सामग्री को जेनरेटिव AI का उपयोग करके संशोधित किया जाता है, तो यह अनुकूलन अधिकार या अन्य उल्लंघन का कारण बन सकता है।
OpenAI के उपयोग की शर्तों के अनुसार, ChatGPT द्वारा बनाई गई सामग्री के अधिकार उपयोगकर्ता के पास होते हैं, और वाणिज्यिक उपयोग भी संभव है, लेकिन यदि सामग्री कॉपीराइट उल्लंघन के अंतर्गत आती है या नहीं, यह निर्णय करना कठिन होता है, तो विशेषज्ञ से परामर्श करना सुझावित है।
यदि कॉपीराइट धारक द्वारा कॉपीराइट उल्लंघन का आरोप लगाया जाता है, तो नागरिक दायित्व (उपयोग निषेध, क्षतिपूर्ति, मानहानि, नाम की पुनःस्थापना आदि के कानूनी उपाय) या आपराधिक दायित्व का सामना करना पड़ सकता है।
अनुचित प्रतिस्पर्धा निवारण कानून
हेइसेई 31 (2019) जुलाई 1 को, संशोधित अनुचित प्रतिस्पर्धा निवारण कानून लागू हुआ। पहले, पेटेंट कानून या कॉपीराइट कानून के संरक्षण के अधीन नहीं आने वाली चीजें, या अनुचित प्रतिस्पर्धा निवारण कानून के ‘व्यापार रहस्यों’ में नहीं आने वाली चीजें, अनुचित प्रतिस्पर्धा को रोकना कठिन था।
इसलिए, इस संशोधन में, कुछ मूल्यवान डेटा (सीमित प्रदान डेटा) की अनुचित प्राप्ति या अनुचित उपयोग जैसे दुर्भावनापूर्ण कृत्यों के खिलाफ नागरिक उपाय (रोकथाम की मांग, क्षतिपूर्ति की अनुमानित राशि आदि) निर्धारित किए गए हैं।
यूरोपीय संघ के AI उपयोग से संबंधित कानून
यूरोपीय संघ की कानूनी व्यवस्था, प्राथमिक कानून (संधियाँ), द्वितीयक कानून (यूरोपीय संघ का विधान) और न्यायिक निर्णयों के तीन भागों से मिलकर बनी है। द्वितीयक कानून, प्राथमिक कानून (संधियाँ) के आधार पर बनाया गया है और यह यूरोपीय संघ के भीतर सीधे या परोक्ष रूप से सदस्य देशों को बाध्य करने वाले नियमों का समूह है, जिसे यूरोपीय संघ का कानून (व्युत्पन्न कानून) कहा जाता है। द्वितीयक कानून मुख्य रूप से पांच प्रकार के होते हैं, लेकिन यूरोपीय संघ का ‘AI नियमन कानून’ एक नियमन (Regulation) के अंतर्गत आता है, जो सीधे यूरोपीय संघ के सदस्य देशों पर लागू होने वाला एकीकृत नियम है।
दूसरी ओर, निर्देश (Directive) वह होते हैं जिनके अंतर्गत यूरोपीय संघ के प्रत्येक सदस्य देश को, निर्देश (Directive) की सामग्री को लागू करने के लिए राष्ट्रीय कानूनों को नया बनाने या संशोधित करने जैसे परोक्ष रूप से कानूनी दायित्व उठाने पड़ते हैं। समय सीमा, मूल रूप से यूरोपीय संघ के आधिकारिक जर्नल में प्रकाशन के बाद 3 वर्षों के भीतर होती है।
इस अध्याय में, हम यूरोपीय संघ के AI उपयोग से संबंधित कानूनी नियमन के बीच ‘निर्देश’ और ‘नियमन’ के बारे में नवीनतम प्रवृत्तियों की व्याख्या करेंगे।
AI जिम्मेदारी निर्देश प्रस्ताव
28 सितंबर 2022 (2022年9月28日) को, यूरोपीय आयोग ने “AI जिम्मेदारी निर्देश प्रस्ताव” के साथ-साथ “उत्पाद जिम्मेदारी निर्देश” के संशोधन प्रस्ताव को प्रकाशित किया। यह EU (यूरोपीय संघ) में AI व्यवसायों की कानूनी जिम्मेदारियों के नियमों को निर्धारित करता है, जो “AI विनियमन कानून” के अनुरूप है, और एक महत्वपूर्ण कानूनी ढांचा बन जाता है। जून 2023 (2023年6月) से लागू होने वाले EU के “सामूहिक मुकदमा निर्देश” के दायरे में आने के कारण, संबंधित जापानी कंपनियों को भी इसकी सामग्री को समझने की आवश्यकता होगी।
डिजिटल युग की परिपत्र अर्थव्यवस्था और वैश्विक मूल्य श्रृंखला के लिए उपयुक्त बनाने के लिए, यह EU में AI सिस्टमों सहित सॉफ्टवेयर से संबंधित नागरिक जिम्मेदारियों के कानूनी नियमों में बड़े परिवर्तन करता है।
संबंधित लेख: EU में AI विनियमन कानून की वर्तमान स्थिति और संभावनाएं? जापानी कंपनियों पर प्रभाव भी समझाया गया है[ja]
“AI जिम्मेदारी निर्देश प्रस्ताव” का उद्देश्य AI सिस्टमों के कारण होने वाले नुकसान के लिए, अनुबंध के बाहर के कारणों पर आधारित नागरिक जिम्मेदारियों के नियमों को निर्धारित करना और EU क्षेत्र के बाजार कार्यों को सुधारना है।
इसका मतलब है कि, अनुबंध पर आधारित जिम्मेदारियां (ऋण निष्पादन जिम्मेदारी और अनुबंध अनुपालन जिम्मेदारी) लागू नहीं होती हैं और यह “उत्पाद जिम्मेदारी निर्देश” के दायरे में आती हैं, जो सुरक्षा की अपर्याप्तता से उत्पन्न होती हैं, लापरवाही के कारण होने वाले नुकसान (अवैध कृत्य जिम्मेदारी आदि) पर ध्यान देना आवश्यक है।
उदाहरण के लिए, AI अपनाने की प्रणालियों द्वारा उत्पन्न भेदभाव जैसे नुकसान भी इसके दायरे में आ सकते हैं।
यह निर्देश प्रस्ताव, AI की ब्लैक बॉक्स समस्या से निपटने के लिए, “AI विनियमन कानून” में निर्धारित “उच्च जोखिम वाले AI सिस्टम” को विकसित करने वाले व्यवसायियों के लिए प्रमाणित बोझ को कम करने के उपायों को लागू करता है, जिसमें “कारण संबंध का अनुमान” और “साक्ष्य प्रकटीकरण प्रणाली” नव स्थापित की गई है।
साक्ष्य प्रकटीकरण आदेश का पालन न करने पर, “AI जिम्मेदारी निर्देश प्रस्ताव” के अनुसार, ध्यान देने की जिम्मेदारी और कारण संबंध का अनुमान लगाना अनिवार्य है, और “उत्पाद जिम्मेदारी निर्देश संशोधन प्रस्ताव” के अनुसार, दोष और कारण संबंध का अनुमान लगाना अनिवार्य है, और जापानी नागरिक मुकदमा कानून से भी अधिक सख्त दंड लगाया जाता है।
यह निर्देश प्रस्ताव, पहले चरण के रूप में, AI के ब्लैक बॉक्सीकरण और उसके साथ “प्रमाणित बोझ को कम करने के उपायों” तक सीमित है, और मुकदमा योग्यता, साक्ष्य प्रकटीकरण, साक्ष्य संरक्षण, और कारण संबंध का अनुमान नव स्थापित किया गया है, और प्रत्येक आवश्यकता निर्धारित की गई है।
दूसरा चरण, समीक्षा और मूल्यांकन के बारे में निर्धारित है। यूरोपीय आयोग में एक मॉनिटरिंग प्रोग्राम स्थापित किया गया है, जो घटना की जानकारी की समीक्षा करता है, और उच्च जोखिम AI सिस्टम के व्यवसायियों पर नो-फॉल्ट जिम्मेदारी (सख्त जिम्मेदारी) लगाने की उपयुक्तता और अनिवार्य बीमा की आवश्यकता जैसे आगे के उपायों का मूल्यांकन करता है, और यूरोपीय परिषद और यूरोपीय संसद आदि को रिपोर्ट करता है।
उत्पाद दायित्व निर्देश का संशोधन प्रस्ताव
“उत्पाद दायित्व निर्देश” एक EU कानून है जो 1985 में बनाया गया था जिसका उद्देश्य उपभोक्ताओं की रक्षा करना है, और यह निर्देश उन मामलों में निर्माताओं की जिम्मेदारी को परिभाषित करता है जहां उपभोक्ता दोषपूर्ण उत्पादों के कारण हानि उठाते हैं।
संशोधन प्रस्ताव में, उत्पाद दायित्व के लागू होने वाले दायरे में “सॉफ्टवेयर” को नया “उत्पाद” के रूप में जोड़ा गया है, और यदि AI सिस्टम जैसे सॉफ्टवेयर में “दोष” पाया जाता है, तो AI सिस्टम के व्यवसायी पर बिना दोष की जिम्मेदारी लागू होगी। इसके अलावा, “दोष” के निर्णय के मानदंड के रूप में, स्थापना के बाद की निरंतर सीखने की क्षमता और सॉफ्टवेयर अपडेट को नया जोड़ा गया है।
जापानी वर्तमान कानून “उत्पाद दायित्व कानून” में, सामान्यतः सॉफ्टवेयर को चल संपत्ति के रूप में नहीं माना जाता है, इसलिए यह कानून के लागू होने वाले “उत्पाद” के दायरे में नहीं आता है, लेकिन “उत्पाद” की अवधारणा में परिवर्तन करने का उपाय किया जा रहा है। इस संशोधन प्रस्ताव में भी, “प्रमाणित करने के बोझ को कम करने के उपाय” को पेश किया गया है, जिससे AI सिस्टम और अग्रिम तकनीकी उत्पादों जैसे सॉफ्टवेयर पर बड़ा प्रभाव पड़ सकता है।
एआई विनियमन कानून
“एआई विनियमन कानून (AI Act)” एक व्यापक यूरोपीय संघ (EU) का एकीकृत नियम है जो एआई व्यवसायों को लक्षित करता है और यह 85 धाराओं से मिलकर बना विश्व का पहला अंतरराष्ट्रीय एआई विनियमन कानून है। यह 9 दिसंबर 2023 को यूरोपीय आयोग, यूरोपीय संसद, और यूरोपीय परिषद के अस्थायी समझौते के बाद बनाया गया था और इसके 2024 में प्रभावी होने और पूर्ण रूप से लागू होने की उम्मीद है।
यह कानून “डिजिटल युग के लिए उपयुक्त यूरोप” के रूप में जानी जाने वाली यूरोपीय संघ की डिजिटल रणनीति का केंद्रीय हिस्सा है, जो विकसित हो रहे डिजिटल युग की नई चुनौतियों और जोखिमों का सामना करने का प्रयास करता है। यह एआई की सुरक्षा और मौलिक अधिकारों की गारंटी देने और यूरोपीय संघ में एआई के प्रति दृष्टिकोण, निवेश, और नवाचार को मजबूत करने का लक्ष्य रखने वाले व्यापक एआई पैकेज का भी एक हिस्सा है।
यूरोपीय संघ का “एआई विनियमन कानून” यूरोपीय संघ के सदस्य देशों पर सीधे लागू होता है और यूरोपीय संघ के भीतर व्यापार करने पर भी पार-सीमा लागू होता है, और विदेश में स्थित व्यापारियों पर भी लागू होता है।
उल्लंघन के मामले में, विश्वव्यापी बिक्री के आधार पर भारी जुर्माना लगाया जाता है (अधिकतम 30 मिलियन यूरो = लगभग 47 अरब येन या विश्वव्यापी बिक्री का 6% जो भी अधिक हो, उसकी ऊपरी सीमा), और यूरोपीय संघ के भीतर एआई व्यापार करने में असमर्थ होने का भी जोखिम है।
इसलिए, जापानी कंपनियां सहित वे कंपनियां जो पहले से ही यूरोपीय संघ के बाजार में एआई का उपयोग कर रही हैं या जो भविष्य में यूरोपीय संघ के बाजार में प्रवेश करने का विचार कर रही हैं, उन्हें यूरोपीय संघ के नए एआई विनियमन के अनुरूप उपाय करने की आवश्यकता होगी।
“एआई विनियमन कानून” की मुख्य विशेषताएं मुख्य रूप से तीन विशेषताओं में विभाजित हैं: “जोखिम-आधारित एआई वर्गीकरण”, “आवश्यकताएं और दायित्व”, और “नवाचार समर्थन”।
विनियमन के अधीन वे व्यापारी हैं जो यूरोपीय बाजार को लक्षित करते हुए एआई सिस्टम और सेवाओं को पेश करते हैं, जिसमें एआई के विकासकर्ता, डिप्लॉयर, प्रदाता, आयातक, विक्रेता, और उपयोगकर्ता शामिल हैं।
एआई के जोखिम स्तर को चार स्तरों में वर्गीकृत किया जाता है, और उसके अनुसार विनियमन लागू होता है। एआई सिद्धांतों की प्राप्ति के लिए, एआई विकासकर्ताओं, उपयोगकर्ताओं, और प्रदाताओं की एआई साक्षरता सुनिश्चित करने के उपाय भी अनिवार्य हैं, जैसा कि निर्देशों में स्पष्ट रूप से दिखाया गया है। अधिक जानकारी के लिए, संबंधित लेख देखें।
संबंधित लेख: यूरोपीय संघ में एआई विनियमन कानून की वर्तमान स्थिति और भविष्य क्या है? जापानी कंपनियों पर प्रभाव भी समझाया गया है[ja]
AI संबंधित कानूनों में ध्यान देने योग्य बिंदु
इस अध्याय में, हम मुख्य रूप से उन कानूनी बिंदुओं पर चर्चा करेंगे जिनका ध्यान रखना जब कंपनियां जेनरेटिव AI का उपयोग करना चाहती हैं।
AI द्वारा निर्मित कृतियों के कॉपीराइट के बारे में
जेनरेटिव AI द्वारा निर्मित कृतियों के संबंध में ध्यान देने योग्य कानूनी बिंदुओं में निम्नलिखित शामिल हैं:
- क्या वह कृति कॉपीराइट का उल्लंघन करती है
- क्या जेनरेटिव AI द्वारा निर्मित कृति को कॉपीराइट मान्यता प्राप्त है
जैसा कि पहले उल्लेख किया गया है, यदि ChatGPT द्वारा निर्मित कृति में कॉपीराइट वाली कृति के साथ समानता या निर्भरता पाई जाती है, तो यह कॉपीराइट उल्लंघन माना जाएगा। दूसरी ओर, क्या जेनरेटिव AI द्वारा निर्मित कृतियों को कॉपीराइट मान्यता प्राप्त हो सकती है?
कॉपीराइट कानून के अनुसार, “कृति” को “विचारों या भावनाओं को सृजनात्मक रूप से व्यक्त करने वाला” के रूप में परिभाषित किया गया है। चूंकि AI विचारों या भावनाओं को नहीं रखता है, इसलिए यह माना जा सकता है कि जेनरेटिव AI द्वारा निर्मित सामग्री को कॉपीराइट मान्यता प्राप्त नहीं हो सकती है।
वहीं, AI द्वारा सामग्री के निर्माण की प्रक्रिया उपयोगकर्ता के लिए एक ब्लैक बॉक्स (निर्णय प्रक्रिया अस्पष्ट) होती है, इसलिए उपयोगकर्ता के लिए AI से अपेक्षित सामग्री को उत्पन्न करना कठिन होता है। इसलिए, यदि प्रॉम्प्ट के चरण में उपयोगकर्ता की सृजनात्मकता मान्यता प्राप्त होती है, तो यह कहा जा सकता है कि उपयोगकर्ता के “विचारों या भावनाओं” को जेनरेटिव AI द्वारा “सृजनात्मक रूप से व्यक्त” किया गया है, और इस मामले में कॉपीराइट मान्यता प्राप्त हो सकती है।
AI का उपयोग करते समय व्यक्तिगत जानकारी के संचालन के बारे में
AI का उपयोग करते समय, व्यक्तिगत जानकारी संरक्षण कानून का उल्लंघन होने की संभावना पर ध्यान देना आवश्यक है। व्यक्तिगत जानकारी और गोपनीयता से संबंधित जानकारी को इनपुट न करने जैसे उपाय आवश्यक हो सकते हैं।
यदि प्रॉम्प्ट में व्यक्तिगत जानकारी इनपुट की जाती है, तो यह सेवा प्रदाता द्वारा व्यक्तिगत जानकारी की तीसरे पक्ष को प्रदान करने के बराबर हो सकता है। व्यक्तिगत जानकारी को तीसरे पक्ष को प्रदान करने के लिए, सिद्धांत रूप में व्यक्ति की सहमति आवश्यक होती है, इसलिए यदि व्यक्ति की सहमति नहीं है, तो व्यक्तिगत जानकारी संरक्षण कानून का उल्लंघन हो सकता है।
ChatGPT में, यदि गलती से व्यक्तिगत जानकारी इनपुट की जाती है, तो भी चैट में उसे आउटपुट नहीं किया जा सकता है। यह OpenAI की नीति है कि ChatGPT व्यक्तिगत जानकारी को संग्रहीत या ट्रैक नहीं करता है, और अन्य सेवाओं या प्लेटफॉर्मों में यह भिन्न हो सकता है, इसलिए सावधानी बरतनी चाहिए।
कंपनियां जब AI से जुड़ती हैं तो रिस्क मैनेजमेंट
रिस्क मैनेजमेंट, कंपनी की व्यापार रणनीति, AI के उपयोग के उद्देश्य, और संबंधित कानूनी विनियमनों पर निर्भर करता है, इसलिए परिस्थितियों और उद्देश्यों के अनुसार उपयुक्त रिस्क मैनेजमेंट उपाय करना महत्वपूर्ण है।
जेनरेटिव AI का उपयोग करने वाली कंपनियों को रिस्क को कम से कम करने के लिए निम्नलिखित बिंदुओं पर विचार करना चाहिए:
- मानव संसाधन विकास: जेनरेटिव AI के उपयुक्त उपयोग के लिए विशेषज्ञ ज्ञान और कौशल की आवश्यकता होती है। कर्मचारियों को शिक्षा और प्रशिक्षण के माध्यम से, उपयुक्त उपयोग के तरीकों को समझाना महत्वपूर्ण है।
- कंपनी के दिशा-निर्देशों का निर्माण, परिचय, और संचालन: जेनरेटिव AI के उपयोग से संबंधित कंपनी के दिशा-निर्देशों को तैयार करके और कर्मचारियों को उनका पालन करने के लिए प्रेरित करके, रिस्क को कम किया जा सकता है।
- उपयोग और रिस्क मैनेजमेंट के लिए प्रमोशनल संगठन का निर्माण: जेनरेटिव AI के उपयोग को बढ़ावा देने वाले संगठन की स्थापना करना और संगठन के भीतर रिस्क मैनेजमेंट टीम को तैनात करना प्रभावी है।
- सिस्टम का परिचय: जेनरेटिव AI को उपयुक्त रूप से परिचय देने के लिए, सिस्टम का चयन और डिजाइन सावधानीपूर्वक करना आवश्यक है।
इसके अलावा, जेनरेटिव AI के उपयोग से जुड़े रिस्क विविध होते हैं, जैसे कि जानकारी का लीक होना, अधिकारों और गोपनीयता का उल्लंघन, जानकारी की सटीकता और सुरक्षा के प्रति चिंता, और बायस का रिस्क। इन रिस्कों से बचने के लिए, उपयुक्त गवर्नेंस और रिस्क मैनेजमेंट के ढांचे का परिचय देना अनिवार्य है।
संबंधित लेख: “ChatGPT के कॉर्पोरेट परिचय में जोखिम और गोपनीय जानकारी के लीक के मामले और उपायों की व्याख्या।”[ja]
सारांश: AI के कानून अभी विकास की प्रक्रिया में हैं, इसलिए अपडेट रहना जरूरी है
AI व्यापार से संबंधित कानून, EU में विश्व के पहले अंतरराष्ट्रीय ‘AI नियमन कानून’ (2023年(2023) दिसंबर 9 को बनाया गया) के शुरू होने के साथ, कानूनी ढांचे की स्थापना के चरण में हैं, इसलिए कंपनियों से मौजूदा कानूनों का पालन करते हुए नए कानूनों के प्रति लचीला रवैया अपनाने की अपेक्षा की जाती है।
जापान में, AI को सीधे नियंत्रित करने वाला कोई कानून अभी तक नहीं है, लेकिन कॉपीराइट कानून, व्यक्तिगत जानकारी सुरक्षा कानून, अनुचित प्रतिस्पर्धा निवारण कानून आदि संबंधित कानूनों को अच्छी तरह समझने और उचित तरीके से प्रतिक्रिया देने की आवश्यकता है। इसके अलावा, संबंधित कानूनों के भविष्य में होने वाले संशोधनों पर नजर रखना और तेजी से प्रतिक्रिया देना जरूरी है।
हमारे कार्यालय द्वारा उपायों का परिचय
मोनोलिथ लॉ फर्म, IT और विशेष रूप से इंटरनेट और कानून के दोनों क्षेत्रों में व्यापक अनुभव रखने वाला एक कानूनी कार्यालय है। AI व्यवसाय कई कानूनी जोखिमों के साथ आता है, और AI से संबंधित कानूनी मुद्दों में निपुण वकीलों का समर्थन अत्यंत आवश्यक है।
हमारा कार्यालय, AI में निपुण वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT सहित AI व्यवसाय के लिए अनुबंध निर्माण, व्यावसायिक मॉडल की कानूनी वैधता की जांच, बौद्धिक संपदा अधिकारों की सुरक्षा, प्राइवेसी संबंधी प्रतिक्रिया आदि, उच्च स्तरीय कानूनी समर्थन प्रदान कर रहा है। नीचे दिए गए लेख में विस्तार से बताया गया है।
मोनोलिथ लॉ फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]
Category: IT