ChatGPT का व्यावसायिक उपयोग करने के जोखिम क्या हैं? कानूनी मुद्दों पर भी विवरण
ChatGPT के रिलीज़ होने के बाद से, इसकी उपयोगिता को लेकर विश्व भर में बड़ी मात्रा में ध्यान आकर्षित हुआ है। हालांकि, इसके साथ विभिन्न प्रकार के जोखिम भी जुड़े हुए हैं, जिनके बारे में अब जानकारी मिलने लगी है। अभी भी कानूनी ढांचे का विकास जारी है, और यह भी एक सच्चाई है कि ChatGPT का व्यापार में उपयोग करते समय के जोखिम और उन जोखिमों के प्रबंधन के तरीकों को लेकर कई व्यवसायी चिंतित हैं।
इस लेख में, हम ChatGPT का व्यापारिक उपयोग करते समय के कानूनी जोखिमों और उनके उपायों के बारे में विस्तार से बताएंगे।
ChatGPT के व्यावसायिक उपयोग के चार जोखिम
कंपनियों में भी, प्रगति पर है ऐसे प्राकृतिक भाषा उत्पन्न करने वाले AI ChatGPT का उपयोग, जिसकी 2022 (令和4年) में कंपनियों के बीच अपनाने की दर 13.5% है और “अपनाने की योजना है” को मिलाकर यह दर 24.0% तक पहुँच जाती है। (स्रोत: Japanese Ministry of Internal Affairs and Communications|Reiwa 5 (2023) Information and Communications White Paper Communication Usage Trends Survey「कंपनियों में IoT・AI आदि के सिस्टम और सेवाओं की अपनाने की स्थिति[ja]」)
निस्संदेह, ChatGPT सहित AI तकनीक, कंपनियों के कार्यकुशलता में सुधार के लिए प्रभावी है और इससे अधिक व्यापारिक अवसरों की संभावना भी दिखाई देती है। लेकिन, इसके साथ कई कानूनी जोखिम भी जुड़े होते हैं। इसलिए, जोखिमों को पूरी तरह समझने के बाद ही, व्यावसायिक उपयोग का निर्णय लेना चाहिए।
उदाहरण के लिए, कॉपीराइट के मुद्दे, गलत सूचना का प्रसार, गोपनीय जानकारी का लीक होना, गोपनीयता की समस्याएं, साइबर हमलों के लिए दुरुपयोग आदि AI के संभावित जोखिमों के बारे में विशेषज्ञ चेतावनी दे रहे हैं।
इस अध्याय में, हम ChatGPT के व्यावसायिक उपयोग के चार जोखिमों के बारे में विस्तार से बताएंगे।
सीखने की क्षमता के कारण जानकारी के लीक होने का जोखिम
ChatGPT सुविधाजनक होने के साथ-साथ, इंटरनेट पर विभिन्न डेटा को सीखकर उत्पन्न किया गया एक AI चैटबॉट है, इसलिए अगर कोई उपाय नहीं किया जाता है, तो दर्ज की गई जानकारी का उपयोग सीखने के लिए किया जा सकता है और इससे जानकारी के लीक होने का जोखिम बना रहता है।
OpenAI की डेटा उपयोग नीति[en] के अनुसार, जब तक उपयोगकर्ता ChatGPT के ‘API’ के माध्यम से या ‘ऑप्ट-आउट’ का अनुरोध नहीं करते, तब तक OpenAI द्वारा उपयोगकर्ता द्वारा ChatGPT में दर्ज किए गए डेटा को संग्रहित और उपयोग (सीखने) किया जा सकता है।
कोई उपाय न करते हुए, व्यक्तिगत जानकारी या गोपनीय जानकारी जैसे उच्च संवेदनशीलता वाली जानकारी को दर्ज न करने के लिए सावधानी बरतना जरूरी है। अगर गलती से ChatGPT में व्यक्तिगत जानकारी दर्ज कर दी जाती है, तो भी एक चेतावनी संदेश प्रदर्शित होता है, और ChatGPT व्यक्तिगत जानकारी को संग्रहित या ट्रैक नहीं करता है, और चैट में उसे आउटपुट नहीं कर सकता है।
दूसरी ओर, अतीत में ChatGPT को संचालित करने वाली OpenAI कंपनी के सिस्टम में एक बग के कारण, उपयोगकर्ता की दर्ज की गई व्यक्तिगत जानकारी के लीक होने की घटना भी हुई थी।
संबंधित लेख:ChatGPT के जानकारी लीक होने का जोखिम और क्या कदम उठाए जाने चाहिए? 4 उपायों का परिचय[ja]
सूचना की विश्वसनीयता में कमी का जोखिम
मई 2023 (令和5年5月) से लागू किए गए ChatGPT के वेब ब्राउज़िंग फीचर के कारण, अब ChatGPT नवीनतम सूचनाओं को एकत्रित कर सकता है और उन परिणामों के आधार पर उत्तर देने में सक्षम हो गया है।
हालांकि, ChatGPT जब उत्तर देता है, तो वह सूचनाओं को सत्य की तरह प्रस्तुत करता है, लेकिन उनकी विश्वसनीयता की गारंटी नहीं होती। ChatGPT द्वारा उत्पन्न किए गए उत्तर, सीखे गए डेटा की सटीकता पर आधारित नहीं होते, बल्कि यह केवल उच्च संभावना वाले (सबसे अधिक संभावित) वाक्यों का निर्माण करता है। इसलिए, ChatGPT के उत्तरों की फैक्ट चेकिंग अत्यंत आवश्यक है। यदि ChatGPT के उत्तरों के आधार पर गलत सूचना प्रसारित की जाती है, तो इससे कंपनी की प्रतिष्ठा को नुकसान पहुंच सकता है।
2023年4月3日 (令和5年4月3日,3 अप्रैल 2023) को, टोक्यो विश्वविद्यालय ने ChatGPT में तकनीकी चुनौतियों का हवाला देते हुए, भविष्य के समाज पर इसके प्रभाव को लेकर चिंता व्यक्त की और निम्नलिखित घोषणा की।
“ChatGPT का सिद्धांत यह है कि यह बड़ी मात्रा में मौजूदा लेखों और सामग्री की मशीन लर्निंग और रीइन्फोर्समेंट लर्निंग के माध्यम से, संभावनाओं के आधार पर सबसे विश्वसनीय लगने वाले वाक्यों का निर्माण करता है। इसलिए, लिखी गई सामग्री में झूठ शामिल हो सकता है। यह बहुत ही चतुर और जानकारी दिखाने वाले व्यक्ति के साथ बातचीत करने जैसा है। (हालांकि, नवीनतम संस्करण GPT-4 में काफी सटीकता बढ़ी है, और यह एक सलाहकार के रूप में भी काफी उत्कृष्ट है।) इसलिए, ChatGPT का प्रयोग करने के लिए, विशेषज्ञ ज्ञान की आवश्यकता होती है, और उत्तरों की आलोचनात्मक समीक्षा करने और उचित संशोधन करने की जरूरत होती है। इसके अलावा, मौजूदा सूचनाओं में नहीं होने वाले नए ज्ञान के विश्लेषण या वर्णन नहीं कर सकता। यानी, ChatGPT के आने से यह नहीं होता कि मनुष्य स्वयं की पढ़ाई या अनुसंधान को नजरअंदाज कर सकते हैं। हालांकि, यदि शिक्षित और विशेषज्ञ ज्ञान रखने वाले व्यक्ति उत्तरों का आलोचनात्मक विश्लेषण करते हैं और इसे कुशलता से प्रयोग करते हैं, तो यह नियमित कार्यों की दक्षता को काफी बढ़ा सकता है।” ऐसा उन्होंने संकेत किया है।
स्रोत: टोक्यो विश्वविद्यालय | ‘生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について[ja]‘
कॉपीराइट उल्लंघन और प्राइवेसी उल्लंघन जैसे कानूनी जोखिम
ChatGPT में कॉपीराइट उल्लंघन का निर्णय ‘AI विकास और सीखने के चरण’ और ‘सृजन और उपयोग के चरण’ में अलग-अलग होता है। प्रत्येक चरण में किए जा रहे कॉपीराइट सामग्री के उपयोग के कार्य अलग होते हैं, इसलिए कॉपीराइट कानून के अनुच्छेद भी भिन्न होते हैं। इसलिए, इन दोनों को अलग-अलग विचार करने की आवश्यकता है।
संदर्भ: जापानी सांस्कृतिक एजेंसी | रेइवा 5 (2023) वर्ष कॉपीराइट सेमिनार ‘AI और कॉपीराइट'[ja]
2019 जनवरी में लागू हुए संशोधित कॉपीराइट कानून में, अधिकार सीमा नियम (अनुमति के बिना अपवाद नियम) के अनुच्छेद 30 के 4 में ‘AI विकास और सीखने के चरण’ को नया जोड़ा गया है। AI विकास के लिए सूचना विश्लेषण आदि, कॉपीराइट सामग्री में व्यक्त विचारों या भावनाओं के आनंद के उद्देश्य के बिना किए जाने वाले उपयोग कार्य, सिद्धांत रूप में कॉपीराइट धारक की अनुमति के बिना किए जा सकते हैं।
दूसरी ओर, ChatGPT द्वारा उत्पन्न की गई सामग्री में, यदि कॉपीराइट सामग्री के साथ समानता या निर्भरता (संशोधन) पाई जाती है, तो यह कॉपीराइट उल्लंघन माना जाएगा। इसलिए, प्रकाशित करने से पहले, ChatGPT द्वारा संदर्भित जानकारी के अधिकार धारकों की पुष्टि करना और ChatGPT द्वारा बनाई गई सामग्री के समान सामग्री की जांच करना महत्वपूर्ण है। और, यदि कॉपीराइट सामग्री का उद्धरण किया जाता है, तो स्रोत का उल्लेख करना (अधिकार सीमा नियम), और यदि पुनर्प्रकाशित किया जाता है, तो कॉपीराइट धारक की अनुमति प्राप्त करके उचित रूप से संभालना आवश्यक है।
OpenAI कंपनी के उपयोग की शर्तों के अनुसार, ChatGPT द्वारा बनाई गई सामग्री का व्यावसायिक उपयोग संभव है, लेकिन यदि ChatGPT का उपयोग करके बनाई गई सामग्री कॉपीराइट उल्लंघन के दायरे में आती है, तो निर्णय लेना कठिन हो सकता है। ऐसे मामलों में, विशेषज्ञों से परामर्श करने की सलाह दी जाती है।
यदि कॉपीराइट धारक द्वारा कॉपीराइट उल्लंघन का आरोप लगाया जाता है, तो नागरिक दायित्व (हर्जाना, मुआवजा, उपयोग निषेध, प्रतिष्ठा पुनर्स्थापन आदि के कानूनी उपाय) और आपराधिक दायित्व (व्यक्तिगत शिकायत अपराध) का सामना करना पड़ सकता है। कंपनियों के मामले में, दोनों दंड नियम लागू हो सकते हैं और व्यक्तियों और कानूनी संस्थाओं दोनों पर दंड लगाया जा सकता है, जिससे नुकसान बढ़ सकता है।
इसके अलावा, व्यक्तिगत जानकारी और प्राइवेसी के बारे में भी, ChatGPT में इनपुट न करने जैसी सावधानियां जरूरी हैं। ऊपर बताए गए अनुसार, यदि गलती से ChatGPT में व्यक्तिगत जानकारी इनपुट कर दी जाती है, तो भी ChatGPT व्यक्तिगत जानकारी को संग्रहीत या ट्रैक नहीं करता है और चैट में उत्पन्न नहीं कर सकता है। हालांकि, यह OpenAI की नीति है, और अन्य प्लेटफॉर्म या सेवाओं में यह अलग हो सकता है।
व्यक्तिगत जानकारी के रिसाव के जोखिम के बारे में निम्नलिखित लेख में विस्तार से बताया गया है, कृपया इसे भी पढ़ें।
संबंधित लेख: कंपनियों की व्यक्तिगत जानकारी के रिसाव और हर्जाने का जोखिम[ja]
अनजाने में हानिकारक सामग्री बनाने का जोखिम
ChatGPT द्वारा सीखे गए डेटा की सामग्री और प्रॉम्प्ट के आधार पर, हानिकारक सामग्री बन सकती है। यदि ChatGPT द्वारा बनाई गई सामग्री की जांच किए बिना उसे प्रकाशित कर दिया जाता है, तो इससे कंपनी की प्रतिष्ठा और ब्रांड मूल्य को नुकसान पहुंच सकता है, और कानूनी समस्याओं की ओर भी ले जा सकता है।
हानिकारक सामग्री को ChatGPT में इनपुट और आउटपुट नहीं किया जा सकता है, लेकिन हानिकारक प्रोग्राम कोड, धोखाधड़ी वाली सेवाएं आदि की पहचान करना कठिन हो सकता है और वे आउटपुट में आ सकते हैं। ऐसे जोखिमों को ध्यान में रखते हुए, बनाई गई सामग्री की निरंतर जांच करने की व्यवस्था महत्वपूर्ण हो जाती है।
ChatGPT के उपयोग की शर्तों को समझें और इसके उपयोग से जुड़े जोखिमों से बचें
ChatGPT का व्यापारिक उपयोग करते समय, जोखिमों से बचने के लिए, सबसे पहले OpenAI के उपयोग की शर्तों और गोपनीयता नीति के अनुसार ही इसका उपयोग करना अनिवार्य है। उपयोग की शर्तें अक्सर संशोधित की जाती हैं, इसलिए व्यापार में इसका उपयोग करते समय, संशोधनों की जांच करना और नवीनतम उपयोग की शर्तों को समझना जरूरी होता है।
संबंधित लेख:OpenAI के उपयोग की शर्तों की व्याख्या, व्यावसायिक उपयोग के लिए सावधानियां क्या हैं?[ja]
ChatGPT के व्यावसायिक उपयोग में जोखिम से बचने के लिए आवश्यक कदम
ChatGPT के जोखिमों से बचने और व्यापार में उचित उपयोग के लिए, कंपनियों को निम्नलिखित गवर्नेंस संरचना की आवश्यकता होती है।
कंपनी के अंदर नियम बनाना
2023 मई 1 तारीख (2023年5月1日) को, जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) ने ChatGPT के नैतिक, कानूनी और सामाजिक मुद्दों (ELSI) पर चर्चा की और ‘जेनरेटिव AI के उपयोग के लिए गाइडलाइन्स’ प्रकाशित की। उद्योग, अकादमिक और सरकारी क्षेत्रों में भी, इन गाइडलाइन्स के निर्धारण पर विचार किया जा रहा है।
ChatGPT को कंपनी में लागू करते समय, व्यक्तिगत सूचना सुरक्षा साक्षरता बढ़ाने और कंपनी के अंदर शिक्षा देना भी जरूरी है, लेकिन अपनी कंपनी के ChatGPT उपयोग के लिए गाइडलाइन्स तैयार करना उचित होगा। अपनी कंपनी के ChatGPT उपयोग के नियमों को लिखित रूप में गाइडलाइन्स में तैयार करके और उन्हें सभी तक पहुँचाने से, जोखिमों से बचने की एक निश्चित संभावना हो सकती है।
संदर्भ: जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) | ‘जेनरेटिव AI के उपयोग के लिए गाइडलाइन्स[ja]‘
ChatGPT के उपयोग के लिए पर्यवेक्षक नियुक्त करना
ChatGPT के उपयोग के लिए कंपनी के अंदर एक पर्यवेक्षक की नियुक्ति करना और गाइडलाइन्स के कार्यान्वयन की निरंतर निगरानी करना और जोखिमों का प्रबंधन करना भी जोखिम से बचने के लिए प्रभावी है।
ChatGPT के व्यवहार की निगरानी करना, उत्पन्न परिणामों को संशोधित करना, और डेटा का प्रबंधन करना एक प्रकार का ऑडिट है, जो सामान्यतः सिस्टम ऑडिट के समान होता है। सिस्टम ऑडिट सूचना प्रणालियों की कार्यक्षमता, सुरक्षा और विश्वसनीयता का निष्पक्ष मूल्यांकन करता है, और व्यापार की कार्यक्षमता बढ़ाने और संगठनात्मक परिवर्तन का समर्थन करने के उद्देश्य से किया जाता है। पर्यवेक्षक की नियुक्ति से, कार्यान्वयन की पारदर्शिता और जवाबदेही को मजबूत करना भी संभव है।
सारांश: ChatGPT के व्यावसायिक उपयोग के लिए जोखिम निवारण के उपाय अनिवार्य हैं
यहाँ हमने ChatGPT के व्यावसायिक उपयोग से जुड़े जोखिमों और उनके उपायों के बारे में विस्तार से चर्चा की है।
ChatGPT जैसे तेजी से विकसित हो रहे AI व्यापार में, कंपनी के अंदर उपयोग के लिए दिशानिर्देशों का निर्माण, व्यापार मॉडल की कानूनी वैधता की जांच, अनुबंधों और उपयोग की शर्तों का निर्माण, बौद्धिक संपदा का संरक्षण, और गोपनीयता से संबंधित प्रतिक्रिया जैसे विभिन्न कानूनी जोखिमों के लिए, और AI तकनीक में दक्ष विशेषज्ञों के साथ उपायों की आवश्यकता होती है।
हमारे कानूनी फर्म द्वारा उपायों की जानकारी
मोनोलिथ कानूनी फर्म IT के क्षेत्र में, विशेषकर इंटरनेट और कानून के दोनों पहलुओं में गहन अनुभव रखने वाली एक कानूनी फर्म है। AI व्यापार में कई कानूनी जोखिम होते हैं, और AI से संबंधित कानूनी मुद्दों में निपुण वकीलों का समर्थन अत्यंत आवश्यक है।
हमारी फर्म AI में दक्ष वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT समेत AI व्यापार के लिए विविध कानूनी सहायता प्रदान करती है। नीचे दिए गए लेख में हमने विस्तार से जानकारी दी है।
मोनोलिथ कानूनी फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]
Category: IT
Tag: ITTerms of Use