MONOLITH LAW OFFICE+81-3-6262-3248काम करने के दिन 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

IT

ChatGPT का व्यावसायिक उपयोग करने के जोखिम क्या हैं? कानूनी मुद्दों पर भी विवरण

IT

ChatGPT का व्यावसायिक उपयोग करने के जोखिम क्या हैं? कानूनी मुद्दों पर भी विवरण

ChatGPT के रिलीज़ होने के बाद से, इसकी उपयोगिता को लेकर विश्व भर में बड़ी मात्रा में ध्यान आकर्षित हुआ है। हालांकि, इसके साथ विभिन्न प्रकार के जोखिम भी जुड़े हुए हैं, जिनके बारे में अब जानकारी मिलने लगी है। अभी भी कानूनी ढांचे का विकास जारी है, और यह भी एक सच्चाई है कि ChatGPT का व्यापार में उपयोग करते समय के जोखिम और उन जोखिमों के प्रबंधन के तरीकों को लेकर कई व्यवसायी चिंतित हैं।

इस लेख में, हम ChatGPT का व्यापारिक उपयोग करते समय के कानूनी जोखिमों और उनके उपायों के बारे में विस्तार से बताएंगे।

ChatGPT के व्यावसायिक उपयोग के चार जोखिम

कंपनियों में भी, प्रगति पर है ऐसे प्राकृतिक भाषा उत्पन्न करने वाले AI ChatGPT का उपयोग, जिसकी 2022 (令和4年) में कंपनियों के बीच अपनाने की दर 13.5% है और “अपनाने की योजना है” को मिलाकर यह दर 24.0% तक पहुँच जाती है। (स्रोत: Japanese Ministry of Internal Affairs and Communications|Reiwa 5 (2023) Information and Communications White Paper Communication Usage Trends Survey「कंपनियों में IoT・AI आदि के सिस्टम और सेवाओं की अपनाने की स्थिति[ja]」)

निस्संदेह, ChatGPT सहित AI तकनीक, कंपनियों के कार्यकुशलता में सुधार के लिए प्रभावी है और इससे अधिक व्यापारिक अवसरों की संभावना भी दिखाई देती है। लेकिन, इसके साथ कई कानूनी जोखिम भी जुड़े होते हैं। इसलिए, जोखिमों को पूरी तरह समझने के बाद ही, व्यावसायिक उपयोग का निर्णय लेना चाहिए।

उदाहरण के लिए, कॉपीराइट के मुद्दे, गलत सूचना का प्रसार, गोपनीय जानकारी का लीक होना, गोपनीयता की समस्याएं, साइबर हमलों के लिए दुरुपयोग आदि AI के संभावित जोखिमों के बारे में विशेषज्ञ चेतावनी दे रहे हैं।

इस अध्याय में, हम ChatGPT के व्यावसायिक उपयोग के चार जोखिमों के बारे में विस्तार से बताएंगे।

सीखने की क्षमता के कारण जानकारी के लीक होने का जोखिम

ChatGPT सुविधाजनक होने के साथ-साथ, इंटरनेट पर विभिन्न डेटा को सीखकर उत्पन्न किया गया एक AI चैटबॉट है, इसलिए अगर कोई उपाय नहीं किया जाता है, तो दर्ज की गई जानकारी का उपयोग सीखने के लिए किया जा सकता है और इससे जानकारी के लीक होने का जोखिम बना रहता है।

OpenAI की डेटा उपयोग नीति[en] के अनुसार, जब तक उपयोगकर्ता ChatGPT के ‘API’ के माध्यम से या ‘ऑप्ट-आउट’ का अनुरोध नहीं करते, तब तक OpenAI द्वारा उपयोगकर्ता द्वारा ChatGPT में दर्ज किए गए डेटा को संग्रहित और उपयोग (सीखने) किया जा सकता है।

कोई उपाय न करते हुए, व्यक्तिगत जानकारी या गोपनीय जानकारी जैसे उच्च संवेदनशीलता वाली जानकारी को दर्ज न करने के लिए सावधानी बरतना जरूरी है। अगर गलती से ChatGPT में व्यक्तिगत जानकारी दर्ज कर दी जाती है, तो भी एक चेतावनी संदेश प्रदर्शित होता है, और ChatGPT व्यक्तिगत जानकारी को संग्रहित या ट्रैक नहीं करता है, और चैट में उसे आउटपुट नहीं कर सकता है।

दूसरी ओर, अतीत में ChatGPT को संचालित करने वाली OpenAI कंपनी के सिस्टम में एक बग के कारण, उपयोगकर्ता की दर्ज की गई व्यक्तिगत जानकारी के लीक होने की घटना भी हुई थी।

संबंधित लेख:ChatGPT के जानकारी लीक होने का जोखिम और क्या कदम उठाए जाने चाहिए? 4 उपायों का परिचय[ja]

सूचना की विश्वसनीयता में कमी का जोखिम

सूचना की विश्वसनीयता में कमी का जोखिम

मई 2023 (令和5年5月) से लागू किए गए ChatGPT के वेब ब्राउज़िंग फीचर के कारण, अब ChatGPT नवीनतम सूचनाओं को एकत्रित कर सकता है और उन परिणामों के आधार पर उत्तर देने में सक्षम हो गया है।

हालांकि, ChatGPT जब उत्तर देता है, तो वह सूचनाओं को सत्य की तरह प्रस्तुत करता है, लेकिन उनकी विश्वसनीयता की गारंटी नहीं होती। ChatGPT द्वारा उत्पन्न किए गए उत्तर, सीखे गए डेटा की सटीकता पर आधारित नहीं होते, बल्कि यह केवल उच्च संभावना वाले (सबसे अधिक संभावित) वाक्यों का निर्माण करता है। इसलिए, ChatGPT के उत्तरों की फैक्ट चेकिंग अत्यंत आवश्यक है। यदि ChatGPT के उत्तरों के आधार पर गलत सूचना प्रसारित की जाती है, तो इससे कंपनी की प्रतिष्ठा को नुकसान पहुंच सकता है।

2023年4月3日 (令和5年4月3日,3 अप्रैल 2023) को, टोक्यो विश्वविद्यालय ने ChatGPT में तकनीकी चुनौतियों का हवाला देते हुए, भविष्य के समाज पर इसके प्रभाव को लेकर चिंता व्यक्त की और निम्नलिखित घोषणा की।

“ChatGPT का सिद्धांत यह है कि यह बड़ी मात्रा में मौजूदा लेखों और सामग्री की मशीन लर्निंग और रीइन्फोर्समेंट लर्निंग के माध्यम से, संभावनाओं के आधार पर सबसे विश्वसनीय लगने वाले वाक्यों का निर्माण करता है। इसलिए, लिखी गई सामग्री में झूठ शामिल हो सकता है। यह बहुत ही चतुर और जानकारी दिखाने वाले व्यक्ति के साथ बातचीत करने जैसा है। (हालांकि, नवीनतम संस्करण GPT-4 में काफी सटीकता बढ़ी है, और यह एक सलाहकार के रूप में भी काफी उत्कृष्ट है।) इसलिए, ChatGPT का प्रयोग करने के लिए, विशेषज्ञ ज्ञान की आवश्यकता होती है, और उत्तरों की आलोचनात्मक समीक्षा करने और उचित संशोधन करने की जरूरत होती है। इसके अलावा, मौजूदा सूचनाओं में नहीं होने वाले नए ज्ञान के विश्लेषण या वर्णन नहीं कर सकता। यानी, ChatGPT के आने से यह नहीं होता कि मनुष्य स्वयं की पढ़ाई या अनुसंधान को नजरअंदाज कर सकते हैं। हालांकि, यदि शिक्षित और विशेषज्ञ ज्ञान रखने वाले व्यक्ति उत्तरों का आलोचनात्मक विश्लेषण करते हैं और इसे कुशलता से प्रयोग करते हैं, तो यह नियमित कार्यों की दक्षता को काफी बढ़ा सकता है।” ऐसा उन्होंने संकेत किया है।

स्रोत: टोक्यो विश्वविद्यालय | ‘生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について[ja]

कॉपीराइट उल्लंघन और प्राइवेसी उल्लंघन जैसे कानूनी जोखिम

ChatGPT में कॉपीराइट उल्लंघन का निर्णय ‘AI विकास और सीखने के चरण’ और ‘सृजन और उपयोग के चरण’ में अलग-अलग होता है। प्रत्येक चरण में किए जा रहे कॉपीराइट सामग्री के उपयोग के कार्य अलग होते हैं, इसलिए कॉपीराइट कानून के अनुच्छेद भी भिन्न होते हैं। इसलिए, इन दोनों को अलग-अलग विचार करने की आवश्यकता है।

संदर्भ: जापानी सांस्कृतिक एजेंसी | रेइवा 5 (2023) वर्ष कॉपीराइट सेमिनार ‘AI और कॉपीराइट'[ja]

2019 जनवरी में लागू हुए संशोधित कॉपीराइट कानून में, अधिकार सीमा नियम (अनुमति के बिना अपवाद नियम) के अनुच्छेद 30 के 4 में ‘AI विकास और सीखने के चरण’ को नया जोड़ा गया है। AI विकास के लिए सूचना विश्लेषण आदि, कॉपीराइट सामग्री में व्यक्त विचारों या भावनाओं के आनंद के उद्देश्य के बिना किए जाने वाले उपयोग कार्य, सिद्धांत रूप में कॉपीराइट धारक की अनुमति के बिना किए जा सकते हैं।

दूसरी ओर, ChatGPT द्वारा उत्पन्न की गई सामग्री में, यदि कॉपीराइट सामग्री के साथ समानता या निर्भरता (संशोधन) पाई जाती है, तो यह कॉपीराइट उल्लंघन माना जाएगा। इसलिए, प्रकाशित करने से पहले, ChatGPT द्वारा संदर्भित जानकारी के अधिकार धारकों की पुष्टि करना और ChatGPT द्वारा बनाई गई सामग्री के समान सामग्री की जांच करना महत्वपूर्ण है। और, यदि कॉपीराइट सामग्री का उद्धरण किया जाता है, तो स्रोत का उल्लेख करना (अधिकार सीमा नियम), और यदि पुनर्प्रकाशित किया जाता है, तो कॉपीराइट धारक की अनुमति प्राप्त करके उचित रूप से संभालना आवश्यक है।

OpenAI कंपनी के उपयोग की शर्तों के अनुसार, ChatGPT द्वारा बनाई गई सामग्री का व्यावसायिक उपयोग संभव है, लेकिन यदि ChatGPT का उपयोग करके बनाई गई सामग्री कॉपीराइट उल्लंघन के दायरे में आती है, तो निर्णय लेना कठिन हो सकता है। ऐसे मामलों में, विशेषज्ञों से परामर्श करने की सलाह दी जाती है।

यदि कॉपीराइट धारक द्वारा कॉपीराइट उल्लंघन का आरोप लगाया जाता है, तो नागरिक दायित्व (हर्जाना, मुआवजा, उपयोग निषेध, प्रतिष्ठा पुनर्स्थापन आदि के कानूनी उपाय) और आपराधिक दायित्व (व्यक्तिगत शिकायत अपराध) का सामना करना पड़ सकता है। कंपनियों के मामले में, दोनों दंड नियम लागू हो सकते हैं और व्यक्तियों और कानूनी संस्थाओं दोनों पर दंड लगाया जा सकता है, जिससे नुकसान बढ़ सकता है।

इसके अलावा, व्यक्तिगत जानकारी और प्राइवेसी के बारे में भी, ChatGPT में इनपुट न करने जैसी सावधानियां जरूरी हैं। ऊपर बताए गए अनुसार, यदि गलती से ChatGPT में व्यक्तिगत जानकारी इनपुट कर दी जाती है, तो भी ChatGPT व्यक्तिगत जानकारी को संग्रहीत या ट्रैक नहीं करता है और चैट में उत्पन्न नहीं कर सकता है। हालांकि, यह OpenAI की नीति है, और अन्य प्लेटफॉर्म या सेवाओं में यह अलग हो सकता है।

व्यक्तिगत जानकारी के रिसाव के जोखिम के बारे में निम्नलिखित लेख में विस्तार से बताया गया है, कृपया इसे भी पढ़ें।

संबंधित लेख: कंपनियों की व्यक्तिगत जानकारी के रिसाव और हर्जाने का जोखिम[ja]

अनजाने में हानिकारक सामग्री बनाने का जोखिम

अनजाने में हानिकारक सामग्री बनाने का जोखिम

ChatGPT द्वारा सीखे गए डेटा की सामग्री और प्रॉम्प्ट के आधार पर, हानिकारक सामग्री बन सकती है। यदि ChatGPT द्वारा बनाई गई सामग्री की जांच किए बिना उसे प्रकाशित कर दिया जाता है, तो इससे कंपनी की प्रतिष्ठा और ब्रांड मूल्य को नुकसान पहुंच सकता है, और कानूनी समस्याओं की ओर भी ले जा सकता है।

हानिकारक सामग्री को ChatGPT में इनपुट और आउटपुट नहीं किया जा सकता है, लेकिन हानिकारक प्रोग्राम कोड, धोखाधड़ी वाली सेवाएं आदि की पहचान करना कठिन हो सकता है और वे आउटपुट में आ सकते हैं। ऐसे जोखिमों को ध्यान में रखते हुए, बनाई गई सामग्री की निरंतर जांच करने की व्यवस्था महत्वपूर्ण हो जाती है।

ChatGPT के उपयोग की शर्तों को समझें और इसके उपयोग से जुड़े जोखिमों से बचें

ChatGPT का व्यापारिक उपयोग करते समय, जोखिमों से बचने के लिए, सबसे पहले OpenAI के उपयोग की शर्तों और गोपनीयता नीति के अनुसार ही इसका उपयोग करना अनिवार्य है। उपयोग की शर्तें अक्सर संशोधित की जाती हैं, इसलिए व्यापार में इसका उपयोग करते समय, संशोधनों की जांच करना और नवीनतम उपयोग की शर्तों को समझना जरूरी होता है।

संबंधित लेख:OpenAI के उपयोग की शर्तों की व्याख्या, व्यावसायिक उपयोग के लिए सावधानियां क्या हैं?[ja]

ChatGPT के व्यावसायिक उपयोग में जोखिम से बचने के लिए आवश्यक कदम

社内ルールを作成する

ChatGPT के जोखिमों से बचने और व्यापार में उचित उपयोग के लिए, कंपनियों को निम्नलिखित गवर्नेंस संरचना की आवश्यकता होती है।

कंपनी के अंदर नियम बनाना

2023 मई 1 तारीख (2023年5月1日) को, जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) ने ChatGPT के नैतिक, कानूनी और सामाजिक मुद्दों (ELSI) पर चर्चा की और ‘जेनरेटिव AI के उपयोग के लिए गाइडलाइन्स’ प्रकाशित की। उद्योग, अकादमिक और सरकारी क्षेत्रों में भी, इन गाइडलाइन्स के निर्धारण पर विचार किया जा रहा है।

ChatGPT को कंपनी में लागू करते समय, व्यक्तिगत सूचना सुरक्षा साक्षरता बढ़ाने और कंपनी के अंदर शिक्षा देना भी जरूरी है, लेकिन अपनी कंपनी के ChatGPT उपयोग के लिए गाइडलाइन्स तैयार करना उचित होगा। अपनी कंपनी के ChatGPT उपयोग के नियमों को लिखित रूप में गाइडलाइन्स में तैयार करके और उन्हें सभी तक पहुँचाने से, जोखिमों से बचने की एक निश्चित संभावना हो सकती है।

संदर्भ: जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) | ‘जेनरेटिव AI के उपयोग के लिए गाइडलाइन्स[ja]

ChatGPT के उपयोग के लिए पर्यवेक्षक नियुक्त करना

ChatGPT के उपयोग के लिए कंपनी के अंदर एक पर्यवेक्षक की नियुक्ति करना और गाइडलाइन्स के कार्यान्वयन की निरंतर निगरानी करना और जोखिमों का प्रबंधन करना भी जोखिम से बचने के लिए प्रभावी है।

ChatGPT के व्यवहार की निगरानी करना, उत्पन्न परिणामों को संशोधित करना, और डेटा का प्रबंधन करना एक प्रकार का ऑडिट है, जो सामान्यतः सिस्टम ऑडिट के समान होता है। सिस्टम ऑडिट सूचना प्रणालियों की कार्यक्षमता, सुरक्षा और विश्वसनीयता का निष्पक्ष मूल्यांकन करता है, और व्यापार की कार्यक्षमता बढ़ाने और संगठनात्मक परिवर्तन का समर्थन करने के उद्देश्य से किया जाता है। पर्यवेक्षक की नियुक्ति से, कार्यान्वयन की पारदर्शिता और जवाबदेही को मजबूत करना भी संभव है।

सारांश: ChatGPT के व्यावसायिक उपयोग के लिए जोखिम निवारण के उपाय अनिवार्य हैं

यहाँ हमने ChatGPT के व्यावसायिक उपयोग से जुड़े जोखिमों और उनके उपायों के बारे में विस्तार से चर्चा की है।

ChatGPT जैसे तेजी से विकसित हो रहे AI व्यापार में, कंपनी के अंदर उपयोग के लिए दिशानिर्देशों का निर्माण, व्यापार मॉडल की कानूनी वैधता की जांच, अनुबंधों और उपयोग की शर्तों का निर्माण, बौद्धिक संपदा का संरक्षण, और गोपनीयता से संबंधित प्रतिक्रिया जैसे विभिन्न कानूनी जोखिमों के लिए, और AI तकनीक में दक्ष विशेषज्ञों के साथ उपायों की आवश्यकता होती है।

हमारे कानूनी फर्म द्वारा उपायों की जानकारी

मोनोलिथ कानूनी फर्म IT के क्षेत्र में, विशेषकर इंटरनेट और कानून के दोनों पहलुओं में गहन अनुभव रखने वाली एक कानूनी फर्म है। AI व्यापार में कई कानूनी जोखिम होते हैं, और AI से संबंधित कानूनी मुद्दों में निपुण वकीलों का समर्थन अत्यंत आवश्यक है।

हमारी फर्म AI में दक्ष वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT समेत AI व्यापार के लिए विविध कानूनी सहायता प्रदान करती है। नीचे दिए गए लेख में हमने विस्तार से जानकारी दी है।

मोनोलिथ कानूनी फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

ऊपर लौटें