MONOLITH LAW OFFICE+81-3-6262-3248काम करने के दिन 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

IT

ChatGPT के कॉर्पोरेट अनुप्रयोग में जोखिम क्या हैं? गोपनीय जानकारी के लीक होने के उदाहरण और उपायों की व्याख्या

IT

ChatGPT के कॉर्पोरेट अनुप्रयोग में जोखिम क्या हैं? गोपनीय जानकारी के लीक होने के उदाहरण और उपायों की व्याख्या

कंपनियों में ChatGPT का धीरे-धीरे परिचय हो रहा है। इसकी उपयोगिता पर ध्यान केंद्रित हो रहा है, लेकिन ध्यान देने योग्य कुछ बिंदु हैं। इनमें से एक यह है कि ChatGPT में किसी भी सूरत में गोपनीय जानकारी दर्ज नहीं करनी चाहिए। वास्तव में, विदेशों में गोपनीय जानकारी दर्ज करने के कारण कुछ कंपनियों में गंभीर गोपनीयता उल्लंघन की घटनाएँ भी हुई हैं।

इस लेख में, वकील द्वारा ChatGPT के व्यावसायिक उपयोग के लिए दिन-प्रतिदिन विकसित होते जा रहे उपकरण के संदर्भ में, गोपनीयता उल्लंघन के जोखिम, उदाहरणों और उठाए जाने वाले उपायों पर विस्तार से चर्चा की जाएगी।

ChatGPT में गोपनीय जानकारी दर्ज करने के न करने के कारण

ChatGPT सुविधाजनक होने के साथ-साथ, इंटरनेट पर बिग डेटा और उपयोगकर्ता डेटा को सीखकर उत्पन्न होने वाला एक AI चैटबॉट है, इसलिए यदि कोई उपाय नहीं किया जाता है, तो दर्ज की गई गोपनीय जानकारी के लीक होने का जोखिम मौजूद है।

गोपनीय जानकारी के लीक होने के जोखिम के उपायों के बारे में बाद में विस्तार से बताया जाएगा, लेकिन पहले ChatGPT से जुड़े गोपनीय जानकारी के लीक होने के अलावा अन्य जोखिमों के बारे में बताते हैं।

ChatGPT के उपयोग से उत्पन्न होने वाले गोपनीय जानकारी के रिसाव के अलावा अन्य जोखिम

ChatGPT वर्तमान में कई कंपनियों द्वारा परिचय और परीक्षण के चरण में है। इसलिए, जोखिमों को पूरी तरह से समझने के बाद ही व्यापारिक उपयोग का निर्णय लेना आवश्यक है।

ChatGPT के उपयोग से, कंपनियों को गोपनीय जानकारी (व्यक्तिगत जानकारी सहित) के रिसाव के अलावा उत्पन्न होने वाले सुरक्षा जोखिमों में निम्नलिखित दो बिंदु शामिल हैं:

  • उत्पादित जानकारी की विश्वसनीयता जोखिम
  • इनपुट/आउटपुट जानकारी के कॉपीराइट उल्लंघन जोखिम

हम इन पर विस्तार से चर्चा करेंगे।

उत्पादित जानकारी की विश्वसनीयता में कमी

2023 मार्च 14 (2023年3月14日) को जारी GPT-4, खोज कार्यक्षमता से लैस होने के कारण, नवीनतम जानकारी प्रदान करने में सक्षम हो गया है। हालांकि, ChatGPT जब उत्तर देता है, तो जानकारी को मानो सच्चाई के रूप में प्रस्तुत करता है, लेकिन उसकी विश्वसनीयता की गारंटी नहीं होती है। ChatGPT द्वारा उत्पन्न प्रतिक्रियाएं, सीखने के डेटा पर आधारित जानकारी की सटीकता पर आधारित नहीं होती हैं, बल्कि उच्च संभावना वाले (सबसे अधिक संभावना वाले) वाक्यों को उत्पन्न करती हैं। इसलिए, उसके उत्पादन परिणामों का उपयोग करने से पहले फैक्ट चेक अनिवार्य है। यदि किसी कंपनी द्वारा गलत जानकारी प्रसारित की जाती है, तो कंपनी की साख को नुकसान पहुंचने का जोखिम होता है।

कॉपीराइट उल्लंघन जैसे कानूनी जोखिम

कॉपीराइट उल्लंघन जैसे कानूनी जोखिम

ChatGPT में कॉपीराइट उल्लंघन का निर्णय, ‘AI विकास और सीखने के चरण’ और ‘उत्पादन और उपयोग के चरण’ में विभाजित होता है। प्रत्येक चरण में किए गए कॉपीराइट कार्यों के उपयोग में अंतर होने के कारण, कॉपीराइट कानून के अनुच्छेद भी भिन्न होते हैं। इसलिए, दोनों को अलग से समझने की आवश्यकता है।

संदर्भ: जापानी सांस्कृतिक एजेंसी | रेइवा 5 (2019) वर्ष कॉपीराइट सेमिनार ‘AI और कॉपीराइट'[ja]

2019 जनवरी में लागू हुए संशोधित कॉपीराइट कानून में, अधिकार सीमा प्रावधान (अनुमति के बिना अपवाद प्रावधान) के अनुच्छेद 30 के 4 में ‘AI विकास और सीखने के चरण’ को नया जोड़ा गया है। AI विकास के लिए जैसे कि जानकारी विश्लेषण में, कॉपीराइट कार्यों में व्यक्त विचारों या भावनाओं के आनंद को उद्देश्य के रूप में न लेते हुए उपयोग किए जाने वाले कार्यों को, सिद्धांत रूप में, कॉपीराइट धारक की अनुमति के बिना किया जा सकता है।

दूसरी ओर, ChatGPT द्वारा उत्पादित उत्पादन में, यदि कॉपीराइट कार्यों के साथ समानता/निर्भरता (संशोधन) पाई जाती है, तो यह कॉपीराइट उल्लंघन माना जाएगा। इसलिए, प्रकाशन से पहले, ChatGPT द्वारा संदर्भित जानकारी के अधिकार धारकों की पुष्टि करना और ChatGPT द्वारा बनाई गई सामग्री के समान सामग्री की जांच करना महत्वपूर्ण है। और जब कॉपीराइट कार्यों का उद्धरण किया जाता है, तो स्रोत का उल्लेख करना (अधिकार सीमा प्रावधान) या पुनर्प्रकाशन के मामले में, कॉपीराइट धारक की अनुमति प्राप्त करना या उचित रूप से संभालना आवश्यक है।

यदि कॉपीराइट धारक द्वारा कॉपीराइट उल्लंघन का आरोप लगाया जाता है, तो नागरिक दायित्व (क्षतिपूर्ति, मुआवजा, उपयोग निषेध, प्रतिष्ठा पुनर्स्थापन आदि के कानूनी उपाय) और आपराधिक दायित्व (व्यक्तिगत अभियोग) का सामना करना पड़ सकता है।

ChatGPT के साथ गोपनीय जानकारी साझा करने से उत्पन्न समस्याएँ

2023 मार्च 30 (2023年3月30日) को, कोरियाई मीडिया ‘EConomist’ ने रिपोर्ट किया कि सैमसंग इलेक्ट्रॉनिक्स के सेमीकंडक्टर विभाग ने ChatGPT का उपयोग करने की अनुमति दी, जिसके परिणामस्वरूप तीन मामलों में गोपनीय जानकारी का इनपुट हो गया।

सैमसंग इलेक्ट्रॉनिक्स की ओर से, भले ही कंपनी ने सूचना सुरक्षा के प्रति सचेत किया था, फिर भी कुछ कर्मचारियों ने सोर्स कोड भेज दिया (दो मामलों में) जब उन्होंने प्रोग्राम में संशोधन के लिए अनुरोध किया और एक कर्मचारी ने बैठक की सामग्री भेज दी जब उन्होंने बैठक के मिनट्स तैयार करने की कोशिश की।

इन घटनाओं के बाद, कंपनी ने आपातकालीन उपाय के रूप में ChatGPT के साथ प्रति प्रश्न अपलोड की जाने वाली जानकारी की मात्रा पर सीमा लगा दी। इसके अलावा, यदि इसी तरह की घटनाएँ फिर से होती हैं, तो कनेक्शन को ब्लॉक करने की संभावना भी व्यक्त की गई है।

इसके अतिरिक्त, Walmart और Amazon ने अपने कर्मचारियों को चेतावनी दी है कि वे चैटबॉट के साथ गोपनीय जानकारी साझा न करें। Amazon के एक वकील ने बताया कि ChatGPT के उत्तर Amazon के आंतरिक डेटा के समान दिखाई देने वाले मामले पहले ही देखे जा चुके हैं, जो डेटा के सीखने में उपयोग किए जाने की संभावना को दर्शाता है।

ChatGPT का उपयोग करते समय गोपनीय जानकारी के लीक होने से बचने के उपाय

OpenAI अपने उपयोग की शर्तों में बताता है कि सिस्टम में सुधार के लिए दर्ज किए गए डेटा का उपयोग सीखने आदि के लिए किया जाता है, और यह अनुरोध करता है कि संवेदनशील जानकारी न भेजी जाए।

इस अध्याय में, हम ChatGPT के उपयोग के दौरान गोपनीय जानकारी के लीक होने से बचने के लिए हार्डवेयर और सॉफ्टवेयर दोनों पहलुओं में चार उपाय प्रस्तुत करेंगे।

संगठन के आंतरिक उपयोग के लिए दिशानिर्देश तैयार करना

संगठन के आंतरिक उपयोग के लिए दिशानिर्देश तैयार करना

ChatGPT के कॉर्पोरेट अनुप्रयोग के संदर्भ में, व्यक्तिगत सूचना सुरक्षा साक्षरता को बढ़ाना और संगठन के भीतर पुनः स्किलिंग आवश्यक है, लेकिन अपने स्वयं के ChatGPT उपयोग दिशानिर्देशों को तैयार करना भी उचित होगा।

2023 मई 1 (2023年5月1日), जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) ने ChatGPT के नैतिक, कानूनी और सामाजिक मुद्दों (ELSI) पर चर्चा करते हुए, ‘जेनरेटिव AI के उपयोग के दिशानिर्देश’ प्रकाशित किए। उद्योग, अकादमिक और सरकारी क्षेत्रों में भी, दिशानिर्देशों के निर्माण पर विचार शुरू हो गया है।

इसे ध्यान में रखते हुए, अपने संगठन के ChatGPT के उपयोग के नियमों को स्पष्ट रूप से लिखित दिशानिर्देशों में तैयार करने से, कुछ हद तक जोखिम से बचाव की उम्मीद की जा सकती है।

संदर्भ: जनरल इनकॉर्पोरेटेड एसोसिएशन जापानी डीप लर्निंग एसोसिएशन (JDLA) | जेनरेटिव AI के उपयोग के दिशानिर्देश[ja]

गोपनीय जानकारी के लीक होने से बचाने वाली तकनीक को अपनाना

गोपनीय जानकारी के लीक होने की मानवीय गलतियों को रोकने के उपाय के रूप में, DLP (Data Loss Prevention) नामक एक प्रणाली को लागू करके, विशेष डेटा के लीक होने को रोकना संभव है, जो गोपनीय जानकारी के संचार और कॉपी को रोकता है।

DLP एक ऐसी क्षमता है जो इनपुट डेटा को लगातार निगरानी करती है, और गोपनीय जानकारी और महत्वपूर्ण डेटा को स्वचालित रूप से पहचानकर सुरक्षित करती है। DLP का उपयोग करते समय, यदि गोपनीय जानकारी का पता चलता है, तो अलर्ट भेजने या क्रियाओं को ब्लॉक करने की संभावना होती है। यह प्रबंधन लागत को कम रखते हुए आंतरिक रूप से जानकारी के लीक होने को निश्चित रूप से रोक सकता है, हालांकि, सुरक्षा प्रणाली की उच्च स्तरीय समझ की आवश्यकता होती है, और तकनीकी विभाग के बिना कंपनियों में इसका सुचारू रूप से लागू करना कठिन हो सकता है।

विशेष टूल के आदान-प्रदान पर विचार करना

मार्च 2023 (2023年3月) से, ChatGPT अब API (Application Programming Interface का संक्षिप्त रूप, जो सॉफ्टवेयर या प्रोग्राम, वेब सेवाओं के बीच इंटरफेस को जोड़ता है) का उपयोग करके, ChatGPT को भेजे गए डेटा के लीक होने को रोकने में सक्षम हो गया है।

API के माध्यम से भेजा गया डेटा अध्ययन या सुधार के लिए उपयोग नहीं किया जाएगा, लेकिन “गलत उपयोग या दुरुपयोग को रोकने के लिए निगरानी” के लिए 30 दिनों तक संग्रहीत रहेगा, उसके बाद इसे हटा दिया जाएगा, जो कि संग्रहण नीति में एक परिवर्तन है। यदि “कानूनी मांग” की जाती है, तो डेटा संग्रहण अवधि को बढ़ाया जा सकता है।

इस प्रकार, ChatGPT को अध्ययन या सुधार के लिए उपयोग न करने की सेटिंग के बावजूद, सर्वर साइड पर एक निश्चित अवधि के लिए डेटा संग्रहीत रहता है, इसलिए सैद्धांतिक रूप से, सूचना लीक का जोखिम मौजूद है। इसलिए, गोपनीय जानकारी या व्यक्तिगत जानकारी दर्ज करते समय पूरी सावधानी बरतनी चाहिए।

हालांकि, OpenAI उपयोगकर्ताओं की गोपनीयता और डेटा की सुरक्षा पर जोर देता है और कड़े सुरक्षा उपायों को लागू करता है। अधिक सुरक्षित उपयोग की इच्छा रखने वालों के लिए, उन्नत सुरक्षा उपायों के साथ एक टूल, ‘Azure OpenAI Service’ को अपनाने की सिफारिश की जाती है।

कंपनियों के लिए विशेष रूप से डिज़ाइन किए गए टूल में, ‘Azure OpenAI Service’ पर API के माध्यम से ChatGPT में दर्ज किया गया डेटा एकत्र नहीं किया जाएगा। इसके अलावा, यदि आप ऑप्ट-आउट का अनुरोध करते हैं और समीक्षा पास करते हैं, तो सिद्धांत रूप में, आप 30 दिनों के डेटा रिटेंशन और मॉनिटरिंग को अस्वीकार कर सकते हैं, जिससे सूचना लीक के जोखिम से बचा जा सकता है।

सबसे पहले, ChatGPT में दर्ज की गई गोपनीय जानकारी को सीखने से रोकने के लिए सेटिंग कैसे करें

जैसा कि ऊपर उल्लेख किया गया है, ChatGPT ऑप्ट-इन सामग्री को सीखने की प्रक्रिया में है, इसलिए 2023 अप्रैल 25 (2023年4月25日) से, इसमें पहले से ऑप्ट-आउट सेट करने की सुविधा उपलब्ध है।

प्रत्यक्ष रूप से पूर्व उपाय के रूप में, यदि आप ChatGPT द्वारा दर्ज किए गए डेटा का उपयोग सीखने और सुधारने के लिए नहीं करना चाहते हैं, तो आपको ‘ऑप्ट-आउट’ आवेदन करना होगा। ChatGPT में ‘ऑप्ट-आउट’ के लिए Google फॉर्म उपलब्ध है, इसलिए इस प्रक्रिया को अवश्य करना चाहिए। (ईमेल पता, संगठन ID, और संगठन का नाम दर्ज करके भेजें)

हालांकि, इस स्थिति में भी, एक निश्चित अवधि (सिद्धांततः 30 दिन) के लिए OpenAI द्वारा निगरानी की जाएगी, और सर्वर की ओर से इनपुट डेटा संग्रहीत किया जाएगा।

ChatGPT के उपयोग की शर्तें

3. सामग्री

(c) सेवाओं को बेहतर बनाने के लिए सामग्री का उपयोग

हम अपनी सेवाओं को विकसित या सुधारने के लिए आपके द्वारा हमारे API को प्रदान की गई या API से प्राप्त सामग्री (“API सामग्री”) का उपयोग नहीं करते हैं।

हम अपनी सेवाओं को विकसित और सुधारने में मदद करने के लिए हमारे API के अलावा अन्य सेवाओं से सामग्री (“गैर-API सामग्री”) का उपयोग कर सकते हैं।

यदि आप नहीं चाहते कि आपकी गैर-API सामग्री का उपयोग सेवाओं को सुधारने के लिए किया जाए, तो आप इस फॉर्म[en] को भरकर ऑप्ट-आउट कर सकते हैं। कृपया ध्यान दें कि कुछ मामलों में यह आपके विशिष्ट उपयोग के मामले को बेहतर ढंग से संबोधित करने की हमारी सेवाओं की क्षमता को सीमित कर सकता है।

स्रोत: OpenAI आधिकारिक वेबसाइट | ChatGPT के उपयोग की शर्तें https://openai.com/policies/terms-of-use[en]

सारांश: ChatGPT का व्यावसायिक उपयोग गोपनीय जानकारी के प्रबंधन के लिए उपायों की आवश्यकता है

इस लेख में, हमने ChatGPT के व्यावसायिक उपयोग में गोपनीय जानकारी के रिसाव के जोखिम और उपायों पर, विशेष उदाहरणों के साथ चर्चा की है।

ChatGPT जैसे तेजी से विकसित हो रहे AI व्यापार में, कंपनी के भीतर उपयोग के लिए दिशानिर्देशों का निर्माण, व्यावसायिक मॉडल की कानूनी वैधता की जांच, अनुबंधों और उपयोग की शर्तों का निर्माण, बौद्धिक संपदा अधिकारों की सुरक्षा, और गोपनीयता के प्रति प्रतिक्रिया जैसे मुद्दों पर विशेषज्ञों के साथ उपाय अनिवार्य हैं।

संबंधित लेख: Web3 के संबंध में कानून क्या है? प्रवेश करने वाली कंपनियों के लिए महत्वपूर्ण बिंदुओं पर भी चर्चा[ja]

हमारे कार्यालय द्वारा उपायों का परिचय

मोनोलिथ लॉ फर्म, IT और विशेष रूप से इंटरनेट और कानून के दोनों क्षेत्रों में व्यापक अनुभव रखने वाला एक कानूनी कार्यालय है। AI व्यवसाय कई कानूनी जोखिमों के साथ आता है, और AI से संबंधित कानूनी मुद्दों में विशेषज्ञता रखने वाले वकीलों का समर्थन अत्यंत आवश्यक है।

हमारा कार्यालय, AI में विशेषज्ञता रखने वाले वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT सहित AI व्यवसाय के लिए अनुबंध निर्माण, व्यावसायिक मॉडल की कानूनी वैधता की जांच, बौद्धिक संपदा अधिकारों की सुरक्षा, प्राइवेसी संबंधी मुद्दों आदि में उच्च स्तरीय कानूनी समर्थन प्रदान करता है। नीचे दिए गए लेख में विस्तार से वर्णन किया गया है।

मोनोलिथ लॉ फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

ऊपर लौटें