MONOLITH LAW OFFICE+81-3-6262-3248काम करने के दिन 10:00-18:00 JST [Englsih Only]

MONOLITH LAW MAGAZINE

IT

ChatGPT के सूचना लीक होने का जोखिम क्या है? अपनाए जाने वाले चार प्रमुख उपायों का परिचय

IT

ChatGPT के सूचना लीक होने का जोखिम क्या है? अपनाए जाने वाले चार प्रमुख उपायों का परिचय

आजकल बहुत चर्चा में है ‘ChatGPT’। मसौदे की तैयारी से लेकर प्रोग्रामिंग, संगीत की रचना और चित्रण तक करने की क्षमता के कारण, यह विभिन्न क्षेत्रों में ध्यान आकर्षित करने वाला एक उत्पादक AI है।

ChatGPT के GPT का मतलब है ‘Generative Pre-training Transformer’ का संक्षिप्त रूप, जो बड़ी मात्रा में टेक्स्ट (लेख), चित्र और ध्वनि (विस्तार क्षमता) डेटा को पूर्व-प्रशिक्षण द्वारा, मानव की तरह प्राकृतिक संवाद करने में सक्षम बनाता है।

ChatGPT जटिल कार्यों के लिए भी उपयुक्त होने के कारण, कार्य की दक्षता और उच्च कॉस्ट परफॉर्मेंस की उम्मीद के साथ एक प्रमुख उपकरण के रूप में उभर रहा है। पहले से ही विभिन्न क्षेत्रों में ChatGPT का उपयोग बढ़ रहा है, और कई टेक कंपनियां अपनी खुद की AI प्रणाली शुरू करने की दिशा में कदम बढ़ा रही हैं।

इस तरह, ChatGPT सहित AI तकनीक में, व्यापार के अनेक अवसर देखे जा रहे हैं, लेकिन साथ ही साथ कॉपीराइट के मुद्दे, गलत सूचना का प्रसार, गोपनीय जानकारी का लीक, प्राइवेसी की समस्याएं, और साइबर हमलों के दुरुपयोग की संभावना जैसे संभावित जोखिमों की ओर इशारा किया जा रहा है।

इस लेख में, ChatGPT के उपयोग से जुड़े सूचना लीक के जोखिमों पर केंद्रित होकर, एक वकील द्वारा उचित उपायों के बारे में विस्तार से बताया जाएगा।

ChatGPT से जुड़े सूचना लीक होने का जोखिम

कंपनियों द्वारा ChatGPT को अपनाने के जोखिमों में मुख्यतः निम्नलिखित चार बिंदु शामिल हैं।

  • सुरक्षा जोखिम (सूचना लीक, सटीकता, कमजोरियां, उपलब्धता आदि)
  • कॉपीराइट उल्लंघन का जोखिम
  • दुरुपयोग की संभावना (साइबर हमले आदि)
  • नैतिकता से जुड़े मुद्दे

ChatGPT से जुड़े सूचना लीक होने का जोखिम यह है कि यदि ChatGPT में गोपनीय जानकारी दर्ज की जाती है, तो उस जानकारी को OpenAI के कर्मचारियों या अन्य उपयोगकर्ताओं द्वारा देखा जा सकता है या उसे सीखने के डेटा के रूप में इस्तेमाल किया जा सकता है।

OpenAI की डेटा उपयोग नीति के अनुसार, यदि उपयोगकर्ता ChatGPT के ‘API’ के माध्यम से नहीं जाते हैं या ‘ऑप्ट-आउट’ के लिए आवेदन नहीं करते हैं, तो OpenAI उपयोगकर्ता द्वारा ChatGPT में दर्ज किए गए डेटा को एकत्रित करके उसका उपयोग (सीखने) कर सकता है (इस पर आगे विस्तार से चर्चा की जाएगी)।

ChatGPT के उपयोग से जुड़े सूचना लीक के मामले

यहाँ हम ChatGPT के उपयोग के कारण हुए उन मामलों का परिचय कराएंगे जहाँ पंजीकृत व्यक्तिगत जानकारी और दर्ज की गई गोपनीय सूचनाएँ लीक हो गईं।

व्यक्तिगत जानकारी का लीक होने का मामला

2023 मार्च 24 (2023年3月24日) को, OpenAI ने घोषणा की कि कुछ उपयोगकर्ताओं को अन्य उपयोगकर्ताओं के क्रेडिट कार्ड नंबर के अंतिम 4 अंक और कार्ड की वैधता तिथि सहित व्यक्तिगत जानकारी दिखाने वाला एक बग था, इसलिए 20 मार्च (2023年3月20日) को ChatGPT को कुछ समय के लिए ऑफलाइन कर दिया गया था। इस समय जिनकी व्यक्तिगत जानकारी लीक हुई वे ‘ChatGPT Plus’ के पेड प्लान के कुछ सदस्य थे, जो कि सदस्यों का लगभग 1.2% थे।

इसके अलावा, इस बग के साथ ही, चैट हिस्ट्री में अन्य उपयोगकर्ताओं की चैट हिस्ट्री दिखाई देने का बग भी था, जिसकी घोषणा की गई थी।

इसके जवाब में, 2023 मार्च 31 (2023年3月31日) को, इटली के डेटा संरक्षण प्राधिकरण ने Open AI को एक सुधार आदेश जारी किया, जिसमें कहा गया कि ChatGPT द्वारा व्यक्तिगत डेटा को संग्रहित करने और संग्रह करने के लिए कानूनी आधार की कमी है, और इसलिए इटली के उपयोगकर्ताओं के डेटा प्रोसेसिंग पर अस्थायी प्रतिबंध लगाया गया। इसके बाद OpenAI ने ChatGPT तक इटली से पहुँच को ब्लॉक कर दिया। यह ब्लॉक बाद में 2023 अप्रैल 28 (2023年4月28日) को हटा लिया गया, जब OpenAI ने व्यक्तिगत डेटा के प्रबंधन में सुधार किया।

कंपनी की गोपनीय जानकारी का लीक होने का मामला

2023 फरवरी (2023年2月) में, अमेरिकी साइबर सुरक्षा कंपनी Cyberhaven ने अपने ग्राहक कंपनियों के लिए ChatGPT के उपयोग पर एक रिपोर्ट प्रकाशित की।

रिपोर्ट के अनुसार, Cyberhaven के उत्पादों का उपयोग करने वाले ग्राहक कंपनियों के 160 लाख कर्मचारियों में से, ज्ञान कार्यकर्ताओं का 8.2% ने कार्यस्थल पर कम से कम एक बार ChatGPT का उपयोग किया है, और उनमें से 3.1% ने ChatGPT में कंपनी की गोपनीय डेटा दर्ज की है।

इसके अलावा, यह एक दक्षिण कोरियाई मामला है, लेकिन 2023 मार्च 30 (2023年3月30日) को दक्षिण कोरिया के मीडिया ‘Economist’ ने रिपोर्ट किया कि सैमसंग इलेक्ट्रॉनिक्स के एक विभाग ने ChatGPT के उपयोग की अनुमति दी, जिसके बाद गोपनीय जानकारी दर्ज करने की घटना हुई।

सैमसंग इलेक्ट्रॉनिक्स की ओर से, कंपनी की आंतरिक सूचना सुरक्षा के प्रति सचेत किया गया था, फिर भी कुछ कर्मचारियों ने प्रोग्राम के सोर्स कोड और मीटिंग की सामग्री दर्ज कर दी।

इस तरह की स्थिति में, कुछ देशों और कंपनियों ने ChatGPT के उपयोग पर प्रतिबंध लगाया है, जबकि अन्य ने इसके उपयोग की सिफारिश करने वाली नीतियाँ अपनाई हैं। ChatGPT को अपनाने के समय, सूचना लीक के जोखिम को समझने के बाद ही इस पर विचार करना चाहिए।

ChatGPT के साथ जानकारी के लीक होने से बचने के लिए 4 उपाय

ChatGPT के साथ जानकारी के लीक होने से बचने के उपाय

जानकारी का लीक होना एक बार हो जाने पर, कानूनी जिम्मेदारी के साथ-साथ विश्वास और प्रतिष्ठा में भी बड़ी हानि हो सकती है। इसलिए, जानकारी के लीक होने से बचने के लिए, संगठन के भीतर जानकारी प्रबंधन प्रणाली को मजबूत करना और शिक्षा देना महत्वपूर्ण होता है।

यहाँ हम ChatGPT के साथ जानकारी के लीक होने से बचने के लिए 4 उपाय प्रस्तुत करना चाहते हैं।

उपाय 1: उपयोग नियमों का निर्माण

सबसे पहले, अपनी कंपनी के ChatGPT के प्रति रुख को तय करें, और कंपनी के आंतरिक नियमों में ChatGPT के उपयोग से संबंधित विषयों को शामिल करें। व्यक्तिगत जानकारी के साथ-साथ, गोपनीय जानकारी को इनपुट न करने जैसे स्पष्ट नियमों को तय करना और उनका पालन करना महत्वपूर्ण है।

इस दौरान, अपनी कंपनी के ChatGPT उपयोग दिशानिर्देशों का निर्माण करना उचित होगा। साथ ही, बाहरी पक्षों के साथ अनुबंधों में भी ChatGPT के उपयोग से संबंधित विषयों को शामिल करना सुनिश्चित करें।

2023年(2023) मई 1 दिन, जनरल इनकॉर्पोरेटेड एसोसिएशन जापानीज डीप लर्निंग एसोसिएशन (JDLA) ने ChatGPT के नैतिक, कानूनी और सामाजिक मुद्दों (ELSI) को संकलित करके, ‘जेनरेटिव AI के उपयोग दिशानिर्देश’ को प्रकाशित किया।

उद्योग, अकादमिक और सरकारी क्षेत्रों में भी, दिशानिर्देशों के निर्माण पर विचार करने की प्रक्रिया शुरू हो चुकी है। इसे ध्यान में रखते हुए, अपनी कंपनी के ChatGPT उपयोग नियमों को लिखित रूप में दिशानिर्देशों के रूप में निर्माण करने से, कुछ हद तक जोखिम से बचाव की उम्मीद की जा सकती है।

संदर्भ: जनरल इनकॉर्पोरेटेड एसोसिएशन जापानीज डीप लर्निंग एसोसिएशन (JDLA)|जेनरेटिव AI के उपयोग दिशानिर्देश[ja]

हालांकि, निर्मित दिशानिर्देशों को अगर सभी तक पहुंचाया और सख्ती से लागू नहीं किया जाता है, तो इसका कोई अर्थ नहीं होगा। केवल दिशानिर्देशों का होना ही पर्याप्त उपाय नहीं है।

उपाय 2: सूचना लीक को रोकने के लिए तंत्र की स्थापना

मानवीय त्रुटियों को रोकने के उपाय के रूप में, DLP (डेटा लॉस प्रिवेंशन) नामक प्रणाली को अपनाने से, विशेष डेटा के लीक होने को रोकना संभव है, जिससे गोपनीय सूचनाओं के प्रेषण और कॉपी करने को रोका जा सकता है।

DLP एक ऐसी प्रणाली है जो उपयोगकर्ताओं के बजाय डेटा पर निरंतर निगरानी रखती है, और गोपनीय सूचनाओं तथा महत्वपूर्ण डेटा को स्वचालित रूप से पहचानकर सुरक्षित करती है। DLP का उपयोग करते समय, यदि गोपनीय सूचना का पता चलता है, तो अलर्ट नोटिफिकेशन भेजना या क्रियाओं को ब्लॉक करना संभव है।

प्रबंधन लागत को कम रखते हुए आंतरिक सूचना लीक को निश्चित रूप से रोका जा सकता है, लेकिन सुरक्षा प्रणाली के बारे में उच्च स्तरीय समझ की आवश्यकता होती है, और तकनीकी विभाग के बिना कंपनियों में इसका सुचारु रूप से कार्यान्वयन कठिन हो सकता है।

उपाय 3: सूचना लीक को रोकने के लिए टूल का उपयोग करें

जैसा कि ऊपर उल्लेख किया गया है, प्रत्यक्ष पूर्व उपाय के रूप में, ‘ऑप्ट-आउट’ का अनुरोध करके आप ChatGPT में दर्ज किए गए डेटा को संग्रहित होने से इनकार कर सकते हैं।

ChatGPT की सेटिंग स्क्रीन से ‘ऑप्ट-आउट’ का अनुरोध किया जा सकता है। हालांकि, ऑप्ट-आउट का अनुरोध करने पर, प्रॉम्प्ट का इतिहास नहीं बचेगा, जिसे कई लोग असुविधाजनक मान सकते हैं।

ऑप्ट-आउट सेटिंग के अलावा, ChatGPT के ‘API’ का उपयोग करके टूल्स को लागू करने का भी एक तरीका है।

‘API (Application Programming Interface)’ OpenAI द्वारा प्रकाशित एक इंटरफेस है, जो ChatGPT को आपकी कंपनी की सेवाओं या बाहरी टूल्स में शामिल करने के लिए है। OpenAI ने स्पष्ट किया है कि ChatGPT के ‘API’ के माध्यम से प्राप्त और भेजी गई सूचनाओं का उपयोग नहीं किया जाएगा।

यह बात ChatGPT के उपयोग की शर्तों में भी स्पष्ट की गई है। उपयोग की शर्तों के अनुसार,

3. सामग्री

(c) सेवाओं को बेहतर बनाने के लिए सामग्री का उपयोग

हम आपके द्वारा हमारे API को प्रदान की गई या API से प्राप्त सामग्री (“API सामग्री”) का उपयोग हमारी सेवाओं के विकास या सुधार के लिए नहीं करते हैं। 

हम हमारे API के अलावा अन्य सेवाओं से प्राप्त सामग्री (“गैर-API सामग्री”) का उपयोग हमारी सेवाओं के विकास और सुधार में मदद के लिए कर सकते हैं।

यदि आप नहीं चाहते कि आपकी गैर-API सामग्री का उपयोग सेवाओं को बेहतर बनाने के लिए किया जाए, तो आप इस फॉर्म[en] को भरकर ऑप्ट-आउट कर सकते हैं। कृपया ध्यान दें कि कुछ मामलों में इससे हमारी सेवाओं की आपके विशिष्ट उपयोग के मामले में बेहतर प्रतिक्रिया देने की क्षमता सीमित हो सकती है।

संदर्भ: OpenAI की आधिकारिक वेबसाइट|ChatGPT के उपयोग की शर्तें[en]

उपाय 4: आईटी साक्षरता के लिए संगठन के भीतर प्रशिक्षण कार्यक्रम आयोजित करना

अब तक हमने जो उपाय प्रस्तुत किए हैं, उनके अलावा, यह भी महत्वपूर्ण है कि संगठन के भीतर प्रशिक्षण कार्यक्रम आयोजित करके अपने कर्मचारियों की सुरक्षा साक्षरता को बढ़ाया जाए।

सैमसंग इलेक्ट्रॉनिक्स के मामले में भी, संगठन के भीतर सूचना सुरक्षा के प्रति सचेत करने के बावजूद, गोपनीय जानकारी को दर्ज करने की गलती से सूचना का रिसाव हो गया। सिस्टम के स्तर पर सूचना रिसाव को रोकने के साथ-साथ, ChatGPT से संबंधित ज्ञान और आईटी साक्षरता के लिए संगठन के भीतर प्रशिक्षण कार्यक्रम आयोजित करना भी उचित होगा।

ChatGPT के माध्यम से जानकारी के लीक होने पर क्या कदम उठाएं

ChatGPT के माध्यम से जानकारी के लीक होने पर क्या कदम उठाएं

यदि किसी भी स्थिति में जानकारी का लीक हो जाता है, तो तथ्यों की जांच और उपायों को तुरंत करना महत्वपूर्ण होता है।

व्यक्तिगत जानकारी के लीक होने पर, जापानी व्यक्तिगत जानकारी संरक्षण कानून के अनुसार, व्यक्तिगत जानकारी संरक्षण आयोग को रिपोर्ट करना अनिवार्य होता है। साथ ही, प्रभावित व्यक्ति को भी स्थिति की सूचना देनी चाहिए। यदि व्यक्तिगत जानकारी के लीक से किसी के अधिकार या हितों का उल्लंघन होता है, तो नागरिक कानून के तहत हर्जाने की जिम्मेदारी हो सकती है। इसके अलावा, अगर कोई व्यक्तिगत जानकारी को गलत उद्देश्य से चुराता है या प्रदान करता है, तो उसे आपराधिक जिम्मेदारी भी हो सकती है।

व्यापारिक रहस्य या तकनीकी जानकारी के लीक होने पर, जापानी अनुचित प्रतिस्पर्धा निवारण कानून के तहत, लीक की गई जगह पर हटाने की अनुरोध जैसे कदम उठाए जा सकते हैं। इसके अलावा, यदि व्यापारिक रहस्य या तकनीकी जानकारी के लीक से किसी को अनुचित लाभ होता है, तो नागरिक कानून के तहत हर्जाने की जिम्मेदारी हो सकती है। और अगर कोई अनुचित तरीके से व्यापारिक रहस्य या तकनीकी जानकारी को प्राप्त या उपयोग करता है, तो उसे आपराधिक जिम्मेदारी भी हो सकती है।

यदि कोई अपने कार्यभार के दौरान गोपनीयता की शर्तों का उल्लंघन करके जानकारी लीक करता है, तो उसे जापानी दंड संहिता या अन्य कानूनों के तहत आपराधिक जिम्मेदारी का सामना करना पड़ सकता है। इसके अलावा, अगर गोपनीयता की शर्तों का उल्लंघन करके जानकारी लीक करने से किसी को नुकसान पहुंचता है, तो नागरिक कानून के तहत हर्जाने की जिम्मेदारी हो सकती है।

इसलिए, लीक हुई जानकारी की प्रकृति के अनुसार तुरंत प्रतिक्रिया देने की जरूरत होती है, और इसके लिए पहले से एक प्रणाली तैयार करके रखना महत्वपूर्ण होता है।

संबंधित लेख:जानकारी के लीक होने पर कंपनियों द्वारा किए जाने वाले जानकारी के प्रकटीकरण[ja]

संबंधित लेख:व्यक्तिगत जानकारी के लीक होने पर? कंपनियों द्वारा अपनाए जाने वाले प्रशासनिक उपायों की व्याख्या[ja]

सारांश: ChatGPT के सूचना लीक जोखिम के लिए तैयारी की व्यवस्था

यहाँ हमने ChatGPT के सूचना लीक जोखिम और उठाए जाने वाले उपायों के बारे में विस्तार से बताया है। ChatGPT जैसे तेजी से विकसित हो रहे AI आधारित व्यापार में, कानूनी जोखिमों की गहरी समझ रखने वाले अनुभवी वकीलों से परामर्श करके, पहले से ही उन जोखिमों के अनुसार अपनी कंपनी की व्यवस्था को सुदृढ़ करने की सलाह दी जाती है।

सूचना लीक के अलावा, AI आधारित व्यापार मॉडल की कानूनी वैधता की जांच, अनुबंधों और उपयोग की शर्तों का निर्माण, बौद्धिक संपदा का संरक्षण, और गोपनीयता से संबंधित मुद्दों पर, AI और कानून दोनों के ज्ञान और अनुभव वाले वकीलों के साथ सहयोग करने से आप निश्चिंत रह सकते हैं।

हमारे कानूनी फर्म द्वारा उपायों की जानकारी

मोनोलिथ कानूनी फर्म, IT और विशेष रूप से इंटरनेट और कानून के क्षेत्र में व्यापक अनुभव रखने वाली एक कानूनी फर्म है। AI व्यापार में कई कानूनी जोखिम होते हैं, और AI से संबंधित कानूनी मुद्दों में निपुण वकीलों का समर्थन अत्यंत आवश्यक है। हमारी फर्म, AI में दक्ष वकीलों और इंजीनियरों सहित एक टीम के साथ, ChatGPT समेत AI व्यापार के लिए अनुबंध निर्माण, व्यापार मॉडल की कानूनी वैधता की समीक्षा, बौद्धिक संपदा अधिकारों की सुरक्षा, प्राइवेसी प्रतिक्रिया आदि में उच्च स्तरीय कानूनी सहायता प्रदान करती है। नीचे दिए गए लेख में विस्तार से जानकारी दी गई है।

मोनोलिथ कानूनी फर्म के विशेषज्ञता के क्षेत्र: AI (ChatGPT आदि) कानूनी सेवाएँ[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

ऊपर लौटें