MONOLITH LAW OFFICE+81-3-6262-3248हप्ताका दिनहरू 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

ChatGPT को व्यवसायिक प्रयोगमा जोखिमहरू: गोप्य जानकारी चुहावटका उदाहरणहरू र समाधानहरू।

IT

ChatGPT को व्यवसायिक प्रयोगमा जोखिमहरू: गोप्य जानकारी चुहावटका उदाहरणहरू र समाधानहरू।

जापानमा कम्पनीहरू भित्र ChatGPT को प्रयोग विस्तारै बढ्दै गएको छ। यसको उपयोगितामा ध्यान केन्द्रित भइरहेको छ, तर केही कुराहरूमा ध्यान दिनु आवश्यक छ। ती मध्ये एक हो ChatGPT मा गोप्य जानकारीहरू प्रविष्ट नगर्नु। वास्तवमा, विदेशमा गोप्य जानकारी प्रविष्ट गर्दा कम्पनीको गम्भीर गोपनीयता चुहावटको कारण बनेको उदाहरणहरू पनि छन्।

यस लेखमा, जापानी कानूनी प्रणाली अन्तर्गत, दिन प्रतिदिन विकसित हुँदै गएको ChatGPT को व्यापारिक प्रयोगमा, गोप्य जानकारी चुहावटको जोखिमलाई केन्द्रमा राख्दै, उदाहरणहरू र लिनुपर्ने उपायहरूको बारेमा जापानी वकिलले व्याख्या गर्नेछन्।

ChatGPTमा गोप्य जानकारी प्रविष्ट नगर्नु पर्ने कारण

ChatGPT एक सुविधाजनक उपकरण भए तापनि, यो इन्टरनेटमा उपलब्ध ठूला डाटा र प्रयोगकर्ताको डाटालाई सिकेर उत्पन्न हुने AI च्याटबोट हो। कुनै पनि उपाय नअपनाएमा, यसमा प्रविष्ट गरिएका गोप्य जानकारी चुहिने जोखिम रहन्छ।

गोप्य जानकारी चुहावटको जोखिमको उपायबारे पछि विस्तृत रूपमा व्याख्या गर्नेछौं, तर पहिले ChatGPTसँग सम्बन्धित गोप्य जानकारी चुहावट बाहेकका जोखिमहरूको व्याख्या गर्नेछौं।

ChatGPT को प्रयोगले जापानी कम्पनीहरूले भोग्न सक्ने गोप्य जानकारी चुहावट बाहेकका जोखिमहरू

ChatGPT हाल धेरै कम्पनीहरूले प्रयोगमा ल्याउने परीक्षणको चरणमा छ। त्यसैले, जोखिमलाई पूर्ण रूपमा बुझेर मात्र व्यापारिक प्रयोग गर्ने निर्णय लिनु आवश्यक छ।

ChatGPT को प्रयोगले जापानी कम्पनीहरूले भोग्न सक्ने गोप्य जानकारी (व्यक्तिगत जानकारी समेत) चुहावट बाहेकका सुरक्षा जोखिमहरूमा तलका दुई बुँदाहरू समावेश छन्।

  • उत्पादन गरिएको जानकारीको विश्वसनीयता जोखिम
  • इनपुट र आउटपुट जानकारीको प्रतिलिपि अधिकार उल्लङ्घन जोखिम

प्रत्येक बुँदालाई विस्तृत रूपमा व्याख्या गरिन्छ।

उत्पादन गरिएको जानकारीको विश्वसनीयता अभाव

2023 (सन् 2023) को मार्च 14 मा सार्वजनिक गरिएको GPT-4 ले खोजी गर्ने क्षमता समावेश गरेकोले, यसले नवीनतम जानकारी प्रदान गर्न सक्षम बनाएको छ। तर, ChatGPT ले जवाफ दिने क्रममा जानकारीलाई सत्य जस्तो देखाएर प्रस्तुत गर्छ, तर यसको विश्वसनीयता सुनिश्चित गरिएको छैन। ChatGPT ले उत्पन्न गर्ने उत्तरहरू, सिकाइ डेटा अनुसार जानकारीको शुद्धतामा आधारित नभई, उच्च सम्भावना भएको (सबैभन्दा सम्भावित) वाक्यांशलाई उत्पन्न गर्ने मात्र हो। त्यसैले, यसको उत्पादन परिणामलाई प्रयोग गर्नु अघि तथ्य जाँच गर्न आवश्यक छ। यदि कुनै झूठो जानकारी कम्पनीले प्रसारण गर्यो भने, कम्पनीको विश्वसनीयता नै क्षति पुग्न सक्छ।

प्रतिलिपि अधिकार उल्लङ्घन जस्ता कानूनी जोखिमहरू

प्रतिलिपि अधिकार उल्लङ्घन जस्ता कानूनी जोखिमहरू

ChatGPT मा प्रतिलिपि अधिकार उल्लङ्घनको निर्णय “AI विकास र सिकाइ चरण” र “उत्पादन र प्रयोग चरण” मा फरक हुन्छ। प्रत्येक चरणमा गरिने प्रतिलिपि अधिकारको प्रयोग फरक हुने भएकाले, प्रतिलिपि अधिकार कानुनका धारा पनि फरक हुन्छन्। त्यसैले, यी दुईलाई अलग्गै विचार गर्न आवश्यक छ।

सन्दर्भ: संस्कृति विभाग|रेइवा 5 (सन् 2023) वर्षको प्रतिलिपि अधिकार सेमिनार “AI र प्रतिलिपि अधिकार”[ja]

2019 (सन् 2019) को जनवरीमा लागू भएको संशोधित प्रतिलिपि अधिकार कानुनमा, अधिकार सीमितता प्रावधान (अनुमति आवश्यक नभएको अपवाद प्रावधान) को धारा 30 को 4 मा “AI विकास र सिकाइ चरण” नयाँ रूपमा समावेश गरिएको छ। AI विकासको लागि जस्तै जानकारी विश्लेषणको रूपमा, प्रतिलिपि अधिकारमा व्यक्त गरिएको विचार वा भावना उपभोग गर्ने उद्देश्य नभएको प्रयोग कार्यहरू, सामान्यतया प्रतिलिपि अधिकारधारीको अनुमति बिना गर्न सकिने प्रावधान गरिएको छ।

अर्कोतर्फ, ChatGPT बाट उत्पन्न गरिएको उत्पादनमा, प्रतिलिपि अधिकारसँगको समानता वा निर्भरता (परिवर्तन) मान्यता भएमा, प्रतिलिपि अधिकार उल्लङ्घन हुनेछ। त्यसैले सार्वजनिक गर्नु अघि, ChatGPT ले सन्दर्भ गरेको जानकारीको अधिकारधारीलाई पुष्टि गर्नु र ChatGPT ले तयार पारेको सामग्रीसँग समानता नभएको सुनिश्चित गर्नु महत्त्वपूर्ण छ। र, प्रतिलिपि अधिकारको सामग्रीलाई उद्धृत गर्दा स्रोतलाई स्पष्ट गर्नु (अधिकार सीमितता प्रावधान) वा पुनःप्रकाशन गर्दा प्रतिलिपि अधिकारधारीको अनुमति लिनु वा उचित रूपमा प्रक्रिया गर्नु आवश्यक छ।

प्रतिलिपि अधिकारधारीले प्रतिलिपि अधिकार उल्लङ्घनको आरोप लगाएमा, नागरिक जिम्मेवारी (क्षतिपूर्ति, मानसिक पीडा, प्रयोग रोकथाम, प्रतिष्ठा पुनःस्थापना जस्ता कानूनी उपायहरू) वा आपराधिक जिम्मेवारी (अभियोगको अपराध) सामना गर्नुपर्ने सम्भावना छ।

ChatGPT मा गोप्य जानकारी प्रविष्ट गर्दा समस्या उत्पन्न भएका जापानी कानूनी परिप्रेक्ष्यमा घटनाहरू

2023 (सन् 2023) को मार्च 30 मा, दक्षिण कोरियाली मिडिया “EConomist” ले रिपोर्ट गरेको छ कि सैमसंग इलेक्ट्रोनिक्सको सेमीकन्डक्टर विभागमा ChatGPT को प्रयोगलाई अनुमति दिइएपछि, गोप्य जानकारी प्रविष्ट गर्ने तीनवटा घटनाहरू भएका छन्।

सैमसंग इलेक्ट्रोनिक्सले कम्पनी भित्र सूचना सुरक्षा सम्बन्धी चेतावनी दिएको भए तापनि, प्रोग्रामको संशोधनको लागि स्रोत कोड पठाउने (२ घटना) र बैठकको विवरण तयार गर्न बैठकको सामग्री पठाउने कर्मचारीहरू थिए।

यी घटनाहरूको उत्पत्ति पछि, कम्पनीले आपतकालीन उपायको रूपमा ChatGPT मा एक प्रश्नको अपलोड क्षमता सीमित गरेको छ। साथै, यस्ता घटनाहरू पुनः हुने सम्भावना भएमा, कनेक्शनलाई अवरुद्ध गर्ने सम्भावना रहेको बताएको छ।

त्यसैगरी, Walmart र Amazon ले पनि आफ्ना कर्मचारीहरूलाई च्याटबोटमा गोप्य जानकारी साझा नगर्न चेतावनी दिएका छन्। Amazon का वकिलले ChatGPT को उत्तरहरू Amazon को आन्तरिक डाटासँग मिल्दोजुल्दो देखिएको घटनाहरू पहिले नै देखिएको बताएका छन्, जसले डाटा सिकाइमा प्रयोग भएको सम्भावना देखाउँछ।

ChatGPT को प्रयोग गर्दा गोप्य जानकारी चुहावट हुन नदिनका लागि जापानमा अपनाउनुपर्ने उपायहरू

OpenAI ले आफ्नो प्रयोग नियमावलीमा प्रणाली सुधारका लागि इनपुट गरिएका डाटालाई सिकाइमा प्रयोग गर्ने बताएको छ, र संवेदनशील जानकारी नपठाउन आग्रह गरेको छ।

यस खण्डमा, जापानमा ChatGPT को प्रयोग गर्दा गोप्य जानकारीको चुहावट रोक्नका लागि हार्डवेयर र सफ्टवेयरका चार उपायहरू प्रस्तुत गरिएका छन्।

जापानमा कम्पनी भित्रको प्रयोगका लागि दिशानिर्देश तयार पार्नुहोस्

जापानमा कम्पनी भित्रको प्रयोगका लागि दिशानिर्देश तयार पार्नुहोस्

कम्पनीमा ChatGPT को प्रयोग गर्दा, व्यक्तिगत सूचना सुरक्षा साक्षरता बढाउनु र कम्पनी भित्रको पुनःकौशलता विकास गर्नु आवश्यक छ, तर आफ्नै ChatGPT प्रयोग दिशानिर्देश तयार गर्नु पनि उपयुक्त हुनेछ।

२०२३ (Reiwa 5) को मे १ मा, सामान्य社団法人日本ディープラーニング協会(JDLA)ले ChatGPT को नैतिक, कानूनी, र सामाजिक मुद्दाहरू (ELSI) को बुँदाहरूलाई संकलन गरी “उत्पन्न AI को प्रयोग दिशानिर्देश” सार्वजनिक गर्यो। उद्योग, शिक्षा, र सरकारी क्षेत्रहरूमा पनि दिशानिर्देशको तयारीको लागि विचार-विमर्श सुरु भएको छ।

यसलाई सन्दर्भको रूपमा लिँदै, आफ्नै ChatGPT प्रयोग नियमहरूलाई स्पष्ट रूपमा लेखिएको दिशानिर्देश तयार गर्दा, निश्चित जोखिम टाल्न सकिन्छ।

सन्दर्भ: सामान्य社団法人日本ディープラーニング協会(JDLA)|उत्पन्न AI को प्रयोग दिशानिर्देश[ja]

जापानमा गोप्य जानकारी चुहावट हुन नदिन प्रविधिहरूको समावेश गर्नुहोस्

जापानमा गोप्य जानकारी चुहावटको मानव त्रुटि रोक्नको लागि, DLP (Data Loss Prevention) भनिने प्रणालीलाई लागू गरेर विशेष डेटा चुहावट रोक्न सकिन्छ। यसले गोप्य जानकारीको पठाउने र प्रतिलिपि गर्ने प्रक्रियालाई रोक्न सक्षम बनाउँछ।

DLP प्रणालीले इनपुट डेटा निरन्तर निगरानी गर्छ र गोप्य जानकारी तथा महत्वपूर्ण डेटा स्वचालित रूपमा पहिचान गरी सुरक्षा प्रदान गर्छ। DLP प्रयोग गर्दा, गोप्य जानकारी पत्ता लागेमा, यसले अलर्ट सूचित गर्न वा कार्यलाई अवरुद्ध गर्न सक्छ। यसले व्यवस्थापन लागतलाई कम गर्दै आन्तरिक रूपमा जानकारी चुहावटलाई निश्चित रूपमा रोक्न सक्छ, तर यसका लागि सुरक्षा प्रणालीको उच्च स्तरको बुझाइ आवश्यक पर्छ। प्राविधिक विभाग नभएका कम्पनीहरूमा यसको सहज कार्यान्वयन चुनौतीपूर्ण हुन सक्छ।

विशेष उपकरणको導入को विचार गर्नुहोस्

ChatGPT मा 2023 (सन् 2023) को मार्चदेखि, API (“Application Programming Interface” को संक्षिप्त रूप, जुन सफ्टवेयर, प्रोग्राम, वा वेब सेवाहरू बीचको इन्टरफेस हो) को प्रयोग गरेर, ChatGPT मा पठाइएको डाटाको चुहावट रोक्न सकिने भएको छ।

API मार्फत पठाइएको डाटा सिकाइ वा सुधारमा प्रयोग गरिने छैन, तर “अनधिकृत प्रयोग वा दुरुपयोग रोक्नको लागि निगरानी” को लागि 30 दिनसम्म भण्डारण गरिनेछ र त्यसपछि मेटिनेछ भन्ने भण्डारण नियममा परिवर्तन गरिएको छ। साथै, “कानूनी माग” प्राप्त भएमा, डाटाको भण्डारण अवधि लम्ब्याउन सक्ने सम्भावना रहेको छ।

यसरी ChatGPT लाई सिकाइ वा सुधारमा प्रयोग नगराउने सेटिङ गरे पनि, निश्चित अवधिसम्म सर्भरमा भण्डारण गरिने भएकाले, सैद्धान्तिक रूपमा जानकारी चुहावटको जोखिम रहन्छ। त्यसैले, गोप्य जानकारी वा व्यक्तिगत जानकारी प्रविष्ट गर्दा पर्याप्त ध्यान आवश्यक छ।

तर, OpenAI ले प्रयोगकर्ताको गोपनीयता र डाटाको सुरक्षालाई प्राथमिकता दिएको छ र कडा सुरक्षा उपायहरू अपनाएको छ। अझ सुरक्षित रूपमा प्रयोग गर्न चाहनुहुन्छ भने, उच्च सुरक्षा उपायहरू सम्भव हुने उपकरण “Azure OpenAI Service” को導入 गर्न सिफारिस गरिएको छ।

कम्पनीहरूको लागि विशेष रूपमा तयार गरिएको उपकरण “Azure OpenAI Service” मा API मार्फत ChatGPT मा प्रविष्ट गरिएको डाटा संकलन गरिने छैन। साथै, अप्ट-आउटको लागि आवेदन दिएर स्वीकृति प्राप्त गरेमा, सिद्धान्ततः 30 दिनको प्रविष्टि डाटाको भण्डारण र निगरानी पनि अस्वीकार गर्न सकिने भएकाले, जानकारी चुहावटको जोखिम टार्न सकिन्छ।

そもそもChatGPTで入力した機密情報を学習しないようにする設定方法

उपरोक्त वर्णन गरे अनुसार, ChatGPT ले ओप्ट-इन गरिएको सामग्रीलाई पूर्ण रूपमा सिक्ने प्रणाली भएकोले, 2023 (सन् 2023) को अप्रिल 25 देखि, पूर्व-निर्धारित रूपमा ओप्ट-आउट गर्ने सुविधा उपलब्ध गराइएको छ।

प्रत्यक्ष रूपमा पूर्व-उपायको रूपमा, यदि तपाईं ChatGPT मा प्रविष्ट गरिएको डाटालाई सिकाइ वा सुधारमा प्रयोग गर्न अस्वीकार गर्न चाहनुहुन्छ भने “ओप्ट-आउट” आवेदन गर्नु आवश्यक छ। ChatGPT मा “ओप्ट-आउट” को लागि Google फारम उपलब्ध छ, त्यसैले यो प्रक्रिया अवश्य गर्नुहोस्। (इमेल ठेगाना, संगठन ID, र संगठनको नाम प्रविष्ट गरी पठाउनुहोस्)

तर, यस अवस्थामा पनि, एक निश्चित अवधि (सामान्यतया 30 दिन) को लागि OpenAI द्वारा निगरानी गरिन्छ, र सर्भर पक्षमा प्रविष्ट गरिएको डाटा सुरक्षित गरिन्छ।

ChatGPT को प्रयोग नियमावली

3. सामग्री

(c) सेवा सुधारका लागि सामग्रीको प्रयोग

हामी हाम्रो API मा प्रदान गरिएको वा प्राप्त गरिएको सामग्री (“API सामग्री”) लाई हाम्रो सेवाहरूको विकास वा सुधारको लागि प्रयोग गर्दैनौं।

हामी हाम्रो API बाहेकका सेवाहरूबाट प्राप्त सामग्री (“गैर-API सामग्री”) लाई हाम्रो सेवाहरूको विकास र सुधारमा सहयोग पुर्‍याउन प्रयोग गर्न सक्छौं।

यदि तपाईं आफ्नो गैर-API सामग्रीलाई सेवा सुधारको लागि प्रयोग गर्न चाहनुहुन्न भने, यो फारम भरेर ओप्ट-आउट गर्न सक्नुहुन्छ। कृपया ध्यान दिनुहोस् कि केही अवस्थामा यसले तपाईंको विशेष प्रयोग केसलाई राम्रोसँग सम्बोधन गर्न हाम्रो सेवाहरूको क्षमता सीमित गर्न सक्छ।

स्रोत: OpenAI आधिकारिक साइट|ChatGPT को प्रयोग नियमावली https://openai.com/policies/terms-of-use

सारांश: जापानमा ChatGPT को व्यापारिक प्रयोगमा गोप्य जानकारीको व्यवस्थापनको लागि उपायहरू आवश्यक

माथि, जापानमा ChatGPT को व्यापारिक प्रयोगमा गोप्य जानकारीको चुहावट जोखिम र त्यसको उपायहरूबारे उदाहरणहरूलाई आधार मानेर व्याख्या गरियो।

ChatGPT जस्ता तीव्र गतिमा विकास भइरहेका AI व्यापारहरूमा, कम्पनी भित्रको प्रयोगका लागि दिशानिर्देशको निर्माणदेखि, व्यापार मोडेलको वैधता जाँच, सम्झौतापत्र, प्रयोग नियमावलीको निर्माण, बौद्धिक सम्पत्ति अधिकारको संरक्षण, गोपनीयता व्यवस्थापन आदि विषयमा विशेषज्ञहरूसँगको उपायहरू अपरिहार्य छन्।

सम्बन्धित लेख: जापानमा Web3 सम्बन्धी कानून के हो? प्रवेश गर्ने कम्पनीहरूले ध्यान दिनुपर्ने बुँदाहरूको व्याख्या[ja]

हाम्रो कार्यालयद्वारा प्रदान गरिने उपायहरूको जानकारी

मोनोलिथ कानूनी कार्यालय, IT, विशेष गरी इन्टरनेट र कानूनी पक्षमा व्यापक अनुभव भएको कानूनी कार्यालय हो। AI व्यवसायसँग धेरै कानूनी जोखिमहरू जोडिएका छन्, र AI सम्बन्धी कानूनी समस्याहरूमा विशेषज्ञता भएका वकिलहरूको समर्थन अत्यावश्यक छ।

हाम्रो कार्यालयले, AI मा विशेषज्ञता भएका वकिल र इन्जिनियरहरूको टोलीसँग मिलेर, ChatGPT सहितको AI व्यवसायको लागि, सम्झौता पत्र तयार पार्ने, व्यवसाय मोडेलको वैधता जाँच गर्ने, बौद्धिक सम्पत्ति अधिकारको संरक्षण, गोपनीयता व्यवस्थापन जस्ता उच्चस्तरीय कानूनी समर्थन प्रदान गर्दछ। तलको लेखमा विस्तृत जानकारी समावेश गरिएको छ।

मोनोलिथ कानूनी कार्यालयको कार्यक्षेत्र: AI (ChatGPT आदि) कानूनी सेवा[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

माथि फर्कनुहोस्