ChatGPT को जानकारी चुहावट जोखिम के हो? अपनाउनुपर्ने ४ उपायहरू परिचय

हालसालै ध्यान आकर्षित गरिरहेको “ChatGPT”। यो एक यस्तो उत्पन्न गर्ने AI हो जसले लेख तयार पार्न, प्रोग्रामिङ गर्न, संगीतको स्कोर सिर्जना गर्न र चित्रण गर्न सक्छ, जसले गर्दा विभिन्न क्षेत्रमा ध्यान आकर्षित गरिरहेको छ।
ChatGPT को GPT भनेको “Generative Pre-training Transformer” को संक्षिप्त रूप हो, जसले ठूलो मात्रामा पाठ (लेख), छवि, र ध्वनि (विस्तार कार्य) डाटा पूर्व-प्रशिक्षण गरेर, मानिसजस्तै प्राकृतिक संवाद गर्न सक्षम बनाउँछ।
ChatGPT जटिल कार्यहरूमा पनि अनुकूल हुन सक्ने भएकाले, कार्य (काम) को दक्षता र उच्च लागत-प्रभावकारिता अपेक्षा गर्न सकिने उपकरणको रूपमा चर्चामा आएको छ। जापानमा, विभिन्न क्षेत्रमा ChatGPT को प्रयोग अघि बढिरहेको छ, र धेरै टेक कम्पनीहरूले आफ्नै AI प्रणाली सुरु गर्ने प्रयास गरिरहेका छन्।
यसरी, ChatGPT लगायत AI प्रविधिमा धेरै व्यापारिक अवसरहरूको सम्भावना देखिन्छ, तर जापानी कानुन अन्तर्गत, यसमा प्रतिलिपि अधिकारको समस्या, गलत जानकारीको प्रसार, गोप्य जानकारी चुहावट, गोपनीयताको समस्या, र साइबर आक्रमणको दुरुपयोगको सम्भावना जस्ता सम्भावित जोखिमहरू पनि औंल्याइएको छ।
यस लेखमा, ChatGPT को प्रयोगमा जानकारी चुहावटको जोखिमलाई केन्द्रित गर्दै, जापानी वकिलले लिनुपर्ने उपायहरूको व्याख्या गर्नेछन्।
ChatGPTसँग सम्बन्धित जानकारी चुहावटको जोखिम

जापानी कम्पनीहरूले ChatGPT अपनाउँदा निम्न चार प्रमुख जोखिमहरू सामना गर्न सक्छन्:
- सुरक्षा जोखिम (जानकारी चुहावट, सटीकता, कमजोरी, उपलब्धता आदि)
- प्रतिलिपि अधिकार उल्लङ्घनको जोखिम
- दुरुपयोगको सम्भावना जोखिम (साइबर आक्रमण आदि)
- नैतिक पक्षमा चुनौतीहरू
ChatGPT को जानकारी चुहावट जोखिम भनेको, जब गोप्य जानकारी ChatGPT मा प्रविष्ट गरिन्छ, त्यो जानकारी OpenAI कम्पनीका कर्मचारी वा अन्य प्रयोगकर्ताहरूले हेर्न सक्ने वा सिकाइको लागि डेटा रूपमा प्रयोग गर्न सक्ने जोखिम हो।
OpenAI को डेटा उपयोग नीति अनुसार, यदि प्रयोगकर्ताले ChatGPT को “API” मार्फत प्रयोग गर्दैनन् वा “अफ्ट आउट” को लागि आवेदन गर्दैनन् भने, प्रयोगकर्ताले ChatGPT मा प्रविष्ट गरेको डेटा OpenAI द्वारा सङ्कलन र उपयोग (सिकाइ) गरिनेछ (यसको बारेमा पछि विस्तृत रूपमा व्याख्या गरिनेछ)।
ChatGPT को प्रयोगले जानकारी चुहावटमा पुर्याएको उदाहरणहरू
यहाँ, ChatGPT को प्रयोगले दर्ता गरिएको व्यक्तिगत जानकारी र प्रविष्ट गरिएको गोप्य जानकारी चुहावट भएको उदाहरणहरू प्रस्तुत गरिन्छ।
व्यक्तिगत जानकारी चुहावट भएको केस
२०२३ (Gregorian calendar year) को मार्च २४ मा, OpenAI ले केही प्रयोगकर्ताहरूलाई अन्य प्रयोगकर्ताहरूको क्रेडिट कार्ड नम्बरको अन्तिम ४ अंक, कार्डको म्याद समाप्ति मिति जस्ता व्यक्तिगत जानकारी देखिने बग भएको कारण, मार्च २० मा ChatGPT लाई छोटो समयको लागि अफलाइन गरेको घोषणा गर्यो। यस समयमा व्यक्तिगत जानकारी चुहावट भएको भनेको “ChatGPT Plus” भुक्तान योजना सदस्यहरूको केही हिस्सा (सदस्यहरूको करिब १.२%) थियो।
यस बगसँगै, च्याट इतिहासमा अन्य प्रयोगकर्ताको च्याट इतिहास देखिने अर्को बग पनि भएको घोषणा गरियो।
यसको प्रतिक्रियामा, २०२३ (Gregorian calendar year) को मार्च ३१ मा, इटालीको डाटा संरक्षण प्राधिकरणले OpenAI लाई ChatGPT ले सिकाइको लागि व्यक्तिगत डाटा सङ्कलन र भण्डारण गर्न कानूनी आधारको अभाव भएको भन्दै, उक्त देशका प्रयोगकर्ताहरूको डाटा प्रशोधनमा अस्थायी प्रतिबन्ध लगाउने सुधार आदेश जारी गर्यो। यसलाई ध्यानमा राख्दै OpenAI ले इटालीबाट ChatGPT को पहुँचलाई ब्लक गर्यो। यो ब्लक, त्यसपछि OpenAI ले व्यक्तिगत डाटा व्यवस्थापनमा सुधार गरेपछि, सोही वर्षको अप्रिल २८ मा हटाइयो।
कम्पनीको गोप्य जानकारी चुहावट भएको केस
२०२३ (Gregorian calendar year) को फेब्रुअरीमा, अमेरिकी साइबर सुरक्षा कम्पनी Cyberhaven ले ग्राहक कम्पनीहरूलाई ChatGPT को प्रयोग सम्बन्धी रिपोर्ट प्रकाशित गर्यो।
त्यो रिपोर्ट अनुसार, Cyberhaven उत्पादन प्रयोग गर्ने ग्राहक कम्पनीका १६ लाख कामदारहरू मध्ये, ज्ञान कामदारहरूको ८.२% ले कार्यस्थलमा एक पटक ChatGPT प्रयोग गरेका थिए, र ती मध्ये ३.१% ले ChatGPT मा कम्पनीको गोप्य डाटा प्रविष्ट गरेका थिए।
यो दक्षिण कोरियाको उदाहरण हो, तर २०२३ (Gregorian calendar year) को मार्च ३० मा दक्षिण कोरियाली मिडिया “Economist” ले रिपोर्ट गर्यो कि सैमसङ इलेक्ट्रोनिक्सको एक विभागले ChatGPT को प्रयोगलाई अनुमति दिएपछि, गोप्य जानकारी प्रविष्ट गर्ने घटना भएको थियो।
सैमसङ इलेक्ट्रोनिक्सले आन्तरिक जानकारी सुरक्षा सम्बन्धी चेतावनी दिइरहेको भए पनि, प्रोग्रामको स्रोत कोड र बैठकको सामग्री प्रविष्ट गर्ने कर्मचारीहरू थिए।
यस प्रकारको परिस्थितिमा, ChatGPT को प्रयोगलाई सीमित गर्ने देश वा कम्पनीहरू छन् भने, सिफारिस गर्ने नीति अपनाउने देश वा कम्पनीहरू पनि छन्। ChatGPT को कार्यान्वयन गर्दा, जानकारी चुहावटको जोखिमको महत्त्व बुझेर विचार गर्नुपर्छ।
ChatGPT मा जानकारी चुहावट रोक्नका लागि ४ उपायहरू

जानकारी चुहावट एक पटक भएमा, कानूनी जिम्मेवारी मात्र नभई, विश्वास र प्रतिष्ठा जस्ता क्षतिहरू पनि ठूलो हुन्छन्। त्यसैले, जानकारी चुहावट रोक्नका लागि, कम्पनी भित्रको जानकारी व्यवस्थापन प्रणालीको सुधार र शिक्षा महत्त्वपूर्ण हुन्छ।
यहाँ, ChatGPT मा जानकारी चुहावट रोक्नका लागि ४ उपायहरू प्रस्तुत गर्न चाहन्छौं।
उपाय 1: प्रयोग नियमहरूको निर्माण
पहिले, आफ्नो कम्पनीको ChatGPT सम्बन्धी दृष्टिकोणलाई निर्धारण गर्नुहोस् र कम्पनीको आन्तरिक नियमहरूमा ChatGPT को प्रयोग सम्बन्धी विषयवस्तुहरू समावेश गर्नुहोस्। व्यक्तिगत जानकारी मात्र नभई गोप्य जानकारी पनि प्रविष्ट नगर्ने जस्ता स्पष्ट नियमहरू निर्धारण गरेर सञ्चालन गर्नु महत्त्वपूर्ण छ।
यस क्रममा, आफ्नो कम्पनीको ChatGPT प्रयोग दिशानिर्देश तयार गर्नु उचित हुनेछ। साथै, बाह्य पक्षहरूसँगको सम्झौतामा पनि ChatGPT को प्रयोग सम्बन्धी विषयवस्तुहरू समावेश गर्नुहोस्।
सन् 2023 (जापानी वर्ष रेवाँ 5) को मे 1 मा, सामान्य निगम जापान डीप लर्निङ एसोसिएसन (JDLA) ले ChatGPT को नैतिक, कानूनी, र सामाजिक मुद्दाहरू (ELSI) को विषयवस्तुहरूलाई संकलन गरी “उत्पन्न AI को प्रयोग दिशानिर्देश” सार्वजनिक गरेको थियो।
उद्योग, शिक्षा, र सरकारी क्षेत्रहरूमा पनि दिशानिर्देशको निर्माणको विचारमा काम सुरु गरिएको छ। यसलाई सन्दर्भको रूपमा लिँदै, आफ्नो कम्पनीको ChatGPT प्रयोग नियमहरूलाई स्पष्ट रूपमा लेखिएको दिशानिर्देशको रूपमा निर्माण गर्दा, निश्चित जोखिम टाल्न सकिन्छ।
सन्दर्भ: सामान्य निगम जापान डीप लर्निङ एसोसिएसन (JDLA)|उत्पन्न AI को प्रयोग दिशानिर्देश[ja]
तर, निर्माण गरिएको दिशानिर्देशलाई व्यापक रूपमा जानकारी गराइएन भने यसको कुनै अर्थ हुँदैन। दिशानिर्देश मात्र उपायको रूपमा पर्याप्त छैन।
対策2:情報流出を防ぐための体制を整える
ヒューマンエラーを防ぐ対策として、DLP(データ損失防止)と呼ばれる、特定データの漏洩を防止するためのシステムを導入することで、機密情報の送信・コピーを防ぐことが可能です。
DLPは、ユーザーではなく、データを常に監視し、機密情報や重要データを自動的に特定し保護するシステムです。DLPを利用すると、秘匿情報が検知された場合、アラートを通知したり操作をブロックすることが可能です。
管理コストを抑えながら内部からの情報漏洩を確実に防止できますが、セキュリティシステムに関する高度な理解が必要で、技術部門のない会社でのスムーズな導入は難しいかもしれません。
対策3:情報流出を防ぐツールを使用する
उपरोक्त उल्लेखित अनुसार, प्रत्यक्ष रूपमा पूर्व-उपायको रूपमा, “अप्ट आउट” को लागि आवेदन गरेर ChatGPT मा इनपुट गरिएको डाटा संकलन गर्न अस्वीकार गर्न सकिन्छ।
ChatGPT को सेटिङ्ग स्क्रिनबाट “अप्ट आउट” को लागि आवेदन गर्न सकिन्छ। तर, अप्ट आउटको लागि आवेदन गर्दा, प्रम्प्टको इतिहास बाँकी रहँदैन, जसले गर्दा धेरैलाई असुविधा महसुस हुन सक्छ।
अप्ट आउट सेटिङ्ग बाहेकको उपायको रूपमा, ChatGPT को “API” प्रयोग गरेर उपकरणहरूलाई समावेश गर्ने उपाय पनि छ।
“API(Application Programming Interface)” भनेको OpenAI ले सार्वजनिक गरेको, ChatGPT लाई आफ्नै सेवा वा बाह्य उपकरणमा समावेश गर्ने इन्टरफेस हो। OpenAI ले ChatGPT को “API” मार्फत इनपुट र आउटपुट गरिएको जानकारीलाई प्रयोग नगर्ने कुरा स्पष्ट रूपमा बताएको छ।
यो बुँदा ChatGPT को प्रयोग नियमावलीमा पनि स्पष्ट गरिएको छ। प्रयोग नियमावली अनुसार,
3. सामग्री
(c) सेवा सुधारको लागि सामग्रीको प्रयोग
हामी हाम्रो API लाई प्रदान गरिएको वा API बाट प्राप्त गरिएको सामग्री (“API सामग्री”) लाई हाम्रो सेवाहरूको विकास वा सुधारको लागि प्रयोग गर्दैनौं।
हामी हाम्रो API बाहेकका सेवाहरूबाट प्राप्त सामग्री (“गैर-API सामग्री”) लाई हाम्रो सेवाहरूको विकास र सुधारमा मद्दत गर्न प्रयोग गर्न सक्छौं।
यदि तपाईं आफ्नो गैर-API सामग्रीलाई सेवा सुधारको लागि प्रयोग गर्न चाहनुहुन्न भने, यो फारम भरेर अप्ट आउट गर्न सक्नुहुन्छ। कृपया ध्यान दिनुहोस् कि केही अवस्थामा यसले तपाईंको विशेष प्रयोग केसलाई राम्रोसँग सम्बोधन गर्न हाम्रो सेवाहरूको क्षमता सीमित गर्न सक्छ।
お客様が非 API コンテンツをサービス向上のための利用を希望されない場合は、このフォームに入力してオプトアウトできます。
場合によっては、これにより、お客様の特定のユースケースに適切に対処するための当社のサービスの能力が制限される場合があることに注意してください。
引用:OpenAI公式サイト|ChatGPTの利用規約
対策4:ITリテラシーの社内研修を実施する
यहाँसम्म प्रस्तुत गरिएका उपायहरूका अतिरिक्त, आफ्ना कर्मचारीहरूको सुरक्षा साक्षरतामा सुधार ल्याउनका लागि कम्पनी भित्र प्रशिक्षण कार्यक्रमहरू सञ्चालन गर्नु महत्त्वपूर्ण छ।
सामसङ इलेक्ट्रोनिक्सको उदाहरणमा पनि, कम्पनी भित्र सूचना सुरक्षा प्रति सचेत गराउँदा पनि गोप्य जानकारी प्रविष्ट गर्दा जानकारी चुहावट भएको छ। प्रणालीको पक्षबाट मात्र जानकारी चुहावट रोक्नुको सट्टा, ChatGPT सम्बन्धी ज्ञान र IT साक्षरतामा आधारित आन्तरिक प्रशिक्षण कार्यक्रम सञ्चालन गर्नु उपयुक्त हुनेछ।
ChatGPT मा जानकारी चुहावट भएमा जापानमा कसरी प्रतिक्रिया गर्ने

यदि जानकारी चुहावट भएमा, तथ्यहरूको अनुसन्धान र उपायहरू तुरुन्तै गर्नु महत्त्वपूर्ण हुन्छ।
व्यक्तिगत जानकारी चुहावट भएमा, जापानी व्यक्तिगत जानकारी संरक्षण ऐनको आधारमा, व्यक्तिगत जानकारी संरक्षण आयोगलाई रिपोर्ट गर्नु अनिवार्य छ। साथै, सम्बन्धित व्यक्तिलाई पनि यो स्थिति भएको जानकारी दिनु आवश्यक छ। व्यक्तिगत जानकारी चुहावटले अरूको अधिकार वा फाइदामा असर पुर्याएमा, नागरिक क्षतिपूर्ति दायित्व लाग्न सक्छ। थप रूपमा, यदि व्यक्तिगत जानकारी चोरी वा अनधिकृत रूपमा प्रदान गरियो भने, आपराधिक दायित्व पनि लाग्न सक्छ।
व्यापारिक गोप्य जानकारी वा प्राविधिक जानकारी चुहावट भएमा, जापानी अनुचित प्रतिस्पर्धा रोकथाम ऐनको आधारमा, चुहावट भएको पक्षलाई हटाउन अनुरोध गर्न सकिन्छ। साथै, व्यापारिक गोप्य जानकारी वा प्राविधिक जानकारी चुहावटले अरूलाई अनुचित फाइदा पुर्याएमा, नागरिक क्षतिपूर्ति दायित्व लाग्न सक्छ। थप रूपमा, यदि व्यापारिक गोप्य जानकारी वा प्राविधिक जानकारी अनधिकृत रूपमा प्राप्त वा प्रयोग गरियो भने, आपराधिक दायित्व पनि लाग्न सक्छ।
कार्यस्थलको गोपनीयता दायित्व उल्लङ्घन गरेर जानकारी चुहावट भएमा, जापानी दण्ड संहिता वा अन्य कानुनद्वारा, आपराधिक दायित्व लाग्न सक्छ। साथै, कार्यस्थलको गोपनीयता दायित्व उल्लङ्घन गरेर जानकारी चुहावटले अरूलाई क्षति पुर्याएमा, नागरिक क्षतिपूर्ति दायित्व लाग्न सक्छ।
त्यसैले, चुहावट भएको जानकारीको सामग्री अनुसार छिटो प्रतिक्रिया गर्नु आवश्यक छ, र त्यसका लागि पूर्व तयारी गर्नु महत्त्वपूर्ण हुन्छ।
सम्बन्धित लेख: जानकारी चुहावटको समयमा कम्पनीहरूले गर्नुपर्ने जानकारी खुलासा[ja]
सम्बन्धित लेख: व्यक्तिगत जानकारी चुहावट भएमा? कम्पनीहरूले लिनुपर्ने प्रशासनिक प्रतिक्रिया[ja]
सारांश: जापानमा ChatGPT को जानकारी चुहावट जोखिमको लागि तयारी गर्नुहोस्
यहाँ, ChatGPT को जानकारी चुहावट जोखिम र लिनुपर्ने उपायहरूको बारेमा व्याख्या गरिएको छ। जापानमा तीव्र गतिमा विकास भइरहेका ChatGPT जस्ता AI व्यवसायहरूमा, तिनीहरूको कानूनी जोखिममा विशेषज्ञता राख्ने अनुभवी जापानी वकिलसँग परामर्श गरेर, पहिले नै तिनीहरूको जोखिम अनुसार कम्पनी भित्रको संरचना तयार पार्न सिफारिस गरिन्छ।
जानकारी चुहावट मात्र नभई, AI लाई प्रयोग गरेर बनाइएका व्यवसाय मोडेलहरूको कानूनीता जाँच, सम्झौता पत्रहरू र प्रयोग नियमहरूको निर्माण, बौद्धिक सम्पत्ति अधिकारको संरक्षण, गोपनीयता व्यवस्थापन जस्ता कुराहरूमा AI र कानूनी दुवै ज्ञान र अनुभव भएका जापानी वकिलसँग सहकार्य गर्दा सुरक्षित महसुस हुन्छ।
हाम्रो कार्यालयद्वारा प्रदान गरिने उपायहरूको जानकारी
मोनोलिथ कानूनी कार्यालय, IT विशेष गरी इन्टरनेट र कानूनी क्षेत्रमा व्यापक अनुभव भएको कानूनी कार्यालय हो। AI व्यवसायसँग धेरै कानूनी जोखिमहरू जोडिएका छन्, र AI सम्बन्धी कानूनी समस्याहरूमा निपुण वकिलको समर्थन अत्यावश्यक छ। हाम्रो कार्यालयले, AI मा निपुण वकिल र इन्जिनियरहरूको टोलीसँग, ChatGPT सहितको AI व्यवसायको लागि, सम्झौता पत्र तयार पार्ने, व्यवसाय मोडेलको वैधता जाँच गर्ने, बौद्धिक सम्पत्ति अधिकारको संरक्षण गर्ने, गोपनीयता व्यवस्थापन जस्ता उच्चस्तरीय कानूनी समर्थन प्रदान गर्दछ। तलको लेखमा विस्तृत जानकारी समावेश गरिएको छ।
मोनोलिथ कानूनी कार्यालयको कार्यक्षेत्र: AI (ChatGPT आदि) कानूनी सेवा[ja]
Category: IT
Tag: ITTerms of Use