ChatGPT लाई व्यावसायिक प्रयोग गर्दा हुने जोखिमहरू के हुन्? कानूनी समस्याहरूको पनि व्याख्या।

ChatGPT को विमोचन भएदेखि नै, यसले विश्वभर आफ्नो उपयोगितामा ठूलो ध्यान आकर्षित गरेको छ। तर, यससँगै विभिन्न जोखिमहरू पनि सम्बन्धित छन् भन्ने कुरा पनि थाहा पाउन थालिएको छ। जापानमा, अझै कानूनी संरचना विकासको चरणमा रहेको छ, र ChatGPT लाई व्यवसायमा प्रयोग गर्दा उत्पन्न हुने जोखिमहरू र ती जोखिमहरूको व्यवस्थापन गर्ने तरिकाहरूको बारेमा धेरै व्यवसायीहरू चिन्तित छन् भन्ने तथ्य पनि सत्य हो।
यस लेखमा, जापानमा ChatGPT लाई व्यवसायिक रूपमा प्रयोग गर्दा उत्पन्न हुने कानूनी जोखिमहरू र तिनको समाधानका उपायहरूको बारेमा व्याख्या गरिनेछ।
जापानमा ChatGPT लाई व्यवसायिक प्रयोग गर्दा सामना गर्नुपर्ने ४ जोखिमहरू
जापानमा पनि, प्राकृतिक भाषा उत्पन्न गर्ने AI, ChatGPT को व्यवसायिक प्रयोग बढ्दै गएको छ। २०२२ (सन् 2022) मा जापानी कम्पनीहरूको ChatGPT को अपनाउने दर १३.५% थियो, र “अपनाउने योजना छ” भन्नेहरूलाई समावेश गर्दा यो दर २४.०% सम्म पुग्छ। (स्रोत:総務省|令和5年情報通信白書 通信利用動向調査「企業におけるIoT・AI等のシステム・サービスの導入状況[ja]」)
निश्चित रूपमा, ChatGPT लगायतका AI प्रविधिहरूले जापानी कम्पनीहरूको कार्यक्षमता सुधार गर्न मद्दत पुर्याउँछन् र थप व्यवसायिक अवसरहरूको सम्भावना पनि देखाउँछन्। तर, यसका साथै धेरै कानूनी जोखिमहरू पनि छन्। त्यसैले, जोखिमहरूलाई पूर्ण रूपमा बुझेर मात्र व्यवसायिक प्रयोग गर्ने निर्णय लिनु आवश्यक छ।
उदाहरणका लागि, विशेषज्ञहरूले चेतावनी दिएका छन् कि AI को सम्भावित जोखिमहरूमा जापानमा प्रतिलिपि अधिकारको समस्या, गलत जानकारीको प्रसार, गोप्य जानकारीको चुहावट, गोपनीयताको समस्या, र साइबर आक्रमणको दुरुपयोग समावेश छन्।
यस खण्डमा, जापानमा ChatGPT लाई व्यवसायिक प्रयोग गर्दा सामना गर्नुपर्ने ४ जोखिमहरूको बारेमा व्याख्या गरिनेछ।
जापानमा सिकाइ कार्यक्षमताबाट जानकारी चुहावटको जोखिम
ChatGPT उपयोगी भए तापनि, यो इन्टरनेटमा उपलब्ध विभिन्न डाटाहरूलाई सिकेर उत्पन्न गरिने AI च्याटबोट हो। कुनै पनि उपाय नअपनाएमा, तपाईंले प्रविष्ट गरेको जानकारी सिकाइमा प्रयोग भई चुहावट हुने जोखिम रहन्छ।
OpenAI को डाटा उपयोग नीति अनुसार, ChatGPT को “API” मार्फत वा “अफ्ट आउट” को लागि आवेदन नगरेसम्म, प्रयोगकर्ताले ChatGPT मा प्रविष्ट गरेको डाटा OpenAI द्वारा संकलन र उपयोग (सिकाइ) गरिनेछ।
उपाय नअपनाएमा, व्यक्तिगत जानकारी वा गोप्य जानकारी जस्ता उच्च गोपनीयता भएका जानकारीहरू प्रविष्ट नगर्न ध्यान दिन आवश्यक छ। गल्तीले ChatGPT मा व्यक्तिगत जानकारी प्रविष्ट भए पनि, चेतावनी सन्देश देखाइन्छ, र ChatGPT ले व्यक्तिगत जानकारीलाई सुरक्षित राख्ने वा ट्र्याक नगर्ने, साथै च्याटमा आउटपुट गर्न नसक्ने प्रणाली बनाइएको छ।
तर, विगतमा ChatGPT सञ्चालन गर्ने OpenAI कम्पनीको प्रणालीमा बगको कारणले प्रयोगकर्ताको दर्ता गरिएको व्यक्तिगत जानकारी चुहावट भएको घटना भएको थियो।
सम्बन्धित लेख: ChatGPT को जानकारी चुहावट जोखिम के हो? लिनुपर्ने ४ उपायहरू प्रस्तुत[ja]
जानकारीको विश्वसनीयता अभावको जोखिम

२०२३ (Reiwa 5) मे महिनादेखि लागू भएको ChatGPT को वेब ब्राउजिङ्ग सुविधाले खोजी क्षमता प्रदान गरेकोले, ChatGPT ले नवीनतम जानकारी संकलन गर्न र त्यसको परिणाममा आधारित उत्तर दिन सक्षम भएको छ।
तर, ChatGPT ले उत्तर दिने क्रममा जानकारीलाई सत्यको रूपमा प्रस्तुत गर्छ, तर यसको विश्वसनीयता सुनिश्चित गरिएको छैन। ChatGPT द्वारा उत्पन्न उत्तरहरू, सिकाइ डेटा अनुसार जानकारीको शुद्धतामा आधारित नभई, उच्च सम्भावनाको (सबैभन्दा सम्भावित) वाक्यांशको रूपमा उत्पन्न गरिएका मात्र हुन्। त्यसैले, ChatGPT को उत्तरमा तथ्य जाँच आवश्यक छ। यदि कुनै पनि अवस्थामा, ChatGPT को उत्तरमा आधारित झूटा जानकारी प्रसारण गरियो भने, कम्पनीको विश्वसनीयता नै क्षतिग्रस्त हुन सक्छ।
२०२३ (Reiwa 5) अप्रिल ३ मा, टोकियो विश्वविद्यालयले ChatGPT मा प्राविधिक चुनौतीहरू रहेको भन्दै, भविष्यमा समाजमा पर्ने प्रभावको चिन्ता व्यक्त गर्दै तलको वक्तव्य जारी गर्यो।
「ChatGPT को सिद्धान्त भनेको, ठूलो मात्रामा विद्यमान लेखहरू र सामग्रीहरूको मेशिन लर्निङ्ग र सुदृढीकरण लर्निङ्ग मार्फत, सम्भावनात्मक रूपमा विश्वसनीय वाक्यांशहरू सिर्जना गर्नु हो। त्यसैले, लेखिएका सामग्रीमा झूटा कुरा समावेश हुन सक्छ। यो एकदमै राम्रो बोल्ने “जान्ने नाटक गर्ने व्यक्ति” सँग कुरा गरिरहेको जस्तो महसुस हुन्छ। (यद्यपि, नवीनतम संस्करण GPT-4 मा धेरै शुद्धता बढेको छ र परामर्शदाताको रूपमा पनि अत्यन्तै योग्य छ।) त्यसैले, ChatGPT लाई कुशलतापूर्वक प्रयोग गर्न, विशेषज्ञ ज्ञान आवश्यक छ र उत्तरलाई आलोचनात्मक रूपमा जाँच्न र आवश्यकतानुसार संशोधन गर्न आवश्यक छ। साथै, विद्यमान जानकारीमा नभएका नयाँ ज्ञानको विश्लेषण वा वर्णन गर्न सक्दैन। यसको अर्थ, ChatGPT को आगमनले गर्दा मानिसहरूले अध्ययन वा अनुसन्धान गर्न छोड्न सक्दैनन्। तर, शिक्षित वा विशेषज्ञ ज्ञान भएका व्यक्तिले उत्तरको सामग्रीलाई आलोचनात्मक रूपमा विश्लेषण गरी, कुशलतापूर्वक प्रयोग गर्न सकेमा, नियमित कार्यहरूको कार्यक्षमता उल्लेखनीय रूपमा सुधार गर्न सकिन्छ।」
स्रोत: टोकियो विश्वविद्यालय|「उत्पादक AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion आदि) बारे[ja]」
जापानमा著作権侵害やプライバシー侵害などの法的リスク
ChatGPT मा著作権侵害को निर्णय “AI開発・学習段階” र “生成・利用段階” मा फरक हुन्छ। यी प्रत्येक चरणमा गरिने著作物को उपयोग क्रियाकलाप फरक हुने भएकाले著作権法का धारा पनि फरक हुन्छन्। त्यसैले, यी दुवैलाई अलग-अलग विचार गर्नु आवश्यक छ।
参考:文化庁|令和5年度(2023年)著作権セミナー「AIと著作権」[ja]
2019年(平成31年)मा लागू भएको改正著作権法मा, 権利制限規定(許諾が不要な例外規定)の第30条の4 मा “AI開発・学習段階” को नयाँ व्यवस्था गरिएको छ। AI開発को लागि जानकारी विश्लेषण जस्ता,著作物मा व्यक्त गरिएको विचार वा भावना को उपभोगको उद्देश्य नभएको उपयोग क्रियाकलापलाई, मूलतः著作権者को अनुमति बिना गर्न सकिने व्यवस्था गरिएको छ।
अर्कोतर्फ, ChatGPT बाट उत्पन्न सामग्रीमा著作物सँगको類似ता वा依拠性(改変)मान्यता भएमा著作権侵害 हुनेछ। त्यसैले, सार्वजनिक गर्नु अघि, ChatGPT ले सन्दर्भ गरेको जानकारीको著作権धारीलाई पुष्टि गर्नु र ChatGPT ले तयार पारेको सामग्रीसँग類似内容 छैन भनेर सुनिश्चित गर्नु महत्त्वपूर्ण छ।著作物引用 गर्दा स्रोत स्पष्ट गर्नु(権利制限規定)र転載 गर्दा著作権者को利用許諾 प्राप्त गर्नु जस्ता उचित प्रक्रिया अपनाउनु पर्छ।
OpenAI社の利用規約 अनुसार, ChatGPT ले तयार पारेको सामग्री व्यावसायिक उपयोगको लागि उपलब्ध छ, तर ChatGPT को उपयोग गरेर तयार पारेको सामग्री著作権侵害मा पर्छ कि भन्ने निर्णय गर्न गाह्रो भएमा, विशेषज्ञसँग परामर्श गर्न सिफारिस गरिन्छ।
著作権者बाट著作権侵害को आरोप लागेमा, नागरिक जिम्मेवारी(損害賠償・慰謝料・使用差止め・名誉回復などの法的措置)या刑事責任(親告罪)को सामना गर्नुपर्ने सम्भावना हुन्छ।企業को हकमा, 両罰規定 लागू भई व्यक्ति र法人 दुवैलाई दण्डित गरिने सम्भावना हुन्छ, जसले गर्दा क्षति ठूलो हुन सक्छ।
त्यस्तै, व्यक्तिगत जानकारी वा गोपनीयताको बारेमा पनि, ChatGPT मा नहाल्ने जस्ता सावधानी आवश्यक छ। माथि उल्लेख गरे अनुसार, यदि गल्तीले ChatGPT मा व्यक्तिगत जानकारी राखियो भने पनि, ChatGPT ले व्यक्तिगत जानकारीलाई सुरक्षित राख्दैन वा ट्र्याक गर्दैन, र च्याटमा आउटपुट गर्न सक्दैन। यद्यपि, यो OpenAI को नीति हो र अन्य प्लेटफर्म वा सेवामा फरक हुन सक्छ।
व्यक्तिगत जानकारी चुहावटको जोखिमको बारेमा, तलको लेखमा व्याख्या गरिएको छ, कृपया यसलाई पनि पढ्नुहोस्।
अनिच्छित रूपमा हानिकारक सामग्री सिर्जना गर्ने जोखिम

ChatGPT को सिकाइ डेटा र प्रॉम्प्टको सामग्रीका आधारमा, अनिच्छित रूपमा हानिकारक सामग्री सिर्जना हुन सक्छ। ChatGPT द्वारा सिर्जित सामग्रीलाई जाँच नगरी सार्वजनिक गर्दा, यसले कम्पनीको प्रतिष्ठा र ब्रान्ड मूल्यलाई हानि पुर्याउन सक्छ र जापानमा कानूनी समस्यामा परिणत हुन सक्छ।
हानिकारक सामग्रीलाई ChatGPT मा इनपुट र आउटपुट गर्न नसकिने गरी सेट गरिएको छ, तर हानिकारक प्रोग्राम कोड, ठगी सेवाहरू जस्ता कुराहरू छुट्याउन गाह्रो हुन सक्छ र आउटपुट हुन सक्छ। यस्तो जोखिमलाई ध्यानमा राख्दै, सधैं सिर्जित सामग्रीलाई जाँच गर्ने प्रणाली महत्त्वपूर्ण हुन्छ।
जापानमा ChatGPT प्रयोग गर्दा जोखिमलाई कसरी टार्ने: जापानी नियम र सर्तहरूको समझ
व्यापारिक प्रयोजनका लागि ChatGPT प्रयोग गर्दा, जोखिमलाई टार्नको लागि, OpenAI का नियम र गोपनीयता नीतिहरूको पालना गरेर मात्र प्रयोग गर्नुपर्छ। जापानमा, नियमहरू प्रायः संशोधित भइरहन्छन्, त्यसैले व्यापारिक प्रयोगको क्रममा, संशोधन बुँदाहरूलाई ध्यानमा राख्दै, नवीनतम नियमहरूको जानकारी राख्न आवश्यक छ।
सम्बन्धित लेख: OpenAI का नियमहरूको व्याख्या, व्यावसायिक प्रयोगमा ध्यान दिनुपर्ने कुराहरू[ja]
जापानमा ChatGPT को व्यावसायिक प्रयोग गर्दा जोखिम टार्न आवश्यक कुराहरू

ChatGPT को जोखिमलाई टार्न र व्यवसायमा उचित रूपमा प्रयोग गर्न, कम्पनीहरूले निम्नलिखित गभर्नेन्स प्रणालीको आवश्यकता हुन्छ।
कम्पनी भित्र नियम बनाउने
२०२३ (Reiwa 5) को मे १ मा, सामान्य社団法人日本ディープラーニング協会(JDLA)ले ChatGPT को नैतिक, कानूनी, र सामाजिक मुद्दाहरू (ELSI) को बुँदाहरूलाई संकलन गरी “生成AIの利用ガイドライン” सार्वजनिक गरेको थियो। उद्योग, शिक्षा, र सरकारी क्षेत्रहरूमा पनि, गाइडलाइनको निर्माणको विचार-विमर्श अगाडि बढिरहेको छ।
ChatGPT को कम्पनीमा प्रयोग गर्दा, व्यक्तिगत सूचना सुरक्षा साक्षरता बढाउनु र कम्पनी भित्रको शिक्षा पनि आवश्यक छ, तर आफ्नै ChatGPT प्रयोग गाइडलाइन बनाउनु उचित हुन्छ। आफ्नै ChatGPT प्रयोग नियमहरूलाई स्पष्ट रूपमा लेखिएको गाइडलाइन बनाएर, सबैलाई जानकारी गराएर, निश्चित जोखिम टार्न सकिन्छ।
सन्दर्भ: सामान्य社団法人日本ディープラーニング協会(JDLA)|「生成AIの利用ガイドライン[ja]」
ChatGPT प्रयोग गर्दा निरीक्षक नियुक्त गर्ने
ChatGPT प्रयोगको निरीक्षकलाई कम्पनी भित्र नियुक्त गरेर, गाइडलाइनको सञ्चालनलाई निरन्तर अनुगमन गर्ने र जोखिम व्यवस्थापन गर्ने पनि जोखिम टार्न प्रभावकारी हुन्छ।
ChatGPT को व्यवहारलाई अनुगमन गर्ने, उत्पन्न परिणामलाई सुधार गर्ने, र डाटालाई व्यवस्थापन गर्ने जस्तो निरीक्षण, सामान्यतया प्रणाली निरीक्षणसँग मिल्दोजुल्दो हुन्छ। प्रणाली निरीक्षण भनेको सूचना प्रणालीको कार्यक्षमता, सुरक्षा, र विश्वसनीयतालाई वस्तुनिष्ठ रूपमा मूल्याङ्कन गर्ने हो, जसको उद्देश्य कार्यक्षमता सुधार र संगठनको परिवर्तन समर्थन गर्नु हो। निरीक्षण गर्ने निरीक्षकलाई नियुक्त गरेर, सञ्चालन सम्बन्धी पारदर्शिता र स्पष्टीकरणको जिम्मेवारीलाई बलियो बनाउन सकिन्छ।
सारांश: जापानमा ChatGPT को व्यावसायिक प्रयोगमा जोखिम टार्ने उपायहरू आवश्यक छन्
यहाँ, ChatGPT को व्यावसायिक प्रयोगसँग सम्बन्धित जोखिम र उपायहरूको बारेमा विस्तृत रूपमा व्याख्या गरिएको छ।
ChatGPT जस्ता तीव्र गतिमा विकास भइरहेको AI व्यवसायमा, कम्पनी भित्रको प्रयोगका लागि दिशानिर्देशको निर्माणदेखि, व्यापार मोडेलको वैधता जाँच, सम्झौता पत्र, प्रयोग नियमावलीको निर्माण, बौद्धिक सम्पत्ति अधिकारको संरक्षण, गोपनीयता व्यवस्थापन जस्ता विभिन्न कानूनी जोखिमहरू र AI प्रविधिमा विशेषज्ञता भएका विशेषज्ञहरूसँगको उपायहरू अपरिहार्य छन्।
हाम्रो कार्यालयद्वारा प्रदान गरिने उपायहरूको जानकारी
मोनोलिथ कानूनी कार्यालय, IT, विशेष गरी इन्टरनेट र कानूनी पक्षमा व्यापक अनुभव भएको कानूनी कार्यालय हो। AI व्यवसायसँग धेरै कानूनी जोखिमहरू जोडिएका छन्, र AI सम्बन्धी कानूनी समस्याहरूमा निपुण जापानी वकिलको समर्थन अत्यावश्यक छ।
हाम्रो कार्यालयले, AI मा निपुण वकिल र इन्जिनियरहरूको टोलीसँग मिलेर, ChatGPT सहितको AI व्यवसायलाई विभिन्न कानूनी समर्थन प्रदान गर्दछ। तलको लेखमा यसबारे विस्तृत जानकारी उल्लेख गरिएको छ।
मोनोलिथ कानूनी कार्यालयको कार्यक्षेत्र: AI (ChatGPT आदि) कानूनी सेवा[ja]
Category: IT
Tag: ITTerms of Use