MONOLITH LAW OFFICE+81-3-6262-3248วันธรรมดา 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

ความเสี่ยงในการใช้ ChatGPT สําหรับงานอาชีพคืออะไร? อธิบายปัญหาทางกฎหมายด้วย

IT

ความเสี่ยงในการใช้ ChatGPT สําหรับงานอาชีพคืออะไร? อธิบายปัญหาทางกฎหมายด้วย

ตั้งแต่ ChatGPT ได้รับการเปิดตัวมา ได้รับความสนใจอย่างมากจากทั่วโลกในด้านประโยชน์ที่มีต่อผู้ใช้งาน อย่างไรก็ตาม ก็เป็นที่รู้จักด้วยความเสี่ยงที่อาจเกิดขึ้นได้หลายประการ ในขณะที่กฎหมายยังอยู่ในระหว่างการพัฒนา ความจริงก็คือ ผู้บริหารหลายคนยังรู้สึกไม่แน่ใจเกี่ยวกับความเสี่ยงและวิธีการบริหารความเสี่ยงเมื่อใช้ ChatGPT ในธุรกิจ

บทความนี้จะอธิบายเกี่ยวกับความเสี่ยงทางกฎหมายและมาตรการในการใช้ ChatGPT สำหรับการทำธุรกิจ

4 ความเสี่ยงเมื่อใช้ ChatGPT ในงานธุรกิจ

ในหมู่บริษัทต่างๆ การใช้ประโยชน์จาก AI ที่สร้างภาษาธรรมชาติอย่าง ChatGPT กำลังเป็นที่นิยม โดยในปีงบประมาณ 2022 (รัชกาลที่ 5 ปี 2023) อัตราการนำไปใช้ในบริษัทมีสูงถึง 13.5% และหากรวมถึงบริษัทที่มีแผนจะนำไปใช้ จะเพิ่มขึ้นเป็น 24.0% (ที่มา: กระทรวงกิจการทั่วไปของญี่ปุ่น | รายงานประจำปีด้านการสื่อสารและข้อมูล ปี รัชกาลที่ 5 (2023) “สถานการณ์การนำระบบและบริการ IoT และ AI เข้ามาใช้ในบริษัท” ดูรายละเอียด)

ไม่ต้องสงสัยเลยว่าเทคโนโลยี AI รวมถึง ChatGPT นั้นมีประโยชน์ในการเพิ่มประสิทธิภาพการทำงานของบริษัท และสามารถสร้างโอกาสทางธุรกิจได้มากมาย อย่างไรก็ตาม มันยังมาพร้อมกับความเสี่ยงทางกฎหมายมากมายด้วย ดังนั้น จำเป็นต้องเข้าใจความเสี่ยงเหล่านี้อย่างถ่องแท้ก่อนที่จะตัดสินใจใช้ในธุรกิจ

ตัวอย่างเช่น ปัญหาเกี่ยวกับลิขสิทธิ์ การแพร่กระจายข้อมูลที่ผิดพลาด การรั่วไหลของข้อมูลลับ ปัญหาความเป็นส่วนตัว และการถูกใช้เป็นเครื่องมือในการโจมตีทางไซเบอร์ เป็นต้น ผู้เชี่ยวชาญได้เตือนถึงความเสี่ยงที่ซ่อนอยู่ของ AI เหล่านี้

ในบทนี้ เราจะอธิบายถึง 4 ความเสี่ยงที่อาจเกิดขึ้นเมื่อใช้ ChatGPT ในงานธุรกิจ

ความเสี่ยงของการรั่วไหลข้อมูลจากฟังก์ชันการเรียนรู้

แม้ว่า ChatGPT จะมีประโยชน์ แต่เนื่องจากเป็น AI แชทบอทที่ถูกสร้างขึ้นจากการเรียนรู้ข้อมูลต่างๆ บนเน็ตเวิร์ก หากไม่มีการดำเนินมาตรการใดๆ ข้อมูลที่ป้อนเข้าไปอาจถูกใช้ในการเรียนรู้และมีความเสี่ยงที่จะรั่วไหลออกไป

ตามนโยบายการใช้ข้อมูลของ OpenAI หากผู้ใช้ไม่ได้ทำการขอ ‘API’ หรือ ‘ออปต์เอาท์’ ข้อมูลที่ผู้ใช้ป้อนเข้าไปใน ChatGPT จะถูก OpenAI รวบรวมและใช้เพื่อการเรียนรู้ (การสะสมข้อมูล)

จำเป็นต้องระมัดระวังไม่ให้ป้อนข้อมูลส่วนบุคคลหรือข้อมูลลับที่มีความสำคัญในการเก็บรักษาความลับโดยไม่มีการดำเนินมาตรการใดๆ แม้ว่าจะมีการป้อนข้อมูลส่วนบุคคลเข้าไปใน ChatGPT โดยไม่ตั้งใจ ก็จะมีข้อความเตือนแสดงขึ้น และ ChatGPT จะไม่เก็บหรือติดตามข้อมูลส่วนบุคคล รวมถึงไม่สามารถแสดงผลในแชทได้

อย่างไรก็ตาม ในอดีตเคยมีเหตุการณ์ที่ข้อมูลส่วนบุคคลของผู้ใช้งานรั่วไหลออกมาจากบั๊กของระบบของบริษัท OpenAI ที่ดำเนินการ ChatGPT

บทความที่เกี่ยวข้อง:ความเสี่ยงของการรั่วไหลข้อมูลจาก ChatGPT และ 4 มาตรการที่ควรดำเนินการ[ja]

ความเสี่ยงจากข้อมูลที่ขาดความน่าเชื่อถือ

ความเสี่ยงจากข้อมูลที่ขาดความน่าเชื่อถือ

ตั้งแต่เดือนพฤษภาคม 2023 (รีวะ 5), ฟังก์ชันการเรียกดูเว็บของ ChatGPT ได้ถูกนำมาใช้งาน ทำให้ ChatGPT สามารถรวบรวมข้อมูลล่าสุดและตอบคำถามได้โดยอ้างอิงจากผลลัพธ์ที่ได้รับ

อย่างไรก็ตาม, แม้ว่า ChatGPT จะให้คำตอบที่ดูเหมือนเป็นความจริง แต่ความน่าเชื่อถือของข้อมูลนั้นไม่ได้รับการรับประกัน คำตอบที่ ChatGPT สร้างขึ้นไม่ได้ขึ้นอยู่กับความถูกต้องของข้อมูลจากข้อมูลการเรียนรู้ แต่เป็นการสร้างข้อความที่มีความน่าจะเป็นสูง (ที่เป็นไปได้มากที่สุด) ดังนั้น การตรวจสอบข้อเท็จจริงจึงเป็นสิ่งที่ขาดไม่ได้สำหรับคำตอบของ ChatGPT หากมีการเผยแพร่ข้อมูลเท็จโดยอ้างอิงจากคำตอบของ ChatGPT อาจทำให้ความน่าเชื่อถือของบริษัทเสียหายได้

วันที่ 3 เมษายน 2023 (รีวะ 5), มหาวิทยาลัยโตเกียวได้แสดงความกังวลเกี่ยวกับผลกระทบที่ ChatGPT อาจมีต่อสังคมในอนาคต และได้ประกาศแถลงการณ์ดังต่อไปนี้

“หลักการของ ChatGPT คือการสร้างข้อความที่ดูเหมือนจริงโดยอาศัยการเรียนรู้เครื่องจากข้อความและเนื้อหาที่มีอยู่มากมายผ่านการเรียนรู้เชิงเสริมและการเรียนรู้แบบเสริมความแข็งแกร่ง ดังนั้น ข้อความที่เขียนอาจมีความเป็นเท็จ มันเหมือนกับการสนทนากับบุคคลที่พูดเก่งแต่ไม่รู้จริง อย่างไรก็ตาม ในเวอร์ชันล่าสุด GPT-4 ความแม่นยำได้เพิ่มขึ้นอย่างมาก และเป็นที่ปรึกษาที่ยอดเยี่ยม ดังนั้น การใช้ ChatGPT อย่างชำนาญต้องการความรู้เชี่ยวชาญ และต้องตรวจสอบคำตอบอย่างมีวิจารณญาณ และทำการปรับแก้ไขตามความเหมาะสม นอกจากนี้ ChatGPT ไม่สามารถวิเคราะห์หรือเขียนเกี่ยวกับความรู้ใหม่ที่ไม่มีในข้อมูลที่มีอยู่ นั่นหมายความว่า แม้ ChatGPT จะมีอยู่ คนเราก็ไม่สามารถละเลยการเรียนรู้หรือการวิจัยได้ อย่างไรก็ตาม หากบุคคลที่มีความรู้ทั่วไปหรือความรู้เฉพาะทางสามารถวิเคราะห์เนื้อหาคำตอบอย่างมีวิจารณญาณและใช้งานได้อย่างชาญฉลาด ก็สามารถเพิ่มประสิทธิภาพของงานประจำได้อย่างมาก”

อ้างอิง: มหาวิทยาลัยโตเกียว | “เกี่ยวกับ AI ที่สร้างสรรค์ (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion ฯลฯ)[ja]

ความเสี่ยงทางกฎหมาย เช่น การละเมิดลิขสิทธิ์และการละเมิดความเป็นส่วนตัว

การตัดสินใจเกี่ยวกับการละเมิดลิขสิทธิ์ใน ChatGPT จะแตกต่างกันใน “ขั้นตอนการพัฒนาและการเรียนรู้ AI” และ “ขั้นตอนการสร้างและการใช้งาน” เนื่องจากการใช้งานผลงานที่มีลิขสิทธิ์ในแต่ละขั้นตอนนั้นแตกต่างกัน ดังนั้น จึงจำเป็นต้องพิจารณาทั้งสองอย่างแยกกัน

อ้างอิง:หน่วยงานวัฒนธรรมญี่ปุ่น | สัมมนาลิขสิทธิ์ปี Reiwa 5 (2023) “AI และลิขสิทธิ์”[ja]

ในเดือนมกราคม 2019 ได้มีการบังคับใช้กฎหมายลิขสิทธิ์ที่แก้ไขใหม่ ซึ่งมีการเพิ่มข้อกำหนดการจำกัดสิทธิ์ (ข้อยกเว้นที่ไม่ต้องได้รับอนุญาต) ในมาตรา 30 ข้อที่ 4 สำหรับ “ขั้นตอนการพัฒนาและการเรียนรู้ AI” การใช้งานผลงานที่มีลิขสิทธิ์เพื่อการวิเคราะห์ข้อมูลในการพัฒนา AI ซึ่งไม่ได้มีจุดประสงค์เพื่อรับรู้ความคิดหรืออารมณ์ที่ถูกแสดงออกมา สามารถดำเนินการได้โดยไม่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์ตามหลักการ

ในทางกลับกัน หากผลงานที่ ChatGPT สร้างขึ้นมีความคล้ายคลึงหรือขึ้นอยู่กับผลงานที่มีลิขสิทธิ์ (การเปลี่ยนแปลง) อาจถือเป็นการละเมิดลิขสิทธิ์ได้ ดังนั้น ก่อนที่จะเผยแพร่ผลงาน จำเป็นต้องตรวจสอบเจ้าของสิทธิ์ของข้อมูลที่ ChatGPT อ้างอิง และตรวจสอบว่าไม่มีเนื้อหาที่คล้ายคลึงกับสิ่งที่ ChatGPT สร้างขึ้น นอกจากนี้ หากจะอ้างอิงผลงาน จำเป็นต้องระบุแหล่งที่มาอย่างชัดเจน (ข้อกำหนดการจำกัดสิทธิ์) และหากจะทำการเผยแพร่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์เพื่อดำเนินการอย่างถูกต้อง

ตามเงื่อนไขการใช้งานของบริษัท OpenAI ระบุว่า ผลงานที่ ChatGPT สร้างขึ้นสามารถใช้เพื่อการค้าได้ แต่หากมีความยากลำบากในการตัดสินใจว่าเนื้อหาที่สร้างขึ้นด้วย ChatGPT นั้นละเมิดลิขสิทธิ์หรือไม่ ขอแนะนำให้ปรึกษากับผู้เชี่ยวชาญ

หากถูกเจ้าของลิขสิทธิ์ชี้แจงว่ามีการละเมิดลิขสิทธิ์ อาจต้องรับผิดทางแพ่ง (ค่าเสียหาย ค่าทดแทน การห้ามใช้งาน การฟื้นฟูชื่อเสียง และมาตรการทางกฎหมายอื่นๆ) หรือทางอาญา (ความผิดที่ต้องมีผู้เสียหายร้องเรียน) สำหรับบริษัท อาจมีการใช้กฎหมายที่ลงโทษทั้งบุคคลและนิติบุคคล ซึ่งอาจทำให้เกิดความเสียหายอย่างมาก

นอกจากนี้ ในเรื่องข้อมูลส่วนบุคคลและความเป็นส่วนตัว จำเป็นต้องระมัดระวังไม่ให้ป้อนข้อมูลเหล่านี้เข้าไปใน ChatGPT ดังที่ได้กล่าวไว้ข้างต้น แม้ว่า ChatGPT จะไม่เก็บหรือติดตามข้อมูลส่วนบุคคล และไม่สามารถแสดงผลข้อมูลเหล่านั้นผ่านการสนทนาได้ แต่นี่เป็นนโยบายของ OpenAI เท่านั้น บนแพลตฟอร์มหรือบริการอื่นๆ อาจมีนโยบายที่แตกต่างกัน

สำหรับความเสี่ยงของการรั่วไหลของข้อมูลส่วนบุคคล กรุณาอ่านบทความที่เกี่ยวข้องด้านล่างนี้

บทความที่เกี่ยวข้อง:ความเสี่ยงของการรั่วไหลข้อมูลส่วนบุคคลของบริษัทและค่าเสียหายที่ต้องชดใช้[ja]

ความเสี่ยงจากการสร้างเนื้อหาที่เป็นอันตรายโดยไม่ได้ตั้งใจ

ความเสี่ยงจากการสร้างเนื้อหาที่เป็นอันตรายโดยไม่ได้ตั้งใจ

ขึ้นอยู่กับเนื้อหาที่ ChatGPT ได้เรียนรู้และเนื้อหาของคำสั่งที่ให้ไป อาจมีความเป็นไปได้ที่จะสร้างเนื้อหาที่เป็นอันตรายได้ หากเผยแพร่เนื้อหาที่ ChatGPT สร้างขึ้นโดยไม่ได้ตรวจสอบก่อน อาจทำให้ชื่อเสียงและมูลค่าของแบรนด์บริษัทเสียหาย และอาจนำไปสู่ปัญหาทางกฎหมายได้

แม้ว่าเนื้อหาที่เป็นอันตรายจะถูกตั้งค่าไม่ให้สามารถป้อนหรือส่งออกโดย ChatGPT แต่โค้ดโปรแกรมที่เป็นอันตรายหรือบริการที่เป็นการฉ้อโกงอาจยากที่จะแยกแยะและอาจถูกส่งออกไปโดยไม่ตั้งใจได้ การตระหนักถึงความเสี่ยงเหล่านี้และมีระบบการตรวจสอบเนื้อหาที่สร้างขึ้นอย่างสม่ำเสมอจึงเป็นสิ่งสำคัญ

เข้าใจเงื่อนไขการใช้งานเพื่อหลีกเลี่ยงความเสี่ยงจากการใช้ ChatGPT

ในการใช้ ChatGPT สำหรับธุรกิจ คุณต้องใช้งานตามเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวของ OpenAI เพื่อหลีกเลี่ยงความเสี่ยง โดยเงื่อนไขการใช้งานมักจะมีการแก้ไขอย่างสม่ำเสมอ ดังนั้น เมื่อใช้งานในเชิงธุรกิจ คุณจำเป็นต้องตรวจสอบจุดที่มีการแก้ไขและทำความเข้าใจเงื่อนไขการใช้งานล่าสุด

บทความที่เกี่ยวข้อง:การอธิบายเงื่อนไขการใช้งานของ OpenAI และข้อควรระวังในการใช้งานเชิงพาณิชย์คืออะไร?[ja]

สิ่งที่จำเป็นเพื่อหลีกเลี่ยงความเสี่ยงในการใช้งาน ChatGPT ในธุรกิจ

การสร้างกฎระเบียบภายในบริษัท

เพื่อหลีกเลี่ยงความเสี่ยงที่อาจเกิดจาก ChatGPT และใช้งานได้อย่างเหมาะสมในธุรกิจ บริษัทจำเป็นต้องมีระบบกำกับดูแลดังต่อไปนี้

สร้างกฎระเบียบภายในบริษัท

ในวันที่ 1 พฤษภาคม 2023 (2023年5月1日) สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) ได้รวบรวมประเด็นทางจริยธรรม กฎหมาย และสังคม (ELSI) ที่เกี่ยวข้องกับ ChatGPT และเผยแพร่ ‘แนวทางการใช้งาน AI ที่สร้างสรรค์’ ทั้งนี้ การพัฒนาแนวทางดังกล่าวกำลังถูกพิจารณาในหลายภาคส่วน ทั้งในวงการอุตสาหกรรม การศึกษา และภาครัฐ

เมื่อบริษัทต้องการนำ ChatGPT มาใช้งาน ไม่เพียงแต่ต้องเพิ่มความรู้เกี่ยวกับความปลอดภัยของข้อมูลส่วนบุคคลและการศึกษาภายในองค์กรเท่านั้น แต่ยังควรจัดทำแนวทางการใช้งาน ChatGPT ของบริษัทเองด้วย การกำหนดแนวทางการใช้งาน ChatGPT ที่ชัดเจนและทำให้ทุกคนในบริษัทเข้าใจได้จะช่วยลดความเสี่ยงได้

อ้างอิง: สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) | ‘แนวทางการใช้งาน AI ที่สร้างสรรค์[ja]

การตั้งผู้ควบคุมการใช้งาน ChatGPT

การมีผู้ควบคุมการใช้งาน ChatGPT ภายในบริษัทเพื่อตรวจสอบการปฏิบัติตามแนวทางและจัดการความเสี่ยงเป็นอีกวิธีหนึ่งที่ช่วยลดความเสี่ยงได้

การตรวจสอบพฤติกรรมของ ChatGPT การแก้ไขผลลัพธ์ที่สร้างขึ้น และการจัดการข้อมูลเป็นส่วนหนึ่งของการตรวจสอบที่คล้ายคลึงกับการตรวจสอบระบบ การตรวจสอบระบบเป็นการประเมินความเป็นไปได้ ความปลอดภัย และความน่าเชื่อถือของระบบสารสนเทศอย่างเป็นกลาง โดยมีวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพของงานและสนับสนุนการเปลี่ยนแปลงในองค์กร การมีผู้ควบคุมที่ทำการตรวจสอบจะช่วยเพิ่มความโปร่งใสและความรับผิดชอบในการดำเนินงานด้วย

สรุป: การใช้งาน ChatGPT ในธุรกิจจำเป็นต้องมีมาตรการป้องกันความเสี่ยง

ในที่นี้ เราได้ให้คำอธิบายอย่างละเอียดเกี่ยวกับความเสี่ยงและมาตรการป้องกันเมื่อใช้งาน ChatGPT ในธุรกิจ

สำหรับการใช้งาน AI ที่พัฒนาอย่างรวดเร็วเช่น ChatGPT ในธุรกิจ จำเป็นต้องมีมาตรการต่างๆ ตั้งแต่การกำหนดแนวทางการใช้งานภายในองค์กร การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การสร้างสัญญาและเงื่อนไขการใช้งาน การปกป้องสิทธิ์ทรัพย์สินทางปัญญา และการจัดการกับข้อมูลส่วนบุคคล ซึ่งทั้งหมดนี้จำเป็นต้องมีการดำเนินการร่วมกับผู้เชี่ยวชาญที่มีความรู้เชี่ยวชาญเกี่ยวกับเทคโนโลยี AI

แนะนำมาตรการของทางสำนักงานเรา

สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นในด้าน IT โดยเฉพาะอย่างยิ่งกฎหมายที่เกี่ยวข้องกับอินเทอร์เน็ต ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมายที่ตามมา และการสนับสนุนจากทนายความที่มีความเชี่ยวชาญเกี่ยวกับปัญหาทางกฎหมายของ AI นั้นเป็นสิ่งที่จำเป็นอย่างยิ่ง

สำนักงานเราประกอบด้วยทีมทนายความที่มีความรู้ลึกซึ้งเกี่ยวกับ AI รวมถึงทีมวิศวกรและผู้เชี่ยวชาญอื่นๆ ให้บริการสนับสนุนทางกฎหมายในหลากหลายด้านสำหรับธุรกิจ AI รวมถึง ChatGPT รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้

สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

กลับไปด้านบน