ความเสี่ยงในการใช้ ChatGPT สําหรับงานอาชีพคืออะไร? อธิบายปัญหาทางกฎหมายด้วย
ตั้งแต่ ChatGPT ได้รับการเปิดตัวมา ได้รับความสนใจอย่างมากจากทั่วโลกในด้านประโยชน์ที่มีต่อผู้ใช้งาน อย่างไรก็ตาม ก็เป็นที่รู้จักด้วยความเสี่ยงที่อาจเกิดขึ้นได้หลายประการ ในขณะที่กฎหมายยังอยู่ในระหว่างการพัฒนา ความจริงก็คือ ผู้บริหารหลายคนยังรู้สึกไม่แน่ใจเกี่ยวกับความเสี่ยงและวิธีการบริหารความเสี่ยงเมื่อใช้ ChatGPT ในธุรกิจ
บทความนี้จะอธิบายเกี่ยวกับความเสี่ยงทางกฎหมายและมาตรการในการใช้ ChatGPT สำหรับการทำธุรกิจ
4 ความเสี่ยงเมื่อใช้ ChatGPT ในงานธุรกิจ
ในหมู่บริษัทต่างๆ การใช้ประโยชน์จาก AI ที่สร้างภาษาธรรมชาติอย่าง ChatGPT กำลังเป็นที่นิยม โดยในปีงบประมาณ 2022 (รัชกาลที่ 5 ปี 2023) อัตราการนำไปใช้ในบริษัทมีสูงถึง 13.5% และหากรวมถึงบริษัทที่มีแผนจะนำไปใช้ จะเพิ่มขึ้นเป็น 24.0% (ที่มา: กระทรวงกิจการทั่วไปของญี่ปุ่น | รายงานประจำปีด้านการสื่อสารและข้อมูล ปี รัชกาลที่ 5 (2023) “สถานการณ์การนำระบบและบริการ IoT และ AI เข้ามาใช้ในบริษัท” ดูรายละเอียด)
ไม่ต้องสงสัยเลยว่าเทคโนโลยี AI รวมถึง ChatGPT นั้นมีประโยชน์ในการเพิ่มประสิทธิภาพการทำงานของบริษัท และสามารถสร้างโอกาสทางธุรกิจได้มากมาย อย่างไรก็ตาม มันยังมาพร้อมกับความเสี่ยงทางกฎหมายมากมายด้วย ดังนั้น จำเป็นต้องเข้าใจความเสี่ยงเหล่านี้อย่างถ่องแท้ก่อนที่จะตัดสินใจใช้ในธุรกิจ
ตัวอย่างเช่น ปัญหาเกี่ยวกับลิขสิทธิ์ การแพร่กระจายข้อมูลที่ผิดพลาด การรั่วไหลของข้อมูลลับ ปัญหาความเป็นส่วนตัว และการถูกใช้เป็นเครื่องมือในการโจมตีทางไซเบอร์ เป็นต้น ผู้เชี่ยวชาญได้เตือนถึงความเสี่ยงที่ซ่อนอยู่ของ AI เหล่านี้
ในบทนี้ เราจะอธิบายถึง 4 ความเสี่ยงที่อาจเกิดขึ้นเมื่อใช้ ChatGPT ในงานธุรกิจ
ความเสี่ยงของการรั่วไหลข้อมูลจากฟังก์ชันการเรียนรู้
แม้ว่า ChatGPT จะมีประโยชน์ แต่เนื่องจากเป็น AI แชทบอทที่ถูกสร้างขึ้นจากการเรียนรู้ข้อมูลต่างๆ บนเน็ตเวิร์ก หากไม่มีการดำเนินมาตรการใดๆ ข้อมูลที่ป้อนเข้าไปอาจถูกใช้ในการเรียนรู้และมีความเสี่ยงที่จะรั่วไหลออกไป
ตามนโยบายการใช้ข้อมูลของ OpenAI หากผู้ใช้ไม่ได้ทำการขอ ‘API’ หรือ ‘ออปต์เอาท์’ ข้อมูลที่ผู้ใช้ป้อนเข้าไปใน ChatGPT จะถูก OpenAI รวบรวมและใช้เพื่อการเรียนรู้ (การสะสมข้อมูล)
จำเป็นต้องระมัดระวังไม่ให้ป้อนข้อมูลส่วนบุคคลหรือข้อมูลลับที่มีความสำคัญในการเก็บรักษาความลับโดยไม่มีการดำเนินมาตรการใดๆ แม้ว่าจะมีการป้อนข้อมูลส่วนบุคคลเข้าไปใน ChatGPT โดยไม่ตั้งใจ ก็จะมีข้อความเตือนแสดงขึ้น และ ChatGPT จะไม่เก็บหรือติดตามข้อมูลส่วนบุคคล รวมถึงไม่สามารถแสดงผลในแชทได้
อย่างไรก็ตาม ในอดีตเคยมีเหตุการณ์ที่ข้อมูลส่วนบุคคลของผู้ใช้งานรั่วไหลออกมาจากบั๊กของระบบของบริษัท OpenAI ที่ดำเนินการ ChatGPT
บทความที่เกี่ยวข้อง:ความเสี่ยงของการรั่วไหลข้อมูลจาก ChatGPT และ 4 มาตรการที่ควรดำเนินการ[ja]
ความเสี่ยงจากข้อมูลที่ขาดความน่าเชื่อถือ
ตั้งแต่เดือนพฤษภาคม 2023 (รีวะ 5), ฟังก์ชันการเรียกดูเว็บของ ChatGPT ได้ถูกนำมาใช้งาน ทำให้ ChatGPT สามารถรวบรวมข้อมูลล่าสุดและตอบคำถามได้โดยอ้างอิงจากผลลัพธ์ที่ได้รับ
อย่างไรก็ตาม, แม้ว่า ChatGPT จะให้คำตอบที่ดูเหมือนเป็นความจริง แต่ความน่าเชื่อถือของข้อมูลนั้นไม่ได้รับการรับประกัน คำตอบที่ ChatGPT สร้างขึ้นไม่ได้ขึ้นอยู่กับความถูกต้องของข้อมูลจากข้อมูลการเรียนรู้ แต่เป็นการสร้างข้อความที่มีความน่าจะเป็นสูง (ที่เป็นไปได้มากที่สุด) ดังนั้น การตรวจสอบข้อเท็จจริงจึงเป็นสิ่งที่ขาดไม่ได้สำหรับคำตอบของ ChatGPT หากมีการเผยแพร่ข้อมูลเท็จโดยอ้างอิงจากคำตอบของ ChatGPT อาจทำให้ความน่าเชื่อถือของบริษัทเสียหายได้
วันที่ 3 เมษายน 2023 (รีวะ 5), มหาวิทยาลัยโตเกียวได้แสดงความกังวลเกี่ยวกับผลกระทบที่ ChatGPT อาจมีต่อสังคมในอนาคต และได้ประกาศแถลงการณ์ดังต่อไปนี้
“หลักการของ ChatGPT คือการสร้างข้อความที่ดูเหมือนจริงโดยอาศัยการเรียนรู้เครื่องจากข้อความและเนื้อหาที่มีอยู่มากมายผ่านการเรียนรู้เชิงเสริมและการเรียนรู้แบบเสริมความแข็งแกร่ง ดังนั้น ข้อความที่เขียนอาจมีความเป็นเท็จ มันเหมือนกับการสนทนากับบุคคลที่พูดเก่งแต่ไม่รู้จริง อย่างไรก็ตาม ในเวอร์ชันล่าสุด GPT-4 ความแม่นยำได้เพิ่มขึ้นอย่างมาก และเป็นที่ปรึกษาที่ยอดเยี่ยม ดังนั้น การใช้ ChatGPT อย่างชำนาญต้องการความรู้เชี่ยวชาญ และต้องตรวจสอบคำตอบอย่างมีวิจารณญาณ และทำการปรับแก้ไขตามความเหมาะสม นอกจากนี้ ChatGPT ไม่สามารถวิเคราะห์หรือเขียนเกี่ยวกับความรู้ใหม่ที่ไม่มีในข้อมูลที่มีอยู่ นั่นหมายความว่า แม้ ChatGPT จะมีอยู่ คนเราก็ไม่สามารถละเลยการเรียนรู้หรือการวิจัยได้ อย่างไรก็ตาม หากบุคคลที่มีความรู้ทั่วไปหรือความรู้เฉพาะทางสามารถวิเคราะห์เนื้อหาคำตอบอย่างมีวิจารณญาณและใช้งานได้อย่างชาญฉลาด ก็สามารถเพิ่มประสิทธิภาพของงานประจำได้อย่างมาก”
อ้างอิง: มหาวิทยาลัยโตเกียว | “เกี่ยวกับ AI ที่สร้างสรรค์ (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion ฯลฯ)[ja]“
ความเสี่ยงทางกฎหมาย เช่น การละเมิดลิขสิทธิ์และการละเมิดความเป็นส่วนตัว
การตัดสินใจเกี่ยวกับการละเมิดลิขสิทธิ์ใน ChatGPT จะแตกต่างกันใน “ขั้นตอนการพัฒนาและการเรียนรู้ AI” และ “ขั้นตอนการสร้างและการใช้งาน” เนื่องจากการใช้งานผลงานที่มีลิขสิทธิ์ในแต่ละขั้นตอนนั้นแตกต่างกัน ดังนั้น จึงจำเป็นต้องพิจารณาทั้งสองอย่างแยกกัน
อ้างอิง:หน่วยงานวัฒนธรรมญี่ปุ่น | สัมมนาลิขสิทธิ์ปี Reiwa 5 (2023) “AI และลิขสิทธิ์”[ja]
ในเดือนมกราคม 2019 ได้มีการบังคับใช้กฎหมายลิขสิทธิ์ที่แก้ไขใหม่ ซึ่งมีการเพิ่มข้อกำหนดการจำกัดสิทธิ์ (ข้อยกเว้นที่ไม่ต้องได้รับอนุญาต) ในมาตรา 30 ข้อที่ 4 สำหรับ “ขั้นตอนการพัฒนาและการเรียนรู้ AI” การใช้งานผลงานที่มีลิขสิทธิ์เพื่อการวิเคราะห์ข้อมูลในการพัฒนา AI ซึ่งไม่ได้มีจุดประสงค์เพื่อรับรู้ความคิดหรืออารมณ์ที่ถูกแสดงออกมา สามารถดำเนินการได้โดยไม่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์ตามหลักการ
ในทางกลับกัน หากผลงานที่ ChatGPT สร้างขึ้นมีความคล้ายคลึงหรือขึ้นอยู่กับผลงานที่มีลิขสิทธิ์ (การเปลี่ยนแปลง) อาจถือเป็นการละเมิดลิขสิทธิ์ได้ ดังนั้น ก่อนที่จะเผยแพร่ผลงาน จำเป็นต้องตรวจสอบเจ้าของสิทธิ์ของข้อมูลที่ ChatGPT อ้างอิง และตรวจสอบว่าไม่มีเนื้อหาที่คล้ายคลึงกับสิ่งที่ ChatGPT สร้างขึ้น นอกจากนี้ หากจะอ้างอิงผลงาน จำเป็นต้องระบุแหล่งที่มาอย่างชัดเจน (ข้อกำหนดการจำกัดสิทธิ์) และหากจะทำการเผยแพร่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์เพื่อดำเนินการอย่างถูกต้อง
ตามเงื่อนไขการใช้งานของบริษัท OpenAI ระบุว่า ผลงานที่ ChatGPT สร้างขึ้นสามารถใช้เพื่อการค้าได้ แต่หากมีความยากลำบากในการตัดสินใจว่าเนื้อหาที่สร้างขึ้นด้วย ChatGPT นั้นละเมิดลิขสิทธิ์หรือไม่ ขอแนะนำให้ปรึกษากับผู้เชี่ยวชาญ
หากถูกเจ้าของลิขสิทธิ์ชี้แจงว่ามีการละเมิดลิขสิทธิ์ อาจต้องรับผิดทางแพ่ง (ค่าเสียหาย ค่าทดแทน การห้ามใช้งาน การฟื้นฟูชื่อเสียง และมาตรการทางกฎหมายอื่นๆ) หรือทางอาญา (ความผิดที่ต้องมีผู้เสียหายร้องเรียน) สำหรับบริษัท อาจมีการใช้กฎหมายที่ลงโทษทั้งบุคคลและนิติบุคคล ซึ่งอาจทำให้เกิดความเสียหายอย่างมาก
นอกจากนี้ ในเรื่องข้อมูลส่วนบุคคลและความเป็นส่วนตัว จำเป็นต้องระมัดระวังไม่ให้ป้อนข้อมูลเหล่านี้เข้าไปใน ChatGPT ดังที่ได้กล่าวไว้ข้างต้น แม้ว่า ChatGPT จะไม่เก็บหรือติดตามข้อมูลส่วนบุคคล และไม่สามารถแสดงผลข้อมูลเหล่านั้นผ่านการสนทนาได้ แต่นี่เป็นนโยบายของ OpenAI เท่านั้น บนแพลตฟอร์มหรือบริการอื่นๆ อาจมีนโยบายที่แตกต่างกัน
สำหรับความเสี่ยงของการรั่วไหลของข้อมูลส่วนบุคคล กรุณาอ่านบทความที่เกี่ยวข้องด้านล่างนี้
บทความที่เกี่ยวข้อง:ความเสี่ยงของการรั่วไหลข้อมูลส่วนบุคคลของบริษัทและค่าเสียหายที่ต้องชดใช้[ja]
ความเสี่ยงจากการสร้างเนื้อหาที่เป็นอันตรายโดยไม่ได้ตั้งใจ
ขึ้นอยู่กับเนื้อหาที่ ChatGPT ได้เรียนรู้และเนื้อหาของคำสั่งที่ให้ไป อาจมีความเป็นไปได้ที่จะสร้างเนื้อหาที่เป็นอันตรายได้ หากเผยแพร่เนื้อหาที่ ChatGPT สร้างขึ้นโดยไม่ได้ตรวจสอบก่อน อาจทำให้ชื่อเสียงและมูลค่าของแบรนด์บริษัทเสียหาย และอาจนำไปสู่ปัญหาทางกฎหมายได้
แม้ว่าเนื้อหาที่เป็นอันตรายจะถูกตั้งค่าไม่ให้สามารถป้อนหรือส่งออกโดย ChatGPT แต่โค้ดโปรแกรมที่เป็นอันตรายหรือบริการที่เป็นการฉ้อโกงอาจยากที่จะแยกแยะและอาจถูกส่งออกไปโดยไม่ตั้งใจได้ การตระหนักถึงความเสี่ยงเหล่านี้และมีระบบการตรวจสอบเนื้อหาที่สร้างขึ้นอย่างสม่ำเสมอจึงเป็นสิ่งสำคัญ
เข้าใจเงื่อนไขการใช้งานเพื่อหลีกเลี่ยงความเสี่ยงจากการใช้ ChatGPT
ในการใช้ ChatGPT สำหรับธุรกิจ คุณต้องใช้งานตามเงื่อนไขการใช้งานและนโยบายความเป็นส่วนตัวของ OpenAI เพื่อหลีกเลี่ยงความเสี่ยง โดยเงื่อนไขการใช้งานมักจะมีการแก้ไขอย่างสม่ำเสมอ ดังนั้น เมื่อใช้งานในเชิงธุรกิจ คุณจำเป็นต้องตรวจสอบจุดที่มีการแก้ไขและทำความเข้าใจเงื่อนไขการใช้งานล่าสุด
บทความที่เกี่ยวข้อง:การอธิบายเงื่อนไขการใช้งานของ OpenAI และข้อควรระวังในการใช้งานเชิงพาณิชย์คืออะไร?[ja]
สิ่งที่จำเป็นเพื่อหลีกเลี่ยงความเสี่ยงในการใช้งาน ChatGPT ในธุรกิจ
เพื่อหลีกเลี่ยงความเสี่ยงที่อาจเกิดจาก ChatGPT และใช้งานได้อย่างเหมาะสมในธุรกิจ บริษัทจำเป็นต้องมีระบบกำกับดูแลดังต่อไปนี้
สร้างกฎระเบียบภายในบริษัท
ในวันที่ 1 พฤษภาคม 2023 (2023年5月1日) สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) ได้รวบรวมประเด็นทางจริยธรรม กฎหมาย และสังคม (ELSI) ที่เกี่ยวข้องกับ ChatGPT และเผยแพร่ ‘แนวทางการใช้งาน AI ที่สร้างสรรค์’ ทั้งนี้ การพัฒนาแนวทางดังกล่าวกำลังถูกพิจารณาในหลายภาคส่วน ทั้งในวงการอุตสาหกรรม การศึกษา และภาครัฐ
เมื่อบริษัทต้องการนำ ChatGPT มาใช้งาน ไม่เพียงแต่ต้องเพิ่มความรู้เกี่ยวกับความปลอดภัยของข้อมูลส่วนบุคคลและการศึกษาภายในองค์กรเท่านั้น แต่ยังควรจัดทำแนวทางการใช้งาน ChatGPT ของบริษัทเองด้วย การกำหนดแนวทางการใช้งาน ChatGPT ที่ชัดเจนและทำให้ทุกคนในบริษัทเข้าใจได้จะช่วยลดความเสี่ยงได้
อ้างอิง: สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) | ‘แนวทางการใช้งาน AI ที่สร้างสรรค์[ja]‘
การตั้งผู้ควบคุมการใช้งาน ChatGPT
การมีผู้ควบคุมการใช้งาน ChatGPT ภายในบริษัทเพื่อตรวจสอบการปฏิบัติตามแนวทางและจัดการความเสี่ยงเป็นอีกวิธีหนึ่งที่ช่วยลดความเสี่ยงได้
การตรวจสอบพฤติกรรมของ ChatGPT การแก้ไขผลลัพธ์ที่สร้างขึ้น และการจัดการข้อมูลเป็นส่วนหนึ่งของการตรวจสอบที่คล้ายคลึงกับการตรวจสอบระบบ การตรวจสอบระบบเป็นการประเมินความเป็นไปได้ ความปลอดภัย และความน่าเชื่อถือของระบบสารสนเทศอย่างเป็นกลาง โดยมีวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพของงานและสนับสนุนการเปลี่ยนแปลงในองค์กร การมีผู้ควบคุมที่ทำการตรวจสอบจะช่วยเพิ่มความโปร่งใสและความรับผิดชอบในการดำเนินงานด้วย
สรุป: การใช้งาน ChatGPT ในธุรกิจจำเป็นต้องมีมาตรการป้องกันความเสี่ยง
ในที่นี้ เราได้ให้คำอธิบายอย่างละเอียดเกี่ยวกับความเสี่ยงและมาตรการป้องกันเมื่อใช้งาน ChatGPT ในธุรกิจ
สำหรับการใช้งาน AI ที่พัฒนาอย่างรวดเร็วเช่น ChatGPT ในธุรกิจ จำเป็นต้องมีมาตรการต่างๆ ตั้งแต่การกำหนดแนวทางการใช้งานภายในองค์กร การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การสร้างสัญญาและเงื่อนไขการใช้งาน การปกป้องสิทธิ์ทรัพย์สินทางปัญญา และการจัดการกับข้อมูลส่วนบุคคล ซึ่งทั้งหมดนี้จำเป็นต้องมีการดำเนินการร่วมกับผู้เชี่ยวชาญที่มีความรู้เชี่ยวชาญเกี่ยวกับเทคโนโลยี AI
แนะนำมาตรการของทางสำนักงานเรา
สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นในด้าน IT โดยเฉพาะอย่างยิ่งกฎหมายที่เกี่ยวข้องกับอินเทอร์เน็ต ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมายที่ตามมา และการสนับสนุนจากทนายความที่มีความเชี่ยวชาญเกี่ยวกับปัญหาทางกฎหมายของ AI นั้นเป็นสิ่งที่จำเป็นอย่างยิ่ง
สำนักงานเราประกอบด้วยทีมทนายความที่มีความรู้ลึกซึ้งเกี่ยวกับ AI รวมถึงทีมวิศวกรและผู้เชี่ยวชาญอื่นๆ ให้บริการสนับสนุนทางกฎหมายในหลากหลายด้านสำหรับธุรกิจ AI รวมถึง ChatGPT รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้
สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]
Category: IT
Tag: ITTerms of Use