MONOLITH LAW OFFICE+81-3-6262-3248วันธรรมดา 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

ความเสี่ยงในการนํา ChatGPT ไปใช้ในองค์กรคืออะไร อธิบายตัวอย่างการรั่วไหลของข้อมูลลับและมาตรการป้องกัน

IT

ความเสี่ยงในการนํา ChatGPT ไปใช้ในองค์กรคืออะไร อธิบายตัวอย่างการรั่วไหลของข้อมูลลับและมาตรการป้องกัน

การนำ ChatGPT เข้ามาใช้งานภายในองค์กรกำลังเพิ่มขึ้นอย่างต่อเนื่อง แม้ว่าจะมีความสนใจเพิ่มขึ้นในประโยชน์ที่ได้รับ แต่ก็มีข้อควรระวังหลายประการที่เราต้องใส่ใจ หนึ่งในนั้นคือการไม่ควรป้อนข้อมูลลับของบริษัทเข้าไปใน ChatGPT เพราะมีกรณีในต่างประเทศที่การป้อนข้อมูลลับนำไปสู่การรั่วไหลของข้อมูลสำคัญของบริษัท

ในบทความนี้ ทนายความของเราจะอธิบายเกี่ยวกับการใช้ ChatGPT ในธุรกิจที่กำลังพัฒนาอย่างรวดเร็ว โดยเน้นไปที่ความเสี่ยงของการรั่วไหลของข้อมูลลับ พร้อมทั้งยกตัวอย่างและแนะนำมาตรการที่ควรดำเนินการ

เหตุผลที่ไม่ควรป้อนข้อมูลลับใน ChatGPT

แม้ ChatGPT จะเป็นเครื่องมือที่สะดวกสบาย แต่เนื่องจากเป็น AI แชทบอทที่ถูกสร้างขึ้นจากการเรียนรู้ข้อมูลขนาดใหญ่บนเน็ตและข้อมูลการใช้งาน หากไม่มีการดำเนินมาตรการใดๆ ข้อมูลลับที่ป้อนเข้าไปอาจมีความเสี่ยงที่จะรั่วไหลออกไปได้

เราจะอธิบายเกี่ยวกับมาตรการป้องกันความเสี่ยงจากการรั่วไหลของข้อมูลลับในภายหลัง แต่ก่อนอื่น มาทำความเข้าใจเกี่ยวกับความเสี่ยงอื่นๆ ที่ไม่เกี่ยวข้องกับการรั่วไหลของข้อมูลลับใน ChatGPT กันก่อน

ความเสี่ยงอื่นๆ นอกเหนือจากการรั่วไหลของข้อมูลลับของบริษัทเมื่อใช้ ChatGPT

ในปัจจุบัน ChatGPT กำลังอยู่ในขั้นตอนของการทดสอบการนำไปใช้งานในหลายๆ บริษัท ด้วยเหตุนี้ จึงจำเป็นต้องตัดสินใจว่าจะใช้ ChatGPT ในการดำเนินธุรกิจหรือไม่ หลังจากที่ได้เข้าใจถึงความเสี่ยงอย่างเพียงพอแล้ว

ความเสี่ยงด้านความปลอดภัยที่บริษัทอาจเผชิญเมื่อใช้ ChatGPT นอกเหนือจากการรั่วไหลของข้อมูลลับ (รวมถึงข้อมูลส่วนบุคคล) มีดังนี้

  • ความเสี่ยงเกี่ยวกับความน่าเชื่อถือของข้อมูลที่ได้รับ
  • ความเสี่ยงของการละเมิดลิขสิทธิ์ของข้อมูลที่ป้อนและได้รับ

เราจะอธิบายรายละเอียดของแต่ละประเด็นต่อไปนี้

ข้อมูลที่ได้รับอาจขาดความน่าเชื่อถือ

GPT-4 ที่เปิดตัวเมื่อวันที่ 14 มีนาคม 2023 ได้มีการติดตั้งฟังก์ชันการค้นหา ทำให้สามารถให้ข้อมูลที่ทันสมัยได้ อย่างไรก็ตาม ChatGPT ในการตอบคำถาม มักจะให้ข้อมูลที่ดูเหมือนเป็นความจริง แต่ความน่าเชื่อถือของข้อมูลนั้นไม่ได้รับการรับประกัน คำตอบที่ ChatGPT สร้างขึ้นมานั้นไม่ได้ขึ้นอยู่กับความถูกต้องของข้อมูลจากข้อมูลที่ได้เรียนรู้ แต่เป็นการสร้างข้อความที่มีความน่าจะเป็นสูงที่สุด ดังนั้น ก่อนที่จะใช้ผลลัพธ์ที่ได้ จำเป็นต้องตรวจสอบข้อเท็จจริงอย่างละเอียด หากบริษัทเผยแพร่ข้อมูลที่ไม่เป็นความจริง อาจทำให้ความน่าเชื่อถือของบริษัทเองได้รับความเสียหาย

ความเสี่ยงทางกฎหมาย เช่น การละเมิดลิขสิทธิ์

ความเสี่ยงทางกฎหมาย เช่น การละเมิดลิขสิทธิ์

การตัดสินใจเกี่ยวกับการละเมิดลิขสิทธิ์ใน ChatGPT จะแตกต่างกันใน “ขั้นตอนการพัฒนาและการเรียนรู้ของ AI” และ “ขั้นตอนการสร้างและการใช้งาน” เนื่องจากการกระทำที่เกี่ยวข้องกับการใช้งานผลงานที่มีลิขสิทธิ์ในแต่ละขั้นตอนนั้นแตกต่างกัน จึงจำเป็นต้องพิจารณาแยกกัน

อ้างอิง:สำนักงานวัฒนธรรมญี่ปุ่น | สัมมนาลิขสิทธิ์ปี 2023 (Reiwa 5) “AI และลิขสิทธิ์”[ja]

ในการแก้ไขกฎหมายลิขสิทธิ์ที่มีผลบังคับใช้เมื่อเดือนมกราคม 2019 ได้มีการเพิ่ม “ขั้นตอนการพัฒนาและการเรียนรู้ของ AI” ใหม่ในมาตรา 30 ข้อ 4 ซึ่งเป็นข้อกำหนดที่จำกัดสิทธิ์ (ข้อยกเว้นที่ไม่ต้องได้รับอนุญาต) การใช้งานผลงานที่มีลิขสิทธิ์เพื่อการวิเคราะห์ข้อมูล เช่น การพัฒนา AI ที่ไม่ได้มีวัตถุประสงค์เพื่อรับรู้ความคิดหรืออารมณ์ที่แสดงออกในผลงานนั้น สามารถดำเนินการได้โดยไม่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์ตามหลักการ

ในทางกลับกัน หากผลงานที่ ChatGPT สร้างขึ้นมีความคล้ายคลึงหรือขึ้นอยู่กับผลงานที่มีลิขสิทธิ์ (การเปลี่ยนแปลง) อาจถือเป็นการละเมิดลิขสิทธิ์ ดังนั้น ก่อนที่จะเผยแพร่ผลงาน จำเป็นต้องตรวจสอบเจ้าของสิทธิ์ของข้อมูลที่ ChatGPT อ้างอิง และตรวจสอบว่าไม่มีเนื้อหาที่คล้ายคลึงกับสิ่งที่ ChatGPT สร้างขึ้น นอกจากนี้ หากจะอ้างอิงผลงาน จำเป็นต้องระบุแหล่งที่มาอย่างชัดเจน (ข้อกำหนดที่จำกัดสิทธิ์) หรือหากจะทำการเผยแพร่ต่อ จำเป็นต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์ และต้องดำเนินการอย่างถูกต้อง

หากเจ้าของลิขสิทธิ์ชี้ให้เห็นถึงการละเมิดลิขสิทธิ์ อาจถูกดำเนินคดีทางแพ่ง (ค่าเสียหาย ค่าทดแทน การห้ามใช้งาน การฟื้นฟูชื่อเสียง ฯลฯ) หรือคดีอาญา (ความผิดที่ต้องมีผู้เสียหายร้องทุกข์)

กรณีที่เกิดปัญหาจากการป้อนข้อมูลลับใน ChatGPT

เมื่อวันที่ 30 มีนาคม 2023 (2023年3月30日) สื่อเกาหลี ‘EConomist’ ได้รายงานว่า หลังจากที่บริษัทซัมซุงอิเล็กทรอนิกส์ได้อนุญาตให้ใช้งาน ChatGPT ในส่วนของฝ่ายผลิตชิปกึ่งตัวนำ ได้เกิดกรณีที่มีการป้อนข้อมูลลับเข้าไปถึง 3 ครั้ง

ทางด้านบริษัทซัมซุงอิเล็กทรอนิกส์ได้มีการเตือนความระมัดระวังเกี่ยวกับความปลอดภัยข้อมูลภายในองค์กร แต่ก็ยังมีพนักงานที่ส่งโค้ดแหล่งที่มา (source code) เพื่อขอแก้ไขโปรแกรม (2 กรณี) และมีพนักงานที่ส่งเนื้อหาการประชุมเพื่อการจัดทำรายงานการประชุม

หลังจากเกิดเหตุการณ์เหล่านี้ บริษัทได้ดำเนินมาตรการฉุกเฉินโดยการจำกัดขนาดไฟล์ที่อัปโหลดต่อคำถามหนึ่งคำถามใน ChatGPT นอกจากนี้ บริษัทยังได้กล่าวว่าหากเหตุการณ์เช่นนี้เกิดขึ้นอีก อาจจะมีการตัดการเชื่อมต่อกับ ChatGPT ได้

ทั้งนี้ Walmart และ Amazon ก็ได้เตือนพนักงานของตนเองให้ไม่แชร์ข้อมูลลับผ่านทางชาตบอท ทนายความของ Amazon ได้กล่าวว่า มีกรณีที่คำตอบจาก ChatGPT มีความคล้ายคลึงกับข้อมูลภายในของ Amazon ซึ่งอาจบ่งบอกว่าข้อมูลเหล่านั้นถูกนำไปใช้ในการเรียนรู้ของระบบ

มาตรการป้องกันการรั่วไหลของข้อมูลลับในการใช้งาน ChatGPT

OpenAI ได้ชี้แจงในเงื่อนไขการใช้งานและเอกสารอื่นๆ ว่า ข้อมูลที่ถูกป้อนเข้ามาจะถูกใช้เพื่อการปรับปรุงระบบและการเรียนรู้ของระบบ และได้เรียกร้องให้ผู้ใช้งานไม่ส่งข้อมูลที่มีความละเอียดอ่อน

ในบทนี้ เราจะแนะนำมาตรการ 4 ประการที่ครอบคลุมทั้งด้านฮาร์ดแวร์และซอฟต์แวร์ เพื่อป้องกันการรั่วไหลของข้อมูลลับในการใช้งาน ChatGPT

การกำหนดแนวทางการใช้งานภายในองค์กร

การกำหนดแนวทางการใช้งานภายในองค์กร

ในการนำ ChatGPT มาใช้ในองค์กร นอกจากจะเพิ่มความรู้เกี่ยวกับความปลอดภัยของข้อมูลส่วนบุคคลและการเรียนรู้ทักษะใหม่ภายในองค์กรแล้ว การกำหนดแนวทางการใช้ ChatGPT ของบริษัทเองก็เป็นสิ่งที่ควรทำ

วันที่ 1 พฤษภาคม 2023 (รีวะ 5), สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) ได้รวบรวมประเด็นทางจริยธรรม กฎหมาย และสังคม (ELSI) ของ ChatGPT และเปิดเผย “แนวทางการใช้ AI ที่สร้างสรรค์” ซึ่งหน่วยงานในภาครัฐ ภาคการศึกษา และภาคเอกชนต่างก็เริ่มพิจารณาการกำหนดแนวทางเหล่านี้

โดยอ้างอิงจากแนวทางเหล่านี้ การกำหนดแนวทางการใช้ ChatGPT ที่ชัดเจนสำหรับบริษัทของคุณสามารถช่วยลดความเสี่ยงได้ในระดับหนึ่ง

อ้างอิง: สมาคมการเรียนรู้เชิงลึกของญี่ปุ่น (JDLA) | แนวทางการใช้ AI ที่สร้างสรรค์[ja]

การนำเทคโนโลยีที่ป้องกันไม่ให้ข้อมูลลับรั่วไหล

เพื่อป้องกันข้อผิดพลาดของมนุษย์ที่อาจทำให้ข้อมูลลับรั่วไหล, การนำระบบที่เรียกว่า DLP (Data Loss Prevention) ซึ่งเป็นระบบที่ออกแบบมาเพื่อป้องกันการรั่วไหลของข้อมูลที่เฉพาะเจาะจง สามารถช่วยป้องกันการส่งหรือคัดลอกข้อมูลลับได้

DLP เป็นฟังก์ชันที่ตรวจสอบข้อมูลที่ป้อนเข้ามาอย่างต่อเนื่อง และสามารถระบุและปกป้องข้อมูลลับหรือข้อมูลสำคัญได้อัตโนมัติ การใช้ DLP ช่วยให้เมื่อตรวจพบข้อมูลลับ สามารถแจ้งเตือนหรือบล็อกการดำเนินการได้ ทำให้สามารถป้องกันการรั่วไหลของข้อมูลจากภายในได้อย่างแน่นอน โดยควบคุมต้นทุนการจัดการได้ อย่างไรก็ตาม การนำระบบความปลอดภัยมาใช้ต้องการความเข้าใจที่ลึกซึ้ง และอาจเป็นเรื่องยากสำหรับบริษัทที่ไม่มีแผนกเทคโนโลยีในการนำไปใช้งานได้อย่างราบรื่น

การพิจารณาการนำเครื่องมือเฉพาะกิจมาใช้

ตั้งแต่เดือนมีนาคม 2023 (พ.ศ. 2566) ChatGPT ได้เริ่มให้บริการ API (Application Programming Interface หรือ อินเตอร์เฟซที่เชื่อมต่อซอฟต์แวร์ โปรแกรม และเว็บเซอร์วิสต่างๆ) ซึ่งทำให้สามารถป้องกันการรั่วไหลของข้อมูลที่ถูกส่งไปยัง ChatGPT ได้

ข้อมูลที่ถูกส่งผ่าน API จะไม่ถูกใช้เพื่อการเรียนรู้หรือปรับปรุง แต่จะถูกเก็บไว้เป็นเวลา 30 วันเพื่อ “การตรวจสอบเพื่อป้องกันการใช้งานที่ไม่ถูกต้องหรือการใช้งานผิดพลาด” ก่อนที่จะถูกลบทิ้งตามข้อกำหนดการเก็บข้อมูล อย่างไรก็ตาม หากมี “คำขอทางกฎหมาย” ข้อมูลอาจถูกเก็บไว้นานขึ้นได้

แม้ว่าจะตั้งค่า ChatGPT ไม่ให้ใช้ข้อมูลเพื่อการเรียนรู้หรือปรับปรุง แต่ข้อมูลก็ยังคงถูกเก็บไว้ที่เซิร์ฟเวอร์เป็นระยะเวลาหนึ่ง ดังนั้น ทฤษฎีแล้วยังมีความเสี่ยงที่ข้อมูลอาจรั่วไหล ดังนั้น จำเป็นต้องระมัดระวังอย่างมากเมื่อป้อนข้อมูลลับหรือข้อมูลส่วนบุคคล

อย่างไรก็ตาม OpenAI ให้ความสำคัญกับความเป็นส่วนตัวของผู้ใช้และความปลอดภัยของข้อมูล โดยมีมาตรการความปลอดภัยที่เข้มงวด หากต้องการใช้งานที่ปลอดภัยยิ่งขึ้น แนะนำให้นำเครื่องมือที่มีมาตรการความปลอดภัยสูงอย่าง “Azure OpenAI Service” มาใช้

เครื่องมือที่ออกแบบมาเพื่อองค์กรอย่าง “Azure OpenAI Service” จะไม่เก็บข้อมูลที่ป้อนผ่าน API บน ChatGPT นอกจากนี้ หากยื่นขอออปต์เอาท์และผ่านการตรวจสอบ จะสามารถปฏิเสธการเก็บรักษาและการตรวจสอบข้อมูลที่ป้อนเป็นเวลา 30 วันตามหลักการได้ ซึ่งช่วยหลีกเลี่ยงความเสี่ยงของการรั่วไหลของข้อมูลได้

วิธีการตั้งค่าเพื่อไม่ให้ ChatGPT เรียนรู้ข้อมูลลับที่ป้อนเข้าไป

ตามที่ได้กล่าวไว้ข้างต้น ChatGPT จะเรียนรู้เนื้อหาที่เป็นออปต์อินทั้งหมด ดังนั้นตั้งแต่วันที่ 25 เมษายน 2023 (2023) ได้มีการเพิ่มฟังก์ชันที่ช่วยให้สามารถตั้งค่าเป็นออปต์เอาท์ได้ล่วงหน้า

เป็นมาตรการป้องกันโดยตรง หากต้องการปฏิเสธไม่ให้ข้อมูลที่ป้อนเข้าไปใน ChatGPT ถูกใช้เพื่อการเรียนรู้หรือปรับปรุง คุณจะต้องยื่นคำขอ “ออปต์เอาท์” โดย ChatGPT ได้เตรียมฟอร์ม Google สำหรับการ “ออปต์เอาท์” ไว้ คุณควรดำเนินการนี้เพื่อความปลอดภัย (กรอกอีเมล์, รหัสองค์กร และชื่อองค์กร แล้วส่งข้อมูล)

อย่างไรก็ตาม แม้ในกรณีนี้ ข้อมูลที่ป้อนเข้าไปจะยังคงถูก OpenAI ตรวจสอบและเก็บไว้ที่เซิร์ฟเวอร์เป็นระยะเวลาหนึ่ง (โดยปกติคือ 30 วัน)

ข้อกำหนดการใช้งาน ChatGPT

3.เนื้อหา

(c) การใช้เนื้อหาเพื่อปรับปรุงบริการ

เราไม่ใช้เนื้อหาที่คุณให้ไว้หรือรับจาก API ของเรา (“เนื้อหา API”) เพื่อพัฒนาหรือปรับปรุงบริการของเรา

เราอาจใช้เนื้อหาจากบริการอื่นที่ไม่ใช่ API ของเรา (“เนื้อหาที่ไม่ใช่ API”) เพื่อช่วยในการพัฒนาและปรับปรุงบริการของเรา

หากคุณไม่ต้องการให้เนื้อหาที่ไม่ใช่ API ของคุณถูกใช้เพื่อปรับปรุงบริการ คุณสามารถเลือกออปต์เอาท์ได้โดยการกรอกฟอร์มนี้ โปรดทราบว่าในบางกรณีอาจจำกัดความสามารถของบริการของเราในการตอบสนองต่อกรณีการใช้งานเฉพาะของคุณ

อ้างอิงจาก: เว็บไซต์อย่างเป็นทางการของ OpenAI | ข้อกำหนดการใช้งาน ChatGPT https://openai.com/policies/terms-of-use

สรุป: การใช้ ChatGPT ในธุรกิจจำเป็นต้องมีมาตรการดูแลข้อมูลลับ

ข้างต้นนี้คือการอธิบายถึงความเสี่ยงในการรั่วไหลของข้อมูลลับและมาตรการที่ควรดำเนินการเมื่อใช้ ChatGPT ในธุรกิจ โดยอ้างอิงจากตัวอย่างที่เกิดขึ้นจริง

การใช้งาน AI ที่พัฒนาอย่างรวดเร็วเช่น ChatGPT ในธุรกิจ จำเป็นต้องมีการกำหนดแนวทางการใช้งานภายในองค์กร การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การจัดทำสัญญาและเงื่อนไขการใช้งาน การปกป้องสิทธิ์ทรัพย์สินทางปัญญา และการจัดการกับข้อมูลส่วนบุคคล ซึ่งทั้งหมดนี้ต้องมีการวางมาตรการร่วมกับผู้เชี่ยวชาญ

บทความที่เกี่ยวข้อง: กฎหมายเกี่ยวกับ Web3 คืออะไร? รวมถึงจุดสำคัญที่บริษัทที่เข้ามาใหม่ควรทราบ[ja]

แนะนำมาตรการของทางสำนักงานเรา

สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นทั้งในด้าน IT โดยเฉพาะอินเทอร์เน็ตและกฎหมาย ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย และการสนับสนุนจากทนายความที่มีความเชี่ยวชาญด้านปัญหากฎหมายเกี่ยวกับ AI นั้นจำเป็นอย่างยิ่ง

ทางสำนักงานเราประกอบด้วยทีมทนายความที่เชี่ยวชาญด้าน AI และทีมวิศวกรรม ให้บริการสนับสนุนทางกฎหมายระดับสูงสำหรับธุรกิจ AI รวมถึง ChatGPT เช่น การจัดทำสัญญา, การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ, การปกป้องสิทธิ์ทรัพย์สินทางปัญญา, และการจัดการกับปัญหาความเป็นส่วนตัว รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้

สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

กลับไปด้านบน