สถานการณ์และแนวโน้มของกฎหมายการควบคุม AI ในสหภาพยุโรปคืออะไร? พร้อมทั้งอธิบายผลกระทบต่อบริษัทญี่ปุ่น
ด้วยการพัฒนาของ AI ทำให้เครื่องมือ AI เช่น ChatGPT ถูกนำมาใช้ในงานต่างๆ ธุรกิจที่เกี่ยวข้องกับ AI จึงเติบโตอย่างรวดเร็ว ในขณะเดียวกัน ปัญหาเกี่ยวกับการควบคุม AI ในระดับสากลก็ได้รับความสนใจเช่นกัน
ในญี่ปุ่น กระทรวงเศรษฐกิจ การค้า และอุตสาหกรรมได้เผยแพร่“Japanese ‘AI Principles Practice Governance Guidelines Ver. 1.1′”[ja] (ณ ขณะที่เขียนบทความนี้) และในวันที่ 14 มิถุนายน 2023 (2023) กฎหมายควบคุม AI ระดับนานาชาติฉบับแรกได้รับการอนุมัติจากสภายุโรป และได้รับความสนใจในญี่ปุ่นเช่นกัน
บทความนี้จะนำเสนอสถานการณ์และแนวโน้มของกฎหมายควบคุม AI พร้อมทั้งอธิบายผลกระทบที่อาจเกิดขึ้นกับบริษัทญี่ปุ่น
AI กฎหมายควบคุม AI (AI Act) คืออะไร?
วันที่ 14 มิถุนายน 2023 (2023年6月14日) ได้มีการรับรอง ‘ร่างกฎหมาย AI’ ที่ครอบคลุมการใช้งาน AI ทั่วไป ณ สภายุโรปของสหภาพยุโรป (EU) นี่คือ ‘กฎหมายควบคุม AI (AI Act)’ ซึ่งเป็นกฎหมายระดับนานาชาติที่ประกอบด้วย 85 มาตรา และเป็นกฎหมายแห่งแรกของโลกที่มีผลบังคับใช้ทั่วทั้ง EU ในฐานะกฎหมายรอง (secondary legislation) ของสหภาพยุโรป
ต่อจากนี้ ภายในปี 2023 จะมีการเจรจาแบบไม่เป็นทางการ (ทริโลก) ระหว่างสามฝ่าย ได้แก่ คณะกรรมาธิการยุโรป, สภายุโรป และสภายุโรป โดยมีเป้าหมายให้บรรลุข้อตกลง หลังจากนั้น ร่างกฎหมายดังกล่าวจะต้องได้รับการอนุมัติจากสภายุโรปและสภายุโรป ซึ่งเป็นองค์กรที่มีอำนาจในการออกกฎหมาย และคาดว่าจะมีผลบังคับใช้ในปี 2024
ระบบกฎหมายของสหภาพยุโรป (EU)
ระบบกฎหมายของสหภาพยุโรป (EU) ประกอบด้วยกฎหมายประเภทหลัก 3 ประเภท ได้แก่ กฎหมายระดับหนึ่ง (สนธิสัญญา) กฎหมายระดับสอง (กฎหมายร่วม) และคำพิพากษาของศาล
กฎหมายระดับสองคือกฎหมายที่ถูกสร้างขึ้นโดยอิงจากกฎหมายระดับหนึ่ง (สนธิสัญญา) และมีผลบังคับใช้โดยตรงหรือโดยอ้อมต่อประเทศสมาชิกในสหภาพยุโรป ซึ่งเรียกว่า กฎหมายของสหภาพยุโรป หรือ กฎหมายลูก
กฎหมายระดับสองสามารถแบ่งออกเป็น 5 ประเภทหลัก ๆ ดังนี้ แต่ “กฎหมายควบคุม AI ของ EU” ถือเป็นกฎหมายประเภท ‘Regulation’ ซึ่งเป็นกฎหมายที่มีผลบังคับใช้โดยตรงและเป็นกฎเกณฑ์ที่เป็นเอกภาพสำหรับประเทศสมาชิกทั้งหมด
กฎหมายของสหภาพยุโรป (กฎหมายระดับสอง) ประกอบด้วยประเภทต่อไปนี้:
- Regulation (กฎระเบียบ):มีผลบังคับใช้กับทุกประเทศสมาชิก และเมื่อได้รับการอนุมัติแล้ว จะมีผลบังคับใช้โดยตรง (ไม่ต้องผ่านกระบวนการรับรองในประเทศสมาชิกและกลายเป็นส่วนหนึ่งของระบบกฎหมายในประเทศ)
- Directive (คำสั่ง):ประเทศสมาชิกต้องรับภาระทางกฎหมายในการสร้างหรือแก้ไขกฎหมายในประเทศเพื่อบรรลุเป้าหมายที่กำหนด
- Decision (คำตัดสิน):เป็นหนึ่งในรูปแบบของกฎหมายที่มีผลบังคับใช้ โดยมุ่งเน้นไปที่เป้าหมายที่เฉพาะเจาะจง ไม่ใช่ทั่วไป และอาจเป็นประเทศสมาชิก บริษัท หรือบุคคลที่เฉพาะเจาะจง
- Recommendation (คำแนะนำ):คือสิ่งที่คณะกรรมาธิการยุโรปแนะนำให้รัฐบาลของประเทศสมาชิก บริษัท หรือบุคคลทำการกระทำหรือมาตรการบางอย่าง ไม่มีผลบังคับใช้ทางกฎหมายหรือความเป็นบังคับ แต่ถูกมองว่าเป็นการกระตุ้นให้มีการนำไปสู่การสร้างหรือแก้ไขกฎหมายในประเทศสมาชิก
- Opinion (ความเห็น):บางครั้งเรียกว่า “การแสดงความคิดเห็น” คือสิ่งที่คณะกรรมาธิการยุโรปแสดงความคิดเห็นเกี่ยวกับหัวข้อเฉพาะ ไม่มีผลบังคับใช้ทางกฎหมายหรือความเป็นบังคับ
‘Regulation’ ถือเป็นกฎหมายที่มีผลบังคับใช้มากที่สุดในหมู่กฎหมายระดับสอง ตัวอย่างเช่น GDPR (General Data Protection Regulation) หรือ ‘กฎหมายคุ้มครองข้อมูลส่วนบุคคลทั่วไป’ เป็นตัวอย่างของกฎระเบียบ
ขอบเขตการใช้กฎหมายควบคุม AI ของสหภาพยุโรป
กฎหมายควบคุม AI ของสหภาพยุโรป (EU) จะถูกนำไปใช้โดยตรงภายในเขตของ EU และยังมีผลบังคับใช้ต่อประเทศที่ทำการค้าซึ่งเป็นประเทศที่สาม โดยมีอำนาจทางกฎหมายที่มั่นคง กลุ่มที่ตกอยู่ภายใต้การควบคุมนี้ ได้แก่ ผู้ประกอบการที่นำระบบหรือบริการ AI เข้าสู่ตลาดยุโรป ซึ่งรวมถึงนักพัฒนา AI, ผู้ปรับใช้, ผู้ให้บริการ, ผู้นำเข้า, ผู้จัดจำหน่าย และผู้ใช้งาน
ในกฎหมายควบคุม AI นี้ ได้กำหนดข้อกำหนดที่ชัดเจนสำหรับระบบ AI บางประเภท และหน้าที่ของผู้ประกอบการ แต่ในขณะเดียวกันก็มีความต้องการให้ลดภาระทางการบริหารและทางการเงินสำหรับธุรกิจขนาดกลางและขนาดเล็ก (SMEs)
ร่างกฎหมายนี้เป็นส่วนหนึ่งของแพ็คเกจ AI ที่กว้างขวางซึ่งมุ่งเน้นการรับประกันความปลอดภัยของ AI และสิทธิพื้นฐาน รวมถึงการเสริมสร้างความพยายาม การลงทุน และนวัตกรรมของ AI ทั่วทั้ง EU
กฎระเบียบของยุโรปจะต้องสอดคล้องกับหลักการพื้นฐานของสนธิสัญญาพื้นฐานของสหภาพยุโรป นั่นคือ สิทธิมนุษยชนและเสรีภาพภายในเขตของ EU จะต้องได้รับการปกป้อง และจำเป็นต้องมีการกำหนดมาตรการป้องกันเพื่อสนับสนุนสิ่งนี้
ร่างกฎหมายอธิบายวัตถุประสงค์ของการควบคุมว่า “เพื่อส่งเสริมการใช้ AI ที่น่าเชื่อถือภายใต้การดูแลของมนุษย์ และเพื่อรับประกันการปกป้องสุขภาพ ความปลอดภัย สิทธิพื้นฐาน ประชาธิปไตยและการปกครองตามกฎหมาย รวมถึงสิ่งแวดล้อม”
โดยเฉพาะอย่างยิ่ง ได้มีการกำหนด “หลักการทั่วไปที่ใช้กับระบบ AI ทั้งหมด” ดังต่อไปนี้
- อิสระและการดูแลของมนุษย์ (human agency and oversight)
- ความแข็งแกร่งทางเทคนิคและความปลอดภัย (technical robustness and safety)
- ความเป็นส่วนตัวและการบริหารข้อมูล (privacy and data governance)
- ความโปร่งใส (transparency)
- ความหลากหลาย ไม่เลือกปฏิบัติ และความเป็นธรรม (diversity, non-discrimination and fairness)
- ความเป็นอยู่ที่ดีต่อสังคมและสิ่งแวดล้อม (social and environmental well-being)
ภายในกฎหมายควบคุมนี้ ได้มีการระบุอย่างชัดเจนว่า การบรรลุหลักการ AI นั้นจำเป็นต้องมีมาตรการที่จะรับประกันความรู้ความเข้าใจเกี่ยวกับ AI ของนักพัฒนา ผู้ใช้ และผู้ให้บริการ AI
หากมีการฝ่าฝืน จะมีการเรียกเก็บค่าปรับจำนวนมหาศาลตามยอดขายทั่วโลก (สูงสุด 30 ล้านยูโร หรือประมาณ 4.7 พันล้านบาท หรือ 6% ของยอดขายทั่วโลก แล้วแต่จำนวนใดสูงกว่า) ซึ่งอาจทำให้ไม่สามารถทำธุรกิจ AI ในเขต EU ได้
ดังนั้น บริษัทที่ทำธุรกิจ AI ในตลาด EU ณ ปัจจุบัน รวมถึงบริษัทที่กำลังพิจารณาเข้าสู่ตลาด EU ในอนาคต รวมทั้งบริษัทญี่ปุ่น จะต้องปฏิบัติตามกฎหมายควบคุม AI ใหม่ของ EU อย่างเหมาะสม
พื้นหลังการจัดทำกฎหมายควบคุม AI
AI ที่สร้างขึ้นนั้นเป็นเครื่องมือที่สะดวกสบาย แต่ในขณะเดียวกันก็มีความเสี่ยงที่จะช่วยเหลือในการกระทำอาชญากรรมหรือคุกคามประชาธิปไตย ตามที่เทคโนโลยี AI พัฒนาและแพร่หลาย ปัญหาเหล่านี้กลายเป็นความท้าทายที่หลีกเลี่ยงไม่ได้
ตั้งแต่ปี 2016 เป็นต้นมา สหภาพยุโรป (EU) สหรัฐอเมริกา และจีนได้เผยแพร่แนวทางและแผนกลยุทธ์แห่งชาติเกี่ยวกับ AI โดยเฉพาะใน EU ได้มีการดำเนินการเพื่อจัดทำกฎระเบียบเกี่ยวกับ AI และข้อมูลขนาดใหญ่ และระหว่างปี 2017 ถึง 2022 ได้มีการสร้างแนวทาง ประกาศนโยบาย และร่างกฎหมายที่สำคัญ
ตัวอย่างเช่น ในเดือนเมษายน 2016 ได้มีการจัดทำ ‘กฎหมายคุ้มครองข้อมูลทั่วไป (GDPR)’ และในวันที่ 21 เมษายน 2021 ได้มีการประกาศ ‘ร่างกฎหมายควบคุม AI’ ต่อมาในวันที่ 30 พฤษภาคม 2022 ได้มีการจัดทำ ‘กฎหมายการกำกับดูแลข้อมูลของยุโรป (DGA)’ และได้มีการบังคับใช้ตั้งแต่วันที่ 24 กันยายน 2023
กฎระเบียบเหล่านี้มีจุดมุ่งหมายเพื่อให้แน่ใจว่า AI และข้อมูลขนาดใหญ่สามารถใช้งานได้อย่างปลอดภัยและยุติธรรมในสังคมโดยรวม พร้อมทั้งส่งเสริมนวัตกรรมและการเติบโตทางเศรษฐกิจในเวลาเดียวกัน
EU ได้กำหนดยุทธศาสตร์ดิจิทัลในชื่อ ‘A Europe fit for the Digital Age (ยุโรปที่พร้อมสำหรับยุคดิจิทัล)’
หลังจากการประกาศ ‘ร่างกฎหมายควบคุม AI’ แล้ว ยังคงมีการพัฒนาและการแพร่หลายของ AI ที่สร้างขึ้นอย่างรวดเร็ว คณะกรรมาธิการยุโรปจึงได้รับรองร่างแก้ไขที่เพิ่มความคิดเห็นและข้อกำหนดเกี่ยวกับ AI ที่สร้างขึ้นในวันที่ 14 มิถุนายน 2023
วันที่ | การประชุม |
21 เมษายน 2021 | คณะกรรมาธิการยุโรปประกาศ ‘ร่างกฎหมายควบคุม AI ของ EU’ |
11 พฤษภาคม 2023 | คณะกรรมาธิการตลาดภายในและคุ้มครองผู้บริโภค และคณะกรรมาธิการเสรีภาพพลเมือง ยุติธรรม และกิจการภายใน ผ่านร่างแก้ไข |
14 มิถุนายน 2023 | ร่างแก้ไขของรัฐสภายุโรปได้รับการรับรอง |
24 ตุลาคม 2023 | การประชุมทริล็อกครั้งที่สี่ ข้อตกลงชั่วคราว |
6 ธันวาคม 2023 | การประชุมทริล็อกครั้งสุดท้าย การอนุมัติของรัฐสภายุโรปและคณะมนตรีของ EU การจัดทำ ‘กฎหมายควบคุม AI ของ EU’ |
ครึ่งหลังของปี 2024 | กำหนดการบังคับใช้ |
ลักษณะเด่นของกฎหมายควบคุม AI
“กฎหมายควบคุม AI” ประกอบด้วยโครงสร้างหลักที่มี 3 ลักษณะเด่น ได้แก่ “การจำแนก AI ตามระดับความเสี่ยง” (Risk-based AI classification)、“ข้อกำหนดและหน้าที่ที่ต้องปฏิบัติ” และ “การสนับสนุนนวัตกรรม”
กฎระเบียบนี้ใช้วิธีการที่เรียกว่า “การเข้าหาตามระดับความเสี่ยง” (Risk-based approach) โดยจะจำแนกระดับความเสี่ยงของ AI เป็น 4 ระดับ และจะมีการนำกฎระเบียบที่เหมาะสมไปใช้กับแต่ละระดับนั้น
โดยเฉพาะอย่างยิ่ง ตามตารางด้านล่างนี้ จะมีการกำหนดข้อห้ามและข้อกำหนดที่ต้องปฏิบัติตามระดับความเสี่ยงของระบบ AI สี่ประเภท สำหรับ AI ที่มีความเสี่ยงสูง จะมีการกำหนดการใช้งานเฉพาะทาง เพื่อรักษาความปลอดภัยของชีวิตและร่างกายมนุษย์ การรักษาสิทธิในการตัดสินใจของตนเอง การรักษาประชาธิปไตย และการดำเนินการที่เป็นธรรม
ระดับความเสี่ยง | ข้อจำกัดการใช้งาน | ระบบ AI ที่เกี่ยวข้อง | ข้อกำหนดและหน้าที่ |
<ความเสี่ยงที่ห้าม> ห้าม AI ที่ขัดแย้งกับค่านิยมของ EU | ห้าม | ①เทคนิคซับลิมินัล (จิตใต้สำนึก) ②การใช้จุดอ่อน ③การให้คะแนนสังคม ④ระบบรู้จำชีวภาพจากระยะไกล ‘แบบเรียลไทม์’ ในพื้นที่สาธารณะเพื่อการบังคับใช้กฎหมาย (ยกเว้นกรณีพิเศษ) | ห้าม |
<ความเสี่ยงสูง> ・องค์ประกอบความปลอดภัยของผลิตภัณฑ์ที่ควบคุม ・ระบบ AI ในสาขาเฉพาะ + AI ที่มีความเสี่ยงร้ายแรงต่อสุขภาพ ความปลอดภัย สิทธิพื้นฐาน และสิ่งแวดล้อม | ต้องปฏิบัติตามข้อกำหนดและการประเมินความสอดคล้อง | ①การรู้จำชีวภาพและการจำแนกประเภท (เครื่องจักรอุตสาหกรรม อุปกรณ์การแพทย์) ②การจัดการและการดำเนินงานของโครงสร้างพื้นฐานสำคัญ ③การศึกษาและการฝึกอบรมวิชาชีพ ④การจ้างงาน การจัดการแรงงาน และการเข้าถึงการทำงานอิสระ ⑤การเข้าถึงบริการสาธารณะและเอกชนที่จำเป็น ⑥การบังคับใช้กฎหมาย (ทุกกรณีเป็นหน้าที่ของหน่วยงานบังคับใช้กฎหมาย) ⑦การจัดการด้านการอพยพ การขอลี้ภัย และการควบคุมชายแดน (ทุกกรณีเป็นหน้าที่ของหน่วยงานราชการที่เกี่ยวข้อง) ⑧การดำเนินการของกระบวนการยุติธรรมและกระบวนการประชาธิปไตย | ระบบการจัดการความเสี่ยง การกำกับดูแลข้อมูล การสร้างเอกสารทางเทคนิค การเก็บบันทึกล็อก มาตรการกำกับดูแลโดยมนุษย์ ขั้นตอนการประเมินความสอดคล้องที่เข้มงวด |
<ความเสี่ยงจำกัด> ระบบ AI ที่ต้องปฏิบัติตามหน้าที่ในการเปิดเผยข้อมูล | หน้าที่ในการเปิดเผยข้อมูลเป็นเงื่อนไข | ①ระบบ AI ที่มีการโต้ตอบกับบุคคลธรรมดา เช่น แชทบอท ②ระบบรู้จำอารมณ์และระบบจำแนกชีวภาพ ③ระบบ AI ที่สร้างดีพฟเค (Deepfake) | การออกแบบและการฝึกอบรมโมเดลที่ไม่สร้างเนื้อหาผิดกฎหมาย • การเปิดเผยข้อมูลที่ได้รับการคุ้มครองด้วยลิขสิทธิ์ที่ใช้ในการฝึกอบรม • การแจ้งล่วงหน้าก่อนการใช้งาน AI และหน้าที่อื่นๆ ที่จำกัด |
<ความเสี่ยงต่ำสุด> ระบบอื่นๆ ที่ไม่ได้กล่าวถึงข้างต้น | ไม่มีข้อจำกัด | ระบบอื่นๆ ที่ไม่ได้กล่าวถึงข้างต้น | แนะนำให้ปฏิบัติตามจรรยาบรรณ |
ผลกระทบของกฎหมายการควบคุม AI ต่อญี่ปุ่น
สหภาพยุโรป (EU) ได้นำหน้าในการนำระเบียบข้อบังคับมาใช้ในด้านการรับรองสิทธิมนุษยชน, การปกป้องข้อมูลส่วนบุคคล, การอนุรักษ์สิ่งแวดล้อม และอื่นๆ ซึ่งได้กลายเป็น “มาตรฐานทองคำ” ที่ประเทศต่างๆ ใช้เป็นแบบอย่างในการออกแบบระบบของตนเอง
การแก้ไขกฎหมายการปกป้องข้อมูลส่วนบุคคลของญี่ปุ่นก็ได้รับการผลักดันโดยมีวัตถุประสงค์ในการรวมระเบียบข้อบังคับแบบเดซ็นทรัลไลซ์ นอกจากนี้ยังเพื่อตอบสนองต่อ GDPR (กฎหมายการปกป้องข้อมูล) ของ EU ซึ่งเป็นประเด็นสำคัญ นอกจากนี้ยังมีกฎหมายที่ออกแบบมาโดยอ้างอิงจากกฎระเบียบของ EU เช่น “กฎหมายเพื่อเพิ่มความโปร่งใสและความยุติธรรมของแพลตฟอร์มดิจิทัลที่เฉพาะเจาะจง” (ซึ่งได้มีผลบังคับใช้ตั้งแต่วันที่ 1 กุมภาพันธ์ 2021)
ในปัจจุบันญี่ปุ่นยังไม่มีการควบคุม AI ด้วยกฎหมายแข็ง (Hard Law) แต่กำลังใช้นโยบายของการควบคุมด้วยตนเองผ่านกฎหมายอ่อน (Soft Law)
ดังที่ได้กล่าวไว้ข้างต้น กฎหมายการควบคุม AI ของ EU จะถูกนำไปใช้โดยตรงกับประเทศสมาชิก EU และยังมีผลบังคับใช้ข้ามพรมแดนสำหรับธุรกิจที่ดำเนินการในพื้นที่ EU รวมถึงกับผู้ประกอบการที่ตั้งอยู่นอกพื้นที่ด้วย
อย่างที่จะกล่าวถึงต่อไปนี้ การจัดส่งผลิตภัณฑ์ AI ในพื้นที่ EU อาจต้องเผชิญกับการนำกฎหมายหลายฉบับที่กำหนดจากมุมมองที่แตกต่างกันมาใช้ และการเตรียมการรับมือกับกฎหมายเหล่านั้นจึงเป็นสิ่งที่ขาดไม่ได้ บริษัทญี่ปุ่นจำเป็นต้องติดตามแนวโน้มในอนาคตและดำเนินการตามมาตรการที่ถูกต้องตามกฎหมาย
การรับรองแก้ไขข้อเสนอที่รวมถึง AI ที่สร้างขึ้น
กฎหมายการควบคุม AI ของสหภาพยุโรปเป็นกฎหมายที่ได้รับการแก้ไขจากสามฝ่าย (คณะกรรมาธิการยุโรป, สภายุโรป และคณะกรรมาธิการยุโรป) ที่เกี่ยวข้อง
ในวันที่ 11 พฤษภาคม 2023, IMCO (คณะกรรมาธิการตลาดภายในและการปกป้องผู้บริโภค) และ LIBE (คณะกรรมาธิการเสรีภาพพลเมือง, ยุติธรรม และกิจการภายใน) ได้มีการลงมติผ่านข้อเสนอแก้ไขกฎหมายการควบคุม AI
ข้อเสนอแก้ไขเหล่านี้ได้รับการรับรองจากสภายุโรปในวันที่ 14 มิถุนายน 2023
รายงานนี้รวมถึงการแก้ไขที่สำคัญของข้อเสนอกฎหมาย เช่น การห้ามการตำรวจทำนายล่วงหน้า, การเพิ่มจำนวนมากของ AI ที่ถูกจัดให้อยู่ในหมวดความเสี่ยงสูง, และการกำหนดบทบาทที่แข็งแกร่งและครอบคลุมของสำนักงาน AI ใหม่ (EAIB – คณะกรรมาธิการยุโรปด้านปัญญาประดิษฐ์)
นอกจากนี้ยังมีการเสนอให้มีความร่วมมือที่แข็งแกร่งยิ่งขึ้นกับ GDPR (กฎหมายการปกป้องข้อมูล) และการเพิ่มการมีส่วนร่วมของผู้มีส่วนได้ส่วนเสียในบางส่วน รวมถึงการนำเสนอข้อกำหนดเฉพาะที่เกี่ยวข้องกับ AI ที่สร้างขึ้นและ AI ทั่วไป
ต่อมาในวันที่ 24 ตุลาคม 2023 ได้มีการจัดการประชุมทริโลก (การหารือสามฝ่าย) ครั้งที่สี่เกี่ยวกับกฎหมายการควบคุม AI ซึ่งมีความคืบหน้ามากมายในประเด็นที่ละเอียดอ่อนทางการเมือง โดยเฉพาะอย่างยิ่งได้มีการบรรลุข้อตกลงชั่วคราวเกี่ยวกับกลไกกรองสำหรับระบบ AI ที่มีความเสี่ยงสูง (มาตรา 6)
นอกจากนี้ยังมีการให้คำแนะนำทางการเมืองเกี่ยวกับทิศทางในอนาคตสำหรับระบบ AI พื้นฐาน/ทั่วไป, การกำกับดูแล, การห้าม, และหน่วยงานบังคับใช้กฎหมาย ทีมเทคนิคจึงได้รับมอบหมายให้ทำงานเกี่ยวกับข้อเสนอข้อความที่เฉพาะเจาะจงสำหรับประเด็นดังกล่าว
เกี่ยวกับการควบคุม AI ตามกฎหมายที่เกี่ยวข้อง
กฎหมายควบคุม AI ประกอบด้วยกฎหมายหลายฉบับที่ถูกกำหนดขึ้นจากมุมมองที่แตกต่างกัน สามกฎหมายนี้ได้รับการบัญญัติโดยสหภาพยุโรป (EU) เพื่อปกป้องข้อมูลส่วนบุคคลในพื้นที่ดิจิทัลและรับประกันการแข่งขันที่เป็นธรรม
DSA(กฎหมายบริการดิจิทัล)
กฎหมายบริการดิจิทัลของสหภาพยุโรป (DSA = Digital Services Act) เป็นกฎหมายที่มีผลบังคับใช้ในวันที่ 16 พฤศจิกายน 2022 (คาดว่าจะมีผลบังคับใช้อย่างเต็มรูปแบบในวันที่ 17 กุมภาพันธ์ 2024) ซึ่งเป็นกฎระเบียบที่ครอบคลุมเกี่ยวกับการค้าอิเล็กทรอนิกส์ในสหภาพยุโรป
แม้ว่าสหภาพยุโรปจะได้กำหนดกฎหมายเกี่ยวกับการค้าอิเล็กทรอนิกส์ขึ้นในปี 2000 แต่เนื่องจากการพัฒนาของอินเทอร์เน็ตและแพลตฟอร์มออนไลน์ทำให้การปรับใช้กฎหมายดังกล่าวกับสภาพแวดล้อมดิจิทัลที่เปลี่ยนแปลงไปนั้นเป็นเรื่องยาก ดังนั้น สหภาพยุโรปจึงได้มีการบังคับใช้ DSA เพื่อปรับปรุงกฎหมายดังกล่าว
DSA ถูกสร้างขึ้นเพื่อให้บริการกลางในตลาดสหภาพยุโรปทำงานได้อย่างเหมาะสม โดยมีเป้าหมายในการปกป้องสิทธิพื้นฐานของผู้ใช้และรักษาสภาพแวดล้อมดิจิทัลให้ปลอดภัย กลุ่มที่ต้องปฏิบัติตามกฎระเบียบนี้ ได้แก่ ผู้ให้บริการกลางออนไลน์ ผู้ให้บริการโฮสติ้ง และแพลตฟอร์มออนไลน์ (รวมถึง VLOP และ VLOSE)
กฎหมายนี้ครอบคลุมถึงการกำหนดความรับผิดชอบเมื่อมีการโพสต์เนื้อหาที่ผิดกฎหมาย และการจัดการข้อพิพาทที่เกิดขึ้น โดยมีการควบคุมทั้งในด้าน BtoB และ BtoC
โดยเฉพาะอย่างยิ่ง กฎหมายนี้กำหนดให้มีการดำเนินการเพื่อกำจัดเนื้อหา ผลิตภัณฑ์ และบริการที่ผิดกฎหมาย พร้อมทั้งเสริมสร้างการปกป้องสิทธิพื้นฐานของผู้ใช้ และเรียกร้องให้มีความโปร่งใสและความรับผิดชอบในการอธิบาย
นอกจากนี้ สำหรับผู้ใช้ในสหภาพยุโรปที่มีจำนวนเฉลี่ยต่อเดือนมากกว่า 45 ล้านคน สำหรับ VLOP (Very Large Online Platform) หรือ “แพลตฟอร์มออนไลน์ขนาดใหญ่” และ VLOSE (Very Large Online Search Engine) หรือ “เครื่องมือค้นหาออนไลน์ขนาดใหญ่” จะต้องปฏิบัติตามกฎที่เข้มงวดยิ่งขึ้น
VLOP และ VLOSE ที่ได้รับการระบุต้องปรับระบบ ทรัพยากร และกระบวนการของตนเองให้สอดคล้องกับ DSA ภายใน 4 เดือนหลังจากได้รับการแจ้ง และต้องจัดตั้งระบบอิสระเพื่อนำมาตรการผ่อนคลายและปฏิบัติตามกฎหมาย จากนั้นต้องดำเนินการตรวจสอบและประเมินความเสี่ยงประจำปีครั้งแรก และรายงานต่อคณะกรรมาธิการยุโรป
DSA จะมีผลบังคับใช้อย่างเต็มรูปแบบตั้งแต่วันที่ 17 กุมภาพันธ์ 2024 และสถานะการปฏิบัติตาม DSA ของผู้ประกอบการที่ไม่ใช่ VLOP และ VLOSE จะถูกตรวจสอบโดยคณะกรรมาธิการยุโรปและหน่วยงานของรัฐสมาชิกในอนาคต
รัฐสมาชิกจะต้องจัดตั้ง “เจ้าหน้าที่ประสานงานบริการดิจิทัล” ที่มีอำนาจอิสระเพื่อกำกับดูแลการปฏิบัติตาม DSA ภายในวันที่ 17 กุมภาพันธ์ 2024 และได้รับอำนาจในการบังคับใช้โทษ รวมถึงการเรียกเก็บค่าปรับหากมีการฝ่าฝืนข้อกำหนด
ในขณะที่ VLOP และ VLOSE จะถูกควบคุมโดยคณะกรรมาธิการยุโรปโดยตรง ซึ่งมีอำนาจในการบังคับใช้โทษ
ค่าปรับสำหรับการฝ่าฝืนกฎหมายจะถูกกำหนดไว้ไม่เกิน 6% ของยอดขายทั่วโลกของผู้ประกอบการในปีก่อนหน้า
กฎหมายนี้ถูกนำมาใช้เป็นส่วนหนึ่งของกลยุทธ์ดิจิทัลของสหภาพยุโรปที่รู้จักกันในชื่อ “ยุโรปที่พร้อมสำหรับยุคดิจิทัล” และมีจุดมุ่งหมายเพื่อตอบสนองต่อความท้าทายและความเสี่ยงใหม่ๆ ในยุคดิจิทัลที่กำลังพัฒนา
DMA (Digital Markets Act ของยุโรป)
กฎหมาย “Digital Markets Act” (DMA) ของสหภาพยุโรปจะเริ่มมีผลบังคับใช้ในวันที่ 2 พฤษภาคม 2023 โดยมีวัตถุประสงค์เพื่อทำให้ตลาดดิจิทัลเป็นธรรมและมีการแข่งขัน และป้องกันไม่ให้แพลตฟอร์มดิจิทัลบางแห่งมีอำนาจเหนือตลาด
กลุ่มที่จะต้องปฏิบัติตามกฎระเบียบนี้คือ “ผู้ควบคุมประตู” (Gatekeepers) ที่ได้รับการกำหนด ซึ่งจะมีหน้าที่ตามที่กฎหมายกำหนด และหากมีการฝ่าฝืน อาจถูกลงโทษด้วยการปรับสูงสุดถึง 10% ของยอดขายทั่วโลก
“ผู้ควบคุมประตู” หมายถึงแพลตฟอร์มดิจิทัลขนาดใหญ่ที่ดำเนินการในเขตยุโรป ซึ่งมีสถานะที่ยั่งยืนในตลาดในบางส่วนของดิจิทัล และต้องตอบสนองเกณฑ์ที่กำหนดไว้ เช่น จำนวนผู้ใช้ ยอดขาย และทุนจดทะเบียน
คณะกรรมาธิการยุโรปจะต้องกำหนด “ผู้ควบคุมประตู” ล่าสุดภายในวันที่ 6 กันยายน 2023 และบริษัทเหล่านั้นจะได้รับระยะเวลาผ่อนผันสูงสุด 6 เดือน (จนถึงเดือนมีนาคม 2024) เพื่อปฏิบัติตามหน้าที่ใหม่ตามกฎหมายดิจิทัลมาร์เก็ต บริษัทที่ได้รับการกำหนดให้เป็น “ผู้ควบคุมประตู” ได้แก่ Alphabet, Amazon, Apple, ByteDance, Meta และ Microsoft ซึ่งมีบริการแพลตฟอร์มหลักทั้งหมด 22 รายการที่ตกอยู่ภายใต้กฎหมายนี้
กฎหมายนี้มุ่งป้องกันการใช้อำนาจตลาดอย่างไม่เป็นธรรมของแพลตฟอร์มดิจิทัลขนาดใหญ่ และส่งเสริมให้ผู้ประกอบการใหม่สามารถเข้าสู่ตลาดได้ง่ายขึ้น
GDPR(General Data Protection Regulation)
GDPR(General Data Protection Regulation)คือ “กฎหมายคุ้มครองข้อมูลส่วนบุคคล” ใหม่ของสหภาพยุโรป (EU) ที่ได้มีการบังคับใช้ตั้งแต่วันที่ 25 พฤษภาคม 2018 (2018年5月25日)。
เป็นกรอบกฎหมายที่กำหนดแนวทางในการเก็บรวบรวมและการประมวลผลข้อมูลส่วนบุคคลจากบุคคลทั้งภายในและภายนอก EU กฎระเบียบนี้กำหนดหน้าที่ให้กับองค์กรที่ดำเนินการใน EU หรือเก็บรวบรวมข้อมูลที่เกี่ยวข้องกับบุคคลใน EU。
บทความที่เกี่ยวข้อง:การอธิบายประเด็นสำคัญในการสร้างนโยบายความเป็นส่วนตัวที่สอดคล้องกับ GDPR[ja]
แนวโน้มของกฎระเบียบ AI ที่คาดว่าจะเกิดขึ้นในอนาคต
บทความนี้จะอธิบายเกี่ยวกับระบบ AI ที่องค์กรควรให้ความสนใจ จากตารางการจำแนกความเสี่ยงของ AI ที่ได้กล่าวไว้ข้างต้น
การห้ามใช้คะแนนเครดิตทางสังคม
หนึ่งในระบบ AI ที่ถูกจัดอยู่ใน “ความเสี่ยงที่ถูกห้าม” ตามกฎหมายของสหภาพยุโรป (EU) คือ ระบบคะแนนเครดิตทางสังคม (Social Credit Score) ซึ่งจะถูกห้ามใช้โดยทั่วไปไม่ว่าจะเป็นหน่วยงานของรัฐหรือไม่ก็ตาม ตามที่ได้รับการแก้ไขเพิ่มเติม
ระบบ “คะแนนเครดิตทางสังคม” หมายถึงระบบที่ให้คะแนนแก่ประชาชนแต่ละคนตามสถานะทางสังคมและพฤติกรรมของพวกเขา
ในประเทศจีน ระบบนี้ทำหน้าที่เป็นเครื่องมือของสังคมการเฝ้าระวัง และได้รับการสร้างขึ้นเป็นนโยบายของรัฐในสี่ด้านหลัก ได้แก่ งานราชการ ธุรกิจ สังคม และการยุติธรรม
ข้อจำกัดที่เฉพาะเจาะจง ได้แก่ การห้ามใช้เครื่องบินหรือรถไฟความเร็วสูง การถูกแยกออกจากโรงเรียนเอกชน การห้ามก่อตั้งองค์กรเช่น NPO การถูกแยกออกจากงานที่มีชื่อเสียง การถูกห้ามจากโรงแรม การลดความเร็วของการเชื่อมต่ออินเทอร์เน็ต และการเปิดเผยข้อมูลส่วนบุคคลบนเว็บไซต์หรือสื่อต่างๆ ในขณะเดียวกัน หากคะแนนสูง ก็จะได้รับ “สิทธิพิเศษ” ต่างๆ
อย่างไรก็ตาม ระบบดังกล่าวได้สร้างความกังวลเกี่ยวกับความเป็นส่วนตัวและเสรีภาพของบุคคล และยังคงมีการอภิปรายเกี่ยวกับการดำเนินการของมันอย่างต่อเนื่อง
การห้ามใช้คะแนนเครดิตทางสังคมในสหภาพยุโรป (EU) เป็นการรับรองว่าการใช้เทคโนโลยี AI จะต้องเป็นไปอย่างยุติธรรมและโปร่งใส
การเสริมสร้างข้อจำกัดของ AI ที่สร้างสรรค์
หนึ่งในระบบ AI ที่ตกอยู่ภายใต้ ‘ความเสี่ยงที่จำกัด’ ตามกฎหมายควบคุมของสหภาพยุโรปคือ AI ที่สร้างสรรค์ (Generative AI) นั่นเอง
AI ที่สร้างสรรค์ (Generative AI) คือ AI ที่สามารถสร้างเนื้อหาหรือโซลูชันใหม่ๆ จากข้อมูลที่ได้รับการเรียนรู้ ซึ่งในช่วงหลังๆ นี้ได้รับความสนใจอย่างมาก เช่น Chat GPT อย่างไรก็ตาม AI ที่สร้างสรรค์มีปัญหาหลายอย่าง และนั่นคือเหตุผลที่ต้องมีการควบคุม
ในกฎหมายควบคุม AI ได้มีการเพิ่มแนวคิดและข้อกำหนดเกี่ยวกับ AI ที่สร้างสรรค์ เนื่องจากการพัฒนาและการแพร่กระจายอย่างรวดเร็วของมัน
โดยเฉพาะอย่างยิ่ง มีการกำหนดให้ผู้จัดจำหน่าย AI ที่สร้างสรรค์ เช่น บริษัท OpenAI ต้องเปิดเผยข้อมูลลิขสิทธิ์ที่ใช้ในการเรียนรู้ของ LLM (Large Language Model – โมเดลภาษาขนาดใหญ่)
วัตถุประสงค์ของการดำเนินการนี้คือเพื่อเสริมสร้างความโปร่งใสและการควบคุมความเสี่ยงของ AI ที่สร้างสรรค์
ในการออกกฎหมายของสหภาพยุโรป หลักการ ‘ความโปร่งใส (Transparency)’ ถือเป็นสิ่งสำคัญตามประเพณี โดยเริ่มต้นจาก GDPR (กฎหมายคุ้มครองข้อมูล) ซึ่งมีการกำหนดให้มีการเปิดเผยมาตรการคุ้มครองและวัตถุประสงค์ของการใช้ AI ให้กับผู้ที่เกี่ยวข้องล่วงหน้า และหลักการนี้ได้กลายเป็น ‘มาตรฐานทองคำ’ ในระดับสากล
การจำกัดการใช้งาน AI ที่รู้จักอารมณ์
AI ที่รู้จักอารมณ์ซึ่งถูกจัดให้อยู่ในหมวด ‘ความเสี่ยงที่จำกัด’ ตามกฎหมายของสหภาพยุโรป (EU) จะต้องปฏิบัติตามหน้าที่ในการเป็นโปร่งใส ซึ่งรวมถึงหน้าที่ที่จำกัด เช่น การแจ้งให้ทราบล่วงหน้าก่อนการใช้งาน AI
‘AI ที่รู้จักอารมณ์’ คือ AI ที่สามารถอ่านและเข้าใจการเปลี่ยนแปลงของอารมณ์มนุษย์ได้
โดยเฉพาะอย่างยิ่ง มี 4 ประเภทดังต่อไปนี้ ซึ่งผ่านไมโครโฟน กล้อง หรือเซ็นเซอร์ต่างๆ เพื่อวิเคราะห์อารมณ์เช่น ความสุข โกรธ เศร้า หรือระดับความสนใจ:
- AI ที่รู้จักอารมณ์จากข้อความ: วิเคราะห์อารมณ์จากข้อความที่มนุษย์ป้อนเข้าไป หรือข้อมูลที่แปลงจากเสียงเป็นข้อความ
- AI ที่รู้จักอารมณ์จากเสียง: วิเคราะห์อารมณ์จากเสียงที่มนุษย์พูดออกมา
- AI ที่รู้จักอารมณ์จากการแสดงออกทางใบหน้า: อ่านอารมณ์จากการแสดงออกทางใบหน้าผ่านกล้อง
- AI ที่รู้จักอารมณ์จากข้อมูลชีวภาพ: รู้จักอารมณ์จากข้อมูลชีวภาพ เช่น คลื่นสมองหรือชีพจร
เทคโนโลยีเหล่านี้ถูกนำไปใช้ในหลายสถานการณ์ เช่น ในงานบริการลูกค้า ศูนย์บริการโทรศัพท์ หรืองานขาย และคาดว่าจะมีการพัฒนาเทคโนโลยีเพิ่มเติมในอนาคต ซึ่งอาจนำไปใช้ในด้านการแพทย์ได้
อย่างไรก็ตาม การปกป้องข้อมูลส่วนบุคคลและข้อมูลชีวภาพที่ได้รับ รวมถึงการจัดทำกฎหมายที่เกี่ยวข้องกับการปกป้องข้อมูลเหล่านี้จะเป็นสิ่งที่จำเป็น
สรุป: สถานะปัจจุบันและแนวโน้มของกฎหมายกำกับดูแล AI
ข้างต้นนี้คือการอธิบายเกี่ยวกับสถานะปัจจุบันและแนวโน้มของ ‘กฎหมายกำกับดูแล AI’ ของสหภาพยุโรป (EU) และผลกระทบที่อาจเกิดขึ้นกับบริษัทญี่ปุ่น. ‘กฎหมายกำกับดูแล AI ของ EU’ ซึ่งเป็นกฎหมายแรกของโลกในด้านนี้ มีโอกาสสูงที่จะกลายเป็น ‘มาตรฐานทองคำ’ ในระดับสากล.
สำหรับบริษัทญี่ปุ่นที่ต้องการเข้าสู่ตลาดของ EU ในอนาคต การติดตามและให้ความสนใจต่อแนวโน้มของกฎหมายกำกับดูแล AI นี้จะเป็นสิ่งสำคัญ. เราขอแนะนำให้ปรึกษากับทนายความที่มีความเชี่ยวชาญด้านกฎหมายระหว่างประเทศและเทคโนโลยี AI เกี่ยวกับกฎหมายกำกับดูแล AI ในเขต EU.
แนะนำมาตรการของทางสำนักงานเรา
สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นในด้าน IT โดยเฉพาะอย่างยิ่งกฎหมายและอินเทอร์เน็ต ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย และการสนับสนุนจากทนายความที่มีความเชี่ยวชาญด้านปัญหากฎหมายเกี่ยวกับ AI นั้นจำเป็นอย่างยิ่ง สำนักงานเรามีทีมทนายความและวิศวกรที่เชี่ยวชาญด้าน AI ให้บริการสนับสนุนทางกฎหมายขั้นสูง เช่น การจัดทำสัญญา การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การปกป้องสิทธิ์ทรัพย์สินทางปัญญา และการจัดการกับปัญหาความเป็นส่วนตัว สำหรับธุรกิจ AI รวมถึง ChatGPT รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้
สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]