กฎหมายควบคุม AI ของสหภาพยุโรปและการตอบสนองที่จําเป็นสําหรับบริษัทญี่ปุ่น

วันที่ 12 กรกฎาคม 2024 (2024年7月12日) กฎหมายควบคุม AI หรือ ‘AI Regulation Act (EU AI Act)’ ได้รับการประกาศใช้ในสหภาพยุโรป (EU) และได้มีการบังคับใช้ตั้งแต่วันที่ 1 สิงหาคมของปีเดียวกัน
กฎหมายนี้ควบคุมการใช้งานและการให้บริการระบบ AI ภายในเขต EU และตั้งแต่ปี 2025 เป็นต้นไป บริษัทญี่ปุ่นจะต้องปฏิบัติตามข้อกำหนดบางประการด้วยเช่นกัน
โดยเฉพาะอย่างยิ่ง ผู้ประกอบการเว็บไซต์ EC ภายในประเทศญี่ปุ่นที่ต้องปฏิบัติตาม ‘General Data Protection Regulation (GDPR)’ ของ EU ในลักษณะเดียวกัน บริษัทญี่ปุ่นที่ให้บริการหรือผลิตภัณฑ์ที่เกี่ยวข้องกับ AI สำหรับลูกค้าในเขต EU อาจต้องปฏิบัติตามกฎหมายควบคุม AI ของ EU ด้วยเช่นกัน
ในที่นี้ เราจะอธิบายถึงการจำแนกความเสี่ยงของระบบ AI และการประเมินความเหมาะสม รวมถึงการตอบสนองต่อข้อกำหนดของกฎหมายที่จะมีผลบังคับใช้กับผู้ประกอบการที่เกี่ยวข้อง
พื้นฐาน: ความแตกต่างระหว่าง “กฎหมาย” และ “คำสั่ง” ในสหภาพยุโรป
ก่อนที่จะอธิบายเกี่ยวกับกฎหมายควบคุม AI ในสหภาพยุโรป (EU) เราต้องเข้าใจความแตกต่างระหว่าง “กฎหมาย” และ “คำสั่ง” ภายใต้กฎหมายของ EU ก่อนเป็นอันดับแรก
เริ่มจาก “กฎหมาย” ซึ่งเป็นกฎหมายที่มีผลบังคับใช้โดยตรงกับประเทศสมาชิก บริษัท และอื่นๆ ภายใน EU ด้วยเหตุนี้ กฎหมายของ EU จะมีความสำคัญกว่ากฎหมายภายในประเทศของประเทศสมาชิกและจะมีการใช้กฎเดียวกันทั่วทั้ง EU ดังนั้น เมื่อ “กฎหมาย” มีผลบังคับใช้ ประเทศสมาชิกของ EU จะต้องปฏิบัติตามเนื้อหาของกฎหมายนั้นอย่างเท่าเทียมกัน
ในทางตรงกันข้าม “คำสั่ง” เป็นกฎหมายที่มีวัตถุประสงค์เพื่อประสานและทำให้เนื้อหาของกฎระเบียบเป็นเอกภาพระหว่างประเทศสมาชิกของ EU อย่างไรก็ตาม คำสั่งไม่ได้มีผลบังคับใช้โดยตรงกับประเทศสมาชิก แต่แต่ละประเทศจำเป็นต้องดำเนินการแปลงเนื้อหาที่กำหนดไว้ในคำสั่งเป็นกฎหมายภายในประเทศของตนเอง โดยปกติแล้ว ประเทศสมาชิกจะต้องสร้างหรือแก้ไขกฎหมายภายในประเทศภายใน 3 ปีหลังจากที่คำสั่งได้รับการเผยแพร่ในจดหมายข่าวของ EU
ลักษณะเฉพาะของ “คำสั่ง” คือ ในขณะที่แปลงเป็นกฎหมายภายในประเทศ แต่ละประเทศสมาชิกจะได้รับอำนาจในการตัดสินใจบางอย่าง ซึ่งหมายความว่าเนื้อหาของกฎหมายในแต่ละประเทศอาจมีความแตกต่างกัน นั่นคือ “คำสั่ง” ที่อิงตามกฎหมายนั้นไม่ได้ถูกบังคับใช้อย่างเป็นเอกภาพทั่วทั้ง EU และอาจมีความแตกต่างเล็กน้อยระหว่างประเทศสมาชิก
ด้วยการทำความเข้าใจความแตกต่างนี้ กฎหมายควบคุม AI จึงถูกกำหนดให้เป็น “กฎหมาย” นั่นคือ กฎหมายควบคุม AI จะมีผลบังคับใช้โดยตรงกับผู้ประกอบการที่ตั้งอยู่ใน EU
บทความที่เกี่ยวข้อง: ข้อมูลสำคัญเกี่ยวกับกฎหมายและระบบกฎหมายของ EU สำหรับบริษัทที่ต้องการขยายธุรกิจไปยังยุโรป[ja]
กฎหมายการควบคุม AI และการใช้บังคับนอกเขตอาณาจักรภายใต้กฎหมายญี่ปุ่น
การใช้บังคับนอกเขตอาณาจักรคืออะไร
“การใช้บังคับนอกเขตอาณาจักร” หมายถึง การที่กฎหมายที่ถูกสร้างขึ้นในประเทศหนึ่งสามารถใช้ได้กับการกระทำที่เกิดขึ้นนอกเขตอาณาจักรที่ประเทศนั้นมีอำนาจอธิปไตย การใช้บังคับนอกเขตอาณาจักรนี้ได้รับการยอมรับเนื่องจากมีพื้นฐานมาจากการเติบโตของเศรษฐกิจโลกและการทำธุรกิจของบริษัทในระดับสากล โดยมีวัตถุประสงค์เพื่อให้กิจกรรมทางเศรษฐกิจทั่วโลกดำเนินไปอย่างเป็นธรรมและเหมาะสม
ตัวอย่างที่ทำให้แนวคิดนี้เป็นที่รู้จักกว้างขวางคือ GDPR (General Data Protection Regulation ของสหภาพยุโรป) ซึ่งใน GDPR นั้น แม้ว่าผู้ประกอบการที่ไม่มีสำนักงานในสหภาพยุโรปก็อาจจะต้องปฏิบัติตามกฎหมายนี้ได้ (การใช้บังคับนอกเขตอาณาจักร) หากตรงตามเงื่อนไขดังต่อไปนี้:
- ในกรณีที่มีการให้บริการหรือสินค้าแก่บุคคลในสหภาพยุโรป
- ในกรณีที่มีการประมวลผลข้อมูลส่วนบุคคลเพื่อวัตถุประสงค์ในการตรวจสอบพฤติกรรมของบุคคลในสหภาพยุโรป
ตัวอย่างเช่น ในกรณีที่บริษัทนอกสหภาพยุโรปส่งพนักงานไปปฏิบัติงานในสหภาพยุโรปและมีการประมวลผลข้อมูลส่วนบุคคลที่เกี่ยวข้องในช่วงเวลานั้น ตามแนวทางในปี 2020 ได้ระบุว่า “ไม่อยู่ในข่ายที่ต้องปฏิบัติตาม” แต่ในตอนแรกนั้นเป็นกรณีที่การใช้บังคับนอกเขตอาณาจักรถูกถกเถียงกันอยู่
การใช้บังคับนอกเขตอาณาจักรของกฎหมายการควบคุม AI
ในกฎหมายการควบคุม AI ของสหภาพยุโรป ก็ได้มีการยอมรับการใช้บังคับนอกเขตอาณาจักรสำหรับผู้ประกอบการที่ตั้งอยู่นอกสหภาพยุโรปเช่นกัน ผู้ประกอบการหรือกิจกรรมที่ตรงตามเงื่อนไขต่อไปนี้จะต้องปฏิบัติตาม:
- ผู้ให้บริการ (Providers):ผู้ที่พัฒนาระบบ AI หรือโมเดล GPAI ผู้ที่ทำให้ระบบ AI หรือโมเดล GPAI เข้าสู่ตลาด หรือผู้ที่เริ่มดำเนินการระบบ AI ภายใต้ชื่อหรือเครื่องหมายการค้าของตนเอง
- ผู้ใช้งาน (Users):ผู้ที่ใช้ระบบ AI ภายใต้อำนาจของตนเอง (※ยกเว้นกรณีที่ใช้ระบบ AI ในกิจกรรมส่วนบุคคลหรือที่ไม่เกี่ยวข้องกับอาชีพ)
- ผู้นำเข้า (Importers):ผู้นำเข้าที่ตั้งอยู่หรือจดทะเบียนในสหภาพยุโรป ซึ่งนำเข้าระบบ AI ที่มีชื่อหรือเครื่องหมายการค้าของบุคคลธรรมดาหรือนิติบุคคลที่ตั้งอยู่นอกสหภาพยุโรปเข้าสู่ตลาดสหภาพยุโรป
- ผู้จัดจำหน่าย (Distributers):บุคคลธรรมดาหรือนิติบุคคลที่ไม่ใช่ผู้ให้บริการหรือผู้นำเข้า แต่เป็นส่วนหนึ่งของห่วงโซ่อุปทานที่นำระบบ AI เข้าสู่ตลาดสหภาพยุโรป
ดังนั้น แม้ว่าผู้ประกอบการจะตั้งอยู่นอกสหภาพยุโรป หากมีการให้บริการ ดำเนินการ นำเข้า หรือใช้งานระบบ AI หรือโมเดล GPAI ในสหภาพยุโรป กฎหมายการควบคุม AI ของสหภาพยุโรปก็จะถูกใช้บังคับโดยตรงกับพวกเขา
ลักษณะเด่นของกฎหมายควบคุม AI ของสหภาพยุโรป: การจัดการตามความเสี่ยง

ความหมายของการประเมินความเสี่ยง
ลักษณะเด่นที่สำคัญที่สุดของกฎหมาย AI ของสหภาพยุโรปคือการใช้ “การควบคุมตามเนื้อหาและระดับความเสี่ยง” (การประเมินความเสี่ยง) ในการกำกับดูแล
“การประเมินความเสี่ยง” หมายถึงวิธีการปรับระดับความเข้มข้นของการควบคุมตามเนื้อหาและระดับความเสี่ยง โดยในวิธีการนี้ จะกำหนดความเข้มข้นของการควบคุมสำหรับระบบ AI ตามความรุนแรงของความเสี่ยงที่ระบบนั้นอาจก่อให้เกิดขึ้น
โดยเฉพาะอย่างยิ่ง ระบบ AI ที่มีความเสี่ยงสูงจะถูกนำไปใช้กฎระเบียบที่เข้มงวดมากขึ้น ในขณะที่ระบบที่มีความเสี่ยงต่ำกว่าจะได้รับการควบคุมที่ค่อนข้างผ่อนคลาย ด้วยวิธีนี้ จะช่วยหลีกเลี่ยงการควบคุมที่มากเกินไปสำหรับระบบที่มีความเสี่ยงต่ำ และในทางกลับกัน สำหรับระบบที่มีความเสี่ยงสูงจะได้รับการตรวจสอบและจัดการที่เหมาะสม
ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้ภายใต้กฎหมายญี่ปุ่น
ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้นั้นถือเป็นภัยคุกคามต่อผู้คนและหลักการแล้วถูกห้ามใช้งานในญี่ปุ่น
ตัวอย่างเช่น ระบบ AI ที่มีการควบคุมพฤติกรรมหรือการรับรู้ของกลุ่มผู้ใช้ที่เปราะบาง เช่น ของเล่นที่ทำงานด้วยเสียงซึ่งอาจส่งเสริมพฤติกรรมอันตรายของเด็ก นอกจากนี้ ระบบสกอร์สังคมที่จัดหมวดหมู่ผู้คนตามพฤติกรรม สถานะทางสังคม-เศรษฐกิจ หรือลักษณะส่วนบุคคลก็ถูกห้ามเช่นกัน รวมถึงระบบการรับรู้ใบหน้าแบบเรียลไทม์และระยะไกลที่ใช้ข้อมูลชีวภาพของมนุษย์เปรียบเทียบกับฐานข้อมูลอ้างอิงเพื่อระบุตัวบุคคลจากระยะไกลก็ถูกห้ามใช้งานโดยหลักการ
อย่างไรก็ตาม มีข้อยกเว้นที่อนุญาตให้ใช้ระบบเหล่านี้ได้ โดยเฉพาะอย่างยิ่ง ระบบการรับรู้ใบหน้าแบบเรียลไทม์และระยะไกลนั้น อนุญาตให้ใช้เฉพาะในกรณีของเหตุการณ์ร้ายแรงที่จำกัดเท่านั้น ในขณะที่ระบบการรับรู้ใบหน้าแบบระยะไกลหลังเหตุการณ์นั้น อนุญาตให้ใช้เพื่อจุดประสงค์ในการดำเนินคดีกับอาชญากรรมร้ายแรงเท่านั้น หากได้รับการอนุมัติจากศาล
นอกจากนี้ ยังมีข้อยกเว้นที่อนุญาตให้ดำเนินการได้ในกรณีพิเศษ เช่น การค้นหาบุคคลที่อาจเป็นเหยื่อของอาชญากรรม เช่น เด็กที่หายไป การป้องกันภัยคุกคามที่เฉพาะเจาะจงและเร่งด่วนต่อชีวิตและความปลอดภัยของมนุษย์ หรือการป้องกันการโจมตีทางการก่อการร้าย และการตรวจจับหรือระบุตำแหน่งของผู้กระทำความผิดหรือผู้ต้องสงสัยในอาชญากรรมร้ายแรง ข้อยกเว้นเหล่านี้มีข้อจำกัดที่เข้มงวดซึ่งต้องได้รับการอนุมัติล่วงหน้าจากศาลเป็นหลัก และต้องการการดำเนินการอย่างรอบคอบในการใช้ระบบ AI
ระบบ AI ที่มีความเสี่ยงสูงในญี่ปุ่น
ระบบ AI ที่ถูกจัดอยู่ในประเภทที่มีความเสี่ยงสูงคือระบบ AI ที่อาจมีผลกระทบเสียต่อความปลอดภัยหรือสิทธิพื้นฐานของมนุษย์ ระบบเหล่านี้สามารถได้รับอนุญาตให้ใช้งานได้หากสามารถตอบสนองตามข้อกำหนดและหน้าที่ (การประเมินความเหมาะสม) ที่กำหนดไว้
ระบบ AI ที่มีความเสี่ยงสูงสามารถจำแนกออกเป็น 2 หมวดหมู่ใหญ่ หมวดหมู่แรกคือระบบ AI ที่ใช้กับผลิตภัณฑ์ที่ต้องปฏิบัติตามกฎหมายด้านความปลอดภัยของผลิตภัณฑ์ของสหภาพยุโรป (EU) ตัวอย่างเช่น ของเล่น การบิน ยานยนต์ เครื่องมือทางการแพทย์ ลิฟต์ ฯลฯ หมวดหมู่ที่สองคือระบบ AI ที่ถูกจำแนกไว้ในพื้นที่เฉพาะที่ต้องลงทะเบียนในฐานข้อมูลของ EU ซึ่งรวมถึงการจัดการและการดำเนินงานของโครงสร้างพื้นฐานที่สำคัญ การศึกษาและการฝึกอบรมทางอาชีพ การจ้างงานและการจัดการแรงงาน การเข้าถึงบริการสาธารณะและสวัสดิการที่จำเป็น การบังคับใช้กฎหมาย การอพยพและการขอลี้ภัย การจัดการพรมแดน และการสนับสนุนการตีความและการประยุกต์ใช้กฎหมาย
ระบบ AI ที่มีความเสี่ยงสูงจำเป็นต้องได้รับการประเมินก่อนการนำเข้าสู่ตลาดและตลอดระยะเวลาการใช้งาน นอกจากนี้ ยังมีสิทธิที่จะยื่นเรื่องร้องเรียนเกี่ยวกับระบบ AI ไปยังหน่วยงานของรัฐที่ได้รับการแต่งตั้ง
โดยทั่วไป ระบบ AI ที่เกี่ยวข้องกับการรักษาความปลอดภัยของชีวิตและร่างกายของมนุษย์ เช่น เครื่องจักรหรือยานพาหนะ จะถูกจัดอยู่ในประเภทที่มีความเสี่ยงสูง ตัวอย่างเช่น AI สำหรับการขับขี่อัตโนมัติก็อาจถูกจัดอยู่ในประเภทนี้ ดังนั้น เมื่อบริษัทญี่ปุ่นพัฒนา AI สำหรับการขับขี่อัตโนมัติและต้องการขยายไปยังตลาดต่างประเทศ จำเป็นต้องพิจารณาอย่างรอบคอบว่าได้ตอบสนองตามข้อกำหนดของระบบ AI ที่มีความเสี่ยงสูงหรือไม่ และต้องมีการจัดการอย่างเหมาะสม
ระบบ AI ที่มีความเสี่ยงจำกัดในญี่ปุ่น
สำหรับระบบ AI ที่มีความเสี่ยงจำกัดในญี่ปุ่น ความเสี่ยงด้านความโปร่งใส การปลอมตัว การควบคุม และการฉ้อโกงเป็นสิ่งที่คาดการณ์ไว้ โดยเฉพาะอย่างยิ่ง ระบบแชทบอท ดีพเฟค และ AI ที่สร้างสรรค์เป็นตัวอย่างที่ตรงกับหมวดหมู่นี้ ตามความเห็นของสภายุโรป ระบบ AI ที่ใช้งานอยู่ในปัจจุบันส่วนใหญ่ถูกจัดอยู่ในหมวดหมู่นี้ ตัวอย่างเช่น ระบบแปลภาษาอัตโนมัติ เครื่องเล่นเกม หุ่นยนต์ที่ดำเนินกระบวนการผลิตที่ซ้ำๆ รวมถึงระบบ AI อย่าง “เครื่องยูเรก้า” ก็ถูกจัดอยู่ในหมวดหมู่นี้ด้วย
สำหรับ AI ที่สร้างสรรค์ แม้ว่าจะไม่ถูกจัดเป็นความเสี่ยงสูง แต่ก็ต้องปฏิบัติตามข้อกำหนดด้านความโปร่งใสและการปฏิบัติตามกฎหมายลิขสิทธิ์ของสหภาพยุโรป โดยเฉพาะอย่างยิ่ง จำเป็นต้องดำเนินการดังต่อไปนี้
- เปิดเผยอย่างชัดเจนว่าเนื้อหาถูกสร้างขึ้นโดย AI
- ออกแบบโมเดลเพื่อไม่ให้สร้างเนื้อหาที่ผิดกฎหมาย
- เปิดเผยข้อมูลสรุปของข้อมูลที่ได้รับการคุ้มครองลิขสิทธิ์ที่ใช้ในการฝึกอบรม AI
นอกจากนี้ สำหรับโมเดล AI ทั่วไปที่มีอิทธิพลสูง เช่น “GPT-4” ซึ่งอาจนำไปสู่ความเสี่ยงระดับระบบ จำเป็นต้องได้รับการประเมินอย่างละเอียด และหากเกิดเหตุการณ์ร้ายแรง จะต้องมีหน้าที่รายงานต่อคณะกรรมาธิการยุโรป นอกจากนี้ เนื้อหาที่ถูกสร้างหรือแก้ไขโดย AI (รูปภาพ ไฟล์เสียง ไฟล์วิดีโอ ดีพเฟค ฯลฯ) จะต้องมีการแสดงอย่างชัดเจนว่าเป็นผลงานที่สร้างโดย AI และผู้ใช้จะต้องสามารถรับรู้เนื้อหานั้นได้อย่างถูกต้อง
ระบบ AI ที่มีความเสี่ยงต่ำสุดในญี่ปุ่น
สุดท้ายนี้ สำหรับระบบ AI ที่มีความเสี่ยงต่ำสุด ไม่ได้มีการกำหนดข้อบังคับพิเศษใดๆ ในญี่ปุ่น ตัวอย่างเช่น ระบบกรองสแปมหรือระบบแนะนำสินค้า ในหมวดหมู่นี้ แทนที่จะมีการควบคุมด้วยกฎหมาย การสร้างและปฏิบัติตามจรรยาบรรณในการดำเนินงานจะเป็นสิ่งที่ได้รับการสนับสนุนเท่านั้น
ความต้องการและหน้าที่สำหรับระบบ AI ที่มีความเสี่ยงสูงภายใต้กฎหมายญี่ปุ่น

หน้าที่ของผู้ให้บริการ ผู้ใช้งาน ผู้นำเข้า และผู้จำหน่าย
ด้วยการแบ่งประเภทดังกล่าว ระบบ AI ที่มีความเสี่ยงสูงในญี่ปุ่นจะถูกกำหนดให้มีการควบคุมอย่างเข้มงวดเนื่องจากความรุนแรงของความเสี่ยง โดยผู้ให้บริการและผู้ใช้งานจะต้องปฏิบัติตามหน้าที่ที่เฉพาะเจาะจง
เริ่มแรก ผู้ให้บริการ ผู้ใช้งาน ผู้นำเข้า และผู้จำหน่ายจะต้องสร้างระบบการจัดการความเสี่ยง (มาตรา 9) ซึ่งเป็นการกำหนดให้มีการสร้างและนำระบบเข้ามาใช้เพื่อระบุและจัดการความเสี่ยงที่อยู่ภายในระบบ AI ที่มีความเสี่ยงสูงอย่างเหมาะสม รวมถึงการบันทึกเอกสารและการรักษาระบบนั้นไว้ นอกจากนี้ ในด้านการกำกับดูแลข้อมูล (มาตรา 10) จะต้องใช้ชุดข้อมูลสำหรับการเรียนรู้ การตรวจสอบ และการทดสอบที่ตอบสนองตามมาตรฐานคุณภาพ นี่เป็นเพราะคุณภาพและความน่าเชื่อถือของข้อมูลจำเป็นต้องถูกจัดการอย่างเข้มงวดในขั้นตอนการพัฒนาระบบ AI
นอกจากนี้ ยังมีการกำหนดให้มีการสร้างเอกสารทางเทคนิค (มาตรา 11) ซึ่งเอกสารนี้จะต้องบันทึกข้อมูลที่จำเป็นเพื่อพิสูจน์ว่าระบบ AI ที่มีความเสี่ยงสูงปฏิบัติตามข้อกำหนดของกฎระเบียบ และต้องเตรียมไว้เพื่อสามารถนำเสนอให้กับหน่วยงานที่รับผิดชอบของรัฐสมาชิกหรือหน่วยงานรับรองของบุคคลที่สาม นอกจากนี้ ยังจำเป็นต้องออกแบบและพัฒนาฟังก์ชันบันทึกเหตุการณ์อัตโนมัติของระบบ AI ขณะทำงาน (มาตรา 12) และระบบ AI ที่มีความเสี่ยงสูงจะต้องลงทะเบียนในฐานข้อมูลที่อยู่ภายใต้การควบคุมของสหภาพยุโรปก่อนที่จะนำเข้าสู่ตลาด โดยผู้ให้บริการจะต้องมีระบบการควบคุมคุณภาพและบันทึกเอกสารเพื่อรักษาไว้
หน้าที่ของผู้ให้บริการ
ผู้ให้บริการจะต้องเก็บรักษาเอกสารทางเทคนิค ระบบการควบคุมคุณภาพ และเอกสารที่เกี่ยวข้องอื่นๆ เช่น การอนุมัติหรือการตัดสินใจจากหน่วยงานรับรองของบุคคลที่สาม เป็นเวลา 10 ปีหลังจากนำเข้าสู่ตลาดหรือเริ่มการดำเนินงาน และจะต้องนำเสนอเอกสารเหล่านี้ตามคำขอของหน่วยงานที่มีอำนาจในประเทศ ดังนั้น ผู้ให้บริการจะต้องรับผิดชอบในการรักษาคุณภาพและความปลอดภัยของระบบ AI ในระยะยาวและรักษาความโปร่งใส
หน้าที่ของผู้ใช้งาน
ในทางกลับกัน ผู้ใช้งานก็มีหน้าที่ที่เฉพาะเจาะจงที่เกี่ยวข้องกับการใช้ระบบ AI ที่มีความเสี่ยงสูงเช่นกัน ผู้ใช้งานจะต้องเก็บรักษาบันทึกที่ถูกสร้างขึ้นโดยอัตโนมัติโดยระบบ AI ไว้เป็นระยะเวลาที่เหมาะสมตามวัตถุประสงค์ที่ตั้งไว้ของระบบ AI หากไม่มีข้อกำหนดพิเศษในกฎหมายของสหภาพยุโรปหรือกฎหมายของรัฐสมาชิก โดยทั่วไปจะต้องเก็บไว้อย่างน้อย 6 เดือน
นอกจากนี้ หากจะเริ่มดำเนินการหรือใช้ระบบ AI ที่มีความเสี่ยงสูงในสถานที่ทำงาน ผู้ใช้งานซึ่งเป็นนายจ้างจะต้องแจ้งให้ตัวแทนของพนักงานและพนักงานที่ได้รับผลกระทบทราบล่วงหน้าว่าจะมีการใช้ระบบดังกล่าว นี่เป็นการกำหนดเพื่อปกป้องสิทธิของลูกจ้างและรักษาความโปร่งใส
ดังนั้น ระบบ AI ที่มีความเสี่ยงสูงจึงมีการกำหนดความต้องการและหน้าที่ที่เข้มงวดสำหรับทั้งผู้ให้บริการและผู้ใช้งาน โดยเฉพาะอย่างยิ่งในกรณีที่จัดการกับเทคโนโลยี AI ขั้นสูงเช่นอุปกรณ์ทางการแพทย์หรือระบบขับขี่อัตโนมัติ อาจจำเป็นต้องพิจารณาความสอดคล้องกับกรอบการกำกับดูแลที่มีอยู่และดำเนินการประเมินความเหมาะสมหรือตรวจสอบโดยหน่วยงานรับรองของบุคคลที่สาม ดังนั้น ผู้ประกอบการจะต้องดำเนินการอย่างรอบคอบและมีการวางแผนที่ดี
กำหนดการบังคับใช้กฎหมายการควบคุม AI ของญี่ปุ่นแบบทีละขั้นตอน

กฎหมายการควบคุม AI ของสหภาพยุโรปได้กำหนดกำหนดการบังคับใช้แบบทีละขั้นตอนตั้งแต่การประกาศจนถึงการนำไปใช้งาน ซึ่งทำให้ผู้ประกอบการต้องเตรียมตัวและปฏิบัติตามในแต่ละขั้นตอน
กฎหมายการควบคุม AI ได้รับการประกาศในราชกิจจานุเบกษาเมื่อวันที่ 12 กรกฎาคม 2024 และได้มีการบังคับใช้ในวันที่ 1 สิงหาคมของปีเดียวกัน ในขั้นตอนนี้ ผู้ประกอบการจะต้องตรวจสอบและพิจารณาเนื้อหาของกฎหมายเป็นอันดับแรก
ในวันที่ 2 กุมภาพันธ์ 2025 จะมีการนำข้อบังคับที่เกี่ยวข้องกับ ‘หลักการทั่วไป’ และ ‘ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้’ มาใช้ หากผู้ประกอบการมีการจัดการกับระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้ จะต้องหยุดการจัดการนั้นทันที
ต่อมาในวันที่ 2 พฤษภาคม 2025 จะมีการเผยแพร่มาตรฐานปฏิบัติ (Codes of Practice) สำหรับผู้ให้บริการโมเดล AI ทั่วไป (GPAI) ผู้ประกอบการจะต้องดำเนินการตามมาตรฐานปฏิบัติเหล่านี้
หลังจากนั้น ในวันที่ 2 สิงหาคม 2025 ข้อบังคับที่เกี่ยวข้องกับ ‘โมเดล GPAI’ และ ‘บทลงโทษ’ จะถูกนำมาใช้ และแต่ละประเทศสมาชิกจะต้องมีการแต่งตั้งหน่วยงานที่มีอำนาจในการดูแล ในขั้นตอนนี้ ผู้ให้บริการโมเดล GPAI จะต้องปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง
ในวันที่ 2 กุมภาพันธ์ 2026 จะมีการเผยแพร่แนวทางการนำระบบ AI ไปใช้งานตามกฎหมายการควบคุม AI พร้อมกันนี้ จะมีการกำหนดให้มีการตรวจสอบหลังการขายสำหรับระบบ AI ที่มีความเสี่ยงสูง และจะต้องมีการจัดตั้งระบบการตอบสนองที่เหมาะสม
นอกจากนี้ ในวันที่ 2 สิงหาคม 2026 ข้อบังคับที่ระบุไว้ในภาคผนวก III เกี่ยวกับ ‘ระบบ AI ที่มีความเสี่ยงสูง’ จะถูกนำมาใช้ ณ จุดนี้ แต่ละประเทศสมาชิกจะต้องจัดตั้ง ‘สนามทดลองกฎหมาย AI’ และการปฏิบัติตามกฎระเบียบสำหรับระบบ AI ที่มีความเสี่ยงสูงจะเป็นสิ่งจำเป็น
สุดท้าย ในวันที่ 2 สิงหาคม 2027 ข้อบังคับที่ระบุไว้ในภาคผนวก I เกี่ยวกับ ‘ระบบ AI ที่มีความเสี่ยงสูง’ จะถูกนำมาใช้ ด้วยเหตุนี้ ระบบ AI ที่กำหนดไว้ในภาคผนวก I จะต้องปฏิบัติตามกฎระเบียบที่กำหนดไว้
ดังนั้น กฎหมายการควบคุม AI จะถูกบังคับใช้แบบทีละขั้นตอนเป็นเวลาหลายปี และจะมีการนำกฎระเบียบที่เกี่ยวข้องกับความเสี่ยงที่ร้ายแรงมาใช้เป็นลำดับ ผู้ประกอบการจะต้องทราบถึงเวลาที่กฎหมายจะถูกนำมาใช้และดำเนินการตามกฎระเบียบที่เกี่ยวข้องกับระบบ AI ที่เป็นเป้าหมาย
บทความที่เกี่ยวข้อง:สถานการณ์และแนวโน้มของกฎหมายการควบคุม AI ในสหภาพยุโรปคืออะไร? รวมถึงผลกระทบต่อบริษัทญี่ปุ่น[ja]
แนะนำมาตรการของเรา
สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นทั้งในด้านไอที โดยเฉพาะอินเทอร์เน็ตและกฎหมาย
ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย การสนับสนุนจากทนายความที่มีความเชี่ยวชาญด้านปัญหากฎหมายเกี่ยวกับ AI จึงเป็นสิ่งที่จำเป็นอย่างยิ่ง สำนักงานของเราประกอบด้วยทีมทนายความและวิศวกรที่มีความรู้ความเข้าใจใน AI ให้การสนับสนุนทางกฎหมายระดับสูงสำหรับธุรกิจ AI รวมถึง ChatGPT ตั้งแต่การจัดทำสัญญา การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การปกป้องสิทธิ์ทรัพย์สินทางปัญญา ไปจนถึงการจัดการกับความเป็นส่วนตัว รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้
สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]
Category: IT