MONOLITH LAW OFFICE+81-3-6262-3248วันธรรมดา 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

กฎหมายควบคุม AI ของสหภาพยุโรปและการตอบสนองที่จําเป็นสําหรับบริษัทญี่ปุ่น

IT

กฎหมายควบคุม AI ของสหภาพยุโรปและการตอบสนองที่จําเป็นสําหรับบริษัทญี่ปุ่น

วันที่ 12 กรกฎาคม 2024 (2024年7月12日) กฎหมายควบคุม AI หรือ ‘AI Regulation Act (EU AI Act)’ ได้รับการประกาศใช้ในสหภาพยุโรป (EU) และได้มีการบังคับใช้ตั้งแต่วันที่ 1 สิงหาคมของปีเดียวกัน
กฎหมายนี้ควบคุมการใช้งานและการให้บริการระบบ AI ภายในเขต EU และตั้งแต่ปี 2025 เป็นต้นไป บริษัทญี่ปุ่นจะต้องปฏิบัติตามข้อกำหนดบางประการด้วยเช่นกัน

โดยเฉพาะอย่างยิ่ง ผู้ประกอบการเว็บไซต์ EC ภายในประเทศญี่ปุ่นที่ต้องปฏิบัติตาม ‘General Data Protection Regulation (GDPR)’ ของ EU ในลักษณะเดียวกัน บริษัทญี่ปุ่นที่ให้บริการหรือผลิตภัณฑ์ที่เกี่ยวข้องกับ AI สำหรับลูกค้าในเขต EU อาจต้องปฏิบัติตามกฎหมายควบคุม AI ของ EU ด้วยเช่นกัน

ในที่นี้ เราจะอธิบายถึงการจำแนกความเสี่ยงของระบบ AI และการประเมินความเหมาะสม รวมถึงการตอบสนองต่อข้อกำหนดของกฎหมายที่จะมีผลบังคับใช้กับผู้ประกอบการที่เกี่ยวข้อง

พื้นฐาน: ความแตกต่างระหว่าง “กฎหมาย” และ “คำสั่ง” ในสหภาพยุโรป

ก่อนที่จะอธิบายเกี่ยวกับกฎหมายควบคุม AI ในสหภาพยุโรป (EU) เราต้องเข้าใจความแตกต่างระหว่าง “กฎหมาย” และ “คำสั่ง” ภายใต้กฎหมายของ EU ก่อนเป็นอันดับแรก

เริ่มจาก “กฎหมาย” ซึ่งเป็นกฎหมายที่มีผลบังคับใช้โดยตรงกับประเทศสมาชิก บริษัท และอื่นๆ ภายใน EU ด้วยเหตุนี้ กฎหมายของ EU จะมีความสำคัญกว่ากฎหมายภายในประเทศของประเทศสมาชิกและจะมีการใช้กฎเดียวกันทั่วทั้ง EU ดังนั้น เมื่อ “กฎหมาย” มีผลบังคับใช้ ประเทศสมาชิกของ EU จะต้องปฏิบัติตามเนื้อหาของกฎหมายนั้นอย่างเท่าเทียมกัน

ในทางตรงกันข้าม “คำสั่ง” เป็นกฎหมายที่มีวัตถุประสงค์เพื่อประสานและทำให้เนื้อหาของกฎระเบียบเป็นเอกภาพระหว่างประเทศสมาชิกของ EU อย่างไรก็ตาม คำสั่งไม่ได้มีผลบังคับใช้โดยตรงกับประเทศสมาชิก แต่แต่ละประเทศจำเป็นต้องดำเนินการแปลงเนื้อหาที่กำหนดไว้ในคำสั่งเป็นกฎหมายภายในประเทศของตนเอง โดยปกติแล้ว ประเทศสมาชิกจะต้องสร้างหรือแก้ไขกฎหมายภายในประเทศภายใน 3 ปีหลังจากที่คำสั่งได้รับการเผยแพร่ในจดหมายข่าวของ EU

ลักษณะเฉพาะของ “คำสั่ง” คือ ในขณะที่แปลงเป็นกฎหมายภายในประเทศ แต่ละประเทศสมาชิกจะได้รับอำนาจในการตัดสินใจบางอย่าง ซึ่งหมายความว่าเนื้อหาของกฎหมายในแต่ละประเทศอาจมีความแตกต่างกัน นั่นคือ “คำสั่ง” ที่อิงตามกฎหมายนั้นไม่ได้ถูกบังคับใช้อย่างเป็นเอกภาพทั่วทั้ง EU และอาจมีความแตกต่างเล็กน้อยระหว่างประเทศสมาชิก

ด้วยการทำความเข้าใจความแตกต่างนี้ กฎหมายควบคุม AI จึงถูกกำหนดให้เป็น “กฎหมาย” นั่นคือ กฎหมายควบคุม AI จะมีผลบังคับใช้โดยตรงกับผู้ประกอบการที่ตั้งอยู่ใน EU

บทความที่เกี่ยวข้อง: ข้อมูลสำคัญเกี่ยวกับกฎหมายและระบบกฎหมายของ EU สำหรับบริษัทที่ต้องการขยายธุรกิจไปยังยุโรป[ja]

กฎหมายการควบคุม AI และการใช้บังคับนอกเขตอาณาจักรภายใต้กฎหมายญี่ปุ่น

การใช้บังคับนอกเขตอาณาจักรคืออะไร

“การใช้บังคับนอกเขตอาณาจักร” หมายถึง การที่กฎหมายที่ถูกสร้างขึ้นในประเทศหนึ่งสามารถใช้ได้กับการกระทำที่เกิดขึ้นนอกเขตอาณาจักรที่ประเทศนั้นมีอำนาจอธิปไตย การใช้บังคับนอกเขตอาณาจักรนี้ได้รับการยอมรับเนื่องจากมีพื้นฐานมาจากการเติบโตของเศรษฐกิจโลกและการทำธุรกิจของบริษัทในระดับสากล โดยมีวัตถุประสงค์เพื่อให้กิจกรรมทางเศรษฐกิจทั่วโลกดำเนินไปอย่างเป็นธรรมและเหมาะสม

ตัวอย่างที่ทำให้แนวคิดนี้เป็นที่รู้จักกว้างขวางคือ GDPR (General Data Protection Regulation ของสหภาพยุโรป) ซึ่งใน GDPR นั้น แม้ว่าผู้ประกอบการที่ไม่มีสำนักงานในสหภาพยุโรปก็อาจจะต้องปฏิบัติตามกฎหมายนี้ได้ (การใช้บังคับนอกเขตอาณาจักร) หากตรงตามเงื่อนไขดังต่อไปนี้:

  • ในกรณีที่มีการให้บริการหรือสินค้าแก่บุคคลในสหภาพยุโรป
  • ในกรณีที่มีการประมวลผลข้อมูลส่วนบุคคลเพื่อวัตถุประสงค์ในการตรวจสอบพฤติกรรมของบุคคลในสหภาพยุโรป

ตัวอย่างเช่น ในกรณีที่บริษัทนอกสหภาพยุโรปส่งพนักงานไปปฏิบัติงานในสหภาพยุโรปและมีการประมวลผลข้อมูลส่วนบุคคลที่เกี่ยวข้องในช่วงเวลานั้น ตามแนวทางในปี 2020 ได้ระบุว่า “ไม่อยู่ในข่ายที่ต้องปฏิบัติตาม” แต่ในตอนแรกนั้นเป็นกรณีที่การใช้บังคับนอกเขตอาณาจักรถูกถกเถียงกันอยู่

การใช้บังคับนอกเขตอาณาจักรของกฎหมายการควบคุม AI

ในกฎหมายการควบคุม AI ของสหภาพยุโรป ก็ได้มีการยอมรับการใช้บังคับนอกเขตอาณาจักรสำหรับผู้ประกอบการที่ตั้งอยู่นอกสหภาพยุโรปเช่นกัน ผู้ประกอบการหรือกิจกรรมที่ตรงตามเงื่อนไขต่อไปนี้จะต้องปฏิบัติตาม:

  • ผู้ให้บริการ (Providers):ผู้ที่พัฒนาระบบ AI หรือโมเดล GPAI ผู้ที่ทำให้ระบบ AI หรือโมเดล GPAI เข้าสู่ตลาด หรือผู้ที่เริ่มดำเนินการระบบ AI ภายใต้ชื่อหรือเครื่องหมายการค้าของตนเอง
  • ผู้ใช้งาน (Users):ผู้ที่ใช้ระบบ AI ภายใต้อำนาจของตนเอง (※ยกเว้นกรณีที่ใช้ระบบ AI ในกิจกรรมส่วนบุคคลหรือที่ไม่เกี่ยวข้องกับอาชีพ)
  • ผู้นำเข้า (Importers):ผู้นำเข้าที่ตั้งอยู่หรือจดทะเบียนในสหภาพยุโรป ซึ่งนำเข้าระบบ AI ที่มีชื่อหรือเครื่องหมายการค้าของบุคคลธรรมดาหรือนิติบุคคลที่ตั้งอยู่นอกสหภาพยุโรปเข้าสู่ตลาดสหภาพยุโรป
  • ผู้จัดจำหน่าย (Distributers):บุคคลธรรมดาหรือนิติบุคคลที่ไม่ใช่ผู้ให้บริการหรือผู้นำเข้า แต่เป็นส่วนหนึ่งของห่วงโซ่อุปทานที่นำระบบ AI เข้าสู่ตลาดสหภาพยุโรป

ดังนั้น แม้ว่าผู้ประกอบการจะตั้งอยู่นอกสหภาพยุโรป หากมีการให้บริการ ดำเนินการ นำเข้า หรือใช้งานระบบ AI หรือโมเดล GPAI ในสหภาพยุโรป กฎหมายการควบคุม AI ของสหภาพยุโรปก็จะถูกใช้บังคับโดยตรงกับพวกเขา

ลักษณะเด่นของกฎหมายควบคุม AI ของสหภาพยุโรป: การจัดการตามความเสี่ยง

ลักษณะเด่นของกฎหมายควบคุม AI ของสหภาพยุโรป: การจัดการตามความเสี่ยง

ความหมายของการประเมินความเสี่ยง

ลักษณะเด่นที่สำคัญที่สุดของกฎหมาย AI ของสหภาพยุโรปคือการใช้ “การควบคุมตามเนื้อหาและระดับความเสี่ยง” (การประเมินความเสี่ยง) ในการกำกับดูแล

“การประเมินความเสี่ยง” หมายถึงวิธีการปรับระดับความเข้มข้นของการควบคุมตามเนื้อหาและระดับความเสี่ยง โดยในวิธีการนี้ จะกำหนดความเข้มข้นของการควบคุมสำหรับระบบ AI ตามความรุนแรงของความเสี่ยงที่ระบบนั้นอาจก่อให้เกิดขึ้น

โดยเฉพาะอย่างยิ่ง ระบบ AI ที่มีความเสี่ยงสูงจะถูกนำไปใช้กฎระเบียบที่เข้มงวดมากขึ้น ในขณะที่ระบบที่มีความเสี่ยงต่ำกว่าจะได้รับการควบคุมที่ค่อนข้างผ่อนคลาย ด้วยวิธีนี้ จะช่วยหลีกเลี่ยงการควบคุมที่มากเกินไปสำหรับระบบที่มีความเสี่ยงต่ำ และในทางกลับกัน สำหรับระบบที่มีความเสี่ยงสูงจะได้รับการตรวจสอบและจัดการที่เหมาะสม

ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้ภายใต้กฎหมายญี่ปุ่น

ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้นั้นถือเป็นภัยคุกคามต่อผู้คนและหลักการแล้วถูกห้ามใช้งานในญี่ปุ่น

ตัวอย่างเช่น ระบบ AI ที่มีการควบคุมพฤติกรรมหรือการรับรู้ของกลุ่มผู้ใช้ที่เปราะบาง เช่น ของเล่นที่ทำงานด้วยเสียงซึ่งอาจส่งเสริมพฤติกรรมอันตรายของเด็ก นอกจากนี้ ระบบสกอร์สังคมที่จัดหมวดหมู่ผู้คนตามพฤติกรรม สถานะทางสังคม-เศรษฐกิจ หรือลักษณะส่วนบุคคลก็ถูกห้ามเช่นกัน รวมถึงระบบการรับรู้ใบหน้าแบบเรียลไทม์และระยะไกลที่ใช้ข้อมูลชีวภาพของมนุษย์เปรียบเทียบกับฐานข้อมูลอ้างอิงเพื่อระบุตัวบุคคลจากระยะไกลก็ถูกห้ามใช้งานโดยหลักการ

อย่างไรก็ตาม มีข้อยกเว้นที่อนุญาตให้ใช้ระบบเหล่านี้ได้ โดยเฉพาะอย่างยิ่ง ระบบการรับรู้ใบหน้าแบบเรียลไทม์และระยะไกลนั้น อนุญาตให้ใช้เฉพาะในกรณีของเหตุการณ์ร้ายแรงที่จำกัดเท่านั้น ในขณะที่ระบบการรับรู้ใบหน้าแบบระยะไกลหลังเหตุการณ์นั้น อนุญาตให้ใช้เพื่อจุดประสงค์ในการดำเนินคดีกับอาชญากรรมร้ายแรงเท่านั้น หากได้รับการอนุมัติจากศาล

นอกจากนี้ ยังมีข้อยกเว้นที่อนุญาตให้ดำเนินการได้ในกรณีพิเศษ เช่น การค้นหาบุคคลที่อาจเป็นเหยื่อของอาชญากรรม เช่น เด็กที่หายไป การป้องกันภัยคุกคามที่เฉพาะเจาะจงและเร่งด่วนต่อชีวิตและความปลอดภัยของมนุษย์ หรือการป้องกันการโจมตีทางการก่อการร้าย และการตรวจจับหรือระบุตำแหน่งของผู้กระทำความผิดหรือผู้ต้องสงสัยในอาชญากรรมร้ายแรง ข้อยกเว้นเหล่านี้มีข้อจำกัดที่เข้มงวดซึ่งต้องได้รับการอนุมัติล่วงหน้าจากศาลเป็นหลัก และต้องการการดำเนินการอย่างรอบคอบในการใช้ระบบ AI

ระบบ AI ที่มีความเสี่ยงสูงในญี่ปุ่น

ระบบ AI ที่ถูกจัดอยู่ในประเภทที่มีความเสี่ยงสูงคือระบบ AI ที่อาจมีผลกระทบเสียต่อความปลอดภัยหรือสิทธิพื้นฐานของมนุษย์ ระบบเหล่านี้สามารถได้รับอนุญาตให้ใช้งานได้หากสามารถตอบสนองตามข้อกำหนดและหน้าที่ (การประเมินความเหมาะสม) ที่กำหนดไว้

ระบบ AI ที่มีความเสี่ยงสูงสามารถจำแนกออกเป็น 2 หมวดหมู่ใหญ่ หมวดหมู่แรกคือระบบ AI ที่ใช้กับผลิตภัณฑ์ที่ต้องปฏิบัติตามกฎหมายด้านความปลอดภัยของผลิตภัณฑ์ของสหภาพยุโรป (EU) ตัวอย่างเช่น ของเล่น การบิน ยานยนต์ เครื่องมือทางการแพทย์ ลิฟต์ ฯลฯ หมวดหมู่ที่สองคือระบบ AI ที่ถูกจำแนกไว้ในพื้นที่เฉพาะที่ต้องลงทะเบียนในฐานข้อมูลของ EU ซึ่งรวมถึงการจัดการและการดำเนินงานของโครงสร้างพื้นฐานที่สำคัญ การศึกษาและการฝึกอบรมทางอาชีพ การจ้างงานและการจัดการแรงงาน การเข้าถึงบริการสาธารณะและสวัสดิการที่จำเป็น การบังคับใช้กฎหมาย การอพยพและการขอลี้ภัย การจัดการพรมแดน และการสนับสนุนการตีความและการประยุกต์ใช้กฎหมาย

ระบบ AI ที่มีความเสี่ยงสูงจำเป็นต้องได้รับการประเมินก่อนการนำเข้าสู่ตลาดและตลอดระยะเวลาการใช้งาน นอกจากนี้ ยังมีสิทธิที่จะยื่นเรื่องร้องเรียนเกี่ยวกับระบบ AI ไปยังหน่วยงานของรัฐที่ได้รับการแต่งตั้ง

โดยทั่วไป ระบบ AI ที่เกี่ยวข้องกับการรักษาความปลอดภัยของชีวิตและร่างกายของมนุษย์ เช่น เครื่องจักรหรือยานพาหนะ จะถูกจัดอยู่ในประเภทที่มีความเสี่ยงสูง ตัวอย่างเช่น AI สำหรับการขับขี่อัตโนมัติก็อาจถูกจัดอยู่ในประเภทนี้ ดังนั้น เมื่อบริษัทญี่ปุ่นพัฒนา AI สำหรับการขับขี่อัตโนมัติและต้องการขยายไปยังตลาดต่างประเทศ จำเป็นต้องพิจารณาอย่างรอบคอบว่าได้ตอบสนองตามข้อกำหนดของระบบ AI ที่มีความเสี่ยงสูงหรือไม่ และต้องมีการจัดการอย่างเหมาะสม

ระบบ AI ที่มีความเสี่ยงจำกัดในญี่ปุ่น

สำหรับระบบ AI ที่มีความเสี่ยงจำกัดในญี่ปุ่น ความเสี่ยงด้านความโปร่งใส การปลอมตัว การควบคุม และการฉ้อโกงเป็นสิ่งที่คาดการณ์ไว้ โดยเฉพาะอย่างยิ่ง ระบบแชทบอท ดีพเฟค และ AI ที่สร้างสรรค์เป็นตัวอย่างที่ตรงกับหมวดหมู่นี้ ตามความเห็นของสภายุโรป ระบบ AI ที่ใช้งานอยู่ในปัจจุบันส่วนใหญ่ถูกจัดอยู่ในหมวดหมู่นี้ ตัวอย่างเช่น ระบบแปลภาษาอัตโนมัติ เครื่องเล่นเกม หุ่นยนต์ที่ดำเนินกระบวนการผลิตที่ซ้ำๆ รวมถึงระบบ AI อย่าง “เครื่องยูเรก้า” ก็ถูกจัดอยู่ในหมวดหมู่นี้ด้วย

สำหรับ AI ที่สร้างสรรค์ แม้ว่าจะไม่ถูกจัดเป็นความเสี่ยงสูง แต่ก็ต้องปฏิบัติตามข้อกำหนดด้านความโปร่งใสและการปฏิบัติตามกฎหมายลิขสิทธิ์ของสหภาพยุโรป โดยเฉพาะอย่างยิ่ง จำเป็นต้องดำเนินการดังต่อไปนี้

  • เปิดเผยอย่างชัดเจนว่าเนื้อหาถูกสร้างขึ้นโดย AI
  • ออกแบบโมเดลเพื่อไม่ให้สร้างเนื้อหาที่ผิดกฎหมาย
  • เปิดเผยข้อมูลสรุปของข้อมูลที่ได้รับการคุ้มครองลิขสิทธิ์ที่ใช้ในการฝึกอบรม AI

นอกจากนี้ สำหรับโมเดล AI ทั่วไปที่มีอิทธิพลสูง เช่น “GPT-4” ซึ่งอาจนำไปสู่ความเสี่ยงระดับระบบ จำเป็นต้องได้รับการประเมินอย่างละเอียด และหากเกิดเหตุการณ์ร้ายแรง จะต้องมีหน้าที่รายงานต่อคณะกรรมาธิการยุโรป นอกจากนี้ เนื้อหาที่ถูกสร้างหรือแก้ไขโดย AI (รูปภาพ ไฟล์เสียง ไฟล์วิดีโอ ดีพเฟค ฯลฯ) จะต้องมีการแสดงอย่างชัดเจนว่าเป็นผลงานที่สร้างโดย AI และผู้ใช้จะต้องสามารถรับรู้เนื้อหานั้นได้อย่างถูกต้อง

ระบบ AI ที่มีความเสี่ยงต่ำสุดในญี่ปุ่น

สุดท้ายนี้ สำหรับระบบ AI ที่มีความเสี่ยงต่ำสุด ไม่ได้มีการกำหนดข้อบังคับพิเศษใดๆ ในญี่ปุ่น ตัวอย่างเช่น ระบบกรองสแปมหรือระบบแนะนำสินค้า ในหมวดหมู่นี้ แทนที่จะมีการควบคุมด้วยกฎหมาย การสร้างและปฏิบัติตามจรรยาบรรณในการดำเนินงานจะเป็นสิ่งที่ได้รับการสนับสนุนเท่านั้น

ความต้องการและหน้าที่สำหรับระบบ AI ที่มีความเสี่ยงสูงภายใต้กฎหมายญี่ปุ่น

ความต้องการและหน้าที่สำหรับระบบ AI ที่มีความเสี่ยงสูง

หน้าที่ของผู้ให้บริการ ผู้ใช้งาน ผู้นำเข้า และผู้จำหน่าย

ด้วยการแบ่งประเภทดังกล่าว ระบบ AI ที่มีความเสี่ยงสูงในญี่ปุ่นจะถูกกำหนดให้มีการควบคุมอย่างเข้มงวดเนื่องจากความรุนแรงของความเสี่ยง โดยผู้ให้บริการและผู้ใช้งานจะต้องปฏิบัติตามหน้าที่ที่เฉพาะเจาะจง

เริ่มแรก ผู้ให้บริการ ผู้ใช้งาน ผู้นำเข้า และผู้จำหน่ายจะต้องสร้างระบบการจัดการความเสี่ยง (มาตรา 9) ซึ่งเป็นการกำหนดให้มีการสร้างและนำระบบเข้ามาใช้เพื่อระบุและจัดการความเสี่ยงที่อยู่ภายในระบบ AI ที่มีความเสี่ยงสูงอย่างเหมาะสม รวมถึงการบันทึกเอกสารและการรักษาระบบนั้นไว้ นอกจากนี้ ในด้านการกำกับดูแลข้อมูล (มาตรา 10) จะต้องใช้ชุดข้อมูลสำหรับการเรียนรู้ การตรวจสอบ และการทดสอบที่ตอบสนองตามมาตรฐานคุณภาพ นี่เป็นเพราะคุณภาพและความน่าเชื่อถือของข้อมูลจำเป็นต้องถูกจัดการอย่างเข้มงวดในขั้นตอนการพัฒนาระบบ AI

นอกจากนี้ ยังมีการกำหนดให้มีการสร้างเอกสารทางเทคนิค (มาตรา 11) ซึ่งเอกสารนี้จะต้องบันทึกข้อมูลที่จำเป็นเพื่อพิสูจน์ว่าระบบ AI ที่มีความเสี่ยงสูงปฏิบัติตามข้อกำหนดของกฎระเบียบ และต้องเตรียมไว้เพื่อสามารถนำเสนอให้กับหน่วยงานที่รับผิดชอบของรัฐสมาชิกหรือหน่วยงานรับรองของบุคคลที่สาม นอกจากนี้ ยังจำเป็นต้องออกแบบและพัฒนาฟังก์ชันบันทึกเหตุการณ์อัตโนมัติของระบบ AI ขณะทำงาน (มาตรา 12) และระบบ AI ที่มีความเสี่ยงสูงจะต้องลงทะเบียนในฐานข้อมูลที่อยู่ภายใต้การควบคุมของสหภาพยุโรปก่อนที่จะนำเข้าสู่ตลาด โดยผู้ให้บริการจะต้องมีระบบการควบคุมคุณภาพและบันทึกเอกสารเพื่อรักษาไว้

หน้าที่ของผู้ให้บริการ

ผู้ให้บริการจะต้องเก็บรักษาเอกสารทางเทคนิค ระบบการควบคุมคุณภาพ และเอกสารที่เกี่ยวข้องอื่นๆ เช่น การอนุมัติหรือการตัดสินใจจากหน่วยงานรับรองของบุคคลที่สาม เป็นเวลา 10 ปีหลังจากนำเข้าสู่ตลาดหรือเริ่มการดำเนินงาน และจะต้องนำเสนอเอกสารเหล่านี้ตามคำขอของหน่วยงานที่มีอำนาจในประเทศ ดังนั้น ผู้ให้บริการจะต้องรับผิดชอบในการรักษาคุณภาพและความปลอดภัยของระบบ AI ในระยะยาวและรักษาความโปร่งใส

หน้าที่ของผู้ใช้งาน

ในทางกลับกัน ผู้ใช้งานก็มีหน้าที่ที่เฉพาะเจาะจงที่เกี่ยวข้องกับการใช้ระบบ AI ที่มีความเสี่ยงสูงเช่นกัน ผู้ใช้งานจะต้องเก็บรักษาบันทึกที่ถูกสร้างขึ้นโดยอัตโนมัติโดยระบบ AI ไว้เป็นระยะเวลาที่เหมาะสมตามวัตถุประสงค์ที่ตั้งไว้ของระบบ AI หากไม่มีข้อกำหนดพิเศษในกฎหมายของสหภาพยุโรปหรือกฎหมายของรัฐสมาชิก โดยทั่วไปจะต้องเก็บไว้อย่างน้อย 6 เดือน

นอกจากนี้ หากจะเริ่มดำเนินการหรือใช้ระบบ AI ที่มีความเสี่ยงสูงในสถานที่ทำงาน ผู้ใช้งานซึ่งเป็นนายจ้างจะต้องแจ้งให้ตัวแทนของพนักงานและพนักงานที่ได้รับผลกระทบทราบล่วงหน้าว่าจะมีการใช้ระบบดังกล่าว นี่เป็นการกำหนดเพื่อปกป้องสิทธิของลูกจ้างและรักษาความโปร่งใส

ดังนั้น ระบบ AI ที่มีความเสี่ยงสูงจึงมีการกำหนดความต้องการและหน้าที่ที่เข้มงวดสำหรับทั้งผู้ให้บริการและผู้ใช้งาน โดยเฉพาะอย่างยิ่งในกรณีที่จัดการกับเทคโนโลยี AI ขั้นสูงเช่นอุปกรณ์ทางการแพทย์หรือระบบขับขี่อัตโนมัติ อาจจำเป็นต้องพิจารณาความสอดคล้องกับกรอบการกำกับดูแลที่มีอยู่และดำเนินการประเมินความเหมาะสมหรือตรวจสอบโดยหน่วยงานรับรองของบุคคลที่สาม ดังนั้น ผู้ประกอบการจะต้องดำเนินการอย่างรอบคอบและมีการวางแผนที่ดี

กำหนดการบังคับใช้กฎหมายการควบคุม AI ของญี่ปุ่นแบบทีละขั้นตอน

กำหนดการบังคับใช้กฎหมายการควบคุม AI ของญี่ปุ่นแบบทีละขั้นตอน

กฎหมายการควบคุม AI ของสหภาพยุโรปได้กำหนดกำหนดการบังคับใช้แบบทีละขั้นตอนตั้งแต่การประกาศจนถึงการนำไปใช้งาน ซึ่งทำให้ผู้ประกอบการต้องเตรียมตัวและปฏิบัติตามในแต่ละขั้นตอน

กฎหมายการควบคุม AI ได้รับการประกาศในราชกิจจานุเบกษาเมื่อวันที่ 12 กรกฎาคม 2024 และได้มีการบังคับใช้ในวันที่ 1 สิงหาคมของปีเดียวกัน ในขั้นตอนนี้ ผู้ประกอบการจะต้องตรวจสอบและพิจารณาเนื้อหาของกฎหมายเป็นอันดับแรก

ในวันที่ 2 กุมภาพันธ์ 2025 จะมีการนำข้อบังคับที่เกี่ยวข้องกับ ‘หลักการทั่วไป’ และ ‘ระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้’ มาใช้ หากผู้ประกอบการมีการจัดการกับระบบ AI ที่มีความเสี่ยงที่ไม่สามารถยอมรับได้ จะต้องหยุดการจัดการนั้นทันที

ต่อมาในวันที่ 2 พฤษภาคม 2025 จะมีการเผยแพร่มาตรฐานปฏิบัติ (Codes of Practice) สำหรับผู้ให้บริการโมเดล AI ทั่วไป (GPAI) ผู้ประกอบการจะต้องดำเนินการตามมาตรฐานปฏิบัติเหล่านี้

หลังจากนั้น ในวันที่ 2 สิงหาคม 2025 ข้อบังคับที่เกี่ยวข้องกับ ‘โมเดล GPAI’ และ ‘บทลงโทษ’ จะถูกนำมาใช้ และแต่ละประเทศสมาชิกจะต้องมีการแต่งตั้งหน่วยงานที่มีอำนาจในการดูแล ในขั้นตอนนี้ ผู้ให้บริการโมเดล GPAI จะต้องปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง

ในวันที่ 2 กุมภาพันธ์ 2026 จะมีการเผยแพร่แนวทางการนำระบบ AI ไปใช้งานตามกฎหมายการควบคุม AI พร้อมกันนี้ จะมีการกำหนดให้มีการตรวจสอบหลังการขายสำหรับระบบ AI ที่มีความเสี่ยงสูง และจะต้องมีการจัดตั้งระบบการตอบสนองที่เหมาะสม

นอกจากนี้ ในวันที่ 2 สิงหาคม 2026 ข้อบังคับที่ระบุไว้ในภาคผนวก III เกี่ยวกับ ‘ระบบ AI ที่มีความเสี่ยงสูง’ จะถูกนำมาใช้ ณ จุดนี้ แต่ละประเทศสมาชิกจะต้องจัดตั้ง ‘สนามทดลองกฎหมาย AI’ และการปฏิบัติตามกฎระเบียบสำหรับระบบ AI ที่มีความเสี่ยงสูงจะเป็นสิ่งจำเป็น

สุดท้าย ในวันที่ 2 สิงหาคม 2027 ข้อบังคับที่ระบุไว้ในภาคผนวก I เกี่ยวกับ ‘ระบบ AI ที่มีความเสี่ยงสูง’ จะถูกนำมาใช้ ด้วยเหตุนี้ ระบบ AI ที่กำหนดไว้ในภาคผนวก I จะต้องปฏิบัติตามกฎระเบียบที่กำหนดไว้

ดังนั้น กฎหมายการควบคุม AI จะถูกบังคับใช้แบบทีละขั้นตอนเป็นเวลาหลายปี และจะมีการนำกฎระเบียบที่เกี่ยวข้องกับความเสี่ยงที่ร้ายแรงมาใช้เป็นลำดับ ผู้ประกอบการจะต้องทราบถึงเวลาที่กฎหมายจะถูกนำมาใช้และดำเนินการตามกฎระเบียบที่เกี่ยวข้องกับระบบ AI ที่เป็นเป้าหมาย

บทความที่เกี่ยวข้อง:สถานการณ์และแนวโน้มของกฎหมายการควบคุม AI ในสหภาพยุโรปคืออะไร? รวมถึงผลกระทบต่อบริษัทญี่ปุ่น[ja]

แนะนำมาตรการของเรา

สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นทั้งในด้านไอที โดยเฉพาะอินเทอร์เน็ตและกฎหมาย

ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย การสนับสนุนจากทนายความที่มีความเชี่ยวชาญด้านปัญหากฎหมายเกี่ยวกับ AI จึงเป็นสิ่งที่จำเป็นอย่างยิ่ง สำนักงานของเราประกอบด้วยทีมทนายความและวิศวกรที่มีความรู้ความเข้าใจใน AI ให้การสนับสนุนทางกฎหมายระดับสูงสำหรับธุรกิจ AI รวมถึง ChatGPT ตั้งแต่การจัดทำสัญญา การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การปกป้องสิทธิ์ทรัพย์สินทางปัญญา ไปจนถึงการจัดการกับความเป็นส่วนตัว รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้

สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

กลับไปด้านบน