MONOLITH LAW OFFICE+81-3-6262-3248วันธรรมดา 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

สถานะปัจจุบันของกฎหมายที่ควบคุม AI คืออะไร? การเปรียบเทียบและจุดสําคัญในการรับมือระหว่างญี่ปุ่นและสหภาพยุโรป

IT

สถานะปัจจุบันของกฎหมายที่ควบคุม AI คืออะไร? การเปรียบเทียบและจุดสําคัญในการรับมือระหว่างญี่ปุ่นและสหภาพยุโรป

การใช้งาน AI ที่สร้างขึ้นเอง เช่น ChatGPT กำลังกลายเป็นกระแสที่ใหญ่โต ณ ตอนนี้ AI ที่สร้างขึ้นได้ถูกนำมาใช้ในวงการธุรกิจและยังเป็นผู้ที่จุดประกายให้เกิด “คลื่นลูกที่ 4 ของ AI” อีกด้วย ตามมาด้วยการที่มีการพัฒนากรอบกฎหมายในการควบคุม AI ในระดับสากล

ในบทความนี้ เราจะพูดถึงกฎหมายที่เกี่ยวข้องกับ AI และจะอธิบายเกี่ยวกับการจัดการข้อมูลที่เป็นความลับอย่างเหมาะสม เช่น สิทธิ์ในทรัพย์สินทางปัญญาและข้อมูลส่วนบุคคล

คำจำกัดความและประวัติของ AI (ปัญญาประดิษฐ์)

AI (artificial intelligence) หรือ “ปัญญาประดิษฐ์” นั้นไม่มีคำจำกัดความที่เข้มงวดในทางกฎหมาย และมีคำจำกัดความที่หลากหลาย ต่อไปนี้คือตัวอย่างของคำจำกัดความเหล่านั้น

อ้างอิงคำจำกัดความ/คำอธิบาย
「広辞苑」ระบบคอมพิวเตอร์ที่มีฟังก์ชันทางปัญญา เช่น การอนุมาน การตัดสินใจ
「ブリタニカ百科事典」วิทยาการและเทคโนโลยี > คอมพิวเตอร์และ AI ความสามารถในการดำเนินงานที่เกี่ยวข้องกับการมีอยู่อย่างมีปัญญาของคอมพิวเตอร์ดิจิทัลหรือหุ่นยนต์คอมพิวเตอร์
บทความจากสมาคมปัญญาประดิษฐ์「教養知識としてのAI」คำถามที่ว่า “AI คืออะไร” ไม่ใช่คำถามที่ง่าย แม้แต่ในหมู่ผู้เชี่ยวชาญด้าน AI ยังมีการอภิปรายอย่างกว้างขวาง และมีความเห็นที่แตกต่างกันมากมาย ถ้าจะสรุปให้เป็นคำเดียวก็คือ “เทคโนโลยีที่ทำให้เครื่องจักรสามารถทำงานทางปัญญาที่คล้ายคลึงกับมนุษย์ได้”
บทความวิชาการ「深層学習と人工知能」AI เป็นสาขาวิชาที่พยายามอธิบายกลไกของปัญญามนุษย์อย่างมีโครงสร้าง
บทความวิชาการ「人工知能社会のあるべき姿を求めて」AI และเทคโนโลยีสารสนเทศอื่นๆ คือเครื่องมือ

AI ถูกกล่าวถึงว่าเป็นกลุ่มของเทคโนโลยี ซอฟต์แวร์ ระบบคอมพิวเตอร์ และอัลกอริทึมที่สามารถจำลองความสามารถทางปัญญาของมนุษย์บนคอมพิวเตอร์ได้

AI ที่เชี่ยวชาญโดยเฉพาะอย่างยิ่ง ได้แก่

  • การประมวลผลภาษาธรรมชาติ (การแปลภาษาเครื่อง การวิเคราะห์ไวยากรณ์ การวิเคราะห์รูปแบบคำ ระบบ RNN ฯลฯ)
  • ระบบเชี่ยวชาญที่จำลองการอนุมานและการตัดสินใจของผู้เชี่ยวชาญ
  • การรู้จำภาพและเสียง ซึ่งสามารถตรวจจับและสกัดรูปแบบจากข้อมูลได้

การวิจัยและพัฒนาด้าน AI ได้เริ่มต้นขึ้นตั้งแต่ยุคแรกๆ ของคอมพิวเตอร์ในทศวรรษ 1950 โดยการวิจัยในช่วงแรกจนถึงทศวรรษ 1970 มุ่งเน้นไปที่ “การค้นหาและการอนุมาน” ส่วนการวิจัยในทศวรรษ 1980 ที่นำไปสู่การเกิดของระบบเชี่ยวชาญ ได้เน้นไปที่ “การแสดงออกของความรู้” ซึ่งทำให้เกิดการบูมของ AI สองครั้ง

ตั้งแต่ทศวรรษ 2000 เป็นต้นมา ข้อมูลขนาดใหญ่ได้เข้ามามีบทบาท และตั้งแต่ปี 2012 เป็นต้นมา การปรากฏตัวของ Alexnet ได้ทำให้ความสามารถของการเรียนรู้เชิงลึก (deep learning) ในการประมวลผลภาพได้รับการยอมรับทั่วโลก ซึ่งทำให้การวิจัยด้าน AI ก้าวหน้าอย่างรวดเร็วและนำไปสู่การบูมครั้งที่สามของ AI

ระหว่างปี 2016 ถึง 2017 ได้มีการนำเสนอ AI ที่ใช้การเรียนรู้เชิงลึก (deep learning) และการเรียนรู้เสริมแรง (Q-learning และ policy gradient methods)

การปฏิวัติหลักของการบูมครั้งที่สามของ AI นั้นเด่นชัดในด้านการประมวลผลภาษาธรรมชาติและการประมวลผลภาพโดยใช้เซ็นเซอร์ แต่ยังมีผลกระทบอย่างมากต่อการพัฒนาเทคโนโลยี สังคมศาสตร์ จริยธรรม และเศรษฐศาสตร์

ในวันที่ 30 พฤศจิกายน 2022, ChatGPT ซึ่งเป็น AI สำหรับการสร้างภาษาธรรมชาติจาก OpenAI ได้รับความสนใจอย่างมากในฐานะเครื่องมือที่หลากหลาย ทำให้ธุรกิจ AI สร้างสรรค์เติบโตอย่างรวดเร็ว บางคนเรียกปรากฏการณ์นี้ว่าการบูมครั้งที่สี่ของ AI

ธุรกิจที่ควรตรวจสอบกฎหมายเกี่ยวกับ AI 

ฉากธุรกิจที่ควรตรวจสอบกฎหมาย

AI ประเภทหนึ่งที่เรียกว่า การสร้างสรรค์ด้วย AI นั้นเป็นเครื่องมือที่มีประโยชน์ แต่ในขณะเดียวกันก็อาจนำไปสู่การแพร่กระจายข้อมูลที่ผิดพลาด ส่งเสริมการกระทำอาชญากรรม หรือบางครั้งอาจคุกคามประชาธิปไตยได้ถึงขนาดนั้น

ปัจจุบัน ความเสี่ยงเหล่านี้ของ AI กลายเป็นปัญหาที่ไม่สามารถหลีกเลี่ยงได้ ดังนั้น เราจะมาอธิบายฉากธุรกิจที่ควรตรวจสอบกฎหมายจากมุมมองของผู้ใช้และผู้ให้บริการ

การใช้งาน AI สำหรับการสร้างเนื้อหา

ตั้งแต่ ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 การสร้างเนื้อหาด้วย AI ได้รับความสนใจจากทั่วโลกเนื่องจากสามารถรับมือกับงานที่ซับซ้อนได้ ทำให้คาดหวังในเรื่องของการเพิ่มประสิทธิภาพการทำงานและความคุ้มค่าของต้นทุน

อย่างไรก็ตาม ความเสี่ยงที่เกี่ยวข้องกับการใช้งาน AI ในการสร้างเนื้อหาก็เริ่มเป็นที่รู้จัก ในการหลีกเลี่ยงความเสี่ยงเหล่านี้ จำเป็นต้องระมัดระวังเกี่ยวกับความเสี่ยงที่มีอยู่และกฎหมายที่ต้องปฏิบัติตาม

ChatGPT ซึ่งเป็นตัวแทนของการสร้างเนื้อหาด้วย AI อาจมีความเสี่ยงที่ข้อมูลที่ผู้ใช้ป้อน (พรอมต์) อาจถูกเปิดเผยหากไม่มีการดำเนินการใดๆ ด้วยความสามารถในการเก็บรวบรวม จัดเก็บ และใช้พรอมต์ ChatGPT อาจทำให้ข้อมูลส่วนบุคคล ข้อมูลลับของบริษัท หรือข้อมูลที่ได้มาจากการทำสัญญาความลับ (NDA) รั่วไหลได้

นอกจากนี้ ChatGPT ยังมีความเสี่ยงในการสร้างและแพร่กระจายข้อมูลที่ผิดพลาด (ฮาลูซิเนชัน) ความเสี่ยงด้านลิขสิทธิ์ ซึ่งจำเป็นต้องตรวจสอบข้อเท็จจริงของผลลัพธ์ที่ได้

การใช้งาน AI สำหรับการสร้างภาพ

เมื่อใช้ AI ในการสร้างภาพเพื่อการค้า จำเป็นต้องคำนึงถึงความเสี่ยงด้านลิขสิทธิ์

ลิขสิทธิ์ของภาพหรือเนื้อหาที่สร้างโดย ChatGPT หรือเครื่องมืออื่นๆ โดยทั่วไปแล้วเป็นของผู้ใช้ที่สร้างขึ้น OpenAI ระบุว่า ผู้ใช้สามารถใช้ ChatGPT สำหรับวัตถุประสงค์ใดๆ (รวมถึงการใช้งานทางการค้า) ได้

อย่างไรก็ตาม การใช้งานจำเป็นต้องระมัดระวังในประเด็นต่อไปนี้

ข้อมูลการเรียนรู้ของ ChatGPT ประกอบด้วยเนื้อหาจำนวนมากที่เผยแพร่บนอินเทอร์เน็ต ซึ่งส่วนใหญ่เป็นผลงานที่มีลิขสิทธิ์ (ข้อความ ภาพ ดนตรี วิดีโอ ฯลฯ) ดังนั้น ผลงานที่สร้างขึ้นอาจละเมิดลิขสิทธิ์ของผู้อื่นได้

การพัฒนา AI และการให้บริการ AI สร้างสรรค์

ธุรกิจ AI เกี่ยวข้องกับกฎหมายหลายประการ และในขณะที่กรอบกฎหมายทั่วโลกกำลังถูกพัฒนา จำเป็นต้องปฏิบัติตามกฎหมายที่มีอยู่และมีความยืดหยุ่นในการปรับตัวเข้ากับกฎหมายใหม่ๆ

ในบทถัดไป เราจะอธิบายเกี่ยวกับกฎหมายของญี่ปุ่นที่เกี่ยวข้องกับ AI และ ‘กฎหมายควบคุม AI’ ของสหภาพยุโรปที่ถูกสร้างขึ้นเป็นครั้งแรกในโลกในเดือนธันวาคม 2023

กฎหมายของญี่ปุ่นเกี่ยวกับ AI

ในปัจจุบันของญี่ปุ่น, AI ไม่ได้ถูกควบคุมด้วยกฎหมายที่มีอำนาจบังคับใช้, แต่ปฏิบัติตามนโยบายของการควบคุมด้วยตนเอง. ที่นี่เราจะอธิบายเกี่ยวกับกฎหมายที่มีอยู่ในปัจจุบันที่ควรให้ความสนใจเมื่อใช้งาน AI.

อ้างอิง: กระทรวงเศรษฐกิจ, การค้าและอุตสาหกรรม | “แนวทางการกำกับดูแลเพื่อการปฏิบัติตามหลักการ AI เวอร์ชัน 1.1”[ja]

กฎหมายลิขสิทธิ์

ในเดือนมกราคม 2019 (ปี ฮ.ศ. 31), กฎหมายลิขสิทธิ์ที่แก้ไขได้รับการบังคับใช้, ซึ่งมีการเพิ่มข้อกำหนดการจำกัดสิทธิ์ (ข้อยกเว้นที่ไม่ต้องการอนุญาต) สำหรับ “การวิเคราะห์ข้อมูล” (มาตรา 30-4 ข้อ 1 หมายเลข 2 ของกฎหมายดังกล่าว). การใช้งานที่ไม่ได้มีวัตถุประสงค์เพื่อการเพลิดเพลินกับความคิดหรืออารมณ์ที่ถูกแสดงผ่านผลงาน, เช่น การวิเคราะห์ข้อมูลในการพัฒนา AI หรือในขั้นตอนการเรียนรู้, สามารถดำเนินการได้โดยไม่ต้องได้รับอนุญาตจากเจ้าของลิขสิทธิ์.

การแก้ไขนี้ทำให้มีการกำหนดนิยามของ “การวิเคราะห์ข้อมูล”, ซึ่งทำให้ชัดเจนว่าการเรียนรู้ของเครื่องจักรรวมถึงการเรียนรู้เชิงลึกของ AI นั้นถูกครอบคลุมอยู่ใน “การวิเคราะห์ข้อมูล”.

การวิเคราะห์ข้อมูล (การสกัดข้อมูลเกี่ยวกับภาษา, เสียง, ภาพหรือองค์ประกอบอื่น ๆ จากผลงานหลายชิ้นหรือข้อมูลจำนวนมาก, และทำการเปรียบเทียบ, จัดหมวดหมู่หรือการวิเคราะห์อื่น ๆ) เมื่อใช้เพื่อ

มาตรา 30-4 ข้อ 1 หมายเลข 2 ของกฎหมายลิขสิทธิ์

อย่างไรก็ตาม, ควรระมัดระวังในกรณีที่ผลงานที่สร้างขึ้นโดยใช้ AI มีความคล้ายคลึงหรือขึ้นอยู่กับผลงานของผู้อื่น, อาจถือเป็นการละเมิดลิขสิทธิ์.

นอกจากนี้, หากใส่ผลงานลิขสิทธิ์เป็นพรอมต์ใน ChatGPT, อาจถือเป็นการละเมิดสิทธิ์การคัดลอกหรือสิทธิ์อื่น ๆ. การใช้ AI ในการแก้ไขผลงานลิขสิทธิ์ของผู้อื่นอาจนำไปสู่การละเมิดสิทธิ์การดัดแปลงหรือสิทธิ์อื่น ๆ.

ตามเงื่อนไขการใช้งานของ OpenAI, สิทธิ์ในเนื้อหาที่สร้างขึ้นด้วย ChatGPT นั้นเป็นของผู้ใช้และสามารถใช้เพื่อการค้าได้, แต่หากมีความยากลำบากในการตัดสินใจว่าเนื้อหานั้นละเมิดลิขสิทธิ์หรือไม่, แนะนำให้ปรึกษากับผู้เชี่ยวชาญ.

หากถูกเจ้าของลิขสิทธิ์ชี้แจงว่ามีการละเมิดลิขสิทธิ์, อาจต้องรับผิดชอบทางกฎหมายไม่ว่าจะเป็นความรับผิดทางแพ่ง (การห้ามใช้, ค่าเสียหาย, ค่าทดแทน, การฟื้นฟูชื่อเสียง ฯลฯ) หรือความรับผิดทางอาญา.

กฎหมายป้องกันการแข่งขันที่ไม่เป็นธรรม

ในวันที่ 1 กรกฎาคม 2019 (ปี ฮ.ศ. 31), กฎหมายป้องกันการแข่งขันที่ไม่เป็นธรรมได้รับการบังคับใช้. ก่อนหน้านี้, การป้องกันการแข่งขันที่ไม่เป็นธรรมสำหรับสิ่งที่ไม่ได้รับการคุ้มครองภายใต้กฎหมายสิทธิบัตรหรือกฎหมายลิขสิทธิ์, หรือไม่ถือเป็น “ความลับทางการค้า” ตามกฎหมายป้องกันการแข่งขันที่ไม่เป็นธรรมนั้นยาก.

ดังนั้น, การแก้ไขนี้ได้กำหนดมาตรการทางแพ่งสำหรับการกระทำที่เป็นอันตราย, เช่น การได้มาซึ่งข้อมูลที่มีค่า (ข้อมูลที่จำกัดการเข้าถึง) อย่างไม่ชอบด้วยกฎหมายหรือการใช้ข้อมูลดังกล่าวอย่างไม่เหมาะสม.

กฎหมายของสหภาพยุโรปเกี่ยวกับการใช้งาน AI

การควบคุมทางกฎหมายเกี่ยวกับการใช้งาน AI ของสหภาพยุโรป

ระบบกฎหมายของสหภาพยุโรปประกอบด้วยกฎหมายระดับหนึ่ง (สนธิสัญญา) กฎหมายระดับสอง (กฎหมายของสหภาพยุโรป) และคำพิพากษา 3 ส่วน กฎหมายระดับสองคือกฎหมายที่ออกตามสนธิสัญญาและมีผลผูกพันต่อประเทศสมาชิกของสหภาพยุโรปโดยตรงหรือโดยอ้อม ซึ่งเรียกว่ากฎหมายลูกของสหภาพยุโรป กฎหมายระดับสองมีอยู่หลายประเภท แต่ “กฎหมายควบคุม AI” ของสหภาพยุโรปเป็นกฎหมายประเภทระเบียบ (Regulation) ซึ่งเป็นกฎเกณฑ์ที่มีผลผูกพันโดยตรงกับประเทศสมาชิกของสหภาพยุโรป

ในทางตรงกันข้าม คำสั่ง (Directive) เป็นสิ่งที่ประเทศสมาชิกของสหภาพยุโรปต้องรับผิดชอบในการนำเนื้อหาของคำสั่งไปใช้โดยการสร้างหรือแก้ไขกฎหมายภายในประเทศ ซึ่งเป็นหน้าที่ทางกฎหมายแบบอ้อม โดยทั่วไปแล้ว กำหนดเวลาในการดำเนินการคือภายใน 3 ปีหลังจากการเผยแพร่ในราชกิจจานุเบกษาของสหภาพยุโรป

บทความที่เกี่ยวข้อง: บริษัทที่ต้องการขยายธุรกิจไปยังยุโรป ไม่ควรพลาด คำอธิบายสำคัญเกี่ยวกับกฎหมายและระบบกฎหมายของสหภาพยุโรป[ja]

ในบทนี้ เราจะอธิบายเกี่ยวกับกฎหมายที่เกี่ยวข้องกับการใช้งาน AI ของสหภาพยุโรป โดยเฉพาะอย่างยิ่ง “คำสั่ง” และ “ระเบียบ” พร้อมทั้งอัปเดตเทรนด์ล่าสุด

แนวทางการรับผิดชอบ AI

วันที่ 28 กันยายน 2022 (2022), คณะกรรมาธิการยุโรปได้เปิดเผยแนวทางการรับผิดชอบ AI พร้อมกับการแก้ไข ‘แนวทางการรับผิดชอบของผู้ผลิต’ ซึ่งกำหนดกฎหมายเกี่ยวกับความรับผิดทางกฎหมายของธุรกิจ AI ในสหภาพยุโรป (EU) ที่สอดคล้องกับ ‘กฎหมายการควบคุม AI’ ของ EU และจะกลายเป็นกรอบกฎหมายที่สำคัญ ตั้งแต่เดือนมิถุนายน 2023 (2023), มันจะถูกนำไปใช้กับ ‘แนวทางการฟ้องร้องแบบกลุ่ม’ ของ EU ดังนั้น บริษัทญี่ปุ่นที่เกี่ยวข้องควรทำความเข้าใจเนื้อหานี้

เป็นการเปลี่ยนแปลงกฎหมายเกี่ยวกับความรับผิดทางพลเรือนสำหรับซอฟต์แวร์รวมถึงระบบ AI ใน EU ให้เหมาะสมกับเศรษฐกิจหมุนเวียนและห่วงโซ่คุณค่าโลกในยุคดิจิทัล

บทความที่เกี่ยวข้อง:สถานะและแนวโน้มของกฎหมายการควบคุม AI ใน EU คืออะไร? รวมถึงผลกระทบต่อบริษัทญี่ปุ่น[ja]

วัตถุประสงค์ของ ‘แนวทางการรับผิดชอบ AI’ คือการกำหนดกฎเกณฑ์เกี่ยวกับความรับผิดทางพลเรือนที่ไม่ได้มาจากสัญญาสำหรับความเสียหายที่เกิดจากระบบ AI เพื่อปรับปรุงการทำงานของตลาดภายใน EU

นั่นคือ ความรับผิดที่เกิดจากสัญญา (ความรับผิดจากการไม่ปฏิบัติตามสัญญาและความรับผิดจากการไม่ตรงตามสัญญา) ไม่ได้ถูกนำมาพิจารณา แต่จำกัดเฉพาะความรับผิดจากความประมาท (เช่น ความรับผิดจากการกระทำผิด) ที่ไม่ได้จำกัดเฉพาะความเสียหายที่เกิดจากความไม่ปลอดภัย จำเป็นต้องให้ความสนใจ

ตัวอย่างเช่น ความเสียหายที่เกิดจากระบบการจ้างงาน AI ที่เลือกปฏิบัติก็อาจจะถูกพิจารณาเป็นเป้าหมายด้วย

แนวทางนี้มีจุดมุ่งหมายเพื่อจัดการกับปัญหา ‘กล่องดำ’ ของ AI โดยให้มาตรการลดภาระการพิสูจน์ให้กับผู้ประกอบการที่พัฒนา ‘ระบบ AI ที่มีความเสี่ยงสูง’ ตามที่ ‘กฎหมายการควบคุม AI’ กำหนด โดยมีการสร้าง ‘การประมาณการสาเหตุ’ และ ‘ระบบการเปิดเผยหลักฐาน’ ใหม่

หากไม่ปฏิบัติตามคำสั่งการเปิดเผยหลักฐาน ‘แนวทางการรับผิดชอบ AI’ จะกำหนดให้มีการละเมิดหน้าที่และการประมาณการสาเหตุ ส่วน ‘การแก้ไขแนวทางการรับผิดชอบของผู้ผลิต’ จะกำหนดให้มีการประมาณการข้อบกพร่องและสาเหตุ โดยมีการกำหนดโทษที่เข้มงวดกว่ากฎหมายพลเรือนของญี่ปุ่นเพื่อให้ปฏิบัติตามคำสั่ง

แนวทางนี้จำกัดเฉพาะ ‘มาตรการลดภาระการพิสูจน์’ ในสเตจแรก และมีการสร้างคุณสมบัติของผู้ฟ้องคดี การเปิดเผยหลักฐาน การรักษาหลักฐาน และการประมาณการสาเหตุใหม่ โดยมีการกำหนดแต่ละข้อกำหนด

สเตจที่สองกำหนดเกี่ยวกับการทบทวนและการประเมิน คณะกรรมาธิการยุโรปได้ตั้งโปรแกรมติดตามผล ทบทวนข้อมูลเหตุการณ์ และประเมินความเหมาะสมและความจำเป็นของการนำเข้าประกันภัยบังคับสำหรับผู้ประกอบการระบบ AI ที่มีความเสี่ยงสูง รวมถึงมาตรการเพิ่มเติมอื่นๆ และรายงานต่อสภายุโรปและรัฐสภายุโรป

แก้ไขร่างข้อบังคับความรับผิดของผู้ผลิต

“ข้อบังคับความรับผิดของผู้ผลิต” เป็นกฎหมายของสหภาพยุโรปที่ถูกสร้างขึ้นในปี 1985 เพื่อปกป้องผู้บริโภค โดยกำหนดความรับผิดของผู้ผลิตในกรณีที่ผู้บริโภคได้รับความเสียหายจากผลิตภัณฑ์ที่มีข้อบกพร่อง

ในร่างแก้ไข ความรับผิดของผู้ผลิตจะขยายขอบเขตไปยัง “ซอฟต์แวร์” ใหม่ ๆ ที่ถูกเพิ่มเข้ามาใน “ผลิตภัณฑ์” และหากซอฟต์แวร์ประเภท AI มี “ข้อบกพร่อง” ผู้ประกอบการระบบ AI จะถูกนำมาใช้ความรับผิดที่ไม่มีความผิด นอกจากนี้ มาตรฐานในการตัดสินว่ามี “ข้อบกพร่อง” หรือไม่ ได้ถูกเพิ่มเติมด้วยความสามารถในการเรียนรู้ต่อเนื่องหลังการติดตั้งและการอัปเดตซอฟต์แวร์

ในกฎหมายปัจจุบันของญี่ปุ่น คือ “กฎหมายความรับผิดของผู้ผลิต” โดยทั่วไปซอฟต์แวร์ไม่ถือว่าเป็นสินค้าที่เคลื่อนที่ได้ ดังนั้นจึงไม่ถือว่าเป็น “ผลิตภัณฑ์” ที่อยู่ภายใต้การประยุกต์ใช้กฎหมาย แต่การแก้ไขนี้ได้เปลี่ยนแปลงแนวคิดของ “ผลิตภัณฑ์” ร่างแก้ไขยังนำเสนอ “มาตรการลดภาระการพิสูจน์” ซึ่งอาจมีผลกระทบอย่างมากต่อซอฟต์แวร์รวมถึงระบบ AI และผลิตภัณฑ์เทคโนโลยีขั้นสูงอื่น ๆ

กฎหมายควบคุม AI

“กฎหมายควบคุม AI (AI Act)” เป็นกฎหมายระดับสหภาพยุโรป (EU) ที่ครอบคลุมธุรกิจ AI ซึ่งประกอบด้วยกฎหมายระหว่างประเทศ 85 มาตราเพื่อควบคุม AI เป็นครั้งแรกของโลก ได้รับการอนุมัติชั่วคราวจากคณะกรรมาธิการยุโรป รัฐสภายุโรป และสภายุโรป และได้รับการบังคับใช้ในวันที่ 9 ธันวาคม 2023 คาดว่าจะมีผลบังคับใช้และดำเนินการอย่างเต็มรูปแบบในปี 2024

กฎหมายนี้เป็นส่วนสำคัญของกลยุทธ์ดิจิทัลของ EU ที่รู้จักกันในชื่อ “A Europe fit for the Digital Age” มีจุดมุ่งหมายเพื่อตอบสนองต่อความท้าทายและความเสี่ยงใหม่ๆ ในยุคดิจิทัลที่กำลังพัฒนา โดยการรับประกันความปลอดภัยของ AI และสิทธิพื้นฐาน และเพื่อเสริมสร้างการทำงาน การลงทุน และนวัตกรรมของ AI ในทั้ง EU

กฎหมายควบคุม AI ของ EU นี้จะถูกนำไปใช้โดยตรงกับประเทศสมาชิกของ EU และยังมีผลบังคับใช้ข้ามพรมแดนสำหรับธุรกิจที่ดำเนินการในพื้นที่ EU รวมถึงธุรกิจที่ตั้งอยู่นอก EU

หากมีการฝ่าฝืน อาจถูกปรับเป็นจำนวนมากตามยอดขายทั่วโลก (สูงสุดถึง 30 ล้านยูโร หรือประมาณ 4.7 พันล้านบาท หรือ 6% ของยอดขายทั่วโลก แล้วแต่จำนวนใดสูงกว่า) ซึ่งอาจทำให้ไม่สามารถดำเนินธุรกิจ AI ใน EU ได้

ดังนั้น บริษัทที่ได้นำ AI ไปใช้ในตลาด EU รวมถึงบริษัทที่กำลังพิจารณาเข้าสู่ตลาด EU รวมทั้งบริษัทญี่ปุ่น จึงต้องปฏิบัติตามกฎหมายควบคุม AI ใหม่ของ EU

โครงสร้างหลักของ “กฎหมายควบคุม AI” ประกอบด้วย 3 ลักษณะเด่น ได้แก่ “การจำแนก AI ตามระดับความเสี่ยง” “ข้อกำหนดและหน้าที่” และ “การสนับสนุนนวัตกรรม”

ผู้ที่อยู่ภายใต้การควบคุม ได้แก่ ผู้ประกอบการที่นำเสนอระบบ AI และบริการในตลาดยุโรป รวมถึงผู้พัฒนา AI ผู้ให้บริการ ผู้จัดจำหน่าย ผู้นำเข้า ผู้ขาย และผู้ใช้

ระดับความเสี่ยงของ AI จะถูกจำแนกเป็น 4 ระดับ และจะมีการนำกฎหมายมาใช้ตามระดับความเสี่ยงที่เกี่ยวข้อง การรับประกันความรู้เรื่อง AI สำหรับผู้พัฒนา ผู้ใช้ และผู้ให้บริการ AI ถือเป็นสิ่งจำเป็นตามที่ได้ระบุไว้อย่างชัดเจน สำหรับรายละเอียดเพิ่มเติม โปรดดูบทความที่เกี่ยวข้อง

บทความที่เกี่ยวข้อง: สถานะและแนวโน้มของกฎหมายควบคุม AI ใน EU คืออะไร? รวมถึงผลกระทบต่อบริษัทญี่ปุ่น[ja]

ประเด็นที่ควรคำนึงเกี่ยวกับกฎหมายที่เกี่ยวข้องกับ AI

ประเด็นที่ควรคำนึงเกี่ยวกับกฎหมายที่เกี่ยวข้องกับ AI

ในบทนี้ เราจะอธิบายเกี่ยวกับประเด็นทางกฎหมายที่องค์กรควรคำนึงเมื่อต้องการใช้งาน AI สร้างสรรค์โดยเฉพาะ

เกี่ยวกับลิขสิทธิ์ของผลงานที่สร้างโดย AI

ประเด็นที่ควรคำนึงเกี่ยวกับผลงานที่สร้างขึ้นโดย AI สร้างสรรค์ ได้แก่ ข้อพิจารณาทางกฎหมายดังต่อไปนี้

  • ผลงานนั้นละเมิดลิขสิทธิ์หรือไม่
  • ผลงานที่สร้างขึ้นโดย AI สร้างสรรค์ได้รับการยอมรับให้มีลิขสิทธิ์หรือไม่

ดังที่ได้กล่าวไว้ก่อนหน้านี้ หากผลงานที่สร้างโดย ChatGPT มีความคล้ายคลึงหรือพึ่งพาผลงานที่มีลิขสิทธิ์อยู่แล้ว อาจถือเป็นการละเมิดลิขสิทธิ์ได้ แต่ผลงานที่สร้างขึ้นโดย AI สร้างสรรค์จะได้รับการยอมรับให้มีลิขสิทธิ์หรือไม่?

ตามกฎหมายลิขสิทธิ์ “ผลงาน” ถูกนิยามว่าเป็น “การแสดงออกที่สร้างสรรค์ของความคิดหรืออารมณ์” เนื่องจาก AI ไม่มีความคิดหรืออารมณ์ จึงมีความเห็นว่าเนื้อหาที่สร้างโดย AI สร้างสรรค์อาจไม่ได้รับการยอมรับให้มีลิขสิทธิ์

อย่างไรก็ตาม เนื่องจากกระบวนการสร้างเนื้อหาโดย AI เป็นกล่องดำที่ไม่โปร่งใสสำหรับผู้ใช้ การทำให้ AI สร้างเนื้อหาตามที่ผู้ใช้ต้องการเป็นเรื่องยาก ดังนั้น หากในขั้นตอนของการให้คำสั่งมีความคิดสร้างสรรค์จากผู้ใช้ อาจถือว่าเป็น “การแสดงออกที่สร้างสรรค์ของความคิดหรืออารมณ์” ของผู้ใช้โดย AI สร้างสรรค์ ซึ่งในกรณีนี้อาจได้รับการยอมรับให้มีลิขสิทธิ์ได้

การจัดการข้อมูลส่วนบุคคลเมื่อใช้ AI

เมื่อใช้ AI จำเป็นต้องคำนึงถึงความเป็นไปได้ที่จะละเมิดกฎหมายคุ้มครองข้อมูลส่วนบุคคล จำเป็นต้องมีมาตรการป้องกัน เช่น ไม่ใส่ข้อมูลส่วนบุคคลหรือข้อมูลที่เกี่ยวข้องกับความเป็นส่วนตัว

หากมีการใส่ข้อมูลส่วนบุคคลลงในคำสั่ง อาจถือเป็นการให้ข้อมูลส่วนบุคคลแก่บุคคลที่สามซึ่งเป็นผู้ให้บริการ การให้ข้อมูลส่วนบุคคลแก่บุคคลที่สามต้องได้รับความยินยอมจากบุคคลนั้นโดยหลักการ หากไม่มีความยินยอม อาจถือเป็นการละเมิดกฎหมายคุ้มครองข้อมูลส่วนบุคคลได้

ใน ChatGPT หากมีการใส่ข้อมูลส่วนบุคคลโดยไม่ตั้งใจ ระบบก็ไม่สามารถแสดงข้อมูลนั้นออกมาได้ นี่เป็นนโยบายของ OpenAI ที่ไม่เก็บหรือติดตามข้อมูลส่วนบุคคล อย่างไรก็ตาม บริการหรือแพลตฟอร์มอื่นๆ อาจมีการจัดการที่แตกต่างกัน จึงจำเป็นต้องระมัดระวัง

การจัดการความเสี่ยงเมื่อบริษัทใช้งาน AI

การจัดการความเสี่ยงขึ้นอยู่กับกลยุทธ์ทางธุรกิจของบริษัท, วัตถุประสงค์ในการใช้งาน AI และกฎหมายที่เกี่ยวข้อง ดังนั้น การดำเนินการจัดการความเสี่ยงที่เหมาะสมตามสถานการณ์และวัตถุประสงค์จึงเป็นสิ่งสำคัญ

บริษัทที่ใช้งาน AI สร้างสรรค์ควรพิจารณาประเด็นต่อไปนี้เพื่อลดความเสี่ยงให้น้อยที่สุด:

  1. การพัฒนาบุคลากร: การใช้งาน AI สร้างสรรค์อย่างเหมาะสมต้องการความรู้และทักษะเฉพาะทาง การศึกษาและฝึกอบรมพนักงานเพื่อให้เข้าใจวิธีการใช้งานที่เหมาะสมเป็นสิ่งสำคัญ
  2. การกำหนดและนำเข้ามาใช้และบริหารจัดการแนวทางปฏิบัติภายในบริษัท: การกำหนดแนวทางปฏิบัติภายในบริษัทเกี่ยวกับการใช้งาน AI สร้างสรรค์และทำให้พนักงานปฏิบัติตามสามารถช่วยลดความเสี่ยงได้
  3. การสร้างองค์กรสนับสนุนการใช้งานและการจัดการความเสี่ยง: การตั้งองค์กรเพื่อสนับสนุนการใช้งาน AI สร้างสรรค์และวางทีมจัดการความเสี่ยงภายในองค์กรเป็นวิธีที่มีประสิทธิภาพ
  4. การนำระบบเข้ามาใช้: การนำ AI สร้างสรรค์เข้ามาใช้งานอย่างเหมาะสมต้องการการเลือกและออกแบบระบบอย่างรอบคอบ

นอกจากนี้ ความเสี่ยงที่เกิดจากการใช้งาน AI สร้างสรรค์นั้นหลากหลาย รวมถึงการรั่วไหลของข้อมูล, การละเมิดสิทธิ์และความเป็นส่วนตัว, ความกังวลเกี่ยวกับความถูกต้องและความปลอดภัยของข้อมูล และความเสี่ยงจากอคติ การหลีกเลี่ยงความเสี่ยงเหล่านี้ต้องการการนำเข้ามาใช้งานกรอบการกำกับดูแลและการจัดการความเสี่ยงที่เหมาะสม

บทความที่เกี่ยวข้อง: 「ความเสี่ยงและการนำ ChatGPT เข้ามาใช้ในบริษัท รวมถึงตัวอย่างการรั่วไหลของข้อมูลลับและการจัดการความเสี่ยง」[ja]

สรุป: กฎหมาย AI ยังอยู่ในระหว่างการพัฒนา จำเป็นต้องติดตามอย่างใกล้ชิด

กฎหมายที่เกี่ยวข้องกับธุรกิจ AI กำลังอยู่ในขั้นตอนของการพัฒนากรอบกฎหมาย โดยเริ่มต้นด้วย “กฎหมายควบคุม AI” ระดับนานาชาติแห่งแรกในสหภาพยุโรป (กำหนดใช้วันที่ 9 ธันวาคม 2023) ดังนั้น บริษัทต่างๆจึงต้องมีทัศนคติที่ยืดหยุ่นในการปฏิบัติตามกฎหมายที่มีอยู่และปรับตัวเข้ากับกฎหมายใหม่ๆ

ในญี่ปุ่น ยังไม่มีกฎหมายที่ควบคุม AI โดยตรง แต่จำเป็นต้องเข้าใจและปฏิบัติตามกฎหมายที่เกี่ยวข้อง เช่น กฎหมายลิขสิทธิ์, กฎหมายคุ้มครองข้อมูลส่วนบุคคล, และกฎหมายป้องกันการแข่งขันที่ไม่เป็นธรรมอย่างถูกต้อง นอกจากนี้ ยังต้องติดตามแนวโน้มการแก้ไขกฎหมายที่เกี่ยวข้องและตอบสนองอย่างรวดเร็ว

แนะนำมาตรการจากทางสำนักงานของเรา

สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อย่างมากในด้าน IT โดยเฉพาะอย่างยิ่งอินเทอร์เน็ตและกฎหมาย ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย และการสนับสนุนจากทนายความที่มีความเชี่ยวชาญเกี่ยวกับปัญหาทางกฎหมายของ AI จึงเป็นสิ่งที่จำเป็นอย่างยิ่ง

สำนักงานของเรามีทีมทนายความและวิศวกรที่มีความเชี่ยวชาญใน AI ให้บริการสนับสนุนทางกฎหมายระดับสูงสำหรับธุรกิจ AI รวมถึง ChatGPT เช่น การสร้างสัญญา, การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ, การปกป้องสิทธิ์ทรัพย์สินทางปัญญา, และการจัดการกับความเป็นส่วนตัว เราได้ระบุรายละเอียดในบทความด้านล่างนี้

สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (รวมถึง ChatGPT เป็นต้น)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

กลับไปด้านบน