MONOLITH LAW OFFICE+81-3-6262-3248วันธรรมดา 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

ทนายความวิเคราะห์เนื้อหาของ "แนวทางสําหรับผู้ประกอบการ AI" จากกระทรวงเศรษฐกิจการค้าและอุตสาหกรรม

IT

ทนายความวิเคราะห์เนื้อหาของ

ในปี ค.ศ. 2024 (令和6年) กระทรวงเศรษฐกิจการค้าและอุตสาหกรรมของญี่ปุ่นได้รวบรวมแนวทางสำหรับผู้ประกอบการ AI รุ่นที่ 1.0[ja] ซึ่งเป็นแนวทางสำคัญที่กำหนดทิศทางการกำกับดูแล AI ที่องค์กรควรปฏิบัติตาม โดยมีจุดมุ่งหมายเพื่อการใช้ AI อย่างเหมาะสมและเพิ่มความเชื่อมั่นในสังคม แนวทางนี้ได้ถูกสร้างขึ้นบนพื้นฐานของความจำเป็นในการจัดการความเสี่ยงและตอบสนองต่อประเด็นทางจริยธรรมที่เกิดจากการพัฒนาเทคโนโลยี AI อย่างรวดเร็ว ซึ่งเป็นหัวข้อสำคัญสำหรับทั้งบริษัทและสังคมโดยรวม แนวทางนี้เป็นกฎหมายอ่อน (soft law) ที่ไม่มีผลผูกพันทางกฎหมาย แต่ช่วยให้แต่ละหน่วยงานสามารถระบุบทบาทของตนได้อย่างชัดเจน พร้อมทั้งเน้นย้ำถึงการจัดการความเสี่ยงตามหลักการและความสอดคล้องกับระบบระหว่างประเทศ

นอกจากนี้ หนึ่งในลักษณะเด่นของแนวทางนี้คือการนำเอาแนวคิดของ ‘การกำกับดูแลแบบอจายล์ (Agile Governance)’ ซึ่งไม่ได้เป็นกฎที่ตายตัว แต่สามารถปรับตัวได้อย่างยืดหยุ่นตามการเปลี่ยนแปลงของสภาพแวดล้อม มันเป็นกลไกที่ช่วยให้องค์กรสามารถลดความเสี่ยงและส่งเสริมการพัฒนาเทคโนโลยีอย่างต่อเนื่อง โดยการวิเคราะห์สภาพแวดล้อมและความเสี่ยง การตั้งเป้าหมาย การดำเนินงาน และการประเมินผลอย่างต่อเนื่อง นอกจากนี้ การทำงานร่วมกันระหว่างหลายฝ่าย การไหลเวียนข้อมูลที่เหมาะสม และการมีส่วนร่วมอย่างแข็งขันของผู้บริหาร ยังเป็นปัจจัยสำคัญที่ถูกเน้นย้ำเพื่อรองรับการกำกับดูแลที่มีประสิทธิผล

การเปิดเผย “แนวทางสำหรับผู้ประกอบการ AI” ของกระทรวงเศรษฐกิจ การค้าและอุตสาหกรรม และประเด็นที่อยู่เบื้องหลัง

การเปิดเผย 'แนวทางสำหรับผู้ประกอบการ AI' ของกระทรวงเศรษฐกิจ การค้าและอุตสาหกรรม

ในเดือนเมษายน พ.ศ. 2567 (2024), กระทรวงเศรษฐกิจ การค้าและอุตสาหกรรมของญี่ปุ่นได้จัดทำและเปิดเผย “แนวทางสำหรับผู้ประกอบการ AI (เวอร์ชัน 1.0)[ja]” แนวทางนี้ถูกกำหนดขึ้นเพื่อสนับสนุนการพัฒนาและการนำเทคโนโลยี AI ไปใช้ในสังคม โดยมีลักษณะเป็นแนวทางที่ไม่มีผลผูกพันทางกฎหมาย ดังนั้น จึงไม่ได้กำหนดหน้าที่เช่นกฎหมาย แต่เป็นการนำเสนอแนวคิดพื้นฐาน หลักการ และแนวทางเพื่อเป็นข้อมูลอ้างอิงในการปฏิบัติงานของผู้ประกอบการ โครงสร้างของแนวทางประกอบด้วยเนื้อหาหลักที่กล่าวถึงแนวคิดและหลักการ และเอกสารแนบที่แสดงวิธีการปฏิบัติงานอย่างเฉพาะเจาะจง

แนวคิดที่มีพื้นฐานมาจากหลักการ “สังคม AI ที่มุ่งเน้นมนุษย์”

“แนวทางปฏิบัติสำหรับผู้ประกอบการ AI” ในญี่ปุ่นมีพื้นฐานมาจากหลักการ “สังคม AI ที่มุ่งเน้นมนุษย์” ซึ่งได้ถูกนำเสนอในเดือนมีนาคม 2019 (พ.ศ. 2562) หลักการนี้ยกย่องแนวคิดพื้นฐานที่ว่า “มนุษย์ไม่ควรถูกใช้งานโดย AI แต่ควรเป็นมนุษย์ที่ใช้งาน AI” อย่างเฉพาะเจาะจง หมายความว่า AI ควรถูกใช้งานภายใต้การควบคุมของมนุษย์เพื่อขยายความสามารถของมนุษย์ และควรหลีกเลี่ยงสถานการณ์ที่มนุษย์ถูกควบคุมจากการพึ่งพา AI อย่างมากเกินไป

นอกจากนี้ AI ไม่ควรจำกัดเพียงแค่เป็นเครื่องมือทดแทนการทำงานของมนุษย์เท่านั้น แต่ควรเป็นเครื่องมือที่สูงส่งและสะดวกสบาย ที่มีบทบาทในการขยายความคิดสร้างสรรค์และความสามารถของมนุษย์ ดังนั้น เมื่อใช้ AI ผู้ใช้จะต้องตัดสินใจเองว่าจะใช้งานอย่างไร และต้องรับผิดชอบต่อการตัดสินใจนั้นอย่างมีความรับผิดชอบ

การรวมและทบทวนแนวทางในอดีต

แนวทางนี้ได้รวมและทบทวนจากสามแนวทางหลักในอดีตเพื่อจัดทำขึ้นมาใหม่

  • 「แนวทางการพัฒนา AI」(ปี 2017):อธิบายหลักการพื้นฐานและข้อควรระวังในการพัฒนา AI
  • 「แนวทางการใช้ประโยชน์จาก AI」(ปี 2019):นำเสนอหลักการพื้นฐานและการอธิบายเกี่ยวกับการใช้ประโยชน์จาก AI
  • 「แนวทางการกำกับดูแลเพื่อการปฏิบัติตามหลักการ AI」(ปี 2021):นำเสนอเป้าหมายการดำเนินการที่เฉพาะเจาะจงและตัวอย่างการปฏิบัติเพื่อส่งเสริมการนำไปใช้ในสังคม

เหล่านี้ได้ถูกใช้เป็นแนวทางที่ผู้ประกอบการ AI ควรปฏิบัติตาม ในแนวทางสำหรับผู้ประกอบการ AI ครั้งนี้ได้รวมเอาแนวทางเหล่านั้นเข้าด้วยกัน และมีการพิจารณาถึงแนวโน้มในต่างประเทศและการเกิดขึ้นของเทคโนโลยีใหม่ๆ

กระบวนการกำหนดและประวัติการเผยแพร่

“ร่างแนวทางสำหรับผู้ประกอบการ AI” ได้รับการนำเสนอเป็นครั้งแรกในการประชุมคณะกรรมการยุทธศาสตร์ AI ของสำนักนายกรัฐมนตรีญี่ปุ่น (ครั้งที่ 7) ที่จัดขึ้นเมื่อวันที่ 21 ธันวาคม 2023 (พ.ศ. 2566) หลังจากนั้น ในวันที่ 19 มกราคม 2024 (พ.ศ. 2567) กระทรวงบริหารส่วนภูมิภาคและกระทรวงเศรษฐกิจการค้าและอุตสาหกรรมได้ทำการเผยแพร่อย่างเป็นทางการ และตั้งแต่วันที่ 20 มกราคมถึงวันที่ 19 กุมภาพันธ์ ได้มีการดำเนินการรับฟังความคิดเห็นจากสาธารณะ หลังจากกระบวนการรับฟังความคิดเห็นนี้ ในวันที่ 19 เมษายน แนวทางสำหรับผู้ประกอบการ AI รุ่นที่ 1.0 ได้ถูกสร้างขึ้นและเผยแพร่อย่างเป็นทางการ

ความสำคัญของแนวทางปฏิบัติ

ในขณะที่กฎหมายควบคุม AI ของสหภาพยุโรปได้ถูกกำหนดขึ้นเป็นที่เรียกว่า “ฮาร์ดลอว์” แต่ “แนวทางปฏิบัติสำหรับผู้ประกอบการ AI” ของญี่ปุ่นนั้นเป็นที่เรียกว่า “ซอฟต์ลอว์” ซึ่งไม่มีผลผูกพันทางกฎหมาย แต่แสดงให้เห็นถึงหลักการพื้นฐานและแนวทางปฏิบัติที่ผู้ประกอบการ AI ควรปฏิบัติตาม ในขณะที่เทคโนโลยี AI กำลังพัฒนาอย่างต่อเนื่อง สิ่งนี้ถือเป็นก้าวสำคัญในการส่งเสริมการใช้งานที่เหมาะสมในสังคมและสร้างสังคม AI ที่น่าเชื่อถือ ผู้ประกอบการจึงต้องใช้แนวทางปฏิบัตินี้เป็นแนวทางในการจัดทำนโยบายสำหรับการพัฒนาและการใช้ประโยชน์จาก AI ของตนเอง

แนวคิดพื้นฐานของ “AI ผู้ประกอบการไกด์ไลน์” ภายใต้กฎหมายญี่ปุ่น

“AI ผู้ประกอบการไกด์ไลน์” ในญี่ปุ่นถูกออกแบบมาเพื่อส่งเสริมการพัฒนาเทคโนโลยี AI และการนำไปใช้ในสังคมอย่างเหมาะสม โดยมีแนวคิดพื้นฐาน 3 ประการดังต่อไปนี้เป็นแกนหลัก:

การสนับสนุนการดำเนินการอย่างอิสระของผู้ประกอบการ

AI ผู้ประกอบการไกด์ไลน์ในญี่ปุ่นนำเสนอทิศทางของมาตรการที่บริษัทควรดำเนินการตาม “ระบบการจัดการความเสี่ยง” ซึ่งเปลี่ยนแปลงมาตรการตามขนาดและความเป็นไปได้ของความเสี่ยง แนวคิดนี้ส่งเสริมการดำเนินการที่ยืดหยุ่นตามเนื้อหาและระดับความเสี่ยง โดยพิจารณาว่าความเสี่ยงอาจแตกต่างกันอย่างมากตามกรณีการใช้งานและลักษณะของโมเดล AI โดยเฉพาะอย่างยิ่ง ความเสี่ยงของแต่ละกรณีการใช้งานอาจไม่ตรงกับขนาดของบริษัท ดังนั้นจึงจำเป็นต้องประเมินลักษณะของความเสี่ยงอย่างรอบคอบ

สำหรับประเภทความเสี่ยงสูง ควรพิจารณากฎหมายควบคุม ในขณะที่ประเภทความเสี่ยงต่ำอาจใช้วิธีการควบคุมที่ยืดหยุ่น เช่น การรับรองโดยเอกชนหรือการประกาศตนเอง การเลือกวิธีการควบคุมที่ยืดหยุ่นนี้ช่วยให้สามารถจัดการความเสี่ยงได้อย่างมีประสิทธิภาพโดยไม่ต้องพึ่งพาการควบคุมที่มากเกินไป

การประสานงานกับการอภิปรายในระดับสากล

ตลาดเทคโนโลยี AI ขยายตัวข้ามพรมแดน และเพื่อให้บริษัทญี่ปุ่นรักษาความสามารถในการแข่งขันในระดับสากล การรักษาความสอดคล้องกับระบบและหลักการต่างประเทศจึงมีความสำคัญ หลักการพื้นฐานและหลักการของไกด์ไลน์นี้ได้รับการพัฒนาโดยอ้างอิงจากแนวทาง AI ของ OECD และเอกสารประกอบยังระบุความสัมพันธ์กับไกด์ไลน์ของประเทศอื่นๆ อีกด้วย

เนื่องจากโมเดลและบริการ AI มีตลาดข้ามพรมแดน การรักษาความสามารถในการทำงานร่วมกับระบบต่างประเทศเป็นสิ่งสำคัญสำหรับบริษัทญี่ปุ่นที่ต้องการแข่งขันในระดับโลก นอกจากนี้ หากจะกำหนดกฎระเบียบใดๆ ควรหลีกเลี่ยงสถานการณ์ที่บริษัทญี่ปุ่นเป็นฝ่ายรับภาระหนักเพียงฝ่ายเดียวจนส่งผลกระทบต่อความสามารถในการแข่งขัน และควรมีระบบที่มีประสิทธิภาพสำหรับบริษัทต่างชาติด้วย เพื่อรักษาสนามเดียวกันสำหรับบริษัททั้งในและต่างประเทศ

ความเข้าใจง่ายสำหรับผู้อ่าน

AI ผู้ประกอบการไกด์ไลน์ในญี่ปุ่นให้ความสำคัญกับความเข้าใจง่ายของผู้อ่าน โดยเฉพาะอย่างยิ่ง การแยกแยะความเสี่ยงและนโยบายการตอบสนองที่ควรพิจารณาสำหรับ “ผู้พัฒนา AI” “ผู้ให้บริการ AI” และ “ผู้ใช้ AI” นั้นเป็นจุดเด่นที่สำคัญ

“ผู้มีส่วนได้ส่วนเสียหลายฝ่าย” และ “เอกสารที่มีชีวิต”

นอกจากนี้ ไกด์ไลน์ยังนำเสนอแนวคิดของ “ผู้มีส่วนได้ส่วนเสียหลายฝ่าย” และ “เอกสารที่มีชีวิต” ซึ่งหมายความว่า การพัฒนาไกด์ไลน์นี้ได้รับการพิจารณาอย่างละเอียดโดยผู้มีส่วนได้ส่วนเสียหลายฝ่าย รวมถึงสถาบันการศึกษาและวิจัย สังคมพลเมืองที่รวมถึงผู้บริโภคทั่วไป และบริษัทเอกชน เพื่อให้ได้ผลลัพธ์ที่เน้นทั้งประสิทธิผลและความชอบธรรม และด้วยการอ้างอิงจากแนวคิดของการบริหารจัดการแบบ Agile ไกด์ไลน์นี้ถูกออกแบบมาเพื่อการปรับปรุงอย่างต่อเนื่องในฐานะ “เอกสารที่มีชีวิต” และมีแผนที่จะอัปเดตอย่างเหมาะสม

แนวทางปฏิบัติสำหรับผู้ประกอบการ AI ในญี่ปุ่น: การแบ่งประเภทและขอบเขตการใช้งาน

แนวทางปฏิบัติสำหรับผู้ประกอบการ AI ในญี่ปุ่น: การแบ่งประเภทและขอบเขตการใช้งาน

หนึ่งในคุณสมบัติสำคัญของ “แนวทางปฏิบัติสำหรับผู้ประกอบการ AI” คือการแยกแยะประเภทของผู้ที่เข้าข่ายการใช้งานตามลักษณะของพวกเขา และระบุขอบเขตของสิ่งที่แต่ละกลุ่มควรดำเนินการอย่างชัดเจน ในแนวทางนี้ได้ระบุว่า “ผู้พัฒนา AI” “ผู้ให้บริการ AI” และ “ผู้ใช้ AI” เป็นกลุ่มที่เข้าข่ายการใช้งาน ในขณะที่ “ผู้ใช้งานนอกเหนือจากธุรกิจ” และ “ผู้ให้ข้อมูล” ไม่ถูกนำมาพิจารณาในแนวทางนี้

บทบาทและหน้าที่ของผู้พัฒนา AI, ผู้ให้บริการ AI และผู้ใช้ AI

ผู้พัฒนา AI หมายถึงกลุ่มที่รับผิดชอบในกระบวนการเตรียมข้อมูล การเรียนรู้ของ AI และกระบวนการพัฒนา โดยเฉพาะอย่างยิ่ง การประมวลผลข้อมูลที่ใช้ในการเรียนรู้ การสร้างโมเดล AI และการทดสอบเพื่อตรวจสอบประโยชน์ของมัน กระบวนการเหล่านี้เป็นรากฐานในการรับประกันประสิทธิภาพและความน่าเชื่อถือของ AI ดังนั้น ผู้พัฒนาจึงต้องจัดการข้อมูลอย่างเหมาะสมและสร้างโมเดลที่มีคุณภาพสูง

ผู้ให้บริการ AI คือกลุ่มที่รับผิดชอบในการติดตั้งและให้บริการระบบ AI พวกเขาจะนำโมเดล AI ไปผสานกับระบบที่มีอยู่หรือระบบใหม่ และหลังจากที่ทำให้ระบบเหล่านั้นทำงานร่วมกันแล้ว จึงจะนำไปให้บริการแก่ผู้ใช้ นอกจากนี้ พวกเขายังรวมถึงการสร้างความตระหนักและการสนับสนุนการดำเนินงานเพื่อส่งเสริมการใช้งาน AI อย่างเหมาะสม หรือในบางกรณี อาจเป็นการดำเนินการและให้บริการ AI โดยตรง ซึ่งทั้งหมดนี้จะช่วยให้ผู้ใช้สามารถใช้ระบบ AI ได้อย่างปลอดภัยและมีประสิทธิภาพ

ผู้ใช้ AI คือกลุ่มที่ใช้ระบบหรือบริการ AI ผู้ใช้จะอ้างอิงจากข้อมูลที่ผู้ให้บริการได้เตือนไว้เพื่อดำเนินการใช้งานระบบ AI อย่างเหมาะสมและเพื่อรับประโยชน์จากมัน พร้อมทั้งรับผิดชอบในการใช้งานตามความตั้งใจของการออกแบบระบบ AI อย่างต่อเนื่อง ดังนั้น การกระทำของผู้ใช้จึงมีผลต่อการยอมรับและความน่าเชื่อถือของระบบ AI ในสังคม

กลุ่มที่ไม่อยู่ในขอบเขตการใช้งาน

ในทางตรงกันข้าม “ผู้ให้ข้อมูล” และ “ผู้ใช้งานนอกเหนือจากธุรกิจ” ไม่ถูกนำมาพิจารณาในแนวทางนี้ ผู้ให้ข้อมูลคือกลุ่มที่มีหน้าที่ในการจัดหาข้อมูลสำหรับการเรียนรู้ของ AI ซึ่งไม่จำกัดเฉพาะบุคคลหรือนิติบุคคล แต่ยังรวมถึงการจัดหาข้อมูลผ่านเซ็นเซอร์หรือระบบต่างๆ ในขณะที่ผู้ใช้งานนอกเหนือจากธุรกิจหมายถึงกลุ่มที่ได้รับประโยชน์จากระบบหรือบริการ AI ในกิจกรรมที่ไม่เกี่ยวข้องกับธุรกิจ และอาจได้รับผลกระทบจากการตัดสินใจของ AI ในบางกรณี

ตัวอย่างเช่น ในบริการ AI ที่ใช้ข้อมูลผู้สมัครงาน “ผู้พัฒนา AI” คือกลุ่มที่พัฒนาโมเดล AI “ผู้ให้บริการ AI” คือกลุ่มที่ให้บริการนั้นๆ และบริษัทที่ใช้บริการนั้นเป็น “ผู้ใช้ AI” ในขณะที่ผู้สมัครงานในอดีตเป็น “ผู้ให้ข้อมูล” และผู้สมัครที่ได้รับการตัดสินใจจากบริการนั้นเป็น “ผู้ใช้งานนอกเหนือจากธุรกิจ”

แนวทางสำหรับผู้ประกอบการ AI ภายใต้กฎหมายญี่ปุ่น

แนวทางสำหรับผู้ประกอบการ AI ในญี่ปุ่นนั้น ได้นำเสนอหลักการทั่วไปที่ทุกฝ่ายควรปฏิบัติตาม 10 ข้อ ไม่ว่าจะเป็นผู้ใดก็ตาม หลักการเหล่านี้ถูกจำแนกออกเป็นสองประเภท คือ สิ่งที่แต่ละฝ่ายควรดำเนินการด้วยตนเอง และสิ่งที่ควรดำเนินการร่วมกับสังคม ซึ่งถูกกำหนดให้เป็นกรอบการกำกับดูแล AI

7 ข้อที่ฝ่ายประกอบการควรดำเนินการด้วยตนเอง

  1. มุ่งเน้นมนุษย์เป็นศูนย์กลาง: การใช้ AI ควรเคารพความเป็นมนุษย์ และต้องเข้าใจถึงความถูกต้องและข้อจำกัดของผลลัพธ์ พร้อมทั้งไม่ใช้งานเพื่อวัตถุประสงค์ที่ไม่เหมาะสม นอกจากนี้ ยังต้องระมัดระวังการใช้ AI ที่อาจทำให้เกิดการเบี่ยงเบนข้อมูลหรือค่านิยม และจำกัดทางเลือก
  2. ความปลอดภัย: ต้องดำเนินการวิเคราะห์ความเสี่ยงและดำเนินมาตรการที่เหมาะสมเพื่อควบคุมให้ระบบ AI ไม่เบี่ยงเบนจากวัตถุประสงค์การใช้งานที่แท้จริง การรักษาความถูกต้องและความโปร่งใสของข้อมูล รวมถึงการอัปเดตโมเดล AI อย่างเหมาะสมก็มีความสำคัญ
  3. ความเป็นธรรม: ควรพยายามให้ผลลัพธ์ของ AI ไม่ส่งเสริมความลำเอียงหรือการเลือกปฏิบัติ การแทรกแซงด้วยการตัดสินใจของมนุษย์และการพิจารณาถึงอคติที่อาจเกิดขึ้นเป็นสิ่งที่จำเป็น
  4. การปกป้องความเป็นส่วนตัว: ควรอ้างอิงมาตรฐานการปกป้องข้อมูลส่วนบุคคลระดับสากล และปฏิบัติตามแนวทางและมาตรฐานสากลเกี่ยวกับความเป็นส่วนตัว การรักษาความสามารถในการทำงานร่วมกันข้ามพรมแดนสำหรับข้อมูลส่วนบุคคลก็เป็นสิ่งสำคัญ
  5. การรักษาความปลอดภัย: จำเป็นต้องรักษาความลับ ความสมบูรณ์ และความพร้อมใช้งานของระบบ AI และดำเนินมาตรการที่เหมาะสมตามมาตรฐานทางเทคนิค การเตรียมพร้อมสำหรับการโจมตีจากภายนอกและการตอบสนองต่อความเสี่ยงล่าสุดก็เป็นสิ่งที่จำเป็น
  6. ความโปร่งใส: ควรทำให้กระบวนการเรียนรู้และกระบวนการอนุมานของระบบ AI สามารถตรวจสอบได้ และให้คำอธิบายข้อมูลเมื่อจำเป็น อย่างไรก็ตาม ไม่จำเป็นต้องเปิดเผยอัลกอริทึมหรือซอร์สโค้ด และควรเคารพความเป็นส่วนตัวและความลับทางการค้า
  7. ความรับผิดชอบ: หากมีข้อผิดพลาดในผลลัพธ์ของ AI ควรยอมรับการชี้แจงและดำเนินการตรวจสอบอย่างเป็นกลาง คาดหวังให้มีการกำหนดนโยบายในการตอบสนองต่อผู้มีส่วนได้ส่วนเสียและรายงานความคืบหน้าอย่างสม่ำเสมอ

3 ข้อที่ควรดำเนินการร่วมกับสังคม

  1. การศึกษาและการเพิ่มความรู้: ควรจัดการศึกษาเพื่อให้ทุกคนที่เกี่ยวข้องกับ AI มีความรู้เกี่ยวกับ AI ที่เพียงพอ และส่งเสริมการให้ความรู้เกี่ยวกับลักษณะและความเสี่ยงของ AI แก่ผู้มีส่วนได้ส่วนเสีย
  2. การรักษาการแข่งขันที่เป็นธรรม: ควรจัดเตรียมสภาพแวดล้อมที่ทำให้ธุรกิจและบริการใหม่ๆ ที่ใช้ AI สามารถแข่งขันได้อย่างเป็นธรรม เพื่อเป้าหมายในการเติบโตทางเศรษฐกิจอย่างยั่งยืนและการแก้ไขปัญหาสังคม
  3. นวัตกรรม: ส่งเสริมความหลากหลายระหว่างประเทศและความร่วมมือระหว่างภาคการศึกษา ภาคธุรกิจ และภาครัฐ รวมถึงการรักษาความสามารถในการเชื่อมต่อระหว่างระบบ AI หากมีมาตรฐานที่กำหนดไว้ การปฏิบัติตามมาตรฐานเหล่านั้นจะได้รับการแนะนำ

ความสำคัญและวิธีการปฏิบัติของ “Agile Governance” ภายใต้กฎหมายญี่ปุ่น

“AI Business Guidelines” ย้ำถึงความจำเป็นในการมีการตอบสนองที่ยืดหยุ่นและไม่เป็นไปตามแบบแผนสำหรับการสร้างระบบการกำกับดูแล AI โดยไม่ควรลอกเลียนแบบวิธีการของบริษัทอื่นๆ แต่ควรทำการทดลองและผิดพลาดเพื่อออกแบบและดำเนินการกฎเกณฑ์ที่เหมาะสมกับบริษัทของตนเอง ตั้งแต่ระดับผู้บริหารจนถึงพนักงาน การปฏิบัติ “Agile Governance” คือกุญแจสำคัญในกระบวนการนี้

Agile Governance คืออะไร

Agile Governance คือการทำงานที่ไม่ได้กำหนดกฎเกณฑ์ที่แข็งตัวไว้ล่วงหน้า แต่เป็นการตอบสนองอย่างยืดหยุ่นต่อการเปลี่ยนแปลงของสภาพแวดล้อมภายนอกและความเสี่ยง โดยการดำเนินการตามวัฏจักรต่อไปนี้อย่างต่อเนื่อง:

  • การวิเคราะห์สภาพแวดล้อมและความเสี่ยง: ทำความเข้าใจสภาพแวดล้อมภายนอกและความเสี่ยงทางเทคนิคอย่างถูกต้อง
  • การตั้งเป้าหมาย: กำหนดเป้าหมายที่เหมาะสมตามสถานการณ์ปัจจุบัน
  • การออกแบบระบบ: ออกแบบระบบ AI ที่มีประสิทธิภาพเพื่อบรรลุเป้าหมาย
  • การดำเนินการ: นำระบบที่ออกแบบมาใช้งานจริงและตรวจสอบผลลัพธ์
  • การประเมินผล: ประเมินผลการดำเนินการอย่างสม่ำเสมอและทำการปรับเปลี่ยนตามความจำเป็น

การหมุนวัฏจักรนี้อย่างต่อเนื่องจะทำให้สามารถตอบสนองต่อสภาพแวดล้อมทางเทคโนโลยีและแนวโน้มตลาดที่เปลี่ยนแปลงอย่างรวดเร็วและมีประสิทธิภาพได้

3 หลักสูตรหลักที่สนับสนุน Agile Governance

3 หลักสูตรหลักที่สนับสนุน Agile Governance

“Agile Governance” แสดงถึงวิธีการกำกับดูแลที่ควรพัฒนาไปพร้อมกับความก้าวหน้าของเทคโนโลยี AI บริษัทต่างๆ จำเป็นต้องมีการตอบสนองที่ยืดหยุ่นตามแบบจำลองธุรกิจและสภาพแวดล้อมทางธุรกิจของตนเอง และต้องมีการทำงานร่วมกันอย่างเป็นหนึ่งเดียวตั้งแต่ระดับผู้บริหารจนถึงพนักงาน นอกจากนี้ การสร้างความร่วมมือระหว่างหน่วยงานต่างๆ และการจัดการความเสี่ยงในระดับสากลจะทำให้การกำกับดูแล AI มีประสิทธิภาพมากขึ้น สิ่งสำคัญที่ควรพิจารณามีดังนี้:

  • การร่วมมือระหว่างหลายหน่วยงาน: เทคโนโลยี AI เกี่ยวข้องกับหลายหน่วยงานตามมุมมองของห่วงโซ่คุณค่าและห่วงโซ่ความเสี่ยง จึงสำคัญที่จะต้องชัดเจนเกี่ยวกับบทบาทและความรับผิดชอบของแต่ละหน่วยงานและรักษาความร่วมมือ ซึ่งจะช่วยให้สามารถจัดการความเสี่ยงได้อย่างเหมาะสมในทุกขั้นตอนของการพัฒนา การให้บริการ และการใช้งานระบบ AI
  • การรักษาการไหลเวียนข้อมูลที่เหมาะสม: การดำเนินการกำกับดูแล AI ต้องมีการไหลเวียนข้อมูลที่เหมาะสม โดยเฉพาะในกรณีที่คาดการณ์การใช้ข้อมูลข้ามประเทศ จำเป็นต้องคำนึงถึงกฎระเบียบและความต้องการในการจัดการความเสี่ยงของแต่ละประเทศ พร้อมทั้งรักษาความโปร่งใสและความปลอดภัยของข้อมูล
  • ความมุ่งมั่นของผู้บริหาร: เพื่อให้การกำกับดูแล AI มีประสิทธิภาพ จำเป็นต้องมีการมีส่วนร่วมอย่างแข็งขันจากผู้บริหาร ซึ่งรวมถึงการกำหนดกลยุทธ์การกำกับดูแล การจัดตั้งระบบการทำงานขององค์กร และการฝังวัฒนธรรมองค์กร ความมุ่งมั่นของผู้บริหารเป็นแรงขับเคลื่อนที่ทำให้องค์กรทั้งหมดมุ่งหน้าไปในทิศทางเดียวกัน

รายละเอียดเกี่ยวกับการกำกับดูแล AI ที่บริษัทควรสร้างขึ้นตามที่ “AI Business Guidelines” ได้กำหนดไว้ สามารถอ่านได้เพิ่มเติมในบทความด้านล่างนี้

บทความที่เกี่ยวข้อง: การกำกับดูแล AI ที่บริษัทควรดำเนินการคืออะไร? อธิบายจุดสำคัญตาม ‘AI Business Guidelines'[ja]

แนะนำมาตรการของเรา

สำนักงานกฎหมายมอนอลิธเป็นสำนักงานกฎหมายที่มีประสบการณ์อันเข้มข้นทั้งในด้านไอที โดยเฉพาะอินเทอร์เน็ตและกฎหมาย

ธุรกิจ AI มีความเสี่ยงทางกฎหมายมากมาย การสนับสนุนจากทนายความที่เชี่ยวชาญในปัญหาทางกฎหมายเกี่ยวกับ AI จึงเป็นสิ่งที่จำเป็นอย่างยิ่ง สำนักงานของเราประกอบด้วยทีมทนายความที่มีความรู้ลึกซึ้งเกี่ยวกับ AI รวมถึงวิศวกร ซึ่งให้การสนับสนุนทางกฎหมายที่มีคุณภาพสูงสำหรับธุรกิจ AI รวมถึง ChatGPT ตั้งแต่การจัดทำสัญญา การตรวจสอบความถูกต้องตามกฎหมายของโมเดลธุรกิจ การปกป้องสิทธิ์ทรัพย์สินทางปัญญา ไปจนถึงการจัดการกับความเป็นส่วนตัว รายละเอียดเพิ่มเติมได้ระบุไว้ในบทความด้านล่างนี้

สาขาที่สำนักงานกฎหมายมอนอลิธให้บริการ: กฎหมาย AI (เช่น ChatGPT ฯลฯ)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

กลับไปด้านบน