Tình hình và triển vọng của luật điều chỉnh AI tại EU là gì? Cũng giải thích ảnh hưởng đối với các công ty Nhật Bản
Với sự phát triển của AI, việc sử dụng các công cụ AI như ChatGPT trong công việc ngày càng trở nên phổ biến, và cùng lúc đó, vấn đề quy định AI quốc tế cũng đang được chú ý.
Tại Nhật Bản, Bộ Kinh tế, Thương mại và Công nghiệp đã công bố “Hướng dẫn quản trị thực hành nguyên tắc AI Ver. 1.1″[ja] (tại thời điểm viết bài). Vào ngày 14 tháng 6 năm 2023, “Luật quy định AI” quốc tế đầu tiên trên thế giới đã được thông qua tại Nghị viện Châu Âu và cũng thu hút sự chú ý tại Nhật Bản.
Bài viết này sẽ giới thiệu về tình hình và triển vọng của Luật quy định AI, đồng thời phân tích ảnh hưởng của nó đối với các doanh nghiệp Nhật Bản.
Luật Quy Định về AI (AI Act) là gì?
Vào ngày 14 tháng 6 năm 2023, “Dự thảo Quy tắc AI” toàn diện, áp dụng cho việc sử dụng AI nói chung, đã được thông qua tại Nghị viện Châu Âu của EU. Đây là “Luật Quy Định về AI (AI Act)” quốc tế đầu tiên trên thế giới, bao gồm 85 điều, là quy tắc thống nhất (luật pháp thứ cấp) của EU.
Trong tương lai, dự kiến sẽ diễn ra các cuộc đàm phán không chính thức (trilogue) giữa ba bên (Ủy ban Châu Âu, Nghị viện Châu Âu và Hội đồng Châu Âu) với mục tiêu đạt được thỏa thuận trong năm 2023. Sau khi được cơ quan lập pháp là Nghị viện Châu Âu và Hội đồng Châu Âu phê chuẩn, luật này dự kiến sẽ được ban hành và có hiệu lực vào năm 2024.
Hệ thống pháp luật của EU
Hệ thống pháp luật của EU bao gồm ba loại: luật sơ cấp (hiệp ước), luật thứ cấp (lập pháp cộng đồng) và tiền lệ pháp lý.
Luật thứ cấp được ban hành dựa trên luật sơ cấp (hiệp ước) và có hiệu lực điều chỉnh trực tiếp hoặc gián tiếp các quốc gia thành viên trong EU, được gọi là luật EU hoặc luật phái sinh.
Có năm loại chính như sau, nhưng “Luật quy định AI của EU” thuộc về loại quy tắc (Regulation), do đó, nó trở thành quy tắc thống nhất có ràng buộc trực tiếp đối với các quốc gia thành viên của EU.
Có năm loại luật lệ (luật thứ cấp) của EU như sau:
- Quy tắc (Regulation): Có hiệu lực ràng buộc đối với tất cả các quốc gia thành viên và khi được thông qua, nó có tính chất áp dụng trực tiếp (trở thành một phần của hệ thống pháp luật quốc gia mà không cần qua thủ tục phê chuẩn).
- Chỉ thị (Directive): Các quốc gia thành viên phải chịu trách nhiệm pháp lý để đạt được mục tiêu thông qua việc xây dựng mới hoặc sửa đổi luật quốc gia của mình.
- Quyết định (Decision): Là một hình thức của luật có hiệu lực ràng buộc pháp lý, nhắm đến đối tượng cụ thể chứ không phải chung chung, có thể là các quốc gia thành viên cụ thể, doanh nghiệp hoặc cá nhân.
- Khuyến nghị (Recommendation): Ủy ban châu Âu khuyến nghị chính phủ các quốc gia thành viên, doanh nghiệp hoặc cá nhân thực hiện hành động hoặc biện pháp nhất định. Không có hiệu lực ràng buộc pháp lý hoặc cưỡng chế, nhưng được coi là thúc đẩy việc hóa luật hoặc sửa đổi trong các quốc gia thành viên của EU.
- Ý kiến (Opinion): Đôi khi còn được gọi là “quảng cáo”, là biểu hiện quan điểm của Ủy ban châu Âu về một chủ đề cụ thể, không có hiệu lực ràng buộc pháp lý hoặc cưỡng chế.
“Regulation” được xem là loại luật có hiệu lực cưỡng chế mạnh nhất trong luật thứ cấp, ví dụ như GDPR (General Data Protection Regulation) – “Quy tắc bảo vệ dữ liệu chung” là một ví dụ của quy tắc.
Phạm vi áp dụng của Luật quy định AI
Luật quy định AI của EU không chỉ được áp dụng trực tiếp trong khu vực EU mà còn có hiệu lực pháp lý đối với các quốc gia thứ ba là đối tác thương mại, thông qua việc áp dụng ngoại lãnh thổ. Các đối tượng bị quy định bao gồm các doanh nghiệp đưa hệ thống và dịch vụ AI vào thị trường châu Âu, bao gồm nhà phát triển, triển khai, cung cấp, nhập khẩu, bán lẻ và người dùng AI.
Luật quy định AI đặt ra các yêu cầu cụ thể đối với một số hệ thống AI và nghĩa vụ của doanh nghiệp, nhưng cũng đồng thời yêu cầu giảm bớt gánh nặng hành chính và tài chính đối với các doanh nghiệp vừa và nhỏ (SME).
Dự luật này là một phần của gói AI rộng lớn, nhằm đảm bảo an toàn và quyền cơ bản trong lĩnh vực AI, cũng như tăng cường nỗ lực, đầu tư và đổi mới AI trên toàn EU.
Quy định của châu Âu phải tuân theo tư tưởng cơ bản của Hiệp ước cơ bản Liên minh châu Âu. Nghĩa là, ngay cả trong lĩnh vực công nghệ AI, quyền con người và tự do trong khu vực EU phải được bảo đảm, và cần có các biện pháp bảo vệ cho mục đích này.
Dự luật giải thích mục đích của quy định là “để thúc đẩy việc sử dụng AI đáng tin cậy dưới sự giám sát của con người, và đảm bảo bảo vệ sức khỏe, an toàn, quyền cơ bản, dân chủ và pháp quyền, môi trường khỏi các rủi ro của AI”.
Cụ thể, dự luật nêu rõ “các nguyên tắc chung áp dụng cho tất cả các hệ thống AI” như sau:
- Tự chủ và giám sát của con người (human agency and oversight)
- Độ bền vững kỹ thuật và an toàn (technical robustness and safety)
- Quyền riêng tư và quản lý dữ liệu (privacy and data governance)
- Minh bạch (transparency)
- Đa dạng, không phân biệt đối xử và công bằng (diversity, non-discrimination and fairness)
- Sự lành mạnh đối với xã hội và môi trường (social and environmental well-being)
Trong luật quy định, có hướng dẫn rõ ràng rằng việc đạt được các nguyên tắc AI cần có các biện pháp đảm bảo trình độ hiểu biết về AI của nhà phát triển, người sử dụng và nhà cung cấp AI.
Trong trường hợp vi phạm, mức phạt nặng có thể được áp dụng dựa trên doanh thu toàn cầu (lên đến 30 triệu euro, tương đương khoảng 47 tỷ yên hoặc 6% doanh thu toàn cầu, tùy theo con số nào cao hơn là giới hạn), có thể dẫn đến việc không thể kinh doanh AI trong khu vực EU.
Do đó, các công ty, bao gồm cả các công ty Nhật Bản, đang tham gia vào thị trường AI của EU hoặc đang cân nhắc mở rộng sang thị trường EU, cũng cần phải tuân thủ và đáp ứng các quy định mới về AI của EU.
Bối cảnh xây dựng Luật quy định AI
AI sinh sản không chỉ là công cụ tiện ích mà còn tiềm ẩn rủi ro thúc đẩy tội phạm và đe dọa đến nền dân chủ. Khi công nghệ AI phát triển và phổ biến, những vấn đề này trở thành thách thức không thể tránh khỏi.
Từ năm 2016, Liên minh Châu Âu (EU), Hoa Kỳ và Trung Quốc đã công bố các hướng dẫn và đề xuất chiến lược quốc gia liên quan đến AI. Đặc biệt tại EU, việc xây dựng quy định cho AI và dữ liệu lớn đã được tiến hành mạnh mẽ, và từ năm 2017 đến 2022, nhiều hướng dẫn, tuyên bố và đề xuất quy định quan trọng đã được tạo ra.
Ví dụ, vào tháng 4 năm 2016, “Quy định Bảo vệ Dữ liệu Chung (GDPR)” đã được thiết lập, và vào ngày 21 tháng 4 năm 2021, “Dự thảo Luật quy định AI” đã được công bố, sau đó “Luật Quản lý Dữ liệu Châu Âu (DGA)” đã được thiết lập vào ngày 30 tháng 5 năm 2022 và bắt đầu có hiệu lực từ ngày 24 tháng 9 năm 2023.
Những quy định này nhằm đảm bảo AI và dữ liệu lớn được sử dụng một cách an toàn và công bằng trong toàn xã hội, đồng thời thúc đẩy đổi mới và tăng trưởng kinh tế.
EU đã đề ra chiến lược số với tên gọi “A Europe fit for the Digital Age” (Châu Âu phù hợp với Kỷ nguyên Số).
Sau khi “Dự thảo Luật quy định AI” được công bố, do sự phát triển và phổ biến nhanh chóng của AI sinh sản, Ủy ban Châu Âu đã thông qua dự thảo sửa đổi bổ sung các quan điểm và yêu cầu liên quan đến AI sinh sản vào ngày 14 tháng 6 năm 2023.
Ngày tháng | Hội nghị |
21 tháng 4 năm 2021 | Ủy ban Châu Âu công bố “Dự thảo Luật quy định AI của EU” |
11 tháng 5 năm 2023 | Ủy ban Thị trường Nội địa & Bảo vệ Người tiêu dùng và Ủy ban Tự do Công dân, Tư pháp và Nội vụ thông qua dự thảo sửa đổi |
14 tháng 6 năm 2023 | Ủy ban Châu Âu thông qua dự thảo sửa đổi |
24 tháng 10 năm 2023 | Tổ chức cuộc họp Trilogue lần thứ tư Đạt được thỏa thuận sơ bộ |
6 tháng 12 năm 2023 | Dự kiến tổ chức cuộc họp Trilogue cuối cùng Ủy ban Châu Âu & Hội đồng EU phê chuẩn Thiết lập “Luật quy định AI của EU” |
Nửa cuối năm 2024 | Dự kiến có hiệu lực |
Đặc điểm của Luật Quy Định AI
“Luật Quy Định AI” có ba đặc điểm chính: “Phân loại AI dựa trên rủi ro”, “Yêu cầu và nghĩa vụ”, và “Hỗ trợ đổi mới sáng tạo”.
Quy định này dựa trên phương pháp được gọi là “tiếp cận dựa trên rủi ro”, phân loại mức độ rủi ro của AI thành bốn cấp độ và áp dụng các quy định tương ứng.
Cụ thể, như bảng dưới đây, các hành vi cấm và yêu cầu cũng như nghĩa vụ được xác định dựa trên bốn cấp độ rủi ro của hệ thống AI. Đối với AI có rủi ro cao, mục đích sử dụng được xác định cụ thể từ góc độ đảm bảo an toàn cho cơ thể và tính mạng con người, bảo vệ quyền tự quyết, duy trì dân chủ và thủ tục công bằng.
Mức độ rủi ro | Hạn chế sử dụng | Hệ thống AI đối tượng | Yêu cầu & Nghĩa vụ |
<Rủi ro cấm> Cấm AI trái với giá trị của EU | Cấm | ①Kỹ thuật tiềm thức ②Lợi dụng điểm yếu ③Điểm xã hội ④Hệ thống nhận dạng sinh trắc học từ xa “thời gian thực” trong khu vực công cộng với mục đích thực thi pháp luật (trừ ngoại lệ) | Cấm |
<Rủi ro cao> ・Yếu tố an toàn của sản phẩm được quy định ・Hệ thống AI của lĩnh vực cụ thể + AI gây rủi ro nghiêm trọng cho sức khỏe, an toàn, quyền cơ bản & môi trường | Điều kiện tuân thủ yêu cầu và đánh giá phù hợp | ①Nhận dạng sinh trắc học & phân loại (máy móc công nghiệp, thiết bị y tế) ②Quản lý & vận hành cơ sở hạ tầng quan trọng ③Giáo dục & đào tạo nghề ④Việc làm, quản lý lao động, tiếp cận kinh doanh tự do ⑤Tiếp cận dịch vụ công cộng & tư nhân cần thiết ⑥Thực thi pháp luật (tất cả đều do cơ quan thực thi pháp luật) ⑦Quản lý di trú, tị nạn & biên giới (tất cả đều do cơ quan công quyền có thẩm quyền) ⑧Vận hành tư pháp và quy trình dân chủ | Quản lý rủi ro, quản trị dữ liệu, tạo tài liệu kỹ thuật, lưu trữ log, biện pháp giám sát nhân sự, thủ tục đánh giá phù hợp và các quy định nghiêm ngặt khác |
<Rủi ro hạn chế> Áp dụng nghĩa vụ minh bạch cho hệ thống AI | Điều kiện tuân thủ nghĩa vụ minh bạch | ①Hệ thống AI tương tác với con người như chatbot ②Hệ thống nhận dạng cảm xúc & phân loại sinh học ③Hệ thống AI tạo Deepfake | Thiết kế mô hình để không tạo ra nội dung bất hợp pháp • Công bố dữ liệu bản quyền được sử dụng trong đào tạo mô hình & thông báo trước khi sử dụng AI và các nghĩa vụ hạn chế khác |
<Rủi ro tối thiểu> Hệ thống ngoài những hệ thống trên | Không hạn chế | Hệ thống ngoài những hệ thống trên | Khuyến nghị tuân thủ quy tắc ứng xử |
Ảnh hưởng của Luật quy định AI đến Nhật Bản
EU đã tiên phong trong việc áp dụng các quy định quốc tế về bảo vệ quyền con người, bảo vệ thông tin cá nhân, bảo tồn môi trường và các lĩnh vực khác, trở thành “chuẩn mực vàng” cho việc thiết kế hệ thống pháp luật của các quốc gia khác.
Việc sửa đổi Luật bảo vệ thông tin cá nhân ở Nhật Bản cũng được thúc đẩy nhằm mục đích thống nhất các quy định phân quyền, đồng thời đáp ứng GDPR (Luật bảo vệ dữ liệu) của EU, đây là một thách thức lớn. Ngoài ra, cũng có các quy định pháp luật được thiết kế dựa trên các quy định của EU, như “Luật cải thiện tính minh bạch và công bằng của các nền tảng số đặc biệt” (được thi hành từ ngày 1 tháng 2 năm 2021).
Hiện tại ở Nhật Bản, chưa có quy định cứng rắn nào về AI, mà chủ yếu là tự quy định mềm dẻo thông qua tự giác của các doanh nghiệp.
Như đã nói ở trên, “Luật quy định AI” của EU không chỉ áp dụng trực tiếp cho các quốc gia thành viên mà còn có hiệu lực vượt biên giới đối với các doanh nghiệp hoạt động trong khu vực EU, bao gồm cả các doanh nghiệp đặt trụ sở ở nước ngoài.
Như sẽ được đề cập sau, việc xuất khẩu sản phẩm AI trong khu vực EU có thể chịu sự áp dụng của nhiều luật lệ được định nghĩa từ các góc độ khác nhau, và việc chuẩn bị các biện pháp đối phó là không thể thiếu. Các doanh nghiệp Nhật Bản cũng cần theo dõi sát sao các diễn biến và áp dụng các biện pháp pháp lý thích hợp.
Sự Thông Qua Của Dự Luật Bao Gồm AI Sinh Tạo
Luật Quy Định AI là luật được áp dụng các sửa đổi từ ba bên của EU (Hội đồng Châu Âu, Nghị viện Châu Âu và Ủy ban Châu Âu).
Vào ngày 11 tháng 5 năm 2023, IMCO (Ủy ban về Thị trường Nội địa và Bảo vệ Người tiêu dùng) và LIBE (Ủy ban về Quyền Tự do Dân sự, Tư pháp và Nội vụ) đã thông qua dự luật sửa đổi liên quan đến Luật Quy Định AI.
Những sửa đổi này đã được Nghị viện Châu Âu thông qua vào ngày 14 tháng 6 năm 2023.
Báo cáo này bao gồm những sửa đổi quan trọng của đề xuất lập pháp, bao gồm việc cấm dự báo cảnh sát, thêm nhiều mục vào danh sách AI độc lập được phân loại là rủi ro cao, và vai trò mạnh mẽ, toàn diện của Văn phòng AI mới (EAIB – cơ quan thay thế cho Ủy ban AI Châu Âu).
Ngoài ra, một sự liên kết mạnh mẽ hơn với GDPR (Luật Bảo Vệ Dữ Liệu) đã được đề xuất, cũng như sự tăng cường sự tham gia của các bên liên quan trong một số lĩnh vực và việc giới thiệu các quy định cụ thể liên quan đến AI sinh tạo và AI tổng quát.
Sau đó, vào ngày 24 tháng 10 năm 2023, cuộc họp lần thứ tư về Luật Quy Định AI đã được tổ chức, và nhiều tiến triển đã được thấy đối với các vấn đề chính trị nhạy cảm. Đặc biệt, một thỏa thuận tạm thời đã được đạt được về cơ chế lọc cho hệ thống AI rủi ro cao gây nhiều tranh cãi (Điều 6).
Thêm vào đó, hướng dẫn chính trị đã được thực hiện về mô hình cơ sở/governance của hệ thống AI tổng quát, các điều cấm và hướng đi tương lai đối với cơ quan thực thi pháp luật, và đội ngũ kỹ thuật đã được yêu cầu phải làm việc trên các đề xuất văn bản cụ thể liên quan đến những vấn đề trên.
Về quy định AI liên quan đến các luật pháp
Các quy định về AI liên quan đến nhiều luật pháp được định nghĩa từ các góc độ khác nhau. Ba luật này được Liên minh Châu Âu (EU) ban hành nhằm bảo vệ thông tin cá nhân trong không gian số và đảm bảo cạnh tranh công bằng.
DSA (Đạo luật Dịch vụ Kỹ thuật số)
Đạo luật Dịch vụ Kỹ thuật số của EU (DSA – Digital Services Act) là một quy định toàn diện về thương mại điện tử được áp dụng tại EU từ ngày 16 tháng 11 năm 2022 (dự kiến sẽ được áp dụng đầy đủ vào ngày 17 tháng 2 năm 2024).
Tại EU, một chỉ thị về thương mại điện tử đã được ban hành vào năm 2000, nhưng việc áp dụng nó cho sự phát triển của môi trường số như internet và các nền tảng trực tuyến đã trở nên khó khăn, do đó, DSA đã được thiết lập như một quy tắc thống nhất của EU để sửa đổi chỉ thị này.
Mục tiêu của việc ban hành DSA là để bảo vệ quyền cơ bản của người dùng và duy trì một môi trường số an toàn hơn bằng cách đảm bảo rằng các dịch vụ trung gian trên thị trường nội địa EU hoạt động một cách thích hợp. Các doanh nghiệp được quy định bao gồm dịch vụ trung gian trực tuyến, dịch vụ lưu trữ, và các nền tảng trực tuyến (bao gồm cả VLOP – Very Large Online Platform và VLOSE – Very Large Online Search Engine).
Đạo luật này quy định về trách nhiệm khi có nội dung bất hợp pháp được đăng tải và cách xử lý các tranh chấp phát sinh, bao gồm cả quy định toàn diện cho cả BtoB và BtoC.
Cụ thể, DSA yêu cầu các biện pháp loại bỏ nội dung, sản phẩm và dịch vụ bất hợp pháp, tăng cường bảo vệ quyền cơ bản của người dùng, và đòi hỏi sự minh bạch và trách nhiệm giải trình.
Ngoài ra, đối với các VLOP có trên 45 triệu người dùng trung bình hàng tháng tại EU và các VLOSE, những quy tắc nghiêm ngặt hơn được yêu cầu.
Các VLOP và VLOSE được chỉ định phải thích ứng hệ thống, nguồn lực và quy trình của mình với DSA trong vòng 4 tháng kể từ khi quyết định được thông báo, triển khai các biện pháp giảm nhẹ và thiết lập hệ thống độc lập để tuân thủ pháp luật. Sau đó, họ cần tiến hành kiểm toán và đánh giá rủi ro hàng năm đầu tiên, và báo cáo cho Ủy ban Châu Âu.
DSA dự kiến sẽ được áp dụng đầy đủ từ ngày 17 tháng 2 năm 2024, và việc tuân thủ DSA của các doanh nghiệp không phải là VLOP hay VLOSE sẽ được giám sát bởi Ủy ban Châu Âu và các cơ quan của các quốc gia thành viên.
Các quốc gia thành viên phải thiết lập một “Cơ quan Điều phối Dịch vụ Kỹ thuật số” độc lập có thẩm quyền giám sát việc tuân thủ DSA trước ngày 17 tháng 2 năm 2024, và được trao quyền thực thi các hình phạt bao gồm cả tiền phạt nếu vi phạm nghĩa vụ.
Mặt khác, Ủy ban Châu Âu sẽ trực tiếp giám sát VLOP và VLOSE và có quyền thực thi các hình phạt.
Tiền phạt cho việc vi phạm pháp luật có thể lên đến 6% doanh thu toàn cầu hàng năm của doanh nghiệp trong năm trước đó.
Đạo luật này được áp dụng như một phần của chiến lược số “A Europe fit for the Digital Age” của EU, nhằm đối phó với những thách thức và rủi ro mới trong thời đại số đang phát triển.
Luật Thị trường Kỹ thuật số (DMA – Digital Markets Act)
Luật Thị trường Kỹ thuật số của EU (DMA – Digital Markets Act) sẽ được áp dụng chủ yếu từ ngày 2 tháng 5 năm 2023, với mục tiêu làm cho thị trường kỹ thuật số trở nên công bằng và cạnh tranh, đồng thời ngăn chặn sự thống trị thị trường của các nền tảng kỹ thuật số cụ thể.
Đối tượng bị quy định là các “gatekeeper” được chỉ định, với các nghĩa vụ cụ thể được thiết lập, và nếu vi phạm, họ có thể phải đối mặt với các biện pháp trừng phạt như phạt tiền lên đến 10% doanh thu toàn cầu.
“Gatekeeper” được định nghĩa là các nền tảng kỹ thuật số lớn nhất hoạt động trong Liên minh Châu Âu, được gọi như vậy do chúng chiếm giữ vị trí vững chắc trên thị trường trong một số lĩnh vực kỹ thuật số cụ thể, và đáp ứng các tiêu chuẩn nhất định về số lượng người dùng, doanh thu, và vốn điều lệ.
Ủy ban Châu Âu sẽ chỉ định các “gatekeeper” mới nhất vào ngày 6 tháng 9 năm 2023, và các công ty này sẽ có tối đa 6 tháng (đến tháng 3 năm 2024) để tuân thủ các nghĩa vụ mới của Luật Thị trường Kỹ thuật số. Các “gatekeeper” được chỉ định lần này bao gồm Alphabet, Amazon, Apple, ByteDance, Meta và Microsoft, với tổng cộng 22 dịch vụ và nền tảng chính do họ cung cấp được xác định là đối tượng của luật.
Luật này nhằm mục đích ngăn chặn việc lạm dụng quyền lực thị trường của các nền tảng kỹ thuật số lớn và tạo điều kiện thuận lợi hơn cho các doanh nghiệp mới tham gia thị trường.
GDPR(Quy định Bảo vệ Dữ liệu Chung)
GDPR (General Data Protection Regulation) là “Luật Bảo vệ Dữ liệu” mới của EU, đã được áp dụng từ ngày 25 tháng 5 năm 2018.
Đây là khung pháp lý đặt ra hướng dẫn về việc thu thập và xử lý thông tin cá nhân từ cá nhân trong và ngoài EU. Quy định này áp đặt nghĩa vụ cho các tổ chức thu thập dữ liệu liên quan đến người dân trong EU hoặc những tổ chức hướng đến thị trường EU.
Bài viết liên quan: Giải thích các điểm quan trọng khi tạo Chính sách Bảo mật tuân thủ GDPR[ja]
Xu hướng quy định AI dự kiến trong tương lai
Trong bảng phân loại rủi ro AI đã nêu trên, chúng tôi sẽ giải thích về các hệ thống AI mà các doanh nghiệp cần chú ý.
Cấm Sử Dụng Điểm Tín Dụng Xã Hội
Một trong những hệ thống AI thuộc “rủi ro bị cấm” theo luật điều chỉnh của EU là điểm tín dụng xã hội (Social Credit Score), theo đề xuất sửa đổi, sẽ bị cấm toàn diện không chỉ đối với các cơ quan công mà còn đối với tất cả các tổ chức khác.
“Điểm tín dụng xã hội” là hệ thống đánh giá điểm dựa trên tình trạng xã hội và hành vi của từng công dân.
Tại Trung Quốc, hệ thống này hoạt động như một công cụ của xã hội giám sát, và được xây dựng như một chính sách quốc gia trong bốn lĩnh vực: công vụ, thương mại, xã hội và tư pháp.
Các hạn chế cụ thể bao gồm việc cấm sử dụng máy bay và tàu cao tốc, loại trừ khỏi các trường học tư thục, cấm thành lập các tổ chức phi lợi nhuận, loại trừ khỏi các công việc có uy tín, cấm ở khách sạn, giảm tốc độ đường truyền internet, và công bố thông tin cá nhân trên các trang web và phương tiện truyền thông. Ngược lại, nếu điểm số cao, người đó có thể nhận được nhiều “đặc quyền” khác nhau.
Tuy nhiên, hệ thống như vậy đã gây ra lo ngại về quyền riêng tư và tự do cá nhân, và việc vận hành của nó vẫn đang là đề tài tranh luận.
Việc cấm sử dụng điểm tín dụng xã hội trong EU nhằm đảm bảo rằng việc sử dụng công nghệ AI phải công bằng và minh bạch.
Tăng cường hạn chế đối với AI sinh sản
Trong luật điều chỉnh của EU, một trong những hệ thống AI thuộc loại “rủi ro hạn chế” là AI sinh sản.
AI sinh sản (Generative AI) là loại AI có khả năng tạo ra nội dung hoặc giải pháp mới dựa trên dữ liệu học máy, và đã thu hút sự chú ý gần đây như Chat GPT. Tuy nhiên, AI sinh sản cũng đối mặt với nhiều thách thức, và chính vì vậy mà việc quản lý quy định trở nên cần thiết.
Trong luật quy định AI, do sự phát triển và phổ biến nhanh chóng của AI sinh sản, các quan điểm và yêu cầu liên quan đến AI sinh sản đã được bổ sung.
Cụ thể, các nhà cung cấp AI sinh sản, bắt đầu từ OpenAI, sẽ phải tuân thủ các quy định như công bố dữ liệu bản quyền được sử dụng trong việc huấn luyện mô hình ngôn ngữ lớn (LLM – Large Language Model).
Mục tiêu của việc này là nhằm đảm bảo tính minh bạch của AI sinh sản và tăng cường quản lý rủi ro thông qua quy định.
Trong lập pháp của EU, bắt đầu từ GDPR (Luật Bảo vệ Dữ liệu), nguyên tắc “minh bạch” (Transparency) luôn được coi trọng. Các biện pháp bảo vệ và nghĩa vụ công bố mục đích sử dụng AI cho các đối tượng liên quan đã trở thành “tiêu chuẩn vàng” quốc tế.
Hạn chế sử dụng AI nhận diện cảm xúc
AI nhận diện cảm xúc, được xếp vào loại “rủi ro hạn chế” theo luật quy định của EU, cũng là hệ thống AI mà nghĩa vụ minh bạch được áp dụng, và có những nghĩa vụ hạn chế như thông báo trước khi sử dụng AI.
“AI nhận diện cảm xúc” là loại AI có khả năng đọc được sự thay đổi cảm xúc của con người.
Cụ thể, có bốn loại sau đây, thông qua việc sử dụng micro, camera, cảm biến, v.v., để phân tích các cảm xúc như vui, giận, buồn, vui mừng hay mức độ quan tâm:
- AI nhận diện cảm xúc qua văn bản: Phân tích cảm xúc dựa trên văn bản do con người nhập vào hoặc thông tin được chuyển đổi từ dữ liệu âm thanh sang văn bản.
- AI nhận diện cảm xúc qua giọng nói: Phân tích cảm xúc từ giọng nói của con người.
- AI nhận diện cảm xúc qua biểu cảm khuôn mặt: Đọc cảm xúc từ biểu cảm khuôn mặt thông qua camera.
- AI nhận diện cảm xúc qua thông tin sinh học: Nhận diện cảm xúc từ thông tin sinh học như sóng não, nhịp tim, v.v.
Các công nghệ này đang được ứng dụng trong nhiều lĩnh vực như dịch vụ khách hàng, trung tâm cuộc gọi, bán hàng, v.v. Nếu công nghệ tiếp tục phát triển, việc ứng dụng trong lĩnh vực y tế cũng được kỳ vọng.
Tuy nhiên, việc bảo vệ quyền riêng tư thông qua thông tin sinh học và thông tin cá nhân thu thập được, cũng như việc xây dựng pháp luật liên quan, là cần thiết.
Tổng kết: Tình hình hiện tại và triển vọng tương lai của Luật quy định AI
Chúng tôi đã giải thích về tình hình hiện tại và triển vọng tương lai của “Luật quy định AI” của EU, cũng như ảnh hưởng của nó đối với các doanh nghiệp Nhật Bản. “Luật quy định AI của EU” – là luật đầu tiên trên thế giới về lĩnh vực này – có khả năng trở thành “chuẩn mực vàng” quốc tế.
Đối với các doanh nghiệp Nhật Bản có kế hoạch tiến vào thị trường EU, việc theo dõi sát sao các diễn biến của Luật quy định AI này sẽ trở nên quan trọng. Chúng tôi khuyên bạn nên tham khảo ý kiến từ các luật sư am hiểu về luật quốc tế và công nghệ AI khi đối mặt với các quy định AI tại khu vực EU.
Giới thiệu các biện pháp của Văn phòng Luật sư Monolith
Văn phòng Luật sư Monolith là một văn phòng luật sư có kinh nghiệm phong phú trong cả hai lĩnh vực IT, đặc biệt là Internet và pháp luật. Kinh doanh AI đi kèm với nhiều rủi ro pháp lý, và sự hỗ trợ của luật sư am hiểu về các vấn đề pháp lý liên quan đến AI là điều cần thiết. Văn phòng chúng tôi, với đội ngũ luật sư chuyên sâu về AI và các kỹ sư, cung cấp hỗ trợ pháp lý cao cấp cho kinh doanh AI bao gồm ChatGPT, từ việc soạn thảo hợp đồng, đánh giá tính hợp pháp của mô hình kinh doanh, bảo vệ quyền sở hữu trí tuệ, đến việc xử lý vấn đề riêng tư. Chi tiết được trình bày trong bài viết dưới đây.
Lĩnh vực hoạt động của Văn phòng Luật sư Monolith: Pháp lý AI (bao gồm ChatGPT và các công nghệ tương tự)[ja]