MONOLITH LAW OFFICE+81-3-6262-3248Ngày làm việc 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Tình hình hiện tại của luật điều chỉnh AI là gì? So sánh và giải thích các điểm đối sách giữa Nhật Bản và EU

IT

Tình hình hiện tại của luật điều chỉnh AI là gì? So sánh và giải thích các điểm đối sách giữa Nhật Bản và EU

ChatGPT và các AI sinh sản khác đang trở thành một cơn sốt lớn. AI sinh sản, nay đã được áp dụng vào cảnh quan kinh doanh, được mệnh danh là người mở đường cho “làn sóng AI thứ tư”. Điều này đã thúc đẩy việc phát triển một khuôn khổ pháp lý quốc tế nhằm điều chỉnh AI.

Bài viết này sẽ đề cập đến các luật liên quan đến AI, giải thích về việc xử lý thích hợp thông tin mật bao gồm quyền sở hữu trí tuệ và thông tin cá nhân.

Định nghĩa và lịch sử của AI (Trí tuệ nhân tạo)

AI (artificial intelligence) tức là “Trí tuệ nhân tạo”. Về mặt pháp lý, không có một định nghĩa chính xác nào, và có nhiều định nghĩa khác nhau được đưa ra. Dưới đây là một số ví dụ.

NguồnĐịnh nghĩa/Giải thích
“Kojien”Hệ thống máy tính được trang bị các chức năng trí tuệ như suy luận, phán đoán, v.v.
“Encyclopedia Britannica”Khoa học công nghệ > Máy tính & AI. Khả năng thực hiện các nhiệm vụ liên quan đến sự tồn tại thông minh bằng máy tính số hoặc robot máy tính.
Bài viết của Hội Trí tuệ Nhân tạo “AI như một kiến thức giáo dục”Câu trả lời cho câu hỏi “AI là gì” không đơn giản. Ngay cả giữa các chuyên gia về AI, có nhiều cuộc tranh luận lớn, đến mức có thể tạo thành một cuốn sách chỉ với những quan điểm khác nhau. Tuy nhiên, nếu tìm ra điểm chung và tóm gọn trong một câu, có thể nói đó là “Công nghệ thực hiện các công việc trí tuệ giống như con người một cách cơ khí”.
Bài báo khoa học “Học sâu và Trí tuệ Nhân tạo”AI là lĩnh vực nghiên cứu cố gắng giải thích cấu trúc của trí thông minh con người một cách hệ thống.
Bài báo khoa học “Tìm kiếm hình mẫu xã hội lý tưởng cho Trí tuệ Nhân tạo”AI và các công nghệ thông tin khác chỉ là công cụ

AI được mô tả là các công nghệ, nhóm phần mềm, hệ thống máy tính, và thuật toán tái tạo khả năng trí tuệ của con người trên máy tính.

Các AI chuyên biệt chính bao gồm:

  • Xử lý ngôn ngữ tự nhiên (dịch máy, phân tích cú pháp, phân tích từ loại, RNN, v.v.)
  • Hệ thống chuyên gia mô phỏng suy luận và quyết định của chuyên gia
  • Nhận dạng hình ảnh, nhận dạng giọng nói, v.v., phát hiện và trích xuất các mẫu cụ thể từ dữ liệu

Lĩnh vực AI đã được nghiên cứu và phát triển kể từ những năm 1950, thời kỳ bình minh của máy tính, với đợt bùng nổ AI đầu tiên kéo dài đến những năm 1970 tập trung vào nghiên cứu “tìm kiếm và suy luận”, đợt bùng nổ AI thứ hai vào những năm 1980 tập trung vào nghiên cứu “biểu diễn kiến thức” dẫn đến sự ra đời của hệ thống chuyên gia, tạo ra hai làn sóng bùng nổ.

Từ những năm 2000, sự xuất hiện của dữ liệu lớn và từ năm 2012 trở đi, sự ra đời của Alexnet đã làm cho việc sử dụng học sâu (deep learning) trong xử lý hình ảnh được công nhận trên toàn thế giới, thúc đẩy nghiên cứu trở nên sôi động và dẫn đến đợt bùng nổ AI thứ ba.

Từ năm 2016 đến 2017, AI tích hợp học sâu (deep learning) và học củng cố (Q-learning, phương pháp gradient chính sách) đã xuất hiện.

Đợt bùng nổ AI thứ ba chủ yếu mang lại cách mạng trong xử lý ngôn ngữ tự nhiên và xử lý hình ảnh qua cảm biến, nhưng cũng ảnh hưởng lớn đến các lĩnh vực phát triển công nghệ, xã hội học, đạo đức học, và kinh tế học.

Vào ngày 30 tháng 11 năm 2022, ChatGPT, một AI sinh sản ngôn ngữ tự nhiên được OpenAI phát hành, đã thu hút sự chú ý như một công cụ đa năng, làm cho kinh doanh AI sinh sản trở nên phổ biến. Một số người gọi hiện tượng xã hội này là đợt bùng nổ AI thứ tư.

Các tình huống kinh doanh cần xem xét đến luật pháp liên quan đến AI 

Cảnh báo về việc kiểm tra quy định pháp lý

AI, đặc biệt là AI sinh sản, là một công cụ hữu ích nhưng cũng chứa đựng rủi ro như lan truyền thông tin sai lệch, hỗ trợ tội phạm, thậm chí đe dọa đến nền dân chủ.

Rủi ro này từ AI giờ đây đã trở thành một thách thức không thể tránh khỏi. Do đó, chúng ta sẽ giải thích về các tình huống kinh doanh cần xem xét đến luật pháp từ góc độ của người dùng và nhà cung cấp.

Sử dụng AI sinh sản văn bản

Kể từ khi ChatGPT được ra mắt vào tháng 11 năm 2022, AI sinh sản văn bản đã nhận được sự chú ý toàn cầu như một công cụ đa năng có thể đáp ứng các yêu cầu phức tạp, mang lại hiệu quả công việc và hiệu suất chi phí cao.

Tuy nhiên, việc sử dụng AI sinh sản văn bản cũng đã làm nổi bật các rủi ro tiềm ẩn. Để tránh những rủi ro này, chúng ta cần lưu ý đến các rủi ro nào tồn tại và phải tuân thủ luật pháp nào.

ChatGPT, một ví dụ điển hình của AI sinh sản văn bản, có rủi ro là thông tin người dùng nhập vào (prompt) có thể bị rò rỉ nếu không có biện pháp phòng ngừa. ChatGPT có khả năng thu thập, lưu trữ và sử dụng các prompt, do đó có rủi ro rò rỉ thông tin cá nhân, thông tin mật của doanh nghiệp, và thông tin bí mật khác thu được qua hợp đồng bảo mật (NDA).

Ngoài ra, còn có rủi ro ChatGPT tạo ra và lan truyền thông tin sai lệch (hallucination), vi phạm bản quyền, và các rủi ro khác. Vì vậy, việc kiểm tra sự thật của nội dung được tạo ra là không thể thiếu.

Sử dụng AI sinh sản hình ảnh

Khi sử dụng AI sinh sản hình ảnh trong kinh doanh, cần phải nhớ rằng có rủi ro vi phạm bản quyền.

Theo OpenAI, bản quyền của hình ảnh và văn bản được tạo ra bởi ChatGPT và các công cụ tương tự thường thuộc về người dùng đã tạo ra chúng. Người dùng có thể sử dụng ChatGPT cho mọi mục đích, bao gồm cả mục đích thương mại.

Tuy nhiên, khi sử dụng cần lưu ý đến các điểm sau:

Dữ liệu học của ChatGPT bao gồm một lượng lớn nội dung được công bố trên internet, và hầu hết những nội dung này là tác phẩm có bản quyền (văn bản, hình ảnh, âm nhạc, video, v.v.). Do đó, nội dung được tạo ra có thể vi phạm bản quyền của người khác.

Phát triển AI và cung cấp dịch vụ AI sinh sản

Kinh doanh AI liên quan đến nhiều luật pháp khác nhau, và việc xây dựng khung pháp lý đang được tiến hành trên toàn thế giới. Do đó, cần có thái độ tuân thủ luật pháp hiện hành và linh hoạt ứng phó với các luật mới.

Phần tiếp theo sẽ giới thiệu về các luật liên quan đến AI ở Nhật Bản và ‘Luật quy định AI’ của EU, là luật quốc tế đầu tiên về AI được ban hành vào tháng 12 năm 2023.

Luật về AI tại Nhật Bản

Hiện nay tại Nhật Bản, AI không được điều chỉnh bởi các luật có tính chất bắt buộc mà tuân theo nguyên tắc tự điều chỉnh. Bài viết này sẽ giải thích về các luật hiện hành mà bạn cần lưu ý khi sử dụng AI.

Tham khảo: Bộ Kinh tế, Thương mại và Công nghiệp|“Hướng dẫn quản lý về nguyên tắc thực hành AI phiên bản 1.1”[ja]

Luật Bản quyền

Vào tháng 1 năm 2019 (Năm Heisei 31), “Luật Bản quyền sửa đổi” đã được thi hành, trong đó bổ sung quy định giới hạn quyền lợi (các trường hợp ngoại lệ không cần sự cho phép) với “phân tích thông tin” (Điều 30, Mục 4, Khoản 1, Điểm 2 của cùng luật). Các hành động sử dụng không nhằm mục đích thụ hưởng ý tưởng hoặc cảm xúc được biểu đạt qua tác phẩm, như phân tích thông tin trong quá trình phát triển và học máy của AI, có thể được thực hiện mà không cần sự cho phép của chủ sở hữu bản quyền.

Sự sửa đổi này đã thiết lập định nghĩa về “phân tích thông tin”, làm rõ rằng cả học máy và deep learning của AI đều được bao gồm trong “phân tích thông tin”.

Trường hợp sử dụng cho “phân tích thông tin” (tức là việc rút trích thông tin liên quan đến ngôn ngữ, âm thanh, hình ảnh và các yếu tố khác từ nhiều tác phẩm và lượng lớn thông tin khác, và thực hiện so sánh, phân loại hoặc các phân tích khác)

Điều 30, Mục 4, Khoản 1, Điểm 2 của Luật Bản quyền

Tuy nhiên, cần lưu ý rằng, nếu tác phẩm sáng tạo được tạo ra bởi AI có sự tương đồng hoặc dựa trên tác phẩm của người khác, điều đó có thể bị coi là vi phạm bản quyền.

Ngoài ra, nếu nhập tác phẩm vào ChatGPT như một lời nhắc, có thể sẽ vi phạm quyền sao chép hoặc các quyền khác. Sử dụng AI để chỉnh sửa tác phẩm của người khác có thể dẫn đến vi phạm quyền biên soạn.

Theo điều khoản sử dụng của OpenAI, quyền sở hữu nội dung tạo ra bởi ChatGPT thuộc về người dùng và có thể sử dụng cho mục đích thương mại, nhưng nếu khó xác định nội dung có vi phạm bản quyền hay không, bạn nên tham khảo ý kiến của chuyên gia.

Trong trường hợp bị chủ sở hữu bản quyền chỉ trích vi phạm, bạn có thể phải đối mặt với trách nhiệm dân sự (như yêu cầu ngừng sử dụng, bồi thường thiệt hại, tiền bồi thường tinh thần, phục hồi danh dự) hoặc trách nhiệm hình sự.

Luật Phòng chống Cạnh tranh không Lành mạnh

Vào ngày 1 tháng 7 năm 2019 (Năm Heisei 31), “Luật Phòng chống Cạnh tranh không Lành mạnh sửa đổi” đã được thi hành. Trước đó, việc ngăn chặn cạnh tranh không lành mạnh là khó khăn đối với những đối tượng không thuộc phạm vi bảo vệ của Luật Sáng chế hoặc Luật Bản quyền, hoặc không được coi là “bí mật kinh doanh” theo Luật Phòng chống Cạnh tranh không Lành mạnh.

Do đó, sửa đổi này đã quy định các biện pháp dân sự đối với hành vi lấy cắp hoặc sử dụng trái phép dữ liệu có giá trị nhất định (dữ liệu cung cấp hạn chế), và các hành vi xấu khác.

Luật sử dụng AI của EU

Quy định pháp lý liên quan đến việc sử dụng AI của EU

Hệ thống pháp luật của EU được cấu thành từ ba phần: luật sơ cấp (hiệp ước), luật thứ cấp (lập pháp của EU) và tiền lệ pháp lý. Luật thứ cấp, được xây dựng dựa trên luật sơ cấp (hiệp ước), là các quy định có hiệu lực trực tiếp hoặc gián tiếp đối với các quốc gia thành viên và được gọi là luật phái sinh của EU. Luật thứ cấp được chia thành năm loại chính, nhưng “Luật quy định AI” của EU thuộc về loại quy tắc (Regulation), do đó, đây là quy tắc thống nhất có hiệu lực trực tiếp đối với các quốc gia thành viên của EU.

Ngược lại, chỉ thị (Directive) yêu cầu các quốc gia thành viên của EU phải ban hành hoặc sửa đổi luật pháp quốc gia để thực thi nội dung của chỉ thị, mang tính chất là nghĩa vụ pháp lý gián tiếp. Thời hạn cơ bản là trong vòng ba năm sau khi được công bố trên Công báo của EU.

Bài viết liên quan: Doanh nghiệp mở rộng sang châu Âu không thể bỏ qua: Điểm mấu chốt về luật và hệ thống pháp luật của EU[ja]

Trong chương này, chúng tôi sẽ giải thích về các xu hướng mới nhất liên quan đến quy định pháp lý về việc sử dụng AI của EU, tập trung vào “chỉ thị” và “quy tắc”.

Dự thảo Chỉ thị Trách nhiệm AI

Vào ngày 28 tháng 9 năm 2022, Ủy ban Châu Âu đã công bố “Dự thảo Chỉ thị Trách nhiệm AI” cùng với bản sửa đổi của “Chỉ thị Trách nhiệm Sản phẩm”. Dự thảo này thiết lập các quy tắc về trách nhiệm pháp lý trong kinh doanh AI tại EU (Liên minh Châu Âu) phù hợp với “Luật Điều chỉnh AI”, trở thành một khuôn khổ pháp lý quan trọng. Do sẽ trở thành đối tượng của “Chỉ thị Kiện Tập thể” của EU áp dụng từ tháng 6 năm 2023, các doanh nghiệp Nhật Bản liên quan cũng cần nắm vững nội dung này.

Trong bối cảnh kinh tế tuần hoàn và chuỗi giá trị toàn cầu của kỷ nguyên số, dự thảo này làm thay đổi đáng kể các quy tắc pháp lý về trách nhiệm dân sự đối với phần mềm, bao gồm cả hệ thống AI tại EU.

Bài viết liên quan: Tình hình và triển vọng của Luật Điều chỉnh AI tại EU? Giải thích cả ảnh hưởng đến các doanh nghiệp Nhật Bản[ja]

Mục đích của “Dự thảo Chỉ thị Trách nhiệm AI” là thiết lập các quy tắc về trách nhiệm dân sự dựa trên nguyên nhân ngoài hợp đồng cho những thiệt hại do hệ thống AI gây ra, nhằm cải thiện chức năng của thị trường trong EU.

Nói cách khác, trách nhiệm hợp đồng (trách nhiệm về vi phạm hợp đồng và trách nhiệm về không phù hợp hợp đồng) không phải là đối tượng áp dụng mà là trách nhiệm do thiếu an toàn gây ra, không giới hạn ở trách nhiệm do lỗi (trách nhiệm về hành vi phạm pháp, v.v.) cần được lưu ý.

Ví dụ, thiệt hại do sự phân biệt từ hệ thống tuyển dụng AI cũng được coi là đối tượng áp dụng.

Dự thảo này nhằm giảm bớt gánh nặng chứng minh cho các doanh nghiệp phát triển “Hệ thống AI có rủi ro cao” được quy định trong “Luật Điều chỉnh AI”, để giải quyết vấn đề hộp đen của AI, bằng cách thiết lập “giả định về mối quan hệ nhân quả” và “hệ thống tiết lộ bằng chứng”.

Nếu không tuân thủ lệnh tiết lộ bằng chứng, “Dự thảo Chỉ thị Trách nhiệm AI” sẽ yêu cầu vi phạm nghĩa vụ chú ý và giả định mối quan hệ nhân quả, trong khi “Dự thảo sửa đổi Chỉ thị Trách nhiệm Sản phẩm” sẽ yêu cầu giả định lỗi và mối quan hệ nhân quả, áp đặt hình phạt mạnh mẽ hơn so với Luật Tố tụng Dân sự của Nhật Bản để tuân thủ lệnh tiết lộ.

Dự thảo này, ở giai đoạn đầu tiên, giới hạn ở việc giảm bớt gánh nặng chứng minh liên quan đến việc hộp đen hóa AI và bao gồm việc thiết lập mới các quy định về đủ điều kiện nguyên cáo, tiết lộ bằng chứng, bảo quản bằng chứng và giả định về mối quan hệ nhân quả.

Giai đoạn thứ hai quy định về việc xem xét và đánh giá. Ủy ban Châu Âu sẽ thiết lập một chương trình giám sát, xem xét thông tin sự cố, đánh giá tính phù hợp và cần thiết của việc áp dụng trách nhiệm không lỗi (trách nhiệm nghiêm ngặt) đối với các doanh nghiệp sở hữu hệ thống AI rủi ro cao và việc giới thiệu bảo hiểm bắt buộc, báo cáo cho Hội đồng Châu Âu và Nghị viện Châu Âu, v.v.

Dự án sửa đổi Chỉ thị Trách nhiệm Sản phẩm

“Chỉ thị Trách nhiệm Sản phẩm” là một luật của EU được ban hành vào năm 1985 nhằm bảo vệ người tiêu dùng, quy định trách nhiệm của nhà sản xuất trong trường hợp người tiêu dùng bị thiệt hại do sản phẩm lỗi.

Trong dự án sửa đổi, “phần mềm” được thêm vào như một đối tượng áp dụng mới của trách nhiệm sản phẩm, và nếu hệ thống AI, một loại phần mềm, có “lỗi”, thì trách nhiệm không lỗi sẽ được áp dụng cho doanh nghiệp sở hữu hệ thống AI đó. Hơn nữa, khả năng học hỏi liên tục sau khi được triển khai và cập nhật phần mềm được thêm vào như những tiêu chí mới để đánh giá “lỗi”.

Trong luật hiện hành của Nhật Bản, “Luật Trách nhiệm Sản phẩm” của Nhật, phần mềm nói chung không được coi là hàng hóa di động, do đó không thuộc đối tượng “sản phẩm” áp dụng của luật. Tuy nhiên, dự án sửa đổi này đang thực hiện các biện pháp để thay đổi khái niệm “sản phẩm”. Dự án sửa đổi cũng giới thiệu “biện pháp giảm bớt gánh nặng chứng minh”, có thể ảnh hưởng lớn đến phần mềm, bao gồm hệ thống AI và các sản phẩm công nghệ tiên tiến khác.

Luật Quy Định AI

“Luật Quy Định AI (AI Act)” là quy tắc thống nhất toàn diện của EU dành cho doanh nghiệp AI, là luật quốc tế đầu tiên trên thế giới điều chỉnh AI, bao gồm 85 điều. Vào ngày 9 tháng 12 năm 2023, sau sự đồng thuận tạm thời giữa Ủy ban Châu Âu, Nghị viện Châu Âu và Hội đồng Châu Âu, luật này đã được ban hành. Dự kiến sẽ có hiệu lực và được áp dụng toàn diện vào năm 2024.

Luật này là trọng tâm của chiến lược số của EU được biết đến với tên gọi “A Europe fit for the Digital Age” (Một Châu Âu phù hợp với Kỷ nguyên Số), nhằm đối phó với những thách thức và rủi ro mới của kỷ nguyên số đang phát triển. Nó cũng là một phần của gói AI rộng lớn nhằm đảm bảo an toàn và quyền cơ bản của AI, cũng như tăng cường sự tham gia, đầu tư và đổi mới về AI trên toàn EU.

Luật Quy Định AI của EU sẽ được áp dụng trực tiếp cho các quốc gia thành viên của EU và cũng áp dụng cho các doanh nghiệp hoạt động trong khu vực EU, bao gồm cả việc áp dụng cho các doanh nghiệp nằm ngoài EU.

Trong trường hợp vi phạm, một khoản tiền phạt lớn dựa trên doanh thu toàn cầu có thể được áp dụng (tối đa là 30 triệu euro hoặc 6% doanh thu toàn cầu, tùy theo số nào cao hơn), có nguy cơ làm cho doanh nghiệp không thể kinh doanh AI trong khu vực EU.

Do đó, các doanh nghiệp đã triển khai AI tại thị trường EU, bao gồm cả các doanh nghiệp Nhật Bản, hoặc những doanh nghiệp đang cân nhắc mở rộng sang thị trường EU, cũng cần phải tuân thủ các quy định mới về AI của EU.

Các điểm chính của “Luật Quy Định AI” bao gồm ba đặc điểm nổi bật: “Phân loại AI dựa trên rủi ro”, “Yêu cầu và nghĩa vụ”, và “Hỗ trợ đổi mới”.

Đối tượng được quy định bao gồm các doanh nghiệp muốn đưa hệ thống và dịch vụ AI vào thị trường châu Âu, bao gồm các nhà phát triển, triển khai, cung cấp, nhập khẩu, bán lẻ và người dùng AI.

Mức độ rủi ro của AI được phân loại thành bốn cấp độ, và các quy định tương ứng sẽ được áp dụng. Để đạt được các nguyên tắc AI, việc đảm bảo năng lực về AI của các nhà phát triển, người sử dụng và nhà cung cấp là cần thiết, theo một hướng dẫn rõ ràng. Để biết thêm thông tin, vui lòng xem bài viết liên quan.

Bài viết liên quan: Tình hình và triển vọng của Luật Quy Định AI tại EU? Cũng giải thích ảnh hưởng đối với các doanh nghiệp Nhật Bản[ja]

Những điểm cần lưu ý về luật liên quan đến AI

Những điểm cần lưu ý về luật liên quan đến AI

Trong chương này, chúng tôi sẽ chủ yếu giải thích về những điểm cần lưu ý trên pháp lý khi doanh nghiệp muốn sử dụng AI sinh sản.

Về bản quyền của tác phẩm AI

Có một số vấn đề pháp lý cần lưu ý đối với tác phẩm được tạo ra bởi AI sinh sản, bao gồm:

  • Liệu tác phẩm đó có vi phạm bản quyền hay không
  • Liệu tác phẩm được tạo ra bởi AI sinh sản có được công nhận bản quyền không

Như đã đề cập, tác phẩm được tạo ra bởi ChatGPT, nếu có sự tương đồng hoặc dựa trên tác phẩm có bản quyền, có thể bị coi là vi phạm bản quyền. Mặt khác, liệu tác phẩm được tạo ra bởi AI sinh sản có được công nhận bản quyền không?

Theo luật bản quyền, “tác phẩm” được định nghĩa là “sự biểu đạt sáng tạo của ý tưởng hoặc cảm xúc”. Vì AI không có ý tưởng hoặc cảm xúc, nên có quan điểm cho rằng tác phẩm do AI sinh sản tạo ra không được công nhận bản quyền.

Tuy nhiên, do quá trình tạo ra nội dung bởi AI là một “hộp đen” đối với người dùng (quá trình ra quyết định không minh bạch), việc người dùng tạo ra nội dung theo ý muốn từ AI là một nhiệm vụ khó khăn. Do đó, nếu có sự sáng tạo từ phía người dùng ở giai đoạn tạo lệnh, có thể coi đó là “ý tưởng hoặc cảm xúc” của người dùng được “biểu đạt một cách sáng tạo” bởi AI sinh sản, và trong trường hợp này, tác phẩm có thể được công nhận bản quyền.

Về việc xử lý thông tin cá nhân khi sử dụng AI

Khi sử dụng AI, cần lưu ý đến khả năng vi phạm luật bảo vệ thông tin cá nhân. Cần có biện pháp phòng ngừa như không nhập thông tin cá nhân hoặc thông tin riêng tư vào hệ thống.

Nếu thông tin cá nhân được nhập vào lệnh, có thể coi đó là việc cung cấp thông tin cá nhân cho bên thứ ba từ phía nhà cung cấp dịch vụ. Việc cung cấp thông tin cá nhân cho bên thứ ba, theo nguyên tắc, đòi hỏi sự đồng ý của chủ thể thông tin, do đó, nếu không có sự đồng ý, có thể vi phạm luật bảo vệ thông tin cá nhân.

Trong trường hợp của ChatGPT, ngay cả khi vô tình nhập thông tin cá nhân, hệ thống cũng không thể xuất thông tin đó ra ngoài. Điều này phản ánh chính sách của OpenAI, là không lưu trữ hoặc theo dõi thông tin cá nhân, nhưng cần lưu ý rằng các dịch vụ hoặc nền tảng khác có thể có cách tiếp cận khác nhau, do đó cần thận trọng.

Biện pháp quản lý rủi ro khi doanh nghiệp áp dụng AI

Biện pháp quản lý rủi ro phụ thuộc vào chiến lược kinh doanh của doanh nghiệp, mục đích sử dụng AI và các quy định pháp luật liên quan, do đó việc áp dụng các biện pháp quản lý rủi ro phù hợp với tình hình và mục tiêu là rất quan trọng.

Doanh nghiệp sử dụng AI sinh sản cần xem xét các điểm sau để giảm thiểu rủi ro:

  1. Phát triển nhân lực: Việc sử dụng đúng cách AI sinh sản đòi hỏi kiến thức và kỹ năng chuyên môn. Qua việc giáo dục và đào tạo nhân viên, việc hiểu biết về cách sử dụng phù hợp là rất quan trọng.
  2. Xây dựng, triển khai và vận hành hướng dẫn nội bộ: Việc thiết lập hướng dẫn nội bộ về việc sử dụng AI sinh sản và yêu cầu nhân viên tuân thủ có thể giảm thiểu rủi ro.
  3. Xây dựng tổ chức thúc đẩy sử dụng và biện pháp quản lý rủi ro: Việc thành lập một tổ chức để thúc đẩy việc sử dụng AI sinh sản và đặt một nhóm quản lý rủi ro trong tổ chức là hiệu quả.
  4. Triển khai hệ thống: Để triển khai AI sinh sản một cách phù hợp, cần phải cẩn thận trong việc lựa chọn và thiết kế hệ thống.

Ngoài ra, rủi ro liên quan đến việc sử dụng AI sinh sản đang trở nên đa dạng, bao gồm rò rỉ thông tin, vi phạm quyền lợi và quyền riêng tư, lo ngại về độ chính xác và an toàn của thông tin, rủi ro về định kiến, v.v. Để tránh những rủi ro này, việc áp dụng một khuôn khổ quản lý rủi ro và quản trị phù hợp là cần thiết.

Bài viết liên quan: 「Rủi ro khi doanh nghiệp triển khai ChatGPT. Giải thích các trường hợp rò rỉ thông tin mật và biện pháp đối phó」[ja]

Tóm tắt: Cần phải bắt kịp vì luật về AI đang trong quá trình được hoàn thiện

Luật liên quan đến kinh doanh AI, bắt đầu với “Luật quy định AI” đầu tiên trên thế giới tại EU (ban hành ngày 9 tháng 12 năm 2023), đang ở giai đoạn phát triển khung pháp lý, do đó, các doanh nghiệp cần tuân thủ các luật hiện hành và đồng thời linh hoạt trong việc thích ứng với các luật mới.

Tại Nhật Bản, hiện chưa có luật nào điều chỉnh trực tiếp về AI, nhưng cần phải hiểu rõ và xử lý đúng đắn với các luật liên quan như Luật Bản quyền, Luật Bảo vệ Thông tin Cá nhân, Luật Phòng chống Cạnh tranh không Lành mạnh. Ngoài ra, việc theo dõi sát sao các xu hướng sửa đổi luật liên quan và phản ứng nhanh chóng là điều cần thiết.

Giới thiệu về các biện pháp của Văn phòng Luật sư Monolith

Văn phòng Luật sư Monolith là một văn phòng luật sư có kinh nghiệm phong phú về cả IT, đặc biệt là Internet và pháp luật. Kinh doanh AI đi kèm với nhiều rủi ro pháp lý, và sự hỗ trợ từ các luật sư am hiểu về các vấn đề pháp lý liên quan đến AI là điều không thể thiếu.

Văn phòng chúng tôi cung cấp hỗ trợ pháp lý cao cấp cho kinh doanh AI, bao gồm ChatGPT, thông qua một đội ngũ bao gồm các luật sư am hiểu về AI và các kỹ sư, bao gồm việc soạn thảo hợp đồng, đánh giá tính hợp pháp của mô hình kinh doanh, bảo vệ quyền sở hữu trí tuệ, và xử lý vấn đề riêng tư. Chi tiết được nêu trong bài viết dưới đây.

Lĩnh vực hoạt động của Văn phòng Luật sư Monolith: Pháp lý AI (bao gồm ChatGPT và các công nghệ khác)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Quay lại Lên trên