MONOLITH LAW OFFICE+81-3-6262-3248Ngày làm việc 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Rủi ro khi sử dụng ChatGPT trong công việc là gì? Giải thích cả về vấn đề pháp lý

IT

Rủi ro khi sử dụng ChatGPT trong công việc là gì? Giải thích cả về vấn đề pháp lý

Từ khi được phát hành, ChatGPT đã nhận được sự chú ý lớn từ khắp nơi trên thế giới về tính hữu ích của nó. Tuy nhiên, cũng đã trở nên rõ ràng rằng việc sử dụng nó đi kèm với nhiều rủi ro khác nhau. Hiện nay, việc hoàn thiện pháp luật vẫn đang được tiến hành, và thực tế là có nhiều nhà quản lý cảm thấy lo lắng về các rủi ro cũng như cách phòng ngừa rủi ro khi sử dụng ChatGPT trong kinh doanh.

Bài viết này sẽ giải thích về các rủi ro pháp lý và biện pháp đối phó khi sử dụng ChatGPT trong môi trường kinh doanh.

4 Rủi Ro Khi Sử Dụng ChatGPT Trong Kinh Doanh

Ngay cả trong doanh nghiệp, việc ứng dụng ChatGPT – một AI sinh ngôn ngữ tự nhiên – đang ngày càng phổ biến, tỷ lệ triển khai trong các doanh nghiệp năm 2022 là 13.5%, và nếu tính cả những doanh nghiệp có kế hoạch triển khai thì con số này lên tới 24.0%. (Nguồn: Bộ Nội Vụ Nhật Bản|Báo cáo Trắng về Thông tin và Truyền thông Reiwa 5 (2023) – Khảo sát Xu Hướng Sử Dụng Truyền thông「Tình hình triển khai hệ thống và dịch vụ IoT, AI, v.v. trong doanh nghiệp[ja]」)

Quả thực, công nghệ AI như ChatGPT có thể hiệu quả trong việc cải thiện hiệu suất công việc của doanh nghiệp và mang lại nhiều cơ hội kinh doanh hơn. Tuy nhiên, cùng với đó là nhiều rủi ro pháp lý đáng kể. Do đó, cần phải hiểu rõ các rủi ro để có thể quyết định liệu có nên sử dụng trong kinh doanh hay không.

Ví dụ, các chuyên gia đã cảnh báo về các rủi ro tiềm ẩn của AI như vấn đề bản quyền, sự lan truyền thông tin sai lệch, rò rỉ thông tin mật, vấn đề quyền riêng tư, và việc lạm dụng trong các cuộc tấn công mạng.

Trong chương này, chúng tôi sẽ giải thích về 4 rủi ro khi sử dụng ChatGPT trong kinh doanh.

Rủi ro rò rỉ thông tin do chức năng học hỏi

ChatGPT rất tiện lợi nhưng cũng chứa đựng rủi ro rò rỉ thông tin do là AI chatbot được tạo ra từ việc học hỏi các dữ liệu trên mạng. Nếu không thực hiện biện pháp phòng ngừa, thông tin nhập vào có thể bị sử dụng trong quá trình học hỏi và gây rò rỉ.

Theo Chính sách sử dụng dữ liệu[en] của OpenAI, trừ khi người dùng sử dụng API của ChatGPT hoặc yêu cầu “opt-out”, dữ liệu mà người dùng nhập vào ChatGPT sẽ được OpenAI thu thập và sử dụng (học hỏi).

Cần phải cẩn trọng không nhập thông tin cá nhân hay thông tin mật đòi hỏi tính bảo mật cao nếu không có biện pháp phòng ngừa. Ngay cả khi nhập thông tin cá nhân vào ChatGPT một cách vô tình, hệ thống sẽ hiển thị cảnh báo và ChatGPT không lưu trữ hay theo dõi thông tin cá nhân, cũng như không thể xuất thông tin đó trong cuộc trò chuyện.

Mặt khác, đã có trường hợp thông tin cá nhân của người dùng bị rò rỉ do lỗi hệ thống của OpenAI, công ty điều hành ChatGPT, trong quá khứ.

Bài viết liên quan: Rủi ro rò rỉ thông tin từ ChatGPT và 4 biện pháp phòng ngừa cần thiết[ja]

Rủi ro từ thông tin thiếu tính xác thực

Rủi ro từ thông tin thiếu tính xác thực

Từ tháng 5 năm 2023, ChatGPT đã được trang bị tính năng duyệt web, cho phép nó thu thập thông tin mới nhất và trả lời dựa trên kết quả đó.

Tuy nhiên, mặc dù ChatGPT đưa ra các câu trả lời như thể chúng là sự thật, tính xác thực của thông tin không được đảm bảo. Các phản hồi mà ChatGPT tạo ra không dựa trên độ chính xác của dữ liệu học mà chỉ là những câu văn có khả năng cao (có vẻ hợp lý nhất) được chọn để sản xuất. Do đó, việc kiểm tra sự thật trong các câu trả lời của ChatGPT là không thể thiếu. Nếu như phát tán thông tin sai lệch dựa trên câu trả lời của ChatGPT, uy tín của doanh nghiệp có thể bị tổn hại.

Vào ngày 3 tháng 4 năm 2023, Đại học Tokyo đã bày tỏ quan ngại về ảnh hưởng của ChatGPT đối với xã hội trong tương lai và đưa ra tuyên bố sau:

“Nguyên tắc hoạt động của ChatGPT dựa trên việc tạo ra các câu văn có vẻ hợp lý một cách xác suất thông qua việc học máy và học củng cố từ một lượng lớn văn bản và nội dung hiện có. Do đó, nội dung được viết có thể chứa thông tin không chính xác. Nó giống như đang trò chuyện với một người tỏ ra biết nhiều nhưng thực chất không rõ ràng. (Tuy nhiên, phiên bản mới nhất GPT-4 đã cải thiện đáng kể về độ chính xác và là một đối tác tư vấn rất xuất sắc.) Do đó, để sử dụng thành thạo ChatGPT, cần có kiến thức chuyên môn và phải kiểm tra cũng như chỉnh sửa câu trả lời một cách phê phán. Ngoài ra, ChatGPT không thể phân tích hay mô tả những kiến thức mới không có trong thông tin hiện có. Nói cách khác, việc ChatGPT xuất hiện không có nghĩa là con người có thể lơ là việc học tập hay nghiên cứu. Tuy nhiên, nếu người có kiến thức sâu rộng và chuyên môn cao phân tích và sử dụng câu trả lời một cách phê phán, họ có thể cải thiện đáng kể hiệu quả công việc hàng ngày.” – Đại học Tokyo chỉ ra.

Trích dẫn: Đại học Tokyo | “Về AI sinh sản (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, v.v.)[ja]

Rủi ro pháp lý như vi phạm bản quyền và quyền riêng tư

Việc xác định vi phạm bản quyền trên ChatGPT được phân biệt giữa “Giai đoạn phát triển & học máy AI” và “Giai đoạn tạo ra & sử dụng”. Do hành vi sử dụng tác phẩm ở mỗi giai đoạn khác nhau, các điều khoản của luật bản quyền cũng khác nhau. Vì vậy, cần phải xem xét riêng biệt cho từng trường hợp.

Tham khảo: Cơ quan Văn hóa Nhật Bản | Hội thảo bản quyền năm 2023 (Reiwa 5) “AI và Bản quyền”[ja]

Luật bản quyền sửa đổi được thi hành vào tháng 1 năm 2019 đã thiết lập một quy định mới về giới hạn quyền lợi tại Điều 30, khoản 4, dành cho “Giai đoạn phát triển & học máy AI”. Các hành vi sử dụng tác phẩm không nhằm mục đích tiếp nhận ý tưởng hoặc cảm xúc được biểu hiện trong tác phẩm, như phân tích thông tin cho việc phát triển AI, theo nguyên tắc có thể thực hiện mà không cần sự cho phép của chủ sở hữu bản quyền.

Mặt khác, nếu sản phẩm được tạo ra bởi ChatGPT có sự tương tự hoặc phụ thuộc (biến đổi) với tác phẩm bản quyền, nó có thể bị coi là vi phạm bản quyền. Do đó, trước khi công bố, cần phải xác minh chủ sở hữu quyền của thông tin mà ChatGPT tham khảo và kiểm tra xem có nội dung tương tự với những gì ChatGPT tạo ra hay không. Khi trích dẫn tác phẩm, cần phải ghi rõ nguồn gốc (theo quy định giới hạn quyền lợi), và khi tái bản, cần phải có sự cho phép của chủ sở hữu bản quyền để xử lý đúng đắn.

Theo điều khoản sử dụng của công ty OpenAI, nội dung tạo ra bởi ChatGPT có thể sử dụng cho mục đích thương mại, nhưng nếu khó xác định liệu nội dung tạo ra có vi phạm bản quyền hay không, chúng tôi khuyên bạn nên tham khảo ý kiến của chuyên gia.

Nếu bị chủ sở hữi bản quyền chỉ ra vi phạm, bạn có thể phải đối mặt với trách nhiệm dân sự (bồi thường thiệt hại, tiền đền bù tinh thần, ngăn chặn sử dụng, phục hồi danh dự, v.v.) hoặc trách nhiệm hình sự (tội phạm theo quyết định của nguyên đơn). Đối với doanh nghiệp, có thể áp dụng quy định phạt cả hai bên, áp dụng cho cả cá nhân và pháp nhân, và điều này có thể gây ra thiệt hại lớn hơn.

Về thông tin cá nhân và quyền riêng tư, cũng cần phải cẩn thận không nhập vào ChatGPT. Như đã nói ở trên, ngay cả khi vô tình nhập thông tin cá nhân vào ChatGPT, hệ thống không lưu trữ hoặc theo dõi thông tin cá nhân và không thể xuất ra trong cuộc trò chuyện. Tuy nhiên, đây là chính sách của OpenAI, và có thể khác biệt trên các nền tảng hoặc dịch vụ khác.

Về rủi ro rò rỉ thông tin cá nhân, xin vui lòng đọc bài viết sau để hiểu rõ hơn.

Bài viết liên quan: Rủi ro rò rỉ thông tin cá nhân của doanh nghiệp và bồi thường thiệt hại[ja]

Rủi ro tạo ra nội dung có hại mà không hề có ý định

Rủi ro tạo ra nội dung có hại mà không hề có ý định

Tùy thuộc vào nội dung dữ liệu mà ChatGPT đã học và nội dung của lệnh nhập vào, có thể tạo ra nội dung có hại. Nếu công bố nội dung do ChatGPT tạo ra mà không kiểm tra, có thể làm tổn hại đến uy tín và giá trị thương hiệu của doanh nghiệp, và còn có khả năng phát triển thành vấn đề pháp lý.

Nội dung có hại đã được cài đặt để không thể nhập hoặc xuất trong ChatGPT, nhưng việc phân biệt các mã độc hại, dịch vụ lừa đảo và các vấn đề tương tự có thể khó khăn và vẫn có khả năng được xuất ra. Với rủi ro như vậy, việc luôn kiểm tra nội dung đã tạo ra và duy trì một hệ thống kiểm soát chặt chẽ là hết sức quan trọng.

Hiểu rõ Điều khoản sử dụng để tránh rủi ro khi sử dụng ChatGPT

Khi sử dụng ChatGPT cho mục đích kinh doanh, để phòng tránh rủi ro, bạn cần phải sử dụng dịch vụ theo Điều khoản sử dụng và Chính sách bảo mật của OpenAI. Vì Điều khoản sử dụng thường xuyên được cập nhật, khi sử dụng trong kinh doanh, bạn cần phải kiểm tra những điểm được sửa đổi và nắm rõ Điều khoản sử dụng mới nhất.

Bài viết liên quan: Giải thích Điều khoản sử dụng của OpenAI, những điểm cần lưu ý trong sử dụng thương mại là gì?[ja]

Những điều cần thiết để tránh rủi ro khi sử dụng ChatGPT trong công việc

Tạo quy tắc nội bộ

Để tránh rủi ro liên quan đến ChatGPT và sử dụng nó một cách thích hợp trong kinh doanh, các doanh nghiệp cần thiết lập một hệ thống quản trị cụ thể như sau.

Tạo quy tắc nội bộ

Vào ngày 1 tháng 5 năm 2023 (Reiwa 5), Hiệp hội Deep Learning Nhật Bản (JDLA) đã tổng hợp các vấn đề đạo đức, pháp lý và xã hội (ELSI) liên quan đến ChatGPT và công bố “Hướng dẫn sử dụng AI sinh học”. Các ngành công nghiệp, học thuật và chính phủ cũng đang tiến hành xem xét việc thiết lập hướng dẫn.

Khi triển khai ChatGPT trong doanh nghiệp, không chỉ cần nâng cao nhận thức về an ninh thông tin cá nhân và giáo dục nội bộ, mà còn cần thiết lập hướng dẫn sử dụng ChatGPT riêng cho công ty. Việc xây dựng và phổ biến rộng rãi hướng dẫn sử dụng ChatGPT đã được cụ thể hóa có thể giúp phòng tránh một số rủi ro nhất định.

Tham khảo: Hiệp hội Deep Learning Nhật Bản (JDLA) | “Hướng dẫn sử dụng AI sinh học[ja]

Thiết lập người giám sát khi sử dụng ChatGPT

Việc bổ nhiệm người giám sát sử dụng ChatGPT trong công ty để theo dõi liên tục việc vận hành hướng dẫn và quản lý rủi ro cũng là một biện pháp hiệu quả để tránh rủi ro.

Việc giám sát hành vi của ChatGPT, chỉnh sửa kết quả sinh ra và quản lý dữ liệu có thể được coi là một hoạt động kiểm toán tương tự như kiểm toán hệ thống. Kiểm toán hệ thống là việc đánh giá khách quan về hiệu quả, an toàn và độ tin cậy của hệ thống thông tin, thực hiện với mục đích cải thiện hiệu quả công việc và hỗ trợ biến đổi tổ chức. Việc thiết lập người giám sát kiểm toán cũng có thể tăng cường tính minh bạch và trách nhiệm giải trình liên quan đến vận hành.

Tóm lược: Việc sử dụng ChatGPT trong công việc cần có biện pháp phòng ngừa rủi ro

Ở đây, chúng tôi đã giải thích chi tiết về các rủi ro và biện pháp phòng ngừa khi sử dụng ChatGPT trong công việc.

Đối với việc sử dụng AI phát triển nhanh chóng như ChatGPT trong kinh doanh, từ việc xây dựng hướng dẫn sử dụng nội bộ, đánh giá tính hợp pháp của mô hình kinh doanh, soạn thảo hợp đồng và điều khoản sử dụng, bảo vệ quyền sở hữu trí tuệ, cho đến việc đáp ứng các vấn đề về quyền riêng tư, không thể thiếu sự chuẩn bị và các biện pháp phòng ngừa từ các chuyên gia am hiểu về rủi ro pháp lý và công nghệ AI.

Giới thiệu các biện pháp của Văn phòng Luật sư Monolith

Văn phòng Luật sư Monolith là một văn phòng luật sư có kinh nghiệm phong phú trong lĩnh vực IT, đặc biệt là Internet và luật pháp. Kinh doanh AI đi kèm với nhiều rủi ro pháp lý, và sự hỗ trợ của các luật sư am hiểu về các vấn đề pháp lý liên quan đến AI là hết sức cần thiết.

Văn phòng chúng tôi cung cấp nhiều hỗ trợ pháp lý cho kinh doanh AI, bao gồm cả ChatGPT, thông qua đội ngũ bao gồm các luật sư am hiểu về AI và các kỹ sư. Chi tiết được trình bày trong bài viết dưới đây.

Lĩnh vực hoạt động của Văn phòng Luật sư Monolith: Pháp lý AI (bao gồm ChatGPT và các công nghệ khác)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Quay lại Lên trên