MONOLITH LAW OFFICE+81-3-6262-3248Hari Minggu 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Apakah Risiko Pengenalan ChatGPT dalam Syarikat? Penjelasan Mengenai Kes Kebocoran Maklumat Sulit dan Langkah-langkah Pencegahannya

IT

Apakah Risiko Pengenalan ChatGPT dalam Syarikat? Penjelasan Mengenai Kes Kebocoran Maklumat Sulit dan Langkah-langkah Pencegahannya

Pengenalan ChatGPT di dalam syarikat semakin meningkat secara beransur-ansur. Walaupun terdapat perhatian yang berkumpul terhadap kegunaannya, ada beberapa perkara yang perlu diambil kira. Salah satunya adalah tidak boleh memasukkan maklumat sulit ke dalam ChatGPT. Sebenarnya, terdapat kes di luar negara di mana memasukkan maklumat sulit telah menyebabkan kebocoran maklumat sulit yang serius bagi syarikat tersebut.

Dalam artikel ini, seorang peguam akan menjelaskan tentang risiko kebocoran maklumat sulit dalam penggunaan ChatGPT yang terus berkembang setiap hari, dengan memberi tumpuan kepada kes-kes sebenar dan langkah-langkah yang perlu diambil.

Sebab Mengapa Tidak Boleh Memasukkan Maklumat Sulit ke ChatGPT

Walaupun ChatGPT sangat berguna, ia merupakan AI chatbot yang dihasilkan melalui pembelajaran daripada big data dan data penggunaan di internet. Jika tidak ada langkah pencegahan, terdapat risiko maklumat sulit yang dimasukkan boleh bocor.

Kami akan menjelaskan dengan lebih terperinci mengenai langkah-langkah untuk menghadapi risiko kebocoran maklumat sulit nanti, tetapi terlebih dahulu, mari kita fahami risiko-risiko lain yang berkaitan dengan kebocoran maklumat sulit melalui ChatGPT.

Risiko Selain Kebocoran Maklumat Sulit yang Dihadapi Syarikat dengan Penggunaan ChatGPT

ChatGPT kini sedang dalam fasa pengujian pengenalan di banyak syarikat. Oleh itu, penting untuk memahami risiko yang ada sebelum membuat keputusan untuk menggunakannya dalam perniagaan.

Di samping risiko kebocoran maklumat sulit (termasuk maklumat peribadi), terdapat dua risiko keselamatan lain yang mungkin dihadapi syarikat dengan penggunaan ChatGPT:

  • Risiko kebolehpercayaan maklumat yang dihasilkan
  • Risiko pelanggaran hak cipta maklumat masukan dan keluaran

Kami akan menjelaskan setiap risiko ini dengan lebih terperinci.

Kekurangan Kebolehpercayaan Maklumat yang Dihasilkan

GPT-4 yang dilancarkan pada 14 Mac 2023 (Reiwa 5) telah dilengkapi dengan fungsi pencarian, memungkinkan ia menyediakan maklumat terkini. Namun, ChatGPT mengeluarkan jawapan seolah-olah maklumat tersebut adalah benar, tetapi kebolehpercayaannya tidak dijamin. Respons yang dihasilkan oleh ChatGPT tidak berdasarkan ketepatan maklumat dari data pembelajaran, tetapi hanya menghasilkan teks yang dianggap paling mungkin. Oleh itu, penting untuk melakukan pemeriksaan fakta sebelum menggunakan hasil keluaran tersebut. Jika syarikat secara tidak sengaja menyebarkan maklumat palsu, reputasi syarikat itu sendiri mungkin terjejas.

Risiko Hukum seperti Pelanggaran Hak Cipta

Risiko hukum seperti pelanggaran hak cipta

Penilaian pelanggaran hak cipta dalam ChatGPT dibahagikan kepada ‘Fasa Pembangunan & Pembelajaran AI’ dan ‘Fasa Penghasilan & Penggunaan’. Kerana aktiviti penggunaan karya cipta berbeza pada setiap fasa, peruntukan undang-undang hak cipta yang berkenaan juga berbeza. Oleh itu, perlu mempertimbangkan kedua-dua aspek ini secara berasingan.

Rujukan: Agensi Kebudayaan Jepun | Seminar Hak Cipta Tahun Fiskal Reiwa 5 ‘AI dan Hak Cipta'[ja]

Undang-Undang Hak Cipta Jepun yang dipinda pada Januari 2019 (Heisei 31) telah memperkenalkan peruntukan pembatasan hak baru dalam Artikel 30-4, yang berkaitan dengan ‘Fasa Pembangunan & Pembelajaran AI’. Penggunaan karya cipta untuk analisis maklumat seperti pembangunan AI, yang tidak bertujuan untuk menikmati idea atau emosi yang dinyatakan dalam karya cipta, pada prinsipnya boleh dilakukan tanpa kebenaran pemegang hak cipta.

Sebaliknya, jika hasil keluaran ChatGPT mempunyai persamaan atau bergantung pada karya cipta (modifikasi), ia boleh menjadi pelanggaran hak cipta. Oleh itu, sebelum menerbitkan, penting untuk memeriksa pemilik hak cipta maklumat yang dirujuk oleh ChatGPT dan memastikan tidak ada kandungan yang serupa dengan apa yang dihasilkan oleh ChatGPT. Jika mengutip karya cipta, perlu menyatakan sumbernya dengan jelas (peruntukan pembatasan hak) atau jika menyalin, perlu mendapatkan kebenaran penggunaan dari pemegang hak cipta dan memprosesnya dengan sewajarnya.

Jika pemegang hak cipta menunjukkan pelanggaran hak cipta, syarikat mungkin menghadapi tanggungjawab sivil (ganti rugi, pampasan, penghentian penggunaan, pemulihan nama baik, dan lain-lain tindakan hukum) atau tanggungjawab jenayah (kesalahan yang boleh didakwa).

Kes Masalah Memasukkan Maklumat Sulit ke ChatGPT

Pada 30 Mac 2023, media Korea Selatan ‘EConomist’ melaporkan bahawa terdapat tiga insiden di mana maklumat sulit telah dimasukkan ke dalam ChatGPT di bahagian semikonduktor Samsung Electronics setelah penggunaannya dibenarkan.

Walaupun pihak Samsung Electronics telah mengingatkan tentang keselamatan maklumat di dalam syarikat, terdapat kes di mana kod sumber telah dihantar untuk meminta pembetulan program (dua insiden), dan ada juga pekerja yang telah menghantar kandungan mesyuarat untuk pembuatan minit mesyuarat.

Selepas insiden-insiden ini berlaku, syarikat tersebut telah mengambil langkah darurat dengan membatasi kapasiti muat naik untuk setiap pertanyaan yang dibuat kepada ChatGPT. Syarikat itu juga menyatakan bahawa mereka mungkin akan memutuskan sambungan jika insiden serupa berulang.

Selain itu, Walmart dan Amazon telah memberi amaran kepada pekerja mereka untuk tidak berkongsi maklumat sulit melalui chatbot. Seorang peguam dari Amazon telah menyatakan bahawa terdapat kes di mana respons ChatGPT mirip dengan data dalaman yang dimiliki oleh Amazon, yang menunjukkan kemungkinan data tersebut telah digunakan untuk pembelajaran.

Langkah-langkah Pencegahan Kebocoran Maklumat Sulit Semasa Menggunakan ChatGPT

OpenAI telah menjelaskan dalam terma penggunaan dan lain-lain bahawa data yang dimasukkan akan digunakan untuk peningkatan sistem dan pembelajaran, serta menyeru pengguna untuk tidak menghantar maklumat sensitif.

Dalam bab ini, kami akan memperkenalkan empat langkah pencegahan untuk mengelakkan kebocoran maklumat sulit semasa menggunakan ChatGPT, dari segi perangkat keras dan perangkat lunak.

Membangunkan Garis Panduan Penggunaan Dalaman

Membangunkan Garis Panduan Penggunaan Dalaman

Apabila memperkenalkan ChatGPT ke dalam syarikat, penting untuk meningkatkan literasi keselamatan maklumat peribadi dan juga tidak boleh mengabaikan reskilling dalam kalangan pekerja. Namun, adalah disarankan untuk membina garis panduan penggunaan ChatGPT khusus untuk syarikat anda.

Pada 1 Mei 2023, Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA) telah mengumpulkan isu-isu etika, undang-undang, dan sosial (ELSI) yang berkaitan dengan ChatGPT dan menerbitkan ‘Garis Panduan Penggunaan AI Generatif’. Pelbagai sektor termasuk industri, akademik, dan kerajaan juga telah memulakan usaha untuk membina garis panduan mereka sendiri.

Dengan mengambil kira garis panduan ini, pembangunan garis panduan penggunaan ChatGPT yang jelas untuk syarikat anda dapat membantu dalam mengelakkan risiko tertentu.

Rujukan: Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA)|Garis Panduan Penggunaan AI Generatif[ja]

Mengintegrasikan Teknologi untuk Mencegah Kebocoran Maklumat Sulit

Sebagai langkah pencegahan terhadap kesilapan manusia yang boleh menyebabkan kebocoran maklumat sulit, kita boleh mengimplementasikan sistem yang dikenali sebagai DLP (Data Loss Prevention), yang berfungsi untuk menghalang penghantaran dan penyalinan maklumat sulit.

DLP merupakan sebuah fungsi yang sentiasa memantau data yang dimasukkan dan secara automatik mengenal pasti serta melindungi maklumat sulit dan data penting. Dengan menggunakan DLP, apabila maklumat sulit dikesan, sistem ini boleh menghantar amaran atau menghalang tindakan tersebut. Ini membolehkan kita mencegah kebocoran maklumat dari dalam sambil mengawal kos pengurusan. Walau bagaimanapun, untuk mengimplementasikan sistem keselamatan ini dengan lancar, pemahaman yang mendalam tentang sistem keselamatan diperlukan dan mungkin menjadi cabaran bagi syarikat yang tidak mempunyai jabatan teknologi.

Mempertimbangkan Pengenalan Alat Khusus

Mulai Mac 2023, ChatGPT telah membolehkan pencegahan kebocoran data yang dihantar kepada ChatGPT dengan menggunakan API (singkatan bagi ‘Application Programming Interface’, yang merupakan antara muka yang menghubungkan perisian, program, dan perkhidmatan web).

Data yang dihantar melalui API tidak akan digunakan untuk pembelajaran atau peningkatan, tetapi akan disimpan selama 30 hari untuk ‘pemantauan bagi mencegah penggunaan yang tidak sah atau salah’ sebelum dihapuskan, mengikut perubahan terbaru dalam terma penyimpanan. Walau bagaimanapun, jika terdapat ‘permintaan undang-undang’, tempoh penyimpanan data mungkin dilanjutkan.

Walaupun ChatGPT disetkan untuk tidak menggunakan data untuk pembelajaran atau peningkatan, data masih disimpan di pihak server untuk tempoh tertentu, jadi secara teorinya, risiko kebocoran maklumat masih wujud. Oleh itu, perlu berhati-hati ketika memasukkan maklumat sulit atau peribadi.

Namun, OpenAI memberi keutamaan kepada privasi pengguna dan keselamatan data, dan telah mengambil langkah-langkah keselamatan yang ketat. Bagi penggunaan yang lebih selamat, OpenAI mengesyorkan pengenalan ‘Azure OpenAI Service’, alat yang memungkinkan langkah-langkah keselamatan yang lebih canggih.

Alat yang dikhususkan untuk perusahaan, ‘Azure OpenAI Service’, tidak akan mengumpul data yang dimasukkan melalui API di ChatGPT. Selain itu, dengan mengajukan permohonan opt-out dan lulus penilaian, prinsip penyimpanan dan pemantauan data masukan selama 30 hari juga dapat ditolak, sehingga mengelakkan risiko kebocoran informasi.

Cara Mengkonfigurasi ChatGPT Supaya Tidak Belajar dari Informasi Rahsia yang Dimasukkan

Sebagaimana yang telah disebutkan, ChatGPT mempunyai mekanisme untuk belajar dari semua konten yang di-opt in, oleh itu, mulai 25 April 2023, terdapat fungsi yang membolehkan pengguna untuk melakukan opt-out terlebih dahulu.

Sebagai langkah pencegahan langsung, jika anda ingin menolak penggunaan data yang dimasukkan ke dalam ChatGPT untuk tujuan pembelajaran atau peningkatan, anda perlu membuat permohonan ‘opt-out’. ChatGPT menyediakan borang Google untuk ‘opt-out’, jadi adalah lebih baik untuk melaksanakan prosedur ini. (Masukkan dan hantar alamat emel, ID organisasi, dan nama organisasi)

Namun, walaupun dalam kes ini, data yang dimasukkan akan disimpan di pihak server dan dipantau oleh OpenAI untuk tempoh tertentu (prinsipnya 30 hari).

Terma Penggunaan ChatGPT

3. Kandungan

(c) Penggunaan kandungan untuk meningkatkan perkhidmatan

Kami tidak menggunakan Kandungan yang anda berikan kepada atau terima dari API kami (“Kandungan API”) untuk mengembangkan atau memperbaiki Perkhidmatan kami.

Kami mungkin menggunakan Kandungan dari Perkhidmatan selain API kami (“Kandungan Bukan-API”) untuk membantu mengembangkan dan memperbaiki Perkhidmatan kami.

Jika anda tidak mahu Kandungan Bukan-API anda digunakan untuk memperbaiki Perkhidmatan, anda boleh memilih untuk tidak berpartisipasi dengan mengisi borang ini. Sila ambil perhatian bahawa dalam beberapa kes ini mungkin akan membatasi kemampuan Perkhidmatan kami untuk lebih baik menangani kes penggunaan spesifik anda.

Rujukan: Laman Web Rasmi OpenAI | Terma Penggunaan ChatGPT https://openai.com/policies/terms-of-use

Kesimpulan: Penggunaan ChatGPT dalam Bisnes Memerlukan Langkah Berjaga-jaga dalam Pengendalian Maklumat Sulit

Sebagai penutup, kami telah menjelaskan risiko kebocoran maklumat sulit dan langkah-langkah pencegahannya dalam penggunaan ChatGPT untuk tujuan bisnes, berdasarkan contoh-contoh tertentu.

Dalam bisnes AI yang terus berkembang dengan pesat seperti ChatGPT, adalah penting untuk mengambil langkah-langkah pencegahan bersama pakar, mulai dari pembuatan garis panduan penggunaan dalaman, penilaian keabsahan model bisnes, pembuatan kontrak dan terma penggunaan, perlindungan hak kekayaan intelek, hingga penanganan privasi.

Artikel berkaitan: Apakah Undang-undang Web3? Juga menjelaskan poin penting untuk syarikat yang ingin terlibat[ja]

Panduan Langkah-langkah oleh Pejabat Kami

Pejabat Guaman Monolith merupakan sebuah firma guaman yang memiliki pengalaman luas dalam IT, khususnya internet dan undang-undang. Dalam bisnes AI, terdapat banyak risiko legal yang menyertainya, dan sokongan daripada peguam yang mahir dalam isu-isu legal berkaitan AI adalah sangat penting.

Pejabat kami, dengan pasukan peguam yang mahir dalam AI dan jurutera, menyediakan sokongan legal yang canggih untuk bisnes AI termasuk ChatGPT, seperti pembuatan kontrak, penilaian keabsahan model bisnes, perlindungan hak kekayaan intelek, dan penanganan privasi. Butiran lanjut disediakan dalam artikel di bawah.

Bidang yang ditangani oleh Pejabat Guaman Monolith: Undang-undang AI (termasuk ChatGPT dan lain-lain)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Kembali ke Atas