Risiko Kebocoran Maklumat ChatGPT: Apakah itu? Memperkenalkan 4 Langkah Pencegahan yang Patut Diambil
ChatGPT yang kini menjadi tumpuan ramai, merupakan AI generatif yang menarik perhatian dalam pelbagai bidang kerana kemampuannya untuk menghasilkan manuskrip, pengaturcaraan, penciptaan skor muzik, dan lukisan.
Istilah GPT dalam ChatGPT adalah singkatan bagi ‘Generative Pre-training Transformer’, yang melibatkan pembelajaran awal data teks (manuskrip), imej, dan suara (melalui ekstensi) dalam jumlah besar, memungkinkannya untuk berkomunikasi secara semula jadi seperti manusia.
Kerana kemampuannya untuk menangani tugas-tugas yang kompleks, ChatGPT telah mendapat perhatian sebagai alat yang boleh meningkatkan kecekapan kerja dan menawarkan prestasi kos yang tinggi. Penggunaan ChatGPT sudah berkembang dalam pelbagai bidang, dan banyak syarikat teknologi telah memulakan usaha untuk melancarkan sistem AI mereka sendiri.
Walaupun teknologi AI seperti ChatGPT ini dijangka membuka peluang bisnes yang banyak, terdapat juga risiko potensial yang dinyatakan seperti isu hak cipta, penyebaran maklumat salah, kebocoran maklumat sulit, isu privasi, dan kemungkinan penyalahgunaan dalam serangan siber.
Dalam artikel ini, seorang peguam akan menjelaskan tentang risiko kebocoran maklumat yang berkaitan dengan penggunaan ChatGPT dan langkah-langkah yang perlu diambil untuk mengatasinya.
Risiko Kebocoran Maklumat Berkaitan ChatGPT
Risiko pengenalan ChatGPT dalam perusahaan terutamanya melibatkan empat perkara berikut:
- Risiko keselamatan (kebocoran maklumat, ketepatan, kerentanan, ketersediaan, dan lain-lain)
- Risiko pelanggaran hak cipta
- Risiko penyalahgunaan (seperti serangan siber)
- Cabaran etika
Risiko kebocoran maklumat ChatGPT merujuk kepada kemungkinan maklumat sulit yang dimasukkan ke dalam ChatGPT dilihat oleh pekerja OpenAI atau pengguna lain, atau digunakan sebagai data pembelajaran.
Mengikut dasar penggunaan data OpenAI, kecuali pengguna melalui ‘API’ ChatGPT atau mengajukan permohonan ‘opt-out’, data yang dimasukkan oleh pengguna ke dalam ChatGPT akan dikumpul dan digunakan (untuk pembelajaran) oleh OpenAI (akan dijelaskan lebih lanjut nanti).
Kes Kebocoran Maklumat Akibat Penggunaan ChatGPT
Di sini, kami akan memperkenalkan beberapa kes di mana penggunaan ChatGPT telah menyebabkan kebocoran maklumat peribadi yang didaftarkan dan maklumat sulit yang dimasukkan.
Kes Kebocoran Maklumat Peribadi
Pada 24 Mac 2023, OpenAI mengumumkan bahawa mereka telah menamatkan sementara operasi ChatGPT pada 20 Mac kerana terdapat bug yang menyebabkan maklumat peribadi pengguna tertentu, termasuk empat digit terakhir nombor kad kredit dan tarikh luput kad, terpapar kepada pengguna lain. Kebocoran maklumat peribadi ini melibatkan sebahagian daripada pelanggan ‘ChatGPT Plus’, iaitu rancangan berbayar, yang mana kira-kira 1.2% daripada jumlah ahli.
Selain itu, OpenAI juga mengumumkan bahawa terdapat bug lain yang menyebabkan sejarah perbualan pengguna lain terpapar dalam sejarah perbualan pengguna.
Menyusuli hal ini, pada 31 Mac 2023, pihak berkuasa perlindungan data Itali telah mengeluarkan arahan peningkatan kepada OpenAI dengan mengenakan sekatan sementara terhadap pemprosesan data pengguna di negara tersebut. Ini kerana ChatGPT dikatakan mengumpul dan menyimpan data peribadi untuk pembelajaran tanpa asas undang-undang yang kukuh. Sebagai tindak balas, OpenAI telah menyekat akses ke ChatGPT dari Itali. Sekatan ini kemudiannya telah dibatalkan pada 28 April tahun yang sama setelah OpenAI memperbaiki cara mereka mengendalikan data peribadi.
Kes Kebocoran Maklumat Sulit Syarikat
Pada Februari 2023, syarikat keselamatan siber Amerika, Cyberhaven, telah menerbitkan laporan mengenai penggunaan ChatGPT kepada pelanggan korporat mereka.
Laporan tersebut menyatakan bahawa daripada 1.6 juta pekerja pelanggan korporat yang menggunakan produk Cyberhaven, 8.2% daripada pekerja pengetahuan telah menggunakan ChatGPT sekurang-kurangnya sekali di tempat kerja, dan daripada jumlah tersebut, 3.1% telah memasukkan data sulit syarikat ke dalam ChatGPT.
Sebagai contoh dari Korea, pada 30 Mac 2023, media Korea ‘Economist’ melaporkan bahawa sebuah divisyen di dalam Samsung Electronics telah membenarkan penggunaan ChatGPT dan akibatnya, terdapat insiden di mana maklumat sulit telah dimasukkan. Walaupun Samsung Electronics telah mengeluarkan amaran keselamatan maklumat dalaman, terdapat pekerja yang memasukkan kod sumber program dan isi kandungan mesyuarat ke dalam ChatGPT.
Dalam situasi seperti ini, terdapat negara dan syarikat yang menghadkan penggunaan ChatGPT, sementara yang lain mengeluarkan dasar yang menggalakkan penggunaannya. Ketika mempertimbangkan untuk mengadopsi ChatGPT, adalah penting untuk memahami risiko kebocoran maklumat dan mempertimbangkan hal tersebut dengan teliti.
Empat Langkah Pencegahan Kebocoran Maklumat Menggunakan ChatGPT
Kebocoran maklumat, sekali berlaku, boleh menyebabkan kerugian bukan sahaja dari segi tanggungjawab undang-undang, tetapi juga kehilangan kepercayaan dan reputasi. Oleh itu, penting untuk memastikan sistem pengurusan maklumat dalaman dan pendidikan pekerja diperkukuhkan bagi mengelakkan kebocoran maklumat.
Di sini, kami ingin memperkenalkan empat langkah pencegahan kebocoran maklumat menggunakan ChatGPT.
Langkah 1: Penubuhan Peraturan Penggunaan
Pertama, tentukan pendirian syarikat anda terhadap ChatGPT dan masukkan perkara berkaitan penggunaan ChatGPT dalam peraturan dalaman syarikat. Penting untuk menetapkan dan mengendalikan peraturan yang jelas, seperti tidak memasukkan maklumat peribadi dan maklumat sulit.
Ketika itu, adalah disarankan untuk menyusun garis panduan penggunaan ChatGPT syarikat anda. Selain itu, pastikan untuk memasukkan perkara berkaitan penggunaan ChatGPT dalam kontrak dengan pihak luar.
Pada 1 Mei 2023, Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA) telah mengumpulkan isu-isu etika, undang-undang, dan sosial (ELSI) berkaitan ChatGPT dan menerbitkan ‘Garis Panduan Penggunaan AI Generatif’.
Di setiap sektor industri, akademik, dan kerajaan, mereka juga telah memulakan pertimbangan untuk menyusun garis panduan. Dengan merujuk kepada ini, syarikat anda boleh menyusun garis panduan yang mengandungi peraturan penggunaan ChatGPT yang jelas, yang diharapkan dapat mengelakkan risiko tertentu.
Rujukan: Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA)|Garis Panduan Penggunaan AI Generatif[ja]
Walau bagaimanapun, garis panduan yang disusun tidak akan bermakna jika ia tidak diketahui dan dilaksanakan dengan sepenuhnya. Hanya garis panduan sahaja tidak mencukupi sebagai langkah pencegahan.
Langkah 2: Menyusun Sistem untuk Mencegah Kebocoran Maklumat
Sebagai langkah untuk menghindari kesilapan manusia, pengenalan sistem yang dikenali sebagai DLP (Data Loss Prevention) dapat mencegah penghantaran dan penggandaan maklumat sulit dengan menghalang kebocoran data tertentu.
DLP adalah sistem yang memantau data dan bukan pengguna, mengenal pasti dan melindungi maklumat sulit serta data penting secara automatik. Dengan menggunakan DLP, apabila maklumat rahsia dikesan, sistem ini dapat memberikan amaran atau menghalang tindakan tersebut.
Walaupun sistem ini dapat mencegah kebocoran maklumat dari dalam syarikat dengan mengekalkan kos pengurusan yang rendah, pemahaman mendalam mengenai sistem keselamatan diperlukan dan mungkin sukar untuk dilaksanakan dengan lancar oleh syarikat yang tidak mempunyai jabatan teknikal.
Langkah 3: Menggunakan Alat untuk Mencegah Kebocoran Maklumat
Seperti yang telah disebutkan sebelumnya, sebagai langkah pencegahan langsung, anda boleh menolak pengumpulan data yang anda masukkan ke dalam ChatGPT dengan memohon ‘opt-out’.
Anda boleh memohon ‘opt-out’ melalui skrin tetapan ChatGPT. Walau bagaimanapun, apabila anda memohon ‘opt-out’, sejarah prompt anda tidak akan disimpan, yang mungkin dirasakan tidak selesa oleh sesetengah orang.
Sebagai alternatif kepada tetapan ‘opt-out’, terdapat kaedah untuk memasang alat yang menggunakan ‘API’ ChatGPT.
‘API (Application Programming Interface)’ adalah antara muka yang diterbitkan oleh OpenAI untuk mengintegrasikan ChatGPT ke dalam perkhidmatan sendiri atau alat luaran. OpenAI telah menyatakan dengan jelas bahawa maklumat yang dimasukkan dan dikeluarkan melalui ‘API’ ChatGPT tidak akan digunakan.
Ini juga dinyatakan dengan jelas dalam terma penggunaan ChatGPT. Menurut terma penggunaan:
3. Kandungan
(c) Penggunaan kandungan untuk meningkatkan perkhidmatan
Kami tidak menggunakan Kandungan yang anda berikan kepada atau terima dari ‘API’ kami (‘Kandungan API’) untuk mengembangkan atau memperbaiki Perkhidmatan kami.
Kami mungkin menggunakan Kandungan dari Perkhidmatan selain ‘API’ kami (‘Kandungan Bukan-API’) untuk membantu mengembangkan dan memperbaiki Perkhidmatan kami.
Jika anda tidak mahu Kandungan Bukan-API anda digunakan untuk memperbaiki Perkhidmatan, anda boleh memilih keluar dengan mengisi borang ini. Sila ambil perhatian bahawa dalam sesetengah kes ini mungkin akan menghadkan keupayaan Perkhidmatan kami untuk lebih baik menangani kes penggunaan anda yang spesifik.
Petikan: Laman Rasmi OpenAI|Terma Penggunaan ChatGPT
Langkah 4: Melaksanakan Latihan Literasi IT di Dalam Syarikat
Selain langkah-langkah yang telah kami perkenalkan sebelum ini, adalah penting untuk meningkatkan literasi keselamatan di kalangan pekerja syarikat melalui latihan dalaman.
Sebagai contoh, walaupun Samsung Electronics telah mengadakan kempen kesedaran keselamatan maklumat di dalam syarikat, kebocoran maklumat masih berlaku akibat daripada pengisian maklumat sulit. Oleh itu, selain daripada mengambil langkah-langkah pencegahan kebocoran maklumat dari segi sistem, adalah disarankan untuk melaksanakan latihan dalaman berkaitan dengan pengetahuan ChatGPT dan literasi IT.
Tindakan yang Perlu Diambil Sekiranya Berlaku Kebocoran Maklumat Melalui ChatGPT
Sekiranya berlaku kebocoran maklumat, adalah penting untuk segera menjalankan siasatan ke atas fakta yang berkaitan dan mengambil langkah-langkah yang sesuai.
Dalam kes kebocoran maklumat peribadi, adalah wajib untuk melaporkan kepada Komisi Perlindungan Data Peribadi berdasarkan Undang-Undang Perlindungan Data Peribadi Jepun. Selain itu, perlu juga memberitahu individu yang terlibat tentang kejadian yang berlaku. Jika kebocoran maklumat peribadi menyebabkan pelanggaran hak atau kepentingan pihak lain, pihak yang bertanggungjawab mungkin akan menghadapi tanggungjawab ganti rugi sipil. Lebih lanjut, jika maklumat peribadi dicuri atau disediakan dengan tujuan yang tidak sah, tanggungjawab jenayah juga mungkin akan ditanyakan.
Dalam hal kebocoran rahsia dagang atau maklumat teknikal, berdasarkan Undang-Undang Pencegahan Persaingan Tidak Adil Jepun, anda boleh meminta tindakan seperti permintaan penghapusan kepada pihak yang menerima maklumat yang bocor. Jika kebocoran rahsia dagang atau maklumat teknikal memberikan keuntungan yang tidak adil kepada pihak lain, tanggungjawab ganti rugi sipil mungkin akan timbul. Selain itu, jika rahsia dagang atau maklumat teknikal diperoleh atau digunakan dengan cara yang tidak sah, tanggungjawab jenayah juga mungkin akan ditanyakan.
Jika seseorang melanggar kewajipan kerahsiaan dalam pekerjaan dan menyebabkan kebocoran maklumat, mereka mungkin akan menghadapi tanggungjawab jenayah di bawah Kod Jenayah Jepun atau undang-undang lain. Selain itu, jika pelanggaran kewajipan kerahsiaan dalam pekerjaan menyebabkan kerugian kepada pihak lain, tanggungjawab ganti rugi sipil mungkin akan timbul.
Oleh itu, adalah penting untuk bertindak dengan cepat mengikut kandungan maklumat yang bocor dan penting untuk membina sistem yang sesuai terlebih dahulu untuk menghadapi situasi ini.
Artikel berkaitan: Apa yang Perlu Dilakukan oleh Syarikat Ketika Kebocoran Maklumat Berlaku[ja]
Artikel berkaitan: Apa yang Perlu Dilakukan Sekiranya Berlaku Kebocoran Maklumat Peribadi? Penjelasan Mengenai Tindakan Pentadbiran yang Perlu Diambil oleh Syarikat[ja]
Kesimpulan: Membangun Sistem yang Siap Menghadapi Risiko Kebocoran Maklumat ChatGPT
Di sini, kami telah menjelaskan tentang risiko kebocoran maklumat ChatGPT dan langkah-langkah yang harus diambil sebagai tindakan pencegahan. Dalam dunia perniagaan AI yang terus berkembang pesat dengan penggunaan ChatGPT dan sebagainya, kami menyarankan agar anda berunding dengan peguam yang berpengalaman dan mahir dalam risiko hukum untuk menyediakan sistem dalaman yang sesuai dengan risiko tersebut terlebih dahulu.
Tidak hanya risiko kebocoran maklumat, tetapi juga dalam hal keabsahan model perniagaan yang menggunakan AI, pembuatan kontrak dan terma penggunaan, perlindungan hak kekayaan intelek, serta penanganan privasi, anda akan merasa lebih tenang jika bekerjasama dengan peguam yang memiliki pengetahuan dan pengalaman dalam kedua-dua bidang AI dan undang-undang.
Panduan Langkah-langkah oleh Firma Kami
Firma Guaman Monolith merupakan firma guaman yang memiliki pengalaman luas dalam IT, khususnya internet dan undang-undang. Bisnis AI seringkali disertai dengan banyak risiko hukum, dan dukungan dari pengacara yang mahir dalam masalah hukum AI adalah sangat penting. Firma kami, dengan tim yang terdiri dari pengacara yang ahli dalam AI dan tim teknis seperti jurutera, menyediakan sokongan hukum tingkat tinggi untuk bisnis AI termasuk ChatGPT, seperti pembuatan kontrak, penilaian keabsahan model bisnis, perlindungan hak kekayaan intelektual, dan penanganan privasi. Sila rujuk artikel di bawah untuk maklumat lebih lanjut.
Bidang Praktik Firma Guaman Monolith: Undang-undang AI (termasuk ChatGPT dan lain-lain)[ja]
Category: IT
Tag: ITTerms of Use