MONOLITH LAW OFFICE+81-3-6262-3248Hari kerja 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Risiko Kebocoran Informasi ChatGPT: 4 Langkah Pencegahan yang Perlu Diambil

IT

Risiko Kebocoran Informasi ChatGPT: 4 Langkah Pencegahan yang Perlu Diambil

Belakangan ini, “ChatGPT” telah menjadi pusat perhatian. Sebagai generative AI yang dapat membuat naskah, pemrograman, menghasilkan partitur musik, dan menggambar, ia menarik perhatian di berbagai bidang.

Istilah GPT dalam ChatGPT merupakan singkatan dari “Generative Pre-training Transformer”, yang melalui pembelajaran awal dari sejumlah besar data teks, gambar, dan suara (dengan ekstensi), mampu melakukan percakapan alami layaknya manusia.

Karena kemampuannya untuk menangani tugas-tugas yang kompleks, ChatGPT telah mendapatkan sorotan sebagai alat yang diharapkan dapat meningkatkan efisiensi kerja dan menawarkan kinerja biaya yang tinggi. Penggunaan ChatGPT telah berkembang di berbagai bidang, dan banyak perusahaan teknologi telah memulai untuk mengembangkan sistem AI mereka sendiri.

Sementara teknologi AI seperti ChatGPT ini dianggap memiliki banyak peluang bisnis, risiko potensial seperti masalah hak cipta, penyebaran informasi yang salah, kebocoran informasi rahasia, masalah privasi, dan kemungkinan penyalahgunaan dalam serangan siber juga telah diidentifikasi.

Dalam artikel ini, seorang pengacara akan menjelaskan tentang risiko kebocoran informasi yang terkait dengan penggunaan ChatGPT dan langkah-langkah yang harus diambil untuk mengatasinya.

Risiko Kebocoran Informasi Terkait ChatGPT

Risiko penggunaan ChatGPT dalam perusahaan terutama mencakup empat poin berikut ini.

  • Risiko Keamanan (kebocoran informasi, keakuratan, kerentanan, ketersediaan, dll)
  • Risiko Pelanggaran Hak Cipta
  • Risiko Penyalahgunaan (serangan siber, dll)
  • Tantangan di Bidang Etika

Risiko kebocoran informasi ChatGPT adalah risiko di mana informasi rahasia yang dimasukkan ke dalam ChatGPT dapat dilihat oleh karyawan OpenAI atau pengguna lain, atau digunakan sebagai data pelatihan.

Menurut kebijakan penggunaan data OpenAI, kecuali pengguna melewati ‘API’ ChatGPT atau mengajukan ‘opt-out’, data yang dimasukkan pengguna ke dalam ChatGPT akan dikumpulkan dan digunakan (untuk pembelajaran) oleh OpenAI (ini akan dijelaskan lebih lanjut).

Kasus Kebocoran Informasi Akibat Penggunaan ChatGPT

Di sini, kami akan memperkenalkan beberapa kasus di mana penggunaan ChatGPT telah menyebabkan kebocoran informasi pribadi yang terdaftar dan informasi rahasia yang dimasukkan.

Kasus Kebocoran Informasi Pribadi

Pada tanggal 24 Maret 2023, OpenAI mengumumkan bahwa mereka telah memutuskan untuk mematikan ChatGPT untuk sementara waktu pada tanggal 20 Maret karena adanya bug yang menyebabkan informasi pribadi beberapa pengguna, termasuk empat digit terakhir dari nomor kartu kredit dan tanggal kedaluwarsa kartu, ditampilkan kepada pengguna lain. Kebocoran informasi pribadi ini terjadi pada sebagian kecil pelanggan (sekitar 1,2% dari anggota) yang berlangganan rencana berbayar ‘ChatGPT Plus’.

Selain itu, pada saat yang sama dengan bug tersebut, OpenAI juga mengumumkan bahwa ada bug lain yang menyebabkan riwayat chat pengguna lain ditampilkan dalam riwayat chat.

Menanggapi hal ini, pada tanggal 31 Maret 2023, otoritas perlindungan data Italia mengeluarkan perintah perbaikan yang memberlakukan pembatasan sementara pada pemrosesan data pengguna di negara tersebut oleh Open AI, dengan alasan bahwa tidak ada dasar hukum yang cukup untuk pengumpulan dan penyimpanan data pribadi oleh ChatGPT untuk tujuan pembelajaran. Sebagai tanggapan, OpenAI memblokir akses ke ChatGPT dari Italia. Pemblokiran ini kemudian dicabut pada tanggal 28 April tahun yang sama setelah OpenAI melakukan perbaikan dalam penanganan data pribadi.

Kasus Kebocoran Informasi Rahasia Perusahaan

Pada bulan Februari 2023, perusahaan keamanan siber Amerika Serikat, Cyberhaven, merilis laporan tentang penggunaan ChatGPT kepada perusahaan klien mereka.

Menurut laporan tersebut, dari 1,6 juta pekerja di perusahaan klien yang menggunakan produk Cyberhaven, 8,2% dari pekerja pengetahuan telah menggunakan ChatGPT di tempat kerja setidaknya sekali, dan dari jumlah tersebut, 3,1% telah memasukkan data rahasia perusahaan ke dalam ChatGPT.

Sebagai contoh dari Korea Selatan, pada tanggal 30 Maret 2023, media Korea ‘Economist’ melaporkan bahwa setelah divisi tertentu di Samsung Electronics mengizinkan penggunaan ChatGPT, terjadi kasus di mana informasi rahasia dimasukkan ke dalamnya.

Meskipun Samsung Electronics telah memberikan peringatan keamanan informasi internal, ada karyawan yang memasukkan kode sumber program dan isi rapat ke dalam ChatGPT.

Dalam situasi seperti ini, ada negara dan perusahaan yang membatasi penggunaan ChatGPT, sementara yang lain mengeluarkan kebijakan yang mendukung penggunaannya. Saat mempertimbangkan untuk mengadopsi ChatGPT, penting untuk memahami risiko kebocoran informasi yang ada.

Empat Langkah Pencegahan Kebocoran Informasi dengan ChatGPT

Langkah-langkah pencegahan kebocoran informasi dengan ChatGPT

Kebocoran informasi dapat menimbulkan tanggung jawab hukum dan kerugian besar terhadap kepercayaan serta reputasi. Oleh karena itu, penting untuk mempersiapkan dan mendidik sistem manajemen informasi internal guna mencegah kebocoran informasi.

Berikut ini adalah empat langkah yang dapat diambil untuk mencegah kebocoran informasi menggunakan ChatGPT.

Strategi 1: Penetapan Aturan Penggunaan

Pertama-tama, tentukan sikap perusahaan Anda terhadap ChatGPT dan masukkan ketentuan penggunaan ChatGPT ke dalam peraturan internal perusahaan. Sangat penting untuk menetapkan dan mengoperasikan aturan yang jelas, seperti tidak memasukkan informasi pribadi atau rahasia.

Dalam hal ini, disarankan untuk menyusun panduan penggunaan ChatGPT perusahaan Anda sendiri. Selain itu, pastikan untuk memasukkan ketentuan penggunaan ChatGPT dalam kontrak dengan pihak luar.

Pada tanggal 1 Mei 2023, Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA) telah merangkum poin-poin masalah etis, hukum, dan sosial (ELSI) ChatGPT dan mempublikasikan ‘Panduan Penggunaan AI Generatif’.

Di berbagai sektor industri, akademis, dan pemerintahan, mereka juga telah mulai mempertimbangkan penyusunan panduan. Dengan mengacu pada ini, Anda dapat mengharapkan untuk menghindari risiko tertentu dengan menyusun panduan yang mengkodifikasi aturan penggunaan ChatGPT perusahaan Anda.

Referensi: Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA)|Panduan Penggunaan AI Generatif[ja]

Namun, panduan yang telah disusun tidak akan berarti apa-apa jika tidak diketahui dan diterapkan secara menyeluruh. Hanya dengan panduan saja tidak cukup sebagai langkah pencegahan.

Strategi 2: Menyusun Sistem untuk Mencegah Kebocoran Informasi

Sebagai langkah untuk mencegah human error, penerapan sistem yang dikenal sebagai DLP (Data Loss Prevention) dapat mencegah pengiriman dan penyalinan informasi rahasia dengan menghalangi kebocoran data tertentu.

DLP merupakan sistem yang tidak hanya memantau pengguna, tetapi juga secara konstan mengawasi data, secara otomatis mengidentifikasi dan melindungi informasi rahasia serta data penting. Dengan menggunakan DLP, jika informasi rahasia terdeteksi, sistem dapat memberikan peringatan atau memblokir aksi tersebut.

Sistem ini dapat mencegah kebocoran informasi dari dalam perusahaan dengan mengendalikan biaya manajemen, namun memerlukan pemahaman yang mendalam tentang sistem keamanan dan mungkin sulit untuk diimplementasikan dengan lancar oleh perusahaan yang tidak memiliki departemen teknis.

Strategi 3: Menggunakan Alat untuk Mencegah Kebocoran Informasi

Seperti yang telah disebutkan sebelumnya, sebagai langkah pencegahan langsung, Anda dapat menolak pengumpulan data yang Anda masukkan ke ChatGPT dengan mengajukan ‘opt-out’.

Anda dapat mengajukan ‘opt-out’ melalui layar pengaturan ChatGPT. Namun, banyak orang mungkin merasa tidak nyaman karena riwayat prompt tidak akan tersimpan setelah mengajukan ‘opt-out’.

Sebagai alternatif pengaturan ‘opt-out’, ada metode untuk memasang alat yang menggunakan ‘API’ ChatGPT.

‘API (Application Programming Interface)’ adalah antarmuka yang diterbitkan oleh OpenAI untuk mengintegrasikan ChatGPT ke dalam layanan perusahaan atau alat eksternal. OpenAI telah menyatakan secara eksplisit bahwa informasi yang masuk dan keluar melalui ‘API’ ChatGPT tidak akan digunakan.

Hal ini juga dinyatakan secara jelas dalam syarat dan ketentuan penggunaan ChatGPT. Menurut syarat dan ketentuan tersebut,

3. Konten

(c) Penggunaan konten untuk meningkatkan layanan

Kami tidak menggunakan Konten yang Anda berikan kepada atau terima dari ‘API’ kami (“Konten API”) untuk mengembangkan atau meningkatkan Layanan kami. 

Kami mungkin menggunakan Konten dari Layanan selain ‘API’ kami (“Konten Non-API”) untuk membantu mengembangkan dan meningkatkan Layanan kami.

 Jika Anda tidak ingin Konten Non-API Anda digunakan untuk meningkatkan Layanan, Anda dapat memilih keluar dengan mengisi formulir ini[en]. Harap dicatat bahwa dalam beberapa kasus ini mungkin membatasi kemampuan Layanan kami untuk lebih baik menangani kasus penggunaan spesifik Anda.

Referensi: Situs Resmi OpenAI|Syarat dan Ketentuan Penggunaan ChatGPT[en]

Strategi 4: Melaksanakan Pelatihan Literasi IT di Perusahaan

Selain strategi yang telah kami perkenalkan sejauh ini, sangat penting untuk meningkatkan literasi keamanan karyawan perusahaan Anda melalui pelatihan internal.

Sebagai contoh dari kasus Samsung Electronics, meskipun telah dilakukan upaya untuk meningkatkan kesadaran tentang keamanan informasi di dalam perusahaan, tetap saja terjadi kebocoran informasi karena karyawan memasukkan data rahasia. Oleh karena itu, tidak hanya mencegah kebocoran informasi dari sisi sistem, tetapi juga sangat disarankan untuk melaksanakan pelatihan internal mengenai pengetahuan ChatGPT dan literasi IT.

Tanggapan atas Kebocoran Informasi melalui ChatGPT

Tanggapan atas Kebocoran Informasi melalui ChatGPT

Jika terjadi kebocoran informasi, sangat penting untuk segera melakukan investigasi fakta dan mengambil langkah-langkah yang diperlukan.

Dalam kasus kebocoran informasi pribadi, sesuai dengan Undang-Undang Perlindungan Informasi Pribadi Jepang, ada kewajiban untuk melaporkan kepada Komisi Perlindungan Informasi Pribadi Jepang. Selain itu, perlu juga memberitahukan kepada individu yang bersangkutan tentang kejadian yang terjadi. Jika kebocoran informasi pribadi mengakibatkan pelanggaran hak atau kepentingan pihak lain, perusahaan dapat bertanggung jawab atas ganti rugi sipil. Lebih lanjut, jika informasi pribadi dicuri atau disediakan dengan tujuan yang tidak sah, ada kemungkinan untuk dihadapkan pada tanggung jawab pidana.

Dalam kasus kebocoran rahasia dagang atau informasi teknis, berdasarkan Undang-Undang Pencegahan Persaingan Usaha Tidak Sehat Jepang, Anda dapat meminta tindakan seperti permintaan penghapusan kepada pihak yang menerima kebocoran tersebut. Jika kebocoran rahasia dagang atau informasi teknis memberikan keuntungan yang tidak adil kepada pihak lain, perusahaan dapat bertanggung jawab atas ganti rugi sipil. Selain itu, jika rahasia dagang atau informasi teknis diperoleh atau digunakan dengan cara yang tidak sah, ada kemungkinan untuk dihadapkan pada tanggung jawab pidana.

Jika seseorang melanggar kewajiban kerahasiaan dalam pekerjaannya dan menyebabkan kebocoran informasi, orang tersebut dapat dihadapkan pada tanggung jawab pidana berdasarkan KUHP atau undang-undang lainnya. Selain itu, jika pelanggaran kewajiban kerahasiaan dalam pekerjaan menyebabkan kerugian kepada pihak lain, orang tersebut dapat bertanggung jawab atas ganti rugi sipil.

Oleh karena itu, penting untuk segera menanggapi sesuai dengan jenis informasi yang bocor dan penting untuk membangun sistem yang dapat menangani hal tersebut sebelumnya.

Artikel terkait: Kebocoran Informasi: Pengungkapan Informasi yang Harus Dilakukan oleh Perusahaan[ja]

Artikel terkait: Apa yang Harus Dilakukan Perusahaan Jika Terjadi Kebocoran Informasi Pribadi? Penjelasan tentang Tindakan Administratif yang Harus Diambil[ja]

Kesimpulan: Membangun Sistem yang Siap Menghadapi Risiko Kebocoran Informasi ChatGPT

Di sini, kami telah menjelaskan tentang risiko kebocoran informasi ChatGPT dan langkah-langkah yang harus diambil untuk mengatasinya. Dalam bisnis AI yang memanfaatkan ChatGPT yang terus berkembang dengan cepat, kami menyarankan Anda untuk berkonsultasi dengan pengacara yang berpengalaman dan menguasai risiko hukum terkait, serta menyiapkan sistem internal perusahaan Anda sesuai dengan risiko tersebut sebelumnya.

Tidak hanya risiko kebocoran informasi, tetapi juga dalam hal legalitas model bisnis yang memanfaatkan AI, pembuatan kontrak dan syarat penggunaan, perlindungan hak kekayaan intelektual, dan penanganan privasi, Anda dapat merasa aman jika bekerja sama dengan pengacara yang memiliki pengetahuan dan pengalaman di bidang AI serta hukum.

Panduan Tindakan Hukum oleh Kantor Kami

Kantor Hukum Monolith adalah sebuah firma hukum yang memiliki pengalaman luas dalam IT, khususnya internet dan hukum. Bisnis AI menyertakan banyak risiko hukum, dan dukungan dari pengacara yang ahli dalam masalah hukum AI sangatlah penting. Kantor kami menyediakan dukungan hukum tingkat tinggi untuk bisnis AI termasuk ChatGPT, seperti pembuatan kontrak, penilaian keabsahan model bisnis, perlindungan hak kekayaan intelektual, dan penanganan privasi, dengan tim yang terdiri dari pengacara yang menguasai AI dan tim insinyur. Detail lebih lanjut dapat Anda temukan dalam artikel di bawah ini.

Bidang Praktik Kantor Hukum Monolith: Layanan Hukum AI (termasuk ChatGPT dan lainnya)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Kembali ke atas