MONOLITH LAW OFFICE+81-3-6262-3248Hari kerja 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Risiko Penggunaan ChatGPT dalam Perusahaan: Penjelasan Tentang Kasus Kebocoran Informasi Rahasia dan Strategi Penanganannya

IT

Risiko Penggunaan ChatGPT dalam Perusahaan: Penjelasan Tentang Kasus Kebocoran Informasi Rahasia dan Strategi Penanganannya

Penggunaan ChatGPT di dalam perusahaan semakin berkembang. Meskipun banyak yang memperhatikan kegunaannya, ada beberapa hal yang harus diwaspadai. Salah satunya adalah tidak boleh memasukkan informasi rahasia ke dalam ChatGPT. Di luar negeri, ada kasus di mana memasukkan informasi rahasia menjadi pemicu kebocoran rahasia perusahaan yang serius.

Dalam artikel ini, seorang pengacara akan menjelaskan tentang risiko kebocoran informasi rahasia dalam penggunaan ChatGPT yang terus berkembang setiap hari, termasuk studi kasus dan langkah-langkah yang harus diambil.

Alasan Mengapa Tidak Boleh Memasukkan Informasi Rahasia ke ChatGPT

ChatGPT memang alat yang praktis, namun sebagai AI chatbot yang dibuat berdasarkan big data dan data penggunaan di internet, ada risiko kebocoran informasi rahasia jika tidak ada langkah pencegahan yang diambil.

Kami akan menjelaskan lebih lanjut mengenai langkah-langkah untuk mengatasi risiko kebocoran informasi rahasia, tetapi terlebih dahulu kami akan membahas risiko lain yang terkait dengan ChatGPT selain kebocoran informasi rahasia.

Risiko Selain Kebocoran Informasi Rahasia yang Dapat Dihadapi Perusahaan Saat Menggunakan ChatGPT

ChatGPT saat ini sedang dalam tahap pengujian penerapan di banyak perusahaan. Oleh karena itu, penting untuk memahami risiko yang ada sebelum memutuskan penggunaannya dalam bisnis.

Dalam penggunaan ChatGPT, ada dua risiko keamanan selain kebocoran informasi rahasia (termasuk informasi pribadi) yang dapat dihadapi perusahaan:

  • Risiko keandalan informasi yang dihasilkan
  • Risiko pelanggaran hak cipta informasi yang masuk dan keluar

Kami akan menjelaskan masing-masing risiko tersebut secara detail.

Keandalan Informasi yang Dihasilkan Kurang

GPT-4 yang dirilis pada tanggal 14 Maret 2023 telah dilengkapi dengan fitur pencarian, memungkinkan penyediaan informasi terbaru. Namun, ChatGPT mengeluarkan informasi seolah-olah itu adalah kebenaran, tetapi keandalannya tidak dijamin. Respons yang dihasilkan ChatGPT tidak didasarkan pada keakuratan informasi dari data pelatihan, melainkan hanya menghasilkan teks yang dianggap paling mungkin. Oleh karena itu, penting untuk melakukan pemeriksaan fakta sebelum menggunakan hasil keluaran tersebut. Jika perusahaan secara tidak sengaja menyebarkan informasi palsu, kredibilitas perusahaan itu sendiri bisa terancam.

Risiko Hukum seperti Pelanggaran Hak Cipta

Risiko Hukum seperti Pelanggaran Hak Cipta

Penilaian pelanggaran hak cipta dalam ChatGPT dibagi menjadi dua tahap: ‘Tahap pengembangan dan pembelajaran AI’ dan ‘Tahap generasi dan penggunaan’. Karena aktivitas penggunaan karya cipta pada masing-masing tahap berbeda, pasal-pasal dalam undang-undang hak cipta juga berbeda. Oleh karena itu, perlu membedakan kedua tahap tersebut.

Referensi: Badan Urusan Kebudayaan Jepang | Seminar Hak Cipta Tahun Fiskal Reiwa 5 (2023) ‘AI dan Hak Cipta'[ja]

Undang-Undang Hak Cipta yang direvisi dan diberlakukan pada Januari 2019, telah menambahkan ‘Tahap pengembangan dan pembelajaran AI’ sebagai bagian baru dalam pasal pembatasan hak (pasal yang mengecualikan kebutuhan izin) yaitu Pasal 30-4. Penggunaan karya cipta yang tidak bertujuan untuk menikmati ide atau emosi yang diungkapkan dalam karya tersebut, seperti analisis informasi untuk pengembangan AI, pada prinsipnya dapat dilakukan tanpa izin pemegang hak cipta.

Di sisi lain, jika hasil yang dihasilkan oleh ChatGPT memiliki kesamaan atau ketergantungan (modifikasi) dengan karya cipta, hal itu dapat menjadi pelanggaran hak cipta. Oleh karena itu, sebelum mempublikasikan, penting untuk memeriksa pemegang hak dari informasi yang dirujuk oleh ChatGPT dan memastikan tidak ada konten serupa yang telah dibuat. Saat mengutip karya cipta, perlu mencantumkan sumbernya (pasal pembatasan hak) atau jika ingin menyalinnya, perlu mendapatkan izin penggunaan dari pemegang hak cipta dan memprosesnya dengan tepat.

Jika pemegang hak cipta menunjukkan adanya pelanggaran hak cipta, perusahaan dapat dikenakan tanggung jawab sipil (ganti rugi, kompensasi moral, penghentian penggunaan, pemulihan nama baik, dan tindakan hukum lainnya) atau tanggung jawab pidana (kejahatan atas pengaduan).

Kasus Masalah Akibat Memasukkan Informasi Rahasia ke ChatGPT

Pada tanggal 30 Maret 2023, media Korea Selatan ‘EConomist’ melaporkan bahwa telah terjadi tiga insiden di mana informasi rahasia dimasukkan ke dalam ChatGPT di divisi semikonduktor Samsung Electronics setelah penggunaannya diizinkan.

Walaupun pihak Samsung Electronics telah melakukan upaya untuk meningkatkan kesadaran keamanan informasi di dalam perusahaan, ada kasus di mana karyawan mengirimkan source code untuk meminta perbaikan program (dua kasus), dan ada juga yang mengirimkan isi rapat untuk pembuatan notulen.

Setelah insiden tersebut terjadi, perusahaan tersebut telah mengambil tindakan darurat dengan membatasi kapasitas unggahan per pertanyaan ke ChatGPT. Selain itu, mereka menyatakan bahwa jika insiden serupa terjadi lagi, mereka mungkin akan memutuskan koneksi ke ChatGPT.

Sementara itu, Walmart dan Amazon juga telah memperingatkan karyawan mereka untuk tidak berbagi informasi rahasia melalui chatbot. Seorang pengacara dari Amazon menyatakan bahwa sudah ada kasus di mana respons ChatGPT mirip dengan data internal Amazon, yang menunjukkan kemungkinan data tersebut telah digunakan untuk pembelajaran.

Langkah-langkah untuk Mencegah Kebocoran Informasi Rahasia Saat Menggunakan ChatGPT

OpenAI telah menjelaskan dalam syarat dan ketentuan penggunaannya bahwa data yang dimasukkan akan digunakan untuk peningkatan sistem dan pembelajaran, dan meminta pengguna untuk tidak mengirimkan informasi sensitif.

Dalam bab ini, kami akan memperkenalkan empat langkah pencegahan kebocoran informasi rahasia saat menggunakan ChatGPT, baik dari aspek perangkat keras maupun perangkat lunak.

Menyusun Pedoman Penggunaan di Dalam Perusahaan

Menyusun Pedoman Penggunaan di Dalam Perusahaan

Saat mengimplementasikan ChatGPT di perusahaan, penting untuk meningkatkan literasi keamanan informasi pribadi dan melakukan reskilling di dalam perusahaan. Namun, juga disarankan untuk menyusun pedoman penggunaan ChatGPT khusus perusahaan Anda.

Pada tanggal 1 Mei 2023, Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA) telah merangkum isu-isu etis, legal, dan sosial (ELSI) yang berkaitan dengan ChatGPT dan mempublikasikan ‘Pedoman Penggunaan AI Generatif’. Berbagai sektor, termasuk industri, akademis, dan pemerintahan, juga telah mulai mempertimbangkan penyusunan pedoman mereka sendiri.

Dengan mengacu pada ini, menyusun pedoman tertulis yang mengatur aturan penggunaan ChatGPT di perusahaan Anda dapat membantu mengantisipasi dan menghindari risiko tertentu.

Referensi: Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA)|Pedoman Penggunaan AI Generatif[ja]

Mengimplementasikan Teknologi untuk Mencegah Kebocoran Informasi Rahasia

Sebagai langkah pencegahan human error yang dapat menyebabkan kebocoran informasi rahasia, perusahaan dapat mengimplementasikan sistem yang dikenal sebagai DLP (Data Loss Prevention). Sistem ini mampu mencegah pengiriman dan penyalinan informasi rahasia.

DLP merupakan fungsi yang terus-menerus memantau data yang dimasukkan dan secara otomatis mengidentifikasi serta melindungi informasi rahasia dan data penting. Dengan menggunakan DLP, jika informasi yang bersifat rahasia terdeteksi, sistem dapat memberikan peringatan atau memblokir aksi tersebut. Hal ini memungkinkan pencegahan kebocoran informasi dari dalam perusahaan dengan mengendalikan biaya manajemen, namun memerlukan pemahaman yang mendalam tentang sistem keamanan. Oleh karena itu, implementasi yang lancar mungkin menjadi tantangan bagi perusahaan yang tidak memiliki departemen teknis.

Mempertimbangkan Pengenalan Alat Khusus

Sejak Maret 2023, ChatGPT telah memungkinkan pencegahan kebocoran data yang dikirim ke ChatGPT dengan menggunakan API (singkatan dari ‘Application Programming Interface’, yang merupakan antarmuka yang menghubungkan antara perangkat lunak atau program dan layanan web).

Data yang dikirim melalui API tidak akan digunakan untuk pembelajaran atau peningkatan, namun akan disimpan selama 30 hari untuk ‘monitoring guna mencegah penggunaan yang tidak sah atau penyalahgunaan’ sebelum akhirnya dihapus sesuai dengan perubahan kebijakan penyimpanan. Namun, jika ada ‘permintaan hukum’, ada kemungkinan periode penyimpanan data dapat diperpanjang.

Meskipun ada pengaturan yang tidak memperbolehkan ChatGPT untuk menggunakan data untuk pembelajaran atau peningkatan, data masih disimpan di server untuk jangka waktu tertentu, sehingga secara teoritis risiko kebocoran informasi masih ada. Oleh karena itu, perlu kehati-hatian yang ekstra ketika memasukkan informasi rahasia atau pribadi.

Namun, OpenAI sangat mengutamakan privasi pengguna dan keamanan data, serta telah mengambil langkah-langkah keamanan yang ketat. Jika Anda ingin menggunakan layanan ini dengan lebih aman, disarankan untuk mengenalkan ‘Azure OpenAI Service’, yang memungkinkan tindakan keamanan yang lebih canggih.

Alat yang dikhususkan untuk perusahaan, ‘Azure OpenAI Service’, tidak akan mengumpulkan data yang dimasukkan melalui API di ChatGPT. Selain itu, jika Anda mengajukan opt-out dan permohonan Anda disetujui, Anda dapat menolak penyimpanan dan pemantauan data masukan selama 30 hari sebagai prinsip, sehingga dapat menghindari risiko kebocoran informasi.

Cara Mengatur ChatGPT Agar Tidak Belajar dari Informasi Rahasia yang Diinput

Seperti yang telah disebutkan sebelumnya, ChatGPT memiliki mekanisme yang memungkinkannya belajar dari semua konten yang di-opt-in, sehingga mulai tanggal 25 April 2023, telah tersedia fitur untuk mengatur opt-out sebelumnya.

Sebagai langkah pencegahan langsung, jika Anda ingin menolak penggunaan data yang diinput ke ChatGPT untuk keperluan pembelajaran atau peningkatan, Anda perlu mengajukan permohonan ‘opt-out’. ChatGPT menyediakan formulir Google untuk ‘opt-out’, sehingga sangat disarankan untuk melakukan prosedur ini. (Anda perlu memasukkan alamat email, ID organisasi, dan nama organisasi lalu mengirimkannya)

Namun, bahkan dalam kasus ini, data yang diinput akan tetap disimpan di server dan dimonitor oleh OpenAI untuk jangka waktu tertentu (prinsipnya 30 hari).

Ketentuan Penggunaan ChatGPT

3. Konten

(c) Penggunaan konten untuk meningkatkan layanan

Kami tidak menggunakan Konten yang Anda berikan ke atau terima dari API kami (“Konten API”) untuk mengembangkan atau meningkatkan Layanan kami.

Kami mungkin menggunakan Konten dari Layanan selain API kami (“Konten Non-API”) untuk membantu mengembangkan dan meningkatkan Layanan kami.

Jika Anda tidak ingin Konten Non-API Anda digunakan untuk meningkatkan Layanan, Anda dapat memilih opt-out dengan mengisi formulir ini[en]. Harap dicatat bahwa dalam beberapa kasus ini mungkin membatasi kemampuan Layanan kami untuk lebih baik menangani kasus penggunaan spesifik Anda.

Referensi: Situs Resmi OpenAI | Ketentuan Penggunaan ChatGPT https://openai.com/policies/terms-of-use[en]

Kesimpulan: Penggunaan ChatGPT dalam Bisnis Memerlukan Tindakan Pencegahan dalam Penanganan Informasi Rahasia

Di atas telah dijelaskan risiko kebocoran informasi rahasia dan tindakan pencegahannya dalam penggunaan ChatGPT untuk bisnis, berdasarkan beberapa kasus.

Dalam bisnis AI yang terus berkembang dengan cepat seperti ChatGPT, sangat penting untuk mengambil langkah-langkah pencegahan bersama para ahli, mulai dari pembuatan pedoman penggunaan internal, penilaian keabsahan model bisnis, pembuatan kontrak dan syarat penggunaan, perlindungan hak kekayaan intelektual, hingga penanganan privasi.

Artikel terkait: Apa itu Hukum Web3? Juga dijelaskan poin-poin penting yang harus diperhatikan oleh perusahaan yang memasuki bidang ini[ja]

Panduan Tindakan Hukum oleh Kantor Kami

Kantor Hukum Monolith adalah sebuah firma hukum yang memiliki pengalaman luas dalam IT, khususnya internet dan hukum. Bisnis AI menyertakan banyak risiko hukum, dan dukungan dari pengacara yang ahli dalam masalah hukum AI adalah sangat penting.

Kantor kami, dengan tim yang terdiri dari pengacara yang ahli dalam AI dan tim insinyur, menyediakan dukungan hukum tingkat tinggi untuk bisnis AI termasuk ChatGPT, seperti pembuatan kontrak, penilaian keabsahan model bisnis, perlindungan hak kekayaan intelektual, dan penanganan privasi. Detail lebih lanjut dapat ditemukan di artikel di bawah ini.

Bidang Praktik Kantor Hukum Monolith: Layanan Hukum AI (termasuk ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Kembali ke atas