MONOLITH LAW OFFICE+81-3-6262-3248Hari kerja 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Risiko Penggunaan ChatGPT dalam Bisnis: Penjelasan tentang Masalah Hukum

IT

Risiko Penggunaan ChatGPT dalam Bisnis: Penjelasan tentang Masalah Hukum

Sejak dirilisnya, ChatGPT telah menarik perhatian besar di seluruh dunia karena kegunaannya. Namun, juga diketahui bahwa penggunaannya dapat menyertakan berbagai risiko. Saat ini, pengaturan hukum masih dalam proses pengembangan, dan banyak pemimpin bisnis yang merasa cemas tentang risiko penggunaan ChatGPT dalam bisnis serta metode untuk mengelola risiko tersebut.

Artikel ini akan menjelaskan tentang risiko hukum dan langkah-langkah yang dapat diambil saat menggunakan ChatGPT untuk keperluan bisnis.

Empat Risiko Penggunaan ChatGPT dalam Bisnis

ChatGPT, sebuah AI generasi bahasa alami yang penggunaannya semakin meluas di kalangan perusahaan, memiliki tingkat adopsi sebesar 13,5% pada tahun fiskal 2022, dan jika termasuk perusahaan yang berencana mengadopsinya, angkanya meningkat menjadi 24,0%. (Sumber: Kementerian Urusan Dalam Negeri dan Komunikasi Jepang | Buku Putih Komunikasi Informasi Tahun Reiwa 5 (2023) Survei Tren Penggunaan Komunikasi “Status Pengadopsian Sistem dan Layanan IoT & AI di Perusahaan[ja]“)

Memang, teknologi AI seperti ChatGPT efektif dalam meningkatkan efisiensi operasional perusahaan dan diharapkan dapat membuka lebih banyak peluang bisnis. Namun, di sisi lain, teknologi ini juga membawa banyak risiko hukum. Oleh karena itu, penting untuk memahami risiko tersebut dengan baik sebelum memutuskan untuk menggunakannya dalam bisnis.

Sebagai contoh, para ahli telah mengeluarkan peringatan tentang risiko potensial AI, seperti masalah hak cipta, penyebaran informasi yang salah, kebocoran informasi rahasia, masalah privasi, dan penyalahgunaan dalam serangan siber.

Dalam bab ini, kami akan menjelaskan empat risiko penggunaan ChatGPT dalam bisnis.

Risiko Kebocoran Informasi Akibat Fungsi Pembelajaran

ChatGPT sangat berguna, namun sebagai AI chatbot yang dibuat dengan mempelajari berbagai data di internet, ada risiko kebocoran informasi yang digunakan untuk pembelajaran jika tidak ada tindakan pencegahan yang diambil.

Menurut kebijakan penggunaan data[en] dari OpenAI, data yang dimasukkan pengguna ke ChatGPT akan dikumpulkan dan digunakan (untuk pembelajaran) oleh OpenAI, kecuali pengguna menggunakan ‘API’ ChatGPT atau mengajukan ‘opt-out’.

Anda harus berhati-hati untuk tidak memasukkan informasi pribadi atau informasi rahasia yang sensitif tanpa mengambil langkah-langkah pencegahan. Bahkan jika Anda secara tidak sengaja memasukkan informasi pribadi ke ChatGPT, akan muncul pesan peringatan, dan ChatGPT tidak akan menyimpan atau melacak informasi pribadi tersebut, serta tidak dapat mengeluarkannya dalam percakapan.

Di sisi lain, telah terjadi insiden di masa lalu di mana informasi pribadi pengguna bocor akibat bug dalam sistem yang dioperasikan oleh perusahaan OpenAI yang mengelola ChatGPT.

Artikel terkait: Apa itu Risiko Kebocoran Informasi ChatGPT? Pengenalan 4 Langkah Pencegahan yang Harus Diambil[ja]

Risiko Kekurangan Keandalan Informasi

Risiko Kekurangan Keandalan Informasi

Sejak Mei 2023, ChatGPT telah dilengkapi dengan fitur browsing web yang memungkinkannya untuk mengumpulkan informasi terkini dan memberikan jawaban berdasarkan hasil tersebut.

Namun, meskipun ChatGPT memberikan jawaban seolah-olah informasi tersebut adalah kebenaran, keandalan informasi tersebut tidak dijamin. Respons yang dihasilkan oleh ChatGPT tidak didasarkan pada keakuratan informasi dari data pembelajaran, melainkan hanya menghasilkan kalimat yang dianggap paling mungkin berdasarkan probabilitas. Oleh karena itu, sangat penting untuk melakukan pemeriksaan fakta terhadap jawaban yang diberikan oleh ChatGPT. Jika perusahaan menyebarkan informasi palsu berdasarkan jawaban ChatGPT, reputasi perusahaan itu sendiri bisa terancam.

Pada tanggal 3 April 2023, Universitas Tokyo telah mengeluarkan pernyataan yang menyatakan kekhawatiran mereka terhadap dampak teknologi ini terhadap masyarakat di masa depan, karena adanya tantangan teknis yang dihadapi oleh ChatGPT.

“Prinsip ChatGPT adalah menciptakan kalimat yang terdengar meyakinkan secara probabilistik melalui pembelajaran mesin dan pembelajaran penguatan dari sejumlah besar teks dan konten yang sudah ada. Oleh karena itu, ada kemungkinan bahwa konten yang ditulis mengandung kebohongan. Berbicara dengan ChatGPT bisa terasa seperti berbicara dengan seseorang yang pandai berbicara tetapi hanya berpura-pura tahu. (Namun, versi terbaru GPT-4 telah meningkatkan akurasi secara signifikan dan merupakan mitra konsultasi yang sangat kompeten.) Untuk menguasai ChatGPT, diperlukan pengetahuan khusus, dan penting untuk memeriksa jawaban secara kritis dan melakukan koreksi yang diperlukan. Selain itu, ChatGPT tidak dapat menganalisis atau mendeskripsikan pengetahuan baru yang tidak ada dalam informasi yang sudah ada. Artinya, kehadiran ChatGPT tidak berarti manusia dapat mengabaikan belajar atau penelitian. Namun, jika seseorang yang memiliki pengetahuan umum atau keahlian khusus dapat menganalisis konten jawaban secara kritis dan menggunakannya dengan cermat, maka efisiensi pekerjaan rutin dapat meningkat secara signifikan.”

Sumber: Universitas Tokyo | “Tentang AI Generatif (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, dll)[ja]

Risiko Hukum seperti Pelanggaran Hak Cipta dan Invasi Privasi

Penilaian pelanggaran hak cipta di ChatGPT dibagi menjadi dua tahap, yaitu ‘Tahap Pengembangan & Pembelajaran AI’ dan ‘Tahap Generasi & Penggunaan’. Karena tindakan penggunaan karya cipta yang dilakukan pada masing-masing tahap berbeda, pasal-pasal dalam Undang-Undang Hak Cipta Jepang juga berbeda. Oleh karena itu, kedua tahap tersebut harus dipertimbangkan secara terpisah.

Referensi: Badan Urusan Kebudayaan Jepang | Seminar Hak Cipta Tahun Reiwa 5 (2023) ‘AI dan Hak Cipta'[ja]

Pada Januari 2019, Undang-Undang Hak Cipta yang direvisi diberlakukan, dan Pasal 30-4 yang merupakan ketentuan pembatasan hak (ketentuan pengecualian di mana izin tidak diperlukan) telah ditambahkan untuk ‘Tahap Pengembangan & Pembelajaran AI’. Penggunaan karya cipta untuk analisis informasi dalam pengembangan AI, yang tidak bertujuan untuk menikmati ide atau emosi yang diungkapkan dalam karya cipta, pada prinsipnya dapat dilakukan tanpa izin pemegang hak cipta.

Di sisi lain, jika hasil yang dihasilkan oleh ChatGPT memiliki kesamaan atau ketergantungan (modifikasi) dengan karya cipta, hal tersebut dapat menjadi pelanggaran hak cipta. Oleh karena itu, sebelum mempublikasikan, penting untuk memeriksa pemegang hak dari informasi yang dirujuk oleh ChatGPT dan memastikan tidak ada konten yang serupa dengan apa yang telah dibuat oleh ChatGPT. Selain itu, saat mengutip karya cipta, harus menyebutkan sumbernya (ketentuan pembatasan hak), dan saat menyalin, harus mendapatkan izin penggunaan dari pemegang hak cipta untuk memprosesnya dengan benar.

Menurut syarat dan ketentuan penggunaan dari OpenAI, konten yang dibuat oleh ChatGPT dapat digunakan untuk keperluan komersial. Namun, jika sulit untuk menentukan apakah konten yang dibuat dengan menggunakan ChatGPT melanggar hak cipta, disarankan untuk berkonsultasi dengan ahli.

Jika pemegang hak cipta menunjukkan adanya pelanggaran hak cipta, Anda mungkin dikenakan tanggung jawab sipil (ganti rugi, kompensasi moral, penghentian penggunaan, pemulihan reputasi, dll.) atau tanggung jawab pidana (kejahatan atas pengaduan). Dalam kasus perusahaan, ketentuan hukuman ganda dapat diterapkan, yang berarti sanksi dapat dikenakan baik kepada individu maupun badan hukum, dan kerugian yang ditimbulkan dapat menjadi lebih besar.

Untuk informasi pribadi dan privasi juga, perlu diwaspadai untuk tidak memasukkan data tersebut ke dalam ChatGPT. Seperti disebutkan di atas, bahkan jika informasi pribadi secara tidak sengaja dimasukkan ke dalam ChatGPT, sistemnya tidak menyimpan atau melacak informasi pribadi dan tidak dapat menghasilkannya dalam chat. Namun, ini adalah kebijakan OpenAI, dan mungkin berbeda pada platform atau layanan lain.

Untuk risiko kebocoran informasi pribadi, silakan baca artikel berikut ini.

Artikel terkait: Risiko Kebocoran Informasi Pribadi Perusahaan dan Ganti Rugi[ja]

Risiko Menciptakan Konten Berbahaya Tanpa Sengaja

Risiko menciptakan konten berbahaya tanpa sengaja

Bergantung pada isi data yang dipelajari oleh ChatGPT dan isi prompt yang diberikan, ada kemungkinan terciptanya konten berbahaya. Jika konten yang dibuat oleh ChatGPT dipublikasikan tanpa pemeriksaan, reputasi dan nilai brand perusahaan bisa terganggu, dan bahkan bisa berkembang menjadi masalah hukum.

Meskipun konten berbahaya telah diatur agar tidak dapat dihasilkan oleh ChatGPT, masih ada kemungkinan untuk menghasilkan kode program berbahaya, layanan penipuan, dan lainnya yang sulit untuk dideteksi. Mengingat adanya risiko tersebut, sangat penting untuk selalu memiliki sistem pemeriksaan konten yang telah dibuat.

Memahami Syarat Penggunaan untuk Menghindari Risiko Penggunaan ChatGPT

Dalam menggunakan ChatGPT untuk keperluan bisnis, penting untuk menghindari risiko dengan menggunakan layanan tersebut sesuai dengan syarat penggunaan dan kebijakan privasi OpenAI. Karena syarat penggunaan sering diperbarui, penting bagi pengguna bisnis untuk memeriksa perubahan dan memahami syarat penggunaan terkini saat menggunakan layanan tersebut.

Artikel terkait: Penjelasan Syarat Penggunaan OpenAI, Apa yang Perlu Diperhatikan dalam Penggunaan Komersial?[ja]

Hal yang Diperlukan untuk Menghindari Risiko dalam Penggunaan ChatGPT untuk Bisnis

Membuat aturan internal

Untuk menghindari risiko yang ada pada ChatGPT dan menggunakannya secara tepat dalam bisnis, perusahaan memerlukan struktur tata kelola berikut ini.

Membuat Aturan Internal

Pada tanggal 1 Mei 2023, Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA) telah merangkum isu-isu etis, legal, dan sosial (ELSI) yang berkaitan dengan ChatGPT dan mempublikasikan ‘Panduan Penggunaan AI Generatif’. Di berbagai sektor, termasuk akademis dan pemerintahan, juga sedang dilakukan pembahasan untuk menyusun panduan tersebut.

Dalam pengenalan ChatGPT di perusahaan, penting untuk meningkatkan literasi keamanan informasi pribadi dan pendidikan internal, namun sangat disarankan untuk menyusun panduan penggunaan ChatGPT perusahaan sendiri. Dengan menyusun dan menyebarkan panduan yang mengatur aturan penggunaan ChatGPT di perusahaan, kita dapat mengharapkan penghindaran risiko tertentu.

Referensi: Asosiasi Pembelajaran Mendalam Jepang (Japanese Deep Learning Association – JDLA)|’Panduan Penggunaan AI Generatif[ja]

Menetapkan Pengawas untuk Penggunaan ChatGPT

Menempatkan pengawas penggunaan ChatGPT di dalam perusahaan untuk selalu memonitor operasional panduan dan mengelola risiko juga merupakan cara efektif untuk menghindari risiko.

Mengawasi perilaku ChatGPT, mengoreksi hasil yang dihasilkan, dan mengelola data adalah tugas yang umumnya mirip dengan audit sistem. Audit sistem adalah penilaian objektif terhadap efisiensi, keamanan, dan keandalan sistem informasi, yang bertujuan untuk meningkatkan efisiensi kerja dan mendukung transformasi organisasi. Dengan menempatkan pengawas yang melakukan audit, kita juga dapat meningkatkan transparansi dan akuntabilitas terkait operasional.

Kesimpulan: Tindakan Pencegahan Risiko Esensial dalam Penggunaan ChatGPT untuk Bisnis

Di sini, kami telah menjelaskan secara rinci tentang risiko dan tindakan pencegahan yang terkait dengan penggunaan ChatGPT dalam bisnis.

Dalam bisnis AI yang berkembang pesat seperti ChatGPT, berbagai tindakan hukum tidak dapat diabaikan, mulai dari pembuatan pedoman penggunaan internal, penilaian keabsahan model bisnis, pembuatan kontrak dan syarat penggunaan, perlindungan hak kekayaan intelektual, hingga penanganan privasi. Semua ini memerlukan tindakan pencegahan yang melibatkan ahli yang menguasai teknologi AI.

Panduan Tindakan oleh Kantor Kami

Kantor Hukum Monolith adalah sebuah firma hukum yang memiliki pengalaman luas dalam IT, khususnya internet dan hukum. Bisnis AI menyertakan banyak risiko hukum, dan dukungan dari pengacara yang ahli dalam masalah hukum terkait AI sangatlah penting.

Kantor kami menyediakan berbagai dukungan hukum untuk bisnis AI, termasuk ChatGPT, dengan tim yang terdiri dari pengacara yang ahli dalam AI dan tim insinyur. Detail lebih lanjut dapat Anda temukan dalam artikel di bawah ini.

Bidang layanan Kantor Hukum Monolith: Hukum AI (seperti ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Kembali ke atas