MONOLITH LAW OFFICE+81-3-6262-3248Hari Minggu 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Apakah Risiko Penggunaan ChatGPT dalam Perniagaan? Penjelasan Mengenai Isu-isu Perundangan

IT

Apakah Risiko Penggunaan ChatGPT dalam Perniagaan? Penjelasan Mengenai Isu-isu Perundangan

Sejak pelancarannya, ChatGPT telah menarik perhatian besar di seluruh dunia kerana kegunaannya. Namun, ia juga dikenali kerana risiko yang menyertainya. Pada masa ini, undang-undang masih dalam proses penyediaan, dan banyak pengurus merasa tidak pasti tentang risiko penggunaan ChatGPT dalam perniagaan dan cara-cara untuk mengurangkan risiko tersebut.

Artikel ini akan menerangkan risiko-risiko undang-undang yang berkaitan dengan penggunaan ChatGPT dalam perniagaan dan langkah-langkah pencegahan yang boleh diambil.

4 Risiko Penggunaan ChatGPT dalam Perniagaan

Walaupun penggunaan ChatGPT, sebuah AI yang menghasilkan bahasa semula jadi, semakin meningkat dalam kalangan syarikat, kadar pengenalan ChatGPT dalam kalangan syarikat pada tahun fiskal 2022 adalah 13.5%, dan jika termasuk syarikat yang merancang untuk memperkenalkannya, angka tersebut meningkat kepada 24.0%. (Sumber: Kementerian Hal Ehwal Dalam Negeri dan Komunikasi Jepun | Laporan Putih Reiwa 5 (2023) Kajian Tren Penggunaan Komunikasi ‘Status Pengenalan Sistem dan Perkhidmatan IoT & AI dalam Kalangan Syarikat[ja]‘)

Memang, teknologi AI termasuk ChatGPT adalah efektif untuk meningkatkan kecekapan kerja syarikat dan dijangka akan membuka lebih banyak peluang perniagaan. Namun, ia juga membawa bersama pelbagai risiko perundangan. Oleh itu, penting untuk memahami risiko tersebut dengan mendalam sebelum membuat keputusan untuk menggunakannya dalam perniagaan.

Sebagai contoh, pakar telah mengeluarkan amaran mengenai risiko potensial AI seperti isu hak cipta, penyebaran maklumat yang salah, kebocoran maklumat sulit, isu privasi, dan penyalahgunaan dalam serangan siber.

Bab ini akan menjelaskan empat risiko penggunaan ChatGPT dalam perniagaan.

Risiko Kebocoran Maklumat Melalui Fungsi Pembelajaran

Walaupun ChatGPT adalah AI chatbot yang berguna kerana ia dapat belajar daripada pelbagai data di internet, terdapat risiko kebocoran maklumat yang dimasukkan jika tiada langkah-langkah keselamatan diambil, kerana maklumat tersebut boleh digunakan dalam proses pembelajaran AI.

Mengikut Dasar Penggunaan Data OpenAI, data yang dimasukkan oleh pengguna ke dalam ChatGPT akan dikumpul dan digunakan (untuk pembelajaran) oleh OpenAI kecuali pengguna menggunakan ‘API’ ChatGPT atau membuat permohonan ‘opt-out’.

Adalah penting untuk berhati-hati agar tidak memasukkan maklumat peribadi atau maklumat sulit yang memerlukan kerahsiaan tanpa mengambil langkah-langkah keselamatan. Sekiranya maklumat peribadi dimasukkan secara tidak sengaja ke dalam ChatGPT, mesej amaran akan dipaparkan dan ChatGPT tidak akan menyimpan atau mengesan maklumat peribadi tersebut, serta tidak akan mengeluarkannya dalam perbualan.

Di sisi lain, terdapat insiden di masa lalu di mana bug dalam sistem OpenAI, syarikat yang mengendalikan ChatGPT, menyebabkan kebocoran maklumat peribadi pengguna yang telah didaftarkan.

Artikel Berkaitan: Apa itu Risiko Kebocoran Maklumat ChatGPT? Pengenalan kepada 4 Langkah Pencegahan[ja]

Risiko Ketiadaan Kebolehpercayaan Maklumat

Risiko Ketiadaan Kebolehpercayaan Maklumat

Mulai Mei 2023, ChatGPT telah dilengkapi dengan fungsi pencarian web, memungkinkannya untuk mengumpulkan maklumat terkini dan memberikan jawapan berdasarkan hasil tersebut.

Namun, walaupun ChatGPT mengeluarkan jawapan seolah-olah maklumat tersebut adalah benar, kebolehpercayaannya tidak dijamin. Respons yang dihasilkan oleh ChatGPT tidak berdasarkan ketepatan maklumat dalam data pembelajaran, tetapi hanya menghasilkan teks yang dianggap paling mungkin berdasarkan probabilitas. Oleh itu, sangat penting untuk melakukan pemeriksaan fakta terhadap jawapan ChatGPT. Sekiranya maklumat palsu disebarkan berdasarkan jawapan ChatGPT, kredibiliti syarikat itu sendiri mungkin terjejas.

Pada 3 April 2023, Universiti Tokyo telah mengeluarkan kenyataan berikut, menyatakan kebimbangan mereka terhadap kesan teknologi ini terhadap masyarakat masa depan, kerana terdapat cabaran teknikal dengan ChatGPT:

“Prinsip ChatGPT adalah untuk mencipta teks yang kelihatan masuk akal secara probabilistik melalui pembelajaran mesin dan pembelajaran penguatan dari sejumlah besar teks dan kandungan yang sudah ada. Oleh itu, kandungan yang ditulis mungkin mengandungi kebohongan. Berinteraksi dengan ChatGPT serupa dengan berbicara dengan seseorang yang pandai berbicara tetapi hanya berpura-pura tahu. (Walaupun begitu, versi terbaru GPT-4 telah meningkatkan ketepatan dengan ketara, menjadikannya rakan perbincangan yang sangat cekap.) Oleh itu, untuk menguasai ChatGPT, pengetahuan pakar diperlukan, dan perlu untuk mengkritik serta membetulkan jawapan yang diberikan secara sesuai. Selain itu, ChatGPT tidak dapat menganalisis atau mendeskripsikan pengetahuan baru yang tidak terdapat dalam maklumat sedia ada. Ini bermakna, walaupun ChatGPT telah muncul, manusia tidak boleh mengabaikan pembelajaran atau penyelidikan mereka sendiri. Namun, jika seseorang yang berpendidikan dan memiliki pengetahuan pakar dapat menganalisis kandungan jawapan secara kritikal dan menggunakannya dengan bijak, maka ia dapat meningkatkan kecekapan kerja rutin secara signifikan,” demikian penekanan yang diberikan.

Quote: Universiti Tokyo | ‘Mengenai AI Generatif (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, dll)[ja]

Risiko Undang-undang seperti Pelanggaran Hak Cipta dan Privasi

Penentuan pelanggaran hak cipta di ChatGPT dibahagikan kepada dua fasa: ‘Fasa Pembangunan & Pembelajaran AI’ dan ‘Fasa Penghasilan & Penggunaan’. Kerana tindakan penggunaan karya cipta yang dilakukan pada setiap fasa adalah berbeza, maka peruntukan undang-undang hak cipta yang terpakai juga berbeza. Oleh itu, perlu mempertimbangkan kedua-dua fasa ini secara berasingan.

Rujukan: Agensi Kebudayaan Jepun | Seminar Hak Cipta Tahun Reiwa 5 (2023) ‘AI dan Hak Cipta'[ja]

Pada Januari 2019, pindaan kepada Undang-undang Hak Cipta Jepun telah diperkenalkan, termasuklah peruntukan pembatasan hak (pengecualian di mana kebenaran tidak diperlukan) di bawah Artikel 30-4 yang baru, yang memperuntukkan ‘Fasa Pembangunan & Pembelajaran AI’. Penggunaan karya cipta untuk analisis maklumat dalam pembangunan AI, yang tidak bertujuan untuk menikmati idea atau emosi yang dinyatakan dalam karya cipta, secara prinsipnya boleh dilakukan tanpa kebenaran pemegang hak cipta.

Sebaliknya, jika hasil yang dihasilkan oleh ChatGPT mempunyai persamaan atau ketergantungan (modifikasi) dengan karya cipta, ia boleh dianggap sebagai pelanggaran hak cipta. Oleh itu, sebelum menerbitkan, penting untuk memeriksa pemilik hak cipta maklumat yang dirujuk oleh ChatGPT dan memastikan tidak ada kandungan yang serupa dengan apa yang telah dihasilkan oleh ChatGPT. Jika mengutip karya cipta, perlu menyatakan sumbernya (peruntukan pembatasan hak), dan jika menyalin, perlu mendapatkan kebenaran penggunaan dari pemegang hak cipta untuk memprosesnya dengan tepat.

Menurut terma penggunaan OpenAI, kandungan yang dihasilkan oleh ChatGPT boleh digunakan untuk tujuan komersial, namun jika sukar untuk menentukan sama ada kandungan yang dihasilkan dengan menggunakan ChatGPT melanggar hak cipta, disarankan untuk berunding dengan pakar.

Jika pemegang hak cipta menunjukkan pelanggaran hak cipta, anda mungkin dikenakan tanggungjawab sivil (pampasan kerugian, ganti rugi moral, penghentian penggunaan, pemulihan reputasi, dan lain-lain tindakan undang-undang) atau tanggungjawab jenayah (kesalahan yang memerlukan aduan). Dalam kes syarikat, peruntukan hukuman kedua-dua pihak boleh dikenakan, yang bererti hukuman boleh dikenakan kepada kedua-dua individu dan badan korporat, dan ini boleh menyebabkan kerugian yang lebih besar.

Untuk maklumat peribadi dan privasi juga, perlu berhati-hati untuk tidak memasukkan data tersebut ke dalam ChatGPT. Seperti yang dinyatakan di atas, walaupun secara tidak sengaja memasukkan maklumat peribadi ke dalam ChatGPT, sistemnya tidak menyimpan atau menjejaki maklumat peribadi dan tidak dapat mengeluarkan maklumat tersebut dalam chat. Namun, ini adalah polisi OpenAI, dan mungkin berbeza dengan platform atau perkhidmatan lain.

Untuk risiko kebocoran maklumat peribadi, sila baca artikel berikut untuk penjelasan lebih lanjut.

Artikel Berkaitan: Risiko Kebocoran Maklumat Peribadi Syarikat dan Pampasan Kerugian[ja]

Risiko Mencipta Kandungan Berbahaya Tanpa Sengaja

Risiko mencipta kandungan berbahaya tanpa sengaja

Bergantung pada data yang dipelajari oleh ChatGPT dan isi prompt, terdapat kemungkinan untuk mencipta kandungan berbahaya. Jika kandungan yang dihasilkan oleh ChatGPT diterbitkan tanpa pemeriksaan, ini boleh merosakkan reputasi dan nilai jenama syarikat, dan mungkin berkembang menjadi masalah undang-undang.

Walaupun kandungan berbahaya telah diset untuk tidak dapat diinput atau dioutput oleh ChatGPT, masih ada kemungkinan untuk menghasilkan kod program berbahaya atau perkhidmatan penipuan yang sukar untuk dikenal pasti. Dengan mempertimbangkan risiko tersebut, amat penting untuk mempunyai sistem yang sentiasa memeriksa kandungan yang dicipta.

Memahami Terma Penggunaan dan Mengelak Risiko Penggunaan ChatGPT

Dalam penggunaan ChatGPT untuk tujuan perniagaan, adalah penting untuk mengelakkan risiko dengan menggunakan perkhidmatan ini mengikut Terma Penggunaan dan Dasar Privasi OpenAI. Terma Penggunaan ini sering dikemaskini, jadi semasa menggunakannya untuk bisnes, anda perlu memeriksa perubahan-perubahan tersebut dan memastikan anda memahami terma terkini.

Artikel berkaitan: Menerangkan Terma Penggunaan OpenAI, Apa yang Perlu Diperhatikan dalam Penggunaan Komersial?[ja]

Perkara yang Perlu Dilakukan untuk Mengelakkan Risiko dalam Penggunaan ChatGPT untuk Urusan Perniagaan

Membuat peraturan dalaman

Untuk mengelakkan risiko yang ada pada ChatGPT dan menggunakannya dengan betul dalam perniagaan, syarikat memerlukan struktur tadbir urus seperti berikut.

Membuat Peraturan Dalaman

Pada 1 Mei 2023, Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA) telah mengumpulkan isu-isu etika, undang-undang, dan sosial (ELSI) yang berkaitan dengan ChatGPT dan menerbitkan ‘Panduan Penggunaan AI Generatif’. Di pelbagai sektor termasuk akademik dan kerajaan, usaha untuk menyusun panduan ini juga sedang diperkembangkan.

Dalam pengenalan ChatGPT ke dalam syarikat, penting untuk meningkatkan literasi keselamatan maklumat peribadi dan pendidikan dalaman, tetapi adalah disarankan untuk menyusun panduan penggunaan ChatGPT syarikat sendiri. Dengan menyusun dan menyebarkan panduan yang mengkodifikasikan peraturan penggunaan ChatGPT syarikat, kita dapat mengharapkan untuk mengelakkan risiko tertentu.

Rujukan: Persatuan Pembelajaran Mendalam Jepun (Japanese Deep Learning Association, JDLA) | ‘Panduan Penggunaan AI Generatif[ja]

Menetapkan Pengawas untuk Penggunaan ChatGPT

Menetapkan pengawas untuk penggunaan ChatGPT dalam syarikat dan memantau operasi panduan secara berterusan serta mengurus risiko juga merupakan cara yang efektif untuk mengelakkan risiko.

Memantau tingkah laku ChatGPT, membetulkan hasil yang dihasilkan, dan mengurus data adalah tugas yang umumnya mirip dengan audit sistem. Audit sistem adalah penilaian objektif terhadap keefisienan, keselamatan, dan kebolehpercayaan sistem maklumat, dan dilakukan dengan tujuan untuk memperbaiki keefisienan kerja dan menyokong transformasi organisasi. Dengan menetapkan pengawas yang melakukan audit, kita juga dapat meningkatkan transparansi dan tanggungjawab penjelasan berkaitan operasi.

Kesimpulan: Langkah Pencegahan Risiko Adalah Penting dalam Penggunaan ChatGPT untuk Urusan Perniagaan

Di sini, kami telah menjelaskan secara terperinci tentang risiko dan langkah-langkah pencegahan yang berkaitan dengan penggunaan ChatGPT dalam urusan perniagaan.

Dalam penggunaan AI yang berkembang pesat seperti ChatGPT untuk perniagaan, adalah penting untuk mengambil langkah-langkah seperti pembangunan garis panduan penggunaan dalaman, penilaian kepatuhan model perniagaan, penyediaan kontrak dan terma penggunaan, perlindungan hak cipta intelek, serta tindakan privasi. Semua ini memerlukan langkah pencegahan risiko undang-undang yang pelbagai dan kerjasama dengan pakar yang mahir dalam teknologi AI.

Panduan Langkah-langkah oleh Firma Kami

Firma Guaman Monolith merupakan firma guaman yang memiliki pengalaman luas dalam IT, khususnya internet dan hukum. Bisnis AI seringkali disertai dengan banyak risiko hukum, dan dukungan dari pengacara yang ahli dalam masalah hukum AI adalah sangat penting.

Firma kami menyediakan berbagai dukungan hukum untuk bisnis AI, termasuk ChatGPT, dengan tim yang terdiri dari pengacara yang ahli dalam AI dan para insinyur. Kami telah menyediakan rincian lebih lanjut dalam artikel di bawah ini.

Bidang layanan Firma Guaman Monolith: Hukum AI (termasuk ChatGPT dan lainnya)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Kembali ke Atas