ChatGPT'nin İş Kullanımındaki Riskler Nelerdir? Hukuki Sorunlara da Açıklık Getiriyoruz
ChatGPT, yayınlandığından bu yana dünya çapında kullanışlılığı ile büyük ilgi görmektedir. Ancak, beraberinde çeşitli risklerin de geldiği bilinmeye başlanmıştır. Hâlâ yasal düzenlemelerin yapıldığı bir aşamada olup, ChatGPT’yi iş dünyasında kullanırken karşılaşılabilecek riskler ve bu riskleri nasıl azaltabileceğiniz konusunda endişe duyan işletme sahiplerinin sayısı da azımsanmayacak kadar fazladır.
Bu makalede, ChatGPT’yi iş amaçlı kullanırken karşılaşabileceğiniz hukuki riskler ve alınabilecek önlemler hakkında bilgi verilecektir.
ChatGPT’nin İş Süreçlerinde Kullanımının 4 Riski
Şirketlerde de kullanımı artan doğal dil üreten AI ChatGPT, 2022 (Reiwa 4) mali yılında şirketlerin %13.5’i tarafından kullanılmış ve “kullanmayı planlıyor” dahil edildiğinde bu oran %24.0’a çıkmaktadır. (Kaynak: Japon Bilgi ve İletişim Teknolojileri Beyaz Kitabı | Reiwa 5 (2023) İletişim Kullanım Eğilimleri Araştırması ‘Şirketlerde IoT ve AI Sistemleri ve Hizmetlerinin Kullanım Durumu'[ja])
Kuşkusuz, ChatGPT başta olmak üzere AI teknolojileri, şirketlerin iş verimliliğini artırmada etkili olabilir ve daha fazla iş fırsatı sunabilir. Ancak, birçok hukuki riski de beraberinde getirir. Bu nedenle, riskleri tam anlamıyla kavrayarak iş süreçlerinde kullanıp kullanmama kararı vermek gereklidir.
Örneğin, uzmanlar telif hakkı sorunları, yanlış bilginin yayılması, gizli bilgilerin sızdırılması, gizlilik sorunları ve siber saldırılara karşı kötüye kullanım gibi AI’nin potansiyel riskleri konusunda uyarılarda bulunmaktadır.
Bu bölümde, ChatGPT’nin iş süreçlerinde kullanımının dört ana riskini açıklayacağız.
Öğrenme Fonksiyonu İle Bilgi Sızdırma Riski
ChatGPT, kullanışlı olmasının yanı sıra, internet üzerindeki çeşitli verileri öğrenerek oluşturulan bir AI sohbet robotu olduğundan, herhangi bir önlem alınmadığı takdirde girilen bilgilerin öğrenme sürecinde kullanılarak sızdırılma riski bulunmaktadır.
OpenAI’nin Veri Kullanım Politikasına göre, kullanıcılar ChatGPT’e girdikleri verileri, ‘API’ üzerinden ya da ‘opt-out’ (çıkış) talep etmedikleri sürece, OpenAI tarafından toplanıp kullanılmak (öğrenmek) üzere alınacaktır.
Önlem alınmadan kişisel bilgiler veya gizlilik derecesi yüksek bilgilerin girilmemesi konusunda dikkatli olunması gerekmektedir. Yanlışlıkla ChatGPT’ye kişisel bilgiler girilse bile, uyarı mesajı görüntülenecek ve ChatGPT, kişisel bilgileri saklamayacak veya takip etmeyecek, sohbette çıktı olarak veremeyecek bir yapıya sahiptir.
Öte yandan, geçmişte ChatGPT’yi işleten OpenAI şirketinin sistemlerindeki bir hata nedeniyle, kullanıcıların kaydettikleri kişisel bilgilerin sızdırıldığı olaylar yaşanmıştır.
İlgili makale: ChatGPT’nin Bilgi Sızdırma Riski ve Alınması Gereken Dört Önlem[ja]
Bilgi Güvenilirliğindeki Riskler
ChatGPT’nin Mayıs 2023’te (Reiwa 5) devreye alınan web tarama özelliği sayesinde, artık en güncel bilgileri toplayıp, bu sonuçlara dayanarak yanıt verebilmektedir.
Ancak, ChatGPT yanıt verirken bilgileri gerçekmiş gibi sunsa da, bu bilgilerin güvenilirliği garanti edilmemektedir. ChatGPT tarafından üretilen yanıtlar, öğrenme verilerine dayalı olarak bilgi doğruluğuna göre değil, yüksek olasılıkla doğru (en muhtemel) cümleleri üretmek üzere tasarlanmıştır. Bu nedenle, ChatGPT’nin yanıtlarını doğrulamak şarttır. Eğer ChatGPT’nin yanıtlarına dayanarak yanlış bilgiler yayılırsa, şirketin itibarı zarar görebilir.
3 Nisan 2023’te (Reiwa 5) Tokyo Üniversitesi, ChatGPT’nin teknik zorlukları olduğunu ve topluma olan etkileri konusunda endişelerini dile getirerek aşağıdaki açıklamayı yapmıştır.
“ChatGPT’nin temel ilkesi, büyük miktarda mevcut metin ve içeriğin makine öğrenimi ve pekiştirmeli öğrenme yoluyla, olasılıksal olarak makul cümleler oluşturmasıdır. Bu nedenle, yazılan içerikte yanlış bilgiler bulunabilir. Çok iyi konuşan bir ‘bilmiş gibi yapan kişi’ ile sohbet ediyor gibi hissedebilirsiniz. (Ancak, en yeni sürüm GPT-4’te doğruluk önemli ölçüde artmıştır ve danışman olarak oldukça yetenekli bir varlıktır.) Bu yüzden, ChatGPT’yi etkin bir şekilde kullanabilmek için uzmanlık bilgisi gerekmekte ve yanıtları eleştirel bir gözle kontrol edip, gerektiğinde düzeltmek önemlidir. Ayrıca, mevcut bilgilerin dışında yeni bilgilerin analizi veya tanımı mümkün değildir. Yani, ChatGPT’nin ortaya çıkması, insanların kendi çalışma veya araştırmalarını ihmal edebilecekleri anlamına gelmez. Ancak, genel kültürü veya uzmanlık bilgisi olan kişiler yanıtları eleştirel bir şekilde analiz edip, doğru kullanabilirlerse, rutin işlerin verimliliğini büyük ölçüde artırabilirler.” diye belirtmiştir.
Alıntı: Tokyo Üniversitesi | ‘Yaratıcı Yapay Zeka (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion vb.) Hakkında[ja]‘
Telif Hakkı İhlali ve Gizlilik İhlali Gibi Hukuki Riskler
ChatGPT’de telif hakkı ihlalinin değerlendirilmesi, “AI Geliştirme & Öğrenme Aşaması” ve “Üretim & Kullanım Aşaması” olmak üzere iki aşamada farklılık gösterir. Her iki aşamada gerçekleştirilen eser kullanımı farklı olduğundan, telif hakkı yasasının ilgili maddeleri de farklıdır. Bu nedenle, her iki durumu ayrı ayrı ele almak gereklidir.
Referans: Japon Kültür Ajansı | Reiwa 5 (2023) Telif Hakkı Semineri “AI ve Telif Hakkı”[ja]
Ocak 2019’da yürürlüğe giren revize edilmiş telif hakkı yasasında, hak sahiplerinin izni olmadan kullanımın mümkün olduğu istisnai durumları belirleyen 30. maddenin 4. fıkrasına “AI Geliştirme & Öğrenme Aşaması” eklenmiştir. AI gelişimi için yapılan bilgi analizi gibi, eserlerde ifade edilen düşünce veya duyguların alınmasını amaçlamayan kullanımlar, genellikle telif hakkı sahibinin izni olmaksızın yapılabilir.
Öte yandan, ChatGPT tarafından üretilen çıktılarda, telif hakkı eserleriyle benzerlik veya türev (değişiklik) tespit edilirse, bu durum telif hakkı ihlali olarak kabul edilir. Bu nedenle, yayınlamadan önce ChatGPT’nin başvurduğu bilgilerin hak sahiplerini doğrulamak ve ChatGPT’nin oluşturduğu içerikle benzer içeriklerin olup olmadığını kontrol etmek önemlidir. Eserleri alıntı yaparken kaynağı belirtmek (hak sınırlama hükümleri) ve yeniden yayımlamak istenirse telif hakkı sahibinden izin alarak uygun bir şekilde işlem yapmak gereklidir.
OpenAI’nin kullanım şartlarına göre, ChatGPT tarafından oluşturulan içerikler ticari amaçla kullanılabilir; ancak, ChatGPT ile oluşturulan içeriğin telif hakkı ihlali olup olmadığı konusunda karar vermek zor olabilir. Bu durumda, bir uzmana danışmanızı öneririz.
Telif hakkı sahibi tarafından telif hakkı ihlali iddiasında bulunulursa, sivil sorumluluk (tazminat, manevi tazminat, kullanımın durdurulması, itibarın iadesi gibi hukuki önlemler) veya cezai sorumluluk (şikayet suçu) ile karşı karşıya kalabilirsiniz. Şirketler söz konusu olduğunda, bireylerin yanı sıra tüzel kişilere de cezaların uygulanabileceği çifte cezalandırma hükümleri geçerli olabilir ve bu durum daha büyük zararlara yol açabilir.
Ayrıca, kişisel bilgiler ve gizlilik konusunda da dikkatli olmak gerekmektedir. Daha önce belirtildiği gibi, yanlışlıkla ChatGPT’ye kişisel bilgi girilse bile, ChatGPT kişisel bilgileri saklamaz veya takip etmez ve bu bilgileri sohbette çıktı olarak veremez. Ancak, bu OpenAI’nin politikasıdır ve diğer platformlar veya hizmetlerde farklı olabilir.
Kişisel bilgi sızıntısı riski hakkında daha fazla bilgi için aşağıdaki makaleyi okuyabilirsiniz.
İlgili Makale: Şirketlerin Kişisel Bilgi Sızıntısı ve Tazminat Riski[ja]
İstenmeden Zararlı İçerik Üretme Riski
ChatGPT’nin öğrendiği veri içeriği veya aldığı komutlara bağlı olarak, zararlı içerikler üretme ihtimali bulunmaktadır. ChatGPT tarafından üretilen içerikler kontrol edilmeden yayımlanırsa, şirketin itibarı ve marka değeri zarar görebilir ve bu durum hukuki sorunlara yol açabilir.
Zararlı içeriklerin ChatGPT tarafından giriş/çıkış yapılmasının engellenmesi için ayarlar yapılmış olsa da, zararlı program kodları, dolandırıcı hizmetler gibi içeriklerin ayırt edilmesi zor olabilir ve yanlışlıkla üretilip yayımlanabilir. Bu tür risklerin farkında olarak, üretilen içeriklerin sürekli kontrol edilmesi gereken bir sistem kurmak önemlidir.
ChatGPT Kullanımıyla İlgili Riskleri Anlayarak Önlemek
ChatGPT’nin iş dünyasında kullanımında, riskleri önlemek için öncelikle OpenAI’nin kullanım koşullarına ve gizlilik politikasına uygun şekilde kullanım yapılması gerekmektedir. Kullanım koşulları sık sık güncellendiğinden, iş amaçlı kullanımda, değişiklikleri kontrol ederek en güncel kullanım koşullarını anlamak ve buna göre hareket etmek önemlidir.
İlgili makale: OpenAI Kullanım Koşulları Açıklaması, Ticari Kullanımda Dikkat Edilmesi Gerekenler Nelerdir?[ja]
ChatGPT’nin İş Dünyasında Kullanımında Riskleri Önlemek İçin Gerekenler
ChatGPT’nin taşıdığı riskleri önlemek ve iş dünyasında uygun şekilde kullanabilmek için, şirketlere aşağıdaki yönetişim yapısını oluşturmaları önerilmektedir.
Şirket İçi Kurallar Oluşturmak
2023 yılı (Reiwa 5) 1 Mayıs’ta, Japon Genel Derneği Deep Learning Association (JDLA), ChatGPT’nin etik, hukuki ve sosyal sorunları (ELSI) üzerine bir çalışma yaparak “Yapay Zeka Kullanım Kılavuzu”nu yayınladı. Sanayi, akademi ve hükümet sektörlerinde de bu kılavuzun oluşturulması üzerine çalışmalar ilerlemektedir.
ChatGPT’nin şirketlere entegrasyonu sırasında, bireylerin bilgi güvenliği okuryazarlığını artırmak ve şirket içi eğitimler sağlamak önemli olsa da, kendi ChatGPT kullanım kılavuzunuzu oluşturmanız tavsiye edilir. Şirketin ChatGPT kullanım kurallarını belirleyen ve bunları herkese duyuran bir kılavuz oluşturarak, belirli bir risk önleme beklentisi içinde olabilirsiniz.
Referans: Japon Genel Derneği Deep Learning Association (JDLA)|”Yapay Zeka Kullanım Kılavuzu[ja]“
ChatGPT Kullanımında Gözetmen Atamak
ChatGPT kullanımında bir gözetmen atayarak, kılavuzun uygulanmasını sürekli olarak izlemek ve riskleri yönetmek de risk önlemede etkilidir.
ChatGPT’nin davranışlarını izlemek, üretilen sonuçları düzeltmek ve verileri yönetmek gibi denetim işlemleri, genellikle sistem denetimine benzerdir. Sistem denetimi, bilgi sistemlerinin etkinliğini, güvenliğini ve güvenilirliğini objektif bir şekilde değerlendirmeyi amaçlar ve iş süreçlerinin verimliliğini artırmak veya organizasyonel dönüşümü desteklemek için yapılır. Denetim yapacak bir gözetmen atamak, operasyonel şeffaflığı ve hesap verebilirliği güçlendirmeye de yardımcı olabilir.
Özet: ChatGPT’nin İş Dünyasında Kullanımında Riskten Kaçınma Önlemleri Şarttır
Bu bölümde, ChatGPT’nin iş dünyasında kullanımıyla ilgili riskler ve alınması gereken önlemler hakkında detaylı bilgi verdik.
ChatGPT gibi hızla gelişen AI tabanlı iş çözümlerinde, şirket içi kullanım için rehberlerin oluşturulmasından, iş modelinin yasallığının incelenmesine, sözleşmelerin ve kullanım şartlarının hazırlanmasına, fikri mülkiyet haklarının korunmasına ve gizlilikle ilgili tedbirlere kadar, çeşitli hukuki riskler bulunmaktadır ve bu risklerle başa çıkabilmek için AI teknolojilerine hakim uzmanlarla çalışmak zorunludur.
Hukuk Büromuz Tarafından Alınan Önlemler Hakkında Bilgilendirme
Monolith Hukuk Bürosu, IT ve özellikle internet ile hukukun her iki alanında da zengin deneyime sahip bir hukuk firmasıdır. AI işinde birçok hukuki risk bulunmakta ve AI ile ilgili hukuki sorunlarda uzmanlaşmış avukatların desteği şarttır.
Büromuz, ChatGPT dahil olmak üzere AI işine yönelik çeşitli hukuki destekleri, AI konusunda uzmanlaşmış avukatlar ve mühendisler gibi profesyonellerden oluşan bir ekip ile sağlamaktadır. Aşağıdaki makalede detayları bulabilirsiniz.
Monolith Hukuk Bürosu’nun Uzmanlık Alanları: AI (ChatGPT vb.) Hukuki İşler[ja]
Category: IT
Tag: ITTerms of Use