AB'de Yapay Zeka Düzenlemelerinin Mevcut Durumu ve Geleceği: Japon Şirketler Üzerindeki Etkileri de Açıklanıyor
Yapay zekanın (AI) gelişimiyle birlikte, iş süreçlerinde ChatGPT gibi AI araçlarının kullanılması artarken, AI ile ilgili işler de canlanmaktadır. Bununla birlikte, uluslararası yapay zeka düzenlemeleri de giderek daha fazla dikkat çekmektedir.
Japonya’da, Ekonomi, Ticaret ve Sanayi Bakanlığı, “AI İlkelerini Uygulamak İçin Yönetişim Kılavuzu Ver. 1.1″[ja] adlı bir belgeyi yayınlamıştır (yazı yazılırken). 14 Haziran 2023’te, dünyada ilk kez bir “Uluslararası AI Düzenleme Yasası” Avrupa Birliği Parlamentosu’nda kabul edilmiş ve Japonya’da da büyük ilgi görmüştür.
Bu makalede, AI düzenleme yasasının mevcut durumu ve geleceği hakkında bilgi verilecek ve Japon şirketler üzerindeki etkileri açıklanacaktır.
AI Düzenleme Yasası (AI Act) Nedir?
14 Haziran 2023 tarihinde, AI’nin genel kullanımını hedef alan kapsamlı bir “AI Düzenleme Tasarısı”, Avrupa Birliği’nin (AB) Avrupa Parlamentosu tarafından kabul edildi. Bu, 85 maddeden oluşan ve dünyada ilk kez uluslararası bir “AI Düzenleme Yasası (AI Act)” olarak nitelendirilen AB’nin birleşik kuralları (ikincil mevzuat) arasındadır.
İlerleyen süreçte, 2023 yılı içinde anlaşmaya varılması hedeflenerek, Avrupa Komisyonu, Avrupa Parlamentosu ve Avrupa Konseyi arasında resmi olmayan müzakereler (trilog) gerçekleştirilecek, yasama organları olan Avrupa Parlamentosu ve Avrupa Konseyi’nin onayının ardından yasa yürürlüğe girecek ve 2024 yılında uygulamaya konulması planlanmaktadır.
AB Hukuk Sistemi
AB hukuk sistemi, birincil hukuk (antlaşmalar), ikincil hukuk (topluluk mevzuatı) ve içtihat olmak üzere üç türden oluşmaktadır.
İkincil hukuk, birincil hukuk (antlaşmalar) temel alınarak çıkarılan ve AB bölgesinde doğrudan veya dolaylı olarak üye ülkeleri düzenleyen yasal düzenlemelerdir ve AB hukuku veya türev hukuk olarak adlandırılır.
Genel olarak aşağıdaki beş türü bulunmakla birlikte, “AB Yapay Zeka Düzenlemesi” bir tüzük (Regulation) olarak kabul edildiğinden, doğrudan AB üye ülkelerini bağlayan birleşik kurallar bütünü haline gelir.
AB’nin ikincil hukuk düzenlemeleri aşağıdaki beş türden oluşur:
- Tüzük (Regulation): Tüm üye ülkeler için bağlayıcıdır ve kabul edildiğinde, doğrudan uygulanabilirlik (üye ülke içinde onay sürecinden geçmeden ulusal hukuk sisteminin bir parçası haline gelir) kazanır.
- Direktif (Directive): Her üye ülke, belirlenen hedeflere ulaşmak için ulusal hukukunu yeni yasalar çıkararak veya mevcut yasaları değiştirerek yasal yükümlülükler alır.
- Karar (Decision): Hukuki bağlayıcılığı olan yasal bir formdur ve genel değil, belirli bir hedefi olan bir yasadır; hedef, belirli üye ülkeler, şirketler veya bireyler olabilir.
- Tavsiye (Recommendation): Avrupa Komisyonu, üye ülke hükümetleri veya şirketler, bireyler gibi taraflara, belirli eylemler veya önlemler almayı önerir. Hukuki bağlayıcılığı veya zorlayıcılığı yoktur, ancak AB üye ülkelerinde yasal düzenlemelerin yapılmasını veya değişikliklerin teşvik edilmesi olarak kabul edilir.
- Görüş (Opinion): Bazen “görüş” olarak adlandırılır, ancak Avrupa Komisyonu’nun belirli bir konu hakkında görüş bildirdiği bir ifadedir ve hukuki bağlayıcılığı veya zorlayıcılığı yoktur.
“Regulation”, ikincil hukuk içinde en zorlayıcı güce sahip yasa olarak konumlandırılmıştır ve örneğin GDPR (General Data Protection Regulation) = “Genel Veri Koruma Tüzüğü” bir tüzük örneği olarak gösterilebilir.
AI Düzenleme Yasası’nın Uygulama Kapsamı
AB’nin “AI Düzenleme Yasası”, AB içinde doğrudan uygulanmakla kalmayıp, ticaret ortağı olan üçüncü ülkelerde de sınırlar ötesi uygulama ile yasal bağlayıcılık kazanacaktır. Düzenlemenin hedefi, Avrupa pazarına AI sistemleri ve hizmetleri sunmayı amaçlayan işletmeler olup, AI geliştiricileri, dağıtımcıları, sağlayıcıları, ithalatçıları, satıcıları ve kullanıcıları bu kapsamdadır.
AI Düzenleme Yasası, belirli AI sistemleri hakkında açık gereklilikler ve işletmelerin yükümlülüklerini belirlerken, aynı zamanda küçük ve orta ölçekli işletmelerin (KOBİ) idari ve mali yükünü hafifletmeyi hedeflemektedir.
Bu yasa tasarısı, AI’nin güvenliğini ve temel hakları korumayı, AB genelinde AI’ye yönelik çabaları, yatırımları ve yenilikleri güçlendirmeyi amaçlayan geniş kapsamlı bir AI paketinin bir parçasıdır.
Avrupa düzenlemeleri, temel bir fikir olarak Avrupa Birliği Antlaşmalarına uygun olmalıdır. Yani, AI teknolojisi söz konusu olduğunda da, AB içinde insan hakları ve özgürlüklerin korunması gerekmekte ve bunun için güvencelerin olması gerektiği düşünülmektedir.
Yasa tasarısında, düzenlemenin amacı “insan gözetimi altında güvenilir AI kullanımını teşvik etmek, AI risklerinden sağlık, güvenlik, temel haklar, demokrasi ve hukukun üstünlüğü ile çevreyi korumayı garanti etmek” olarak açıklanmaktadır.
Özellikle, aşağıdaki “tüm AI sistemlerine uygulanan genel ilkeler” belirtilmiştir:
- İnsan otonomisi ve gözetimi (human agency and oversight)
- Teknik dayanıklılık ve güvenlik (technical robustness and safety)
- Gizlilik ve veri yönetişimi (privacy and data governance)
- Şeffaflık (transparency)
- Çeşitlilik, ayrımcılık yapmama ve adillik (diversity, non-discrimination and fairness)
- Sosyal ve çevresel refah (social and environmental well-being)
Yasa kapsamında, AI ilkelerinin başarılması için AI geliştiricilerin, kullanıcıların ve sağlayıcıların AI okuryazarlığını sağlayacak önlemlerin de hayati olduğu vurgulanmaktadır.
İhlal durumunda, dünya genelindeki satışlardan yüksek miktarda cezai yaptırımlar uygulanacak (en fazla 30 milyon Euro yaklaşık 4.7 milyar Yen veya dünya genelindeki satışların %6’sı, hangisi daha yüksekse o oran sınır olacak) ve AB içinde AI iş yapma yeteneği kaybedilebilir.
Bu nedenle, Japon şirketler de dahil olmak üzere, şu anda AB pazarında AI işine girişmiş olan şirketlerin ve gelecekte AB pazarına girmeyi düşünen şirketlerin de, AB’nin yeni AI düzenlemelerine uygun hareket etmeleri gerekmektedir.
Yapay Zeka Düzenlemelerinin Oluşturulmasının Arkasındaki Sebepler
Üretken Yapay Zeka, kullanışlı bir araç olmasının yanı sıra suç teşvik edebilir ve demokrasiyi tehdit edebilir risklerini de barındırmaktadır. Yapay Zeka teknolojisinin gelişmesi ve yaygınlaşmasıyla bu sorunlar kaçınılmaz bir meydan okuma haline gelmiştir.
2016 yılından itibaren, Avrupa Birliği (AB), ABD ve Çin, Yapay Zeka ile ilgili yönergeler ve ulusal strateji taslaklarını yayınlamıştır. Özellikle AB, Yapay Zeka ve büyük veri düzenlemelerini geliştirmekte ve 2017’den 2022’ye kadar önemli yönergeler, bildiriler ve düzenleme taslakları oluşturulmuştur.
Örneğin, 2016 Nisan’ında ‘Genel Veri Koruma Tüzüğü (GDPR)’ yürürlüğe girmiş, 2021 Nisan 21’de ‘Yapay Zeka Düzenleme Tasarısı’ açıklanmış ve 2022 Mayıs 30’da ‘Avrupa Veri Yönetişim Yasası (DGA)’ kabul edilmiş ve 2023 Eylül 24’ten itibaren uygulanmaya başlanmıştır.
Bu düzenlemeler, Yapay Zeka ve büyük verinin toplum genelinde güvenli ve adil bir şekilde kullanılmasını sağlamayı ve aynı zamanda yenilikçiliği ve ekonomik büyümeyi teşvik etmeyi amaçlamaktadır.
AB, dijital strateji olarak ‘Dijital Çağa Uygun Bir Avrupa’ hedefini belirlemiştir.
‘Yapay Zeka Düzenleme Tasarısı’ açıklandıktan sonra da, üretken Yapay Zeka’nın hızlı evrimi ve yaygınlaşmasına bağlı olarak, Avrupa Komisyonu 2023 Haziran 14’te Yapay Zeka ile ilgili düşünceler ve talepler eklenmiş bir değişiklik tasarısını kabul etmiştir.
Tarih | Toplantı |
2021 Nisan 21 | Avrupa Komisyonu ‘AB Yapay Zeka Düzenleme Tasarısı’nı açıkladı |
2023 Mayıs 11 | ‘İç Pazar & Tüketici Koruma Komitesi’ ve ‘Vatandaşların Özgürlükleri, Adalet ve İçişleri Komitesi’ değişiklik tasarısını onayladı |
2023 Haziran 14 | Avrupa Parlamentosu değişiklik tasarısını kabul etti |
2023 Ekim 24 | Dördüncü Üçlü Diyalog (Üç Taraflı Görüşme) gerçekleştirildi Geçici anlaşma |
2023 Aralık 6 | Son Üçlü Diyalog (Üç Taraflı Görüşme) planlandı Avrupa Parlamentosu & AB Konseyi onayı ‘AB Yapay Zeka Düzenlemesi’ yürürlüğe girdi |
2024’ün ikinci yarısı | Uygulama planlanıyor |
AI Düzenleme Yasasının Özellikleri
“AI Düzenleme Yasası”nın temelini oluşturan özellikler, büyük ölçüde “risk tabanlı AI sınıflandırması”, “gereklilikler ve yükümlülükler” ve “inovasyon desteği” olmak üzere üç ana başlık altında toplanmaktadır.
Bu düzenleme, “risk tabanlı yaklaşım” olarak adlandırılan bir metodolojiyi temel almakta ve AI’nin risk seviyesini dört kategoriye ayırarak, buna uygun düzenlemelerin uygulanmasını öngörmektedir.
Özellikle aşağıdaki tabloda görüldüğü üzere, AI sistemlerinin dört farklı risk seviyesine göre belirlenen yasaklar, gereklilikler ve yükümlülükler mevcuttur. Yüksek riskli AI’lar için, insanların fiziksel ve yaşamsal güvenliği, özgür irade haklarının korunması, demokrasi ve adil yargılanma hakkının sürdürülmesi açısından kullanım alanları belirlenmiştir.
Risk Seviyesi | Kullanım Kısıtlamaları | Hedef AI Sistemleri | Gereklilikler & Yükümlülükler |
<Yasaklanan Risk> AB’nin değerleriyle çelişen AI’ların yasaklanması | Yasak | ①Altkonş Bilinç Teknikleri ②Zayıflıklardan Faydalanma ③Sosyal Skorlama ④Kamu Alanlarında “Gerçek Zamanlı” Uzaktan Biyometrik Tanıma Sistemleri (İstisnalar Hariç) | Yasak |
<Yüksek Risk> ・Düzenlemeye tabi ürünlerin güvenlik öğeleri ・Belirli alanlardaki AI sistemleri + Sağlık, güvenlik, temel haklar & çevreye ciddi riskler teşkil eden AI | Şartlar ve uygunluk değerlendirmesine uyum | ①Biyometrik Tanıma & Sınıflandırma (Endüstriyel Makineler, Tıbbi Cihazlar) ②Kritik Altyapının Yönetimi & İşletimi ③Eğitim & Mesleki Eğitim ④İstihdam, Çalışan Yönetimi, Serbest Meslek Erişimi ⑤Zorunlu Özel & Kamu Hizmetlerine Erişim ⑥Kanun Uygulama (Tüm Yetkililer Kanun Uygulama Kurumları) ⑦Göç, Sığınma & Sınır Yönetimi (Tüm Yetkililer İlgili Kamu Kurumları) ⑧Yargı ve Demokratik Süreçlerin İşletilmesi | Risk yönetim sistemi, veri yönetişimi, teknik dokümantasyon oluşturma, log kaydı, insan gözetimi, uygunluk değerlendirme prosedürleri gibi sıkı düzenlemeler |
<Sınırlı Risk> Şeffaflık yükümlülüğünün uygulandığı AI sistemleri | Şeffaflık yükümlülüğü şartı | ①İnsanlarla etkileşimde bulunan AI sistemleri (örn. Chatbotlar) ②Duygu Tanıma Sistemleri & Biyometrik Sınıflandırma ③Deepfake Üreten AI Sistemleri | Yasa dışı içerik üretmemesi için model tasarımı, eğitimde kullanılan telif hakkı korumalı verilerin yayınlanması, AI kullanımının önceden bildirilmesi gibi sınırlı yükümlülükler |
<Minimum Risk> Yukarıdakiler dışındaki sistemler | Kısıtlama yok | Yukarıdakiler dışındaki sistemler | Davranış kurallarının tavsiye edilmesi |
AI Düzenleme Yasasının Japonya’ya Etkisi
AB, insan haklarının korunması, kişisel verilerin korunması, çevre koruma gibi alanlarda uluslararası düzeyde öncü bir şekilde düzenlemeler getirmiş ve bu düzenlemeler daha sonra diğer ülkelerin sistem tasarımları için “altın standart” haline gelmiştir.
Japonya’daki Kişisel Verilerin Korunması Yasası’nın (Japanese Personal Information Protection Act) yeniden düzenlenmesi de, merkezi olmayan düzenlemeleri birleştirmek amacının yanı sıra, AB’nin GDPR’ına (Japanese General Data Protection Regulation) uyum sağlama konusunda büyük bir zorluk olarak ele alınmıştır. Ayrıca, AB’nin yasal düzenlemelerini referans alarak tasarlanan “Belirli Dijital Platformların Şeffaflığı ve Adil Olmasının Artırılmasına İlişkin Kanun” (1 Şubat 2021 (2021) tarihinde yürürlüğe girmiştir) gibi yasalar da mevcuttur.
Şu anda Japonya’da, AI ile ilgili olarak sert yasalarla düzenleme yapılmamakta, daha çok yumuşak yasalarla desteklenen öz düzenlemelerle bu alanda politika yürütülmektedir.
Yukarıda belirtildiği gibi, AB’nin “AI Düzenleme Yasası” AB üye ülkelerine doğrudan uygulanmakla kalmaz, aynı zamanda AB içinde iş yapmak isteyenler için de sınır ötesi uygulama söz konusudur ve yurt dışında bulunan işletmelere de uygulanır.
Daha sonra açıklayacağımız üzere, AB içinde AI ürünlerinin sevkiyatı, farklı açılardan belirlenen birden fazla yasanın uygulanabileceği bir durum olabilir ve bu yasalara uyum sağlamak zorunludur. Japon şirketlerin de gelecekteki gelişmeleri yakından takip etmeleri ve yasalara uygun tedbirler alması gerekmektedir.
Yapay Zeka Düzenlemelerini İçeren Düzenleme Teklifinin Kabulü
AI düzenleme yasası, Avrupa Birliği’nin üç kurumu olan Avrupa Konseyi, Avrupa Parlamentosu ve Avrupa Komisyonu tarafından uygulanan düzenleme tekliflerini içeren bir yasadır.
2023 yılı 11 Mayıs tarihinde, IMCO (İç Pazar ve Tüketici Koruma Komitesi) ve LIBE (Sivil Özgürlükler, Adalet ve İçişleri Komitesi), AI düzenleme yasası ile ilgili düzenleme tekliflerini onayladı.
Bu düzenleme teklifleri, 2023 yılı 14 Haziran tarihinde Avrupa Parlamentosu tarafından kabul edildi.
Bu raporda, tahmini polislik yasağının getirilmesi, yüksek riskli olarak sınıflandırılan bağımsız AI sistemlerinin listesine çok sayıda eklemeler yapılması ve yeni bir AI ofisi olan EAIB’nin (Avrupa Yapay Zeka Kurulu) güçlü ve kapsamlı bir rol üstlenmesi gibi yasa teklifinin önemli düzenlemeleri yer alıyor.
Ayrıca, GDPR (Genel Veri Koruma Tüzüğü) ile daha güçlü bir iş birliği önerilmekte ve belirli alanlarda paydaşların katılımının arttığı, ayrıca yaratıcı AI ve genel amaçlı AI ile ilgili özel hükümlerin getirildiği görülmektedir.
Daha sonra, 2023 yılı 24 Ekim tarihinde, AI düzenleme yasası ile ilgili dördüncü trilog (üçlü görüşme) gerçekleştirildi ve politik olarak hassas konularda önemli ilerlemeler kaydedildi. Özellikle, tartışmalı yüksek riskli AI sistemlerinin filtre mekanizması (Madde 6) konusunda geçici bir anlaşmaya varıldı.
Ek olarak, temel modeller/genel amaçlı AI sistemleri, yönetişim, yasaklar ve yasal uygulama kurumlarına ilişkin gelecekteki yönetime dair politik rehberlik yapıldı ve teknik ekip, söz konusu konularla ilgili somut metin teklifleri üzerinde çalışmaya zorlandı.
İlgili Yapay Zeka Düzenlemeleri Hakkında
Yapay Zeka düzenleme yasaları, farklı açılardan ele alınarak belirlenmiş birden fazla yasayla ilişkilidir. Bu üç yasa, dijital alanda kişisel bilgilerin korunması ve adil rekabetin sağlanması amacıyla Avrupa Birliği (AB) tarafından yürürlüğe konmuştur.
DSA (Dijital Hizmetler Yasası)
AB’nin “Dijital Hizmetler Yasası” (DSA = Digital Services Act), 2022 yılının Kasım ayının 16’sında yürürlüğe giren ve 2024 yılının Şubat ayının 17’sinde tamamen uygulanmaya başlanacak olan, AB’deki elektronik ticarete ilişkin kapsamlı kuralları içermektedir.
AB’de 2000 yılında elektronik ticaret direktifi yürürlüğe girmiş olmasına rağmen, internet ve çevrimiçi platformlar gibi dijital ortamların evrimi nedeniyle bu direktifin uygulanması zorlaşmıştır. Bu nedenle, AB’nin birleşik kuralları olan DSA (Dijital Hizmetler Yasası) mevcut direktifi değiştirerek yürürlüğe girmiştir.
AB iç pazarındaki aracı hizmetlerin uygun şekilde işlemesini sağlayarak kullanıcıların temel haklarını korumayı ve daha güvenli bir dijital ortam oluşturmayı amaçlayan bu yasa, çevrimiçi aracı hizmetler, barındırma hizmetleri ve çevrimiçi platformlar (VLOP ve VLOSE dahil) gibi düzenlemeye tabi işletmeleri kapsamaktadır.
Yasa, yasadışı içeriklerin yayınlanması durumunda sorumlulukların nasıl olacağını ve anlaşmazlıkların nasıl ele alınacağını düzenleyerek, BtoB ve BtoC her iki yönüyle de kapsamlı bir şekilde düzenlemektedir.
Özellikle, yasadışı içeriklerin, ürünlerin ve hizmetlerin ortadan kaldırılması için zorunlu tedbirler getirilmekte, kullanıcıların temel haklarının korunması güçlendirilmekte ve şeffaflık ile hesap verebilirlik için kapsamlı kurallar belirlenmektedir.
Ayrıca, AB içinde aylık ortalama 45 milyon kullanıcıya sahip VLOP (Çok Büyük Çevrimiçi Platform) ve VLOSE (Çok Büyük Çevrimiçi Arama Motoru) için daha sıkı kurallar getirilmiştir.
Belirlenen VLOP ve VLOSE, kararın bildirilmesinden dört ay içinde, kendi sistemlerini, kaynaklarını ve süreçlerini DSA’ya uyumlu hale getirmeli ve yasal uyum için bağımsız bir sistem kurmalıdır. Bunun üzerine, denetim ve ilk yıllık risk değerlendirmesini yaparak, sonuçları Avrupa Komisyonu’na bildirmeleri gerekmektedir.
DSA (Dijital Hizmetler Yasası), 2024 yılının Şubat ayının 17’sinden itibaren tamamen uygulanacak olup, VLOP ve VLOSE dışındaki işletmelerin DSA uygulama durumları, Avrupa Komisyonu ve üye ülkelerin yetkili makamları tarafından izlenecektir.
Üye ülkeler, 2024 yılının Şubat ayının 17’sine kadar DSA’nın uyum durumunu denetleyecek bağımsız yetkiye sahip “Dijital Hizmetler Koordinatörü”nü atamak zorundadır ve ihlal durumunda uygulanacak para cezaları dahil olmak üzere yaptırım uygulama yetkisi verilmiştir.
Öte yandan, VLOP ve VLOSE için Avrupa Komisyonu doğrudan denetim yapacak ve yaptırım uygulama yetkisine sahip olacaktır.
Yasaya aykırı davranışlarda bulunan işletmeler için uygulanacak para cezaları, işletmenin önceki yılın global yıllık cirosunun %6’sını geçemeyecektir.
Bu yasa, “Dijital Çağa Uygun Bir Avrupa” olarak bilinen AB’nin dijital stratejisinin bir parçası olarak uygulanmakta ve gelişen dijital çağın yeni zorluklarına ve risklerine yanıt vermeyi amaçlamaktadır.
DMA (Dijital Piyasalar Yasası)
AB’nin “Dijital Piyasalar Yasası” (DMA = Digital Markets Act), 2023 yılının Mayıs 2’sinden (2023) itibaren büyük ölçüde yürürlüğe girmiş olup, dijital piyasayı adil ve rekabetçi hale getirmeyi ve belirli dijital platformların piyasayı domine etmesini önlemeyi amaçlamaktadır.
Yasal düzenlemenin hedefinde belirlenen kapı bekçileri bulunmakta ve bu kapı bekçilerine yönelik yükümlülükler belirlenmiş, ihlal durumunda ise global cirolarının %10’una kadar varan cezai yaptırımlar uygulanmaktadır.
“Kapı bekçisi”, Avrupa Birliği sınırları içinde faaliyet gösteren en büyük ölçekli dijital platformları ifade etmekte ve bu platformlar, pazarda sürekli bir konum edinmiş olmaları, kullanıcı sayısı, cirosu, sermayesi gibi belirli kriterleri karşılamaları nedeniyle bu şekilde adlandırılmaktadırlar.
Avrupa Komisyonu, 2023 yılının Eylül 6’sına (2023) kadar en güncel kapı bekçilerini belirlemiş ve bu şirketlere Dijital Piyasalar Yasası’nın yeni yükümlülüklerine uymaları için en fazla altı ay (2024 Mart’a kadar) süre verilmiştir. Bu süreçte kapı bekçisi olarak belirlenen şirketler Alphabet, Amazon, Apple, ByteDance, Meta ve Microsoft’un altısı olup, bu kapı bekçilerinin sunduğu toplam 22 ana platform ve hizmet yasanın kapsamına alınmıştır.
Bu yasa, büyük ölçekli dijital platformların piyasa gücünü kötüye kullanmalarını önlemeyi ve yeni girişimcilerin piyasaya girişlerini kolaylaştırmayı hedeflemektedir.
GDPR(Genel Veri Koruma Tüzüğü)
GDPR (Genel Veri Koruma Tüzüğü), 2018 yılı Mayıs ayının 25’inde yürürlüğe giren yeni bir AB ‘Veri Koruma Yasası’dır.
AB içinde ve dışında bireylerden kişisel veri toplama ve işleme ile ilgili rehberlik sağlayan yasal bir çerçevedir. Bu düzenleme, AB’yi hedef alan veya AB içindeki insanlarla ilgili veri toplayan kuruluşlara yükümlülükler getirir.
İlgili makale: GDPR uyumlu bir Gizlilik Politikası oluştururken dikkat edilmesi gereken noktaları açıklar[ja]
Önümüzdeki Dönemde Beklenen Yapay Zeka Düzenlemeleri
Yukarıda bahsedilen Yapay Zeka risk sınıflandırma tablosundan, şirketlerin özellikle dikkat etmesi gereken Yapay Zeka sistemlerini açıklayacağız.
Sosyal Kredi Skoru Kullanımının Yasaklanması
Avrupa Birliği (AB) düzenlemelerinde “yasaklanan riskler” arasında, sosyal kredi skoru (social credit score) sistemleri de yer almaktadır. Bu sistemler, bir değişiklik teklifi ile sadece kamu kurumlarına değil, genel olarak tamamen yasaklanmaktadır.
“Sosyal kredi skoru”, bireylerin sosyal statüsü ve davranışlarına dayalı olarak puanlama yapan sistemleri ifade eder.
Çin’de, bir gözetim toplumu aracı olarak işlev gören ve devlet politikası olarak “kamu hizmetleri”, “ticaret”, “toplum” ve “yargı” olmak üzere dört ana alanda sosyal kredi sistemi inşa edilmiştir.
Belirli kısıtlamalar arasında, uçak veya hızlı tren kullanımının yasaklanması, özel okullardan çıkarılma, sivil toplum kuruluşlarının kurulmasının yasaklanması, prestijli işlerden men edilme, otellerden çıkarılma, internet bağlantı hızının düşürülmesi, web sitelerinde ve medyada kişisel bilgilerin yayınlanması gibi uygulamalar bulunmaktadır. Öte yandan, yüksek skora sahip bireyler çeşitli “ayrıcalıklar” elde edebilirler.
Yine de, bu tür bir sistem, bireylerin gizliliği ve özgürlüğü üzerinde ciddi endişeler yaratmakta ve uygulaması konusunda tartışmalar devam etmektedir.
AB içinde sosyal kredi skoru kullanımının yasaklanması, AI teknolojisinin adil ve şeffaf bir şekilde kullanılmasını sağlamak amacıyla yapılmaktadır.
Yapay Zeka Üretiminin Sınırlamalarının Güçlendirilmesi
AB düzenlemelerine göre “sınırlı risk” kategorisine giren yapay zeka sistemlerinden biri de üretici AI’dir.
Üretici AI (Generative AI), öğrenme verilerini temel alarak yeni içerikler veya çözümler üreten bir yapay zeka türüdür ve son zamanlarda Chat GPT gibi platformlarla dikkat çekmektedir. Ancak, üretici AI’nin çeşitli sorunları bulunmakta ve bu nedenle düzenlemeye ihtiyaç duyulmaktadır.
Yapay Zeka Düzenleme Yasası’nda, üretici AI’nin hızlı evrimi ve yaygınlaşmasına bağlı olarak, bu teknolojiye ilişkin düşünce tarzları ve gereklilikler eklenmiştir.
Özellikle, OpenAI gibi üretici AI sağlayıcılarına, LLM (Large Language Model – Geniş Dil Modeli) öğreniminde kullanılan telif hakkı verilerinin açıklanmasını zorunlu kılan yükümlülükler getirilmektedir.
Bu düzenlemenin amacı, üretici AI’nin şeffaflığını sağlamak ve risk yönetimini güçlendirmektir.
AB yasalarında GDPR (Veri Koruma Yasası) başta olmak üzere, geleneksel olarak “şeffaflık” ilkesi önemsenmekte ve koruma önlemleri ile AI’nin kullanım amacı ve hedefleri, ilgili kişilere önceden açıklama yükümlülüğü getirilmekte, bu ilke uluslararası düzeyde “altın standart” olarak kabul edilmektedir.
Duygu Tanıma AI Kullanım Kısıtlamaları
AB düzenlemelerine göre “sınırlı risk” kategorisine giren Duygu Tanıma AI sistemleri de, AI kullanımının önceden bildirilmesi gibi sınırlı yükümlülüklerin uygulandığı, şeffaflık yükümlülüğüne tabi AI sistemleridir.
“Duygu Tanıma AI” derken, insan duygularındaki değişiklikleri algılayabilen AI sistemlerini kastediyoruz.
Özellikle aşağıdaki dört türü bulunmakta ve mikrofon, kamera, sensörler aracılığıyla insanların neşe, öfke, üzüntü, ilgi düzeyi gibi duygusal durumlarını analiz eder:
- Metin Duygu Tanıma AI: İnsanların girdiği metinleri veya ses verilerini metne dönüştürülen bilgileri analiz ederek duyguları tespit eder.
- Ses Duygu Tanıma AI: İnsanların çıkardığı seslerden duyguları analiz eder.
- İfade Duygu Tanıma AI: Kamera aracılığıyla yüz ifadelerinden duyguları okur.
- Biyometrik Duygu Tanıma AI: Beyin dalgaları, nabız gibi biyometrik verilerden duyguları algılar.
Bu teknolojiler, müşteri hizmetleri, çağrı merkezleri, satış pozisyonları gibi çeşitli alanlarda kullanılmaktadır. Teknolojinin daha da gelişmesiyle birlikte, sağlık sektöründe de kullanımı beklenmektedir.
Yine de, toplanan biyometrik veriler ve kişisel bilgilerin gizliliğinin korunması ve buna bağlı olarak yasal düzenlemelerin yapılması gerekmektedir.
Özet: AI Düzenleme Yasasının Mevcut Durumu ve Geleceğe Bakış
Yukarıda, AB’nin “AI Düzenleme Yasası”nın mevcut durumu, geleceğe yönelik beklentiler ve Japon şirketler üzerindeki etkileri hakkında bilgi verdik. Dünyanın ilk “AB AI Düzenleme Yasası”, uluslararası bir “Altın Standart” haline gelme potansiyeline sahip olduğunu söyleyebiliriz.
AB pazarına giriş yapmayı planlayan Japon şirketleri için de bu AI Düzenleme Yasası’nın gelişmelerini yakından takip etmek önemli olacaktır. AB bölgesindeki AI düzenlemeleri hakkında, uluslararası hukuk ve AI teknolojileri konusunda uzman avukatlara danışmanızı tavsiye ederiz.
Hukuk Büromuzun Önlemleri Hakkında Bilgilendirme
Monolith Hukuk Bürosu, IT ve özellikle internet ile hukukun her iki alanında da zengin deneyime sahip bir hukuk firmasıdır. AI işinde birçok hukuki risk bulunmakta ve AI ile ilgili hukuki sorunlarda uzmanlaşmış avukatların desteği şarttır. Büromuz, AI konusunda bilgili avukatlar ve mühendislerden oluşan bir ekip ile ChatGPT dahil AI işlerine yönelik sözleşme hazırlama, iş modelinin yasallığının değerlendirilmesi, fikri mülkiyet haklarının korunması, gizlilik konularında uyum gibi ileri düzey hukuki destek sağlamaktadır. Aşağıdaki makalede detayları bulabilirsiniz.
Monolith Hukuk Bürosu’nun Uzmanlık Alanları: AI (ChatGPT vb.) Hukuku[ja]