Yapay zeka son yılların belki de en heyecanlandırıcı gelişmelerinden olmuştu. Sağlık, finans, ulaşım ve içişleri de dahil olmak üzere çok çeşitli sektörlere çeşitli ekonomik ve toplumsal faydalar getirmesi bekleniyor. İnsanlığın ilerlemesi, sağlık hizmetleri, hizmet sunumunun iyileştirilmesi, enerji tüketiminin yönetilmesi ve kamu güvenliğinin iyileştirilmesi dahil olmak üzere sayısız yolla yapay zeka tarafından yönlendiriliyor. Ayrıca işletmeler operasyonlarını optimize etmek için yapay zeka tabanlı uygulamalar kullanıyor.
Peki madem bu kadar işimize yarıyor neden bir Yapay Zeka Yasasına ihtiyacımız var? Yapay zekayı neden düzenlememiz gerekiyor?
Yapay zeka pek çok farklı sektör ve uygulamada kullanılmaya başlandı ancak bazı durumlarda insan haklarını etkileyen sorunlar da yaşandı. Bunun bir örneği, dünya çapında tanınmış bir şirket, işe alım sürecinde adayların cinsiyetine göre ayrımcılık yapan bir yapay zeka modelini üretime soktu. Modelin her zaman erkek adaylara kadınlara göre öncelik verdiği ortaya çıktı.
Bize faydası yadsınamazken, veri hırsızlıkları, dolandırıcılık, mahremiyet ihlalleri de korkutucu bir boyuta ulaşıyor.
Ünlülerin yüzlerinin kullanıldığı reklamlar, kızının sesinin manipüle edildiği aramalarla yapılan dolandırıcılıklar, oluşturulan sahte hesaplarla veri hırsızlıkları, devlet başkanlarının yapay zekayla tasarlanmış fotoğrafları... Bizleri tedbir almamız için korkutan bazı olaylar bunlar.
Pek çok uzman, yapay zekanın işleyişinin günlük hayatımızdaki birçok önemli konuyu nasıl etkileyeceğine dair etik ve temel haklar değerlendirmesinin yapılmasının gerekli olduğunu düşünüyor.
Kişisel tedbirlerle ne kadar başarılı olacağımız merak konusuyken devletler de yapay zekayı gündemine aldı.
Dünyanın çeşitli yerlerinde yapay zekânın yasal çerçevesini oluşturmak üzere çalışmalar sürerken bu alanda kapsamlı bir kanun için ilk somut adımı Avrupa Birliği attı.
Avrupa Komisyonu yakın zamanda Avrupa'da yapay zekanın gelişimini ve kullanımını düzenlemek amacıyla Yapay Zeka Yasası adı verilen yeni bir düzenleme önerdi.
Avrupa Parlamentosu’nun (AP) geçtiğimiz haziran ayındaki kararıyla yapay zekâ konusunda dünyanın ilk yasa tasarısı onaylanmıştı. Tasarının sonbaharda AB’nin yürütme organı olan Avrupa Komisyonu tarafından da onaylanması bekleniyordu ancak takvim sarktı.
Bu gecikmenin, ChatGPT‘yi de yaratan OpenAI’ın tasarıyı “sulandırmak” amacıyla yürüttüğü lobicilik faaliyetlerinden kaynaklandığı ileri sürüldü.
Komisyon’un hazırladığı ilk taslağa AP tarafından temel modelleri doğrudan hedef alan bir denetim maddesi eklenmişti. Bu modellerin insan haklarına saygı gösterecek biçimde çalışması, enerji verimli olması ve ürettiği içeriklerin yapay zekâ tarafından yaratıldığını tüketicilere bildirmesi şart koşulmuştu. Tasarıda, medyayı ve gazetecileri en yakından ilgilendiren bölüm de burasıydı.
Müzakereler bu yüzden uzadı ancak son tahlilde AB’nin en büyük ekonomileri olan Almanya, Fransa ve İtalya’nın önerisiyle bir orta yol bulundu. Sadece açık kaynak kodlu temel modeller yasadan muaf tutuldu.
GPT gibi ticari modeller ise “kullanım şartları yoluyla zorunlu özdenetim” yapacak.
Avrupa Komisyonu'nun Dijital Çağdan Sorumlu Başkan Yardımcısı Margrethe Vestager'e göre asıl amaç, AB'de yapay zeka ürün ve hizmetlerinin geliştirilmesi, pazarlanması ve kullanımına yönelik ortak bir yasal çerçeve tanımlamak. AB'nin hedefi, Avrupa'yı güvenli, güvenilir ve insan merkezli yapay zekanın geliştirilmesinde ve elbette bunun kullanımında dünya lideri haline getirmek.
Yapay zekâda risk ne kadar yüksekse kurallar o kadar katı
Yapay Zeka Yasası, güvenli ve güvenilir yapay zekânın hem özel hem de kamu aktörleri tarafından AB’nin tek pazarında geliştirilmesini ve benimsenmesini teşvik etme potansiyeline sahip amiral gemisi niteliğinde bir yasama girişimi oldu.
Ana fikir, yapay zekânın topluma zarar verme kapasitesine göre “risk temelli” bir yaklaşımla düzenlenmesi: Risk ne kadar yüksekse, kurallar da o kadar katı
Bu yasa önerisi, dünyada türünün ilk örneği.
Dört kategori
Yeni yasa ile yapay zeka uygulamasına risk temelli bir yaklaşım izlenecek. Bu uygulamanın yaratacağı riskler, “en yüksek” ve “en düşük”, “kabul edilemez” ve “spesifik şeffaflık riski” olarak sınıflandırılıyor.
Yasal düzenleme şunları içeriyor:
Kabul edilemez risk: İnsanların temel haklarına yönelik açık bir tehdit olarak değerlendirilen yapay zeka sistemleri yasaklanacak.
Bu kapsamda, insanları davranışlarından dolayı ödüllendiren ya da cezalandıran vatandaş takip sistemleri ya da insan davranışlarını manipüle etmeye çalışan yapay zeka sistemlerine izin verilmeyecek.
Dini, siyasi ya da cinsel kimliklere dayalı bazı biyometrik tanımlama biçimleri ile işyerlerinde ya da okullarda duygu tespit sistemlerinin kullanılması de yasak kapsamında olacak.
Kamuya açık alanlarda (zorunlu yasal gereklilikler hariç) kolluk kuvvetlerinin amaçları doğrultusunda gerçek zamanlı uzaktan biyometrik tanımlama gibi biyometrik sistemleri kullanmaları da yasaklanacak.
Ancak, örneğin ciddi bir suçtan aranan biri veya bir kaçırma olayı için hedefli bir arama yapılıyorsa, insanları tanımak için yapay zekanın kullanılmasına izin verilebilecek.
Yüksek risk: Su, enerji, yargı, güvenlik, sağlık ve biyometri gibi yaşamsal öneme sahip alanları yönetmek için kullanılan yapay zeka sistemleri bu kapsamda yer alıyor.
Bu alanlarda kullanılan yapay zeka uygulamaları için, risk azaltma sistemleri, yüksek kalitede veri kümeleri, faaliyet günlüğü tutma, ayrıntılı belgeler, net kullanıcı bilgileri, insan gözetimi gibi katı koşullar getirilecek.
Spesifik şeffaflık riski: Kullanıcıların, sohbet robotları gibi yapay zeka sistemlerini kullanırken bir makineyle etkileşimde bulunduklarının farkında olmaları sağlanacak.
Biyometrik sınıflandırma veya duygu tanıma sistemleri içeren uygulamalar konusunda kullanıcıların bilgilendirilmesi gerekecek.
Düşük risk: İnsan hakları ve güvenliği açısından daha düşük düzeyde riske sahip olan yapay zeka destekli öneri sistemleri veya spam filtreleri gibi uygulamalar, daha esnek kurallara sahip olacak.
Avrupa Birliği Komisyonu Başkanı Ursula von der Leyen, yasa üzerinde varılan anlaşmayı memnuniyetle karşıladığını belirterek, şunları söyledi:
“Anlaşma, Avrupa'da sorumlu yeniliği teşvik edecek. İnsanların ve işletmelerin güvenliğini ve temel haklarını garanti ederek, AB'de güvenilir yapay zekanın geliştirilmesini, konuşlandırılmasını ve benimsenmesini destekleyecektir.
“Yapay Zeka Yasamız, insan odaklı yapay zekaya yönelik küresel kural ve ilkelerin geliştirilmesine önemli bir katkı sağlayacak.”
Yapay Zeka Yasası konusunda AB'nin en büyük üç ülkesi olan Almanya, Fransa ve İtalya’nın çekinceleri vardı. Bu ülkeler, katı kuralların sadece ABD’li teknoloji şirketlerini değil, Avrupalı kuruşları da etkileyeceğini savunuyordu.
Uzun süren müzakereler sonucu, bu ülkeler ikna edildi.
Yapay Zeka Yasası’nın, "temel haklara ve demokrasiye saygı gösterdiği, aynı zamanda işletmelerin gelişmesine ve büyümesine izin verdiği" konusunda anlaşma sağlandı.