Connect with us

Düşünce Liderleri

Dengeyi Vurmak: AI İlgili Riskleri Azaltmaya Yönelik Küresel Yaklaşımlar

mm

Son birkaç yıldır, modern teknolojilerin mevcut yasal çerçeveler altında etik sınırları zorladığı sır değildir. Bu çerçeveler onlara uymak için tasarlanmamıştı ve bu da yasal ve düzenleyici mayın tarlasına neden oldu. Bunu etkilerini karşılamak için düzenleyiciler, ülkeler ve bölgeler arasında çeşitli farklı yollarda ilerlemeyi seçiyorlar ve bir anlaşma bulunamadığında küresel gerilimler artıyor.

Bu düzenleyici farklılıklar, Paris’te düzenlenen bir AI Eylem Zirvesi’nde vurgulandı. Etkinliğin son bildirisi, AI geliştirme konusundaki kapsayıcılık ve açıklık konularına odaklandı. İlginç bir şekilde, yalnızca genel olarak güvenlik ve güvenilirlik konusunda bahsedildi, ancak güvenlik tehditleri gibi özel AI ile ilgili riskler vurgulanmadı. 60 ülke tarafından hazırlanan UK ve ABD, bildirinin imzalarının bulunmaması, şu anda ana ülkeler arasında nasıl bir fikir birliği olmadığına dair bir gösterge.

Küresel AI Risklerini Ele Almak

AI geliştirme ve dağıtımı her ülke içinde farklı şekilde düzenlenmektedir. Bununla birlikte, çoğu, ABD’nin ve Avrupa Birliği’nin (AB) tutumları arasındaki iki uç nokta arasında bir yere oturur.

ABD Yöntemi: Önce İnovasyon, Sonra Düzenleme

ABD’de AI’yi özel olarak düzenleyen federal düzeyde eylemler yoktur, bunun yerine pazar tabanlı çözümlere ve gönüllü rehberlere güvenilmektedir. Bununla birlikte, AI için bazı önemli mevzuat parçaları bulunmaktadır, Bunlar arasında Ulusal AI Girişimi Yasası, federal AI araştırmalarını koordine etmeyi amaçlayan, Federal Havacılık İdaresi Yenileme Yasası ve Ulusal Standartlar ve Teknoloji Enstitüsü’nün (NIST) gönüllü risk yönetimi çerçevesi bulunmaktadır.

ABD düzenleyici ortamı masih akışkan ve büyük siyasi değişimlere tabidir. Örneğin, Ekim 2023’te Başkan Biden, Güvenli, Güvenilir ve Güvenilir AI Geliştirme ve Kullanımı için bir Yürütme Emri çıkardı, kritik altyapı için standartlar oluşturdu, AI destekli siber güvenliği artırdı ve federal olarak finanse edilen AI projelerini düzenledi. Ancak, Ocak 2025’te Başkan Trump bu yürütme emrini iptal etti, düzenlemeden uzaklaşarak inovasyona öncelik vermeye yöneldi.

ABD yaklaşımının eleştirmenleri vardır. Onlar, bunun “parçalı doğası“nın karmaşık bir kural ağı oluşturduğunu, “zorunlu standartlardan yoksun” olduğunu ve “gizlilik korumasında boşluklar” olduğunu belirtiyorlar. Bununla birlikte, genel olarak, bu tutum değişim halindedir – 2024’te eyalet yasama organları yaklaşık 700 yeni AI yasası çıkardı ve yönetim ve AI ile ilgili olarak birden fazla oturum düzenlendi. Ayrıca, AI ve fikri mülkiyet konusunda. ABD hükümetinin düzenlemeden kaçınmadığı açık olsa da, clearly inovasyonu tehlikeye atmadan onu uygulamak için yollar arıyor.

AB Yöntemi: Önleme Priorite Vermek

AB farklı bir yaklaşım seçti. Ağustos 2024’te, Avrupa Parlamentosu ve Konseyi, Yapay Zeka Yasası (AI Yasası)nı çıkardı, bu yasa tarihindeki en kapsamlı AI düzenleme parçası olarak kabul edildi. Risk temelli bir yaklaşım kullanarak, yasa, yüksek duyarlılık gerektiren AI sistemleri üzerinde sıkı kurallar koyuyor, örneğin sağlık ve kritik altyapı gibi alanlarda. Düşük riskli uygulamalar yalnızca minimal denetime tabi tutulurken, bazı uygulamalar, örneğin hükümet tarafından yürütülen sosyal puanlama sistemleri tamamen yasaklandı.

AB’de uyumluluk, yalnızca AB sınırları içinde değil, aynı zamanda AB’de faaliyet gösteren veya AB pazarına AI çözümleri sunan herhangi bir AI sistemi sağlayıcısı, dağıtıcısı veya kullanıcısı için zorunludur – hatta sistem outside geliştirilmiş olsa bile. Bu, entegre ürünlerin sağlayıcıları için, özellikle de ABD ve diğer非 AB sağlayıcıları için, uyum sağlamak için zorluklar oluşturabilir.

AB yaklaşımının eleştirileri arasında, alleged insan hakları için altın standardı belirlemede başarısızlık yer alıyor. Fazla karmaşıklık da not edildi ve açıklık eksikliği vardı. Eleştirmenler, AB’nin oldukça talepkar teknik gereksinimlerinden endişe duyuyorlar, çünkü bunlar AB’nin rekabet gücünü güçlendirmeye çalıştığı bir zamanda geliyor.

Düzenleyici Orta Zemin Bulmak

Bu arada, Birleşik Krallık, AB ve ABD arasında bir yerde duran “hafif” bir çerçeve benimsemiştir ve bu, güvenlik, adillik ve şeffaflık gibi temel değerlere dayanmaktadır. Mevcut düzenleyiciler, Bilgi Komiseri Ofisi gibi, ilgili alanlarında bu ilkeleri uygulamak için yetkiye sahiptir.

İngiliz hükümeti, AI fırsatları Eylem Planı’nı yayımladı, AI temellerine yatırım yapmak, AI’nin tüm ekonomi çapında benimsenmesini gerçekleştirmek ve “yerli” AI sistemlerini teşvik etmek için önlemler belirledi. Kasım 2023’te İngiltere, AI Güvenlik Enstitüsü (AISI)nü kurdu, bu Frontier AI Görev Gücü’nden evrimleşti. AISI, gelişmiş AI modellerinin güvenliğini değerlendirmek için oluşturuldu ve bunu başarmak için büyük geliştiricilerle işbirliği içinde güvenlik testleri gerçekleştirdi.

İngiltere’nin AI düzenlemesine ilişkin eleştiriler arasında sınırlı uygulama yetenekleri ve sektörel mevzuat arasında koordinasyon eksikliği yer alıyor. Eleştirmenler ayrıca, merkezi bir düzenleyici otoritenin eksikliğini de fark ettiler.

İngiltere gibi, diğer büyük ülkeler de kendi yerlerini ABD-AB spektrumunda buldular. Örneğin, Kanada, AI ve Veri Yasası (AIDA) ile risk temelli bir yaklaşım benimsemiştir ve bu, inovasyon, güvenlik ve etik考虑leri arasında denge kurmayı amaçlamaktadır. Japonya, AI geliştirme için güvenilir bir yaklaşım benimseyerek, güvenilir geliştirme teşvik eden rehberler yayımladı. Çin’de AI düzenlemesi devlet tarafından sıkı bir şekilde kontrol ediliyor ve recent laws, AI modellerinin güvenlik değerlendirmelerinden geçmesini ve sosyalist değerlerle uyumlu olmasını gerektiriyor. İngiltere gibi, Avustralya da bir AI etik çerçevesi yayımladı ve AI inovasyonunun getirdiği ortaya çıkan zorlukları ele almak için gizlilik yasalarını güncellemeyi düşünüyor.

Uluslararası İşbirliğini Nasıl Kurabiliriz?

AI teknolojisi devam ettikçe, düzenleyici yaklaşımlardaki farklılıklar giderek daha fazla belirgin hale geliyor. Veri gizliliği, telif hakkı koruması ve diğer yönlerden her bir yaklaşım, AI ile ilgili ana risklere ilişkin tutarlı bir küresel uzlaşıya ulaşmayı daha da zor hale getiriyor. Bu koşullarda, uluslararası işbirliği, inovasyonu kısıtlamadan ana AI ile ilgili riskleri ele alan temel standartlar oluşturmak için çok önemlidir.

Uluslararası işbirliğinin cevabı, OECD, Birleşmiş Milletler ve diğer birçok küresel kuruluş gibi, AI için uluslararası standartlar ve etik rehberler oluşturmaya çalışan kuruluşlarda olabilir. İleriye giden yol kolay olmayacak, çünkü endüstrinin tümünün ortak zemin bulmasını gerektirecek. İnovasyonun ışık hızıyla ilerlediğini düşünürsek, tartışma ve anlaşma zamanı şimdi.

Viktorija Lapenyte, Oxylabs'da Ürün Hukuki Danışmanlık Başkanıdır. IT sektöründe on yıldan fazla yasal deneyimle, Viktorija Lapėnytė, bir iç hukuk danışmanı olarak karmaşık iş ve düzenleyici zorlukları navigasyon konusunda derin uzmanlık geliştirmiştir. Bugün, Viktorija, web istihbarat toplama platformunda lider olan Oxylabs'da Ürün Hukuki Danışmanlık Başkanıdır. Viktorija'nın ekibi, uyumdan ve düzenleyici risk yönetiminden veri gizliliği ve sorumlu veri edinimi konusunda endüstri çapında tartışmalara kadar ortaya çıkan veri teknolojilerinin yasal karmaşıklıklarına uzmanlaşmıştır.