San Francisco’da gerçekleştirilen yapay zekâ toplantısında hükümet, özel sektör, akademi ve sivil toplumdan teknik uzmanlar, giderek daha güçlü hale gelen yapay zekâ sistemlerinin risklerini nasıl yönetebileceklerini tartışmak üzere buluştu.
Anadolu Ajansı Muhabiri Büşra Begçecanlı, 20-21 Kasım’da ABD'nin San Francisco kentinde gerçekleştirilen yapay zekâ toplantısında alınan kararları AA Analiz için kaleme aldı. *** “Yapay zekâ, insanlık tarihindeki diğer hiçbir teknolojiye benzemiyor.” Bu cümle, Amerika Birleşik Devletleri (ABD) Ticaret Bakanı Gina Raimondo’nun 20-21 Kasım’da San Francisco’da gerçekleştirilen yapay zeka toplantısında sarf ettiği en dikkat çekici cümleydi. Bakan Raimondo, “Yapay zekâyı geliştirmek doğru bir adım olabilir ancak sadece yapabildiğimiz için sonuçlarını düşünmeden hızla ilerlemek akıllıca değil.” diye devam etti. Raimondo’nun bu açıklamaları, yapay zekâ alanında bir ilk olan Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı’nın birinci toplantısında dile getirilmesi açısından önemli. ABD Ticaret ve Dışişleri Bakanlıkları tarafından organize edilen bu ağ, 9 ülkeden ve Avrupa Komisyonu'ndan yapay zekâ güvenliği enstitülerini bir araya getirdi. Etkinlikte hükümet, özel sektör, akademi ve sivil toplumdan teknik uzmanlar, giderek daha güçlü hale gelen yapay zekâ sistemlerinin risklerini nasıl yönetebileceklerini tartışmak üzere buluştu. Bu toplantı, yapay zekânın yönetimi konusunda uluslararası işbirliğinin güçlendirilmesi adına önemli bir adım olarak görülüyor. Kasım ayında İngiltere’nin ev sahipliğinde düzenlenen Yapay Zekâ Güvenlik Zirvesi’nde ilk yapay zekâ güvenlik enstitüleri oluşturuldu. Hem İngiltere hem de ABD hükümetleri, yapay zekâ modellerinin güvenliğini değerlendirebilmek için bu enstitülerin kurulacağını duyurdu.
ABD, uluslararası güvenlik işbirliğini artırmak amacıyla müttefik ülkelerle ortak yapay zekâ projeleri yürütmeyi hedefliyor. NATO müttefikleriyle yapay zekâ tabanlı savunma sistemlerinin entegrasyonu ve ortak simülasyon çalışmaları gerçekleştirilecek.
Diğer ülkeler de bu yolu izleyerek mayıs ayında Seul’de gerçekleştirilen bir başka yapay zekâ zirvesinde bu uluslararası ağı kurduklarını ilan etti. Böylece 20-21 Kasım 2024'te Avustralya, Kanada, Avrupa Komisyonu, Fransa, Japonya, Kenya, Güney Kore, Singapur, Birleşik Krallık ve ABD'den yapay zekâ güvenlik enstitüleri ve hükümet yetkilileri, San Francisco’da Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı’nın ilk toplantısı için bir araya geldi. Hükümetler ve özel sektör bu girişimle yapay zekâ güvenliği araştırmalarını finanse etmek ve işbirliğini güçlendirmek adına harekete geçti. Bu küresel girişim, yapay zekânın geliştirilmesi ve güvenli bir şekilde uygulanması için atılan önemli bir adım niteliğinde. Ağ üyeleri, misyon beyanlarında da vurguladıkları üzere, yapay zekânın güvenliğini, kapsayıcılığını ve güvenilirliğini sağlamak amacıyla uluslararası işbirliğinin önemini vurguluyor. Bu işbirliği, toplantıya katılan ülkeler tarafından sorumlu yenilikçiliğin teşvik edilmesi ve yapay zekânın dünya genelindeki faydalarının genişletilmesi için elzem görülüyor.
En acil 4 konu belirlendi
San Francisco’da düzenlenen yapay zekâ toplantısında uluslararası işbirliğinin en acil fayda sağlayabileceği 4 öncelikli konu belirlendi. Bu fayda ile kültürel ve dilsel çeşitliliğin farkında olarak yapay zekânın ortaya çıkardığı güvenlik riskleri ve bu risklerin azaltılmasına yönelik stratejiler konusunda ortak bir anlayış hedefleniyor. Bu kapsamda öncelikli olarak şu 4 alana odaklanılacak:
-
Araştırma: İleri düzey yapay zekâ sistemlerinin riskleri ve yetenekleri üzerine bilim camiasıyla işbirliği yaparak, yapay zekâ güvenliği bilimini ilerletmek ve sentetik içeriği yönetmek.
-
Test: Gelişmiş yapay zekâ sistemlerinin test edilmesi konusunda en iyi uygulamaları geliştirip paylaşmak, ortak test çalışmaları gerçekleştirmek ve ulusal değerlendirmelerden elde edilen bilgileri uygun şekilde paylaşmak.
-
Rehberlik: Yapay zekâ sistemlerinin test sonuçlarını yorumlamak için ortak yaklaşımlar geliştirerek tutarlı ve etkili çözümler sunmak.
-
Kapsayıcılık: Farklı gelişmişlik seviyelerindeki bölgelerdeki paydaşları yapay zekâ güvenliği bilimine dahil etmek amacıyla bilgi ve teknik araçları erişilebilir hale getirmek.
Toplantıda ayrıca, Meta’nın Llama 3.1 modeline yönelik ilk ortak test çalışmasının sonuçları ele alındı. Bu modelin genel bilgi seviyesi, çok dilli yetenekleri ve talimat verilen kapsamın dışında bilgi sunması (Halisünasyon) incelendi. Bu çalışma, yapay zekâ güvenliği testlerinin diller, kültürler ve bağlamlar arasında nasıl geliştirilebileceği konusunda önemli çıkarımlar sağladı. Bu bağlamda, 2025'te Paris'te düzenlenecek RAISE Zirvesi’nden (Responsible AI for Social Empowerment) önce daha geniş kapsamda ortak test egzersizleri gerçekleştirilmesi planlanıyor.
Yapay zekâ güvenlik araştırmalarına 11 milyon dolar’ın üzerinde kaynak ayrıldı
Toplantının başlangıcında ABD, Güney Kore ve Avustralya yapay zekâ güvenliği araştırmalarına destek amacıyla toplamda 11 milyon dolar'dan fazla kaynak sağladıklarını açıkladı. Bu fon, özellikle sentetik içeriğin tespiti ve bu içeriğin getirdiği risklerin azaltılması gibi kritik alanlara ayrılacak. Ayrıca ABD Uluslararası Kalkınma Ajansı, partner ülkelerdeki yapay zekâ güvenliği çalışmalarını desteklemek için 3,8 milyon dolar tahsis etti. Güney Kore ise önümüzdeki 4 yıl boyunca sentetik içerik risklerine yönelik araştırma ve geliştirme faaliyetlerine 7,2 milyon dolar ayırdı. Avustralya’nın Ulusal Bilim Ajansı ve Google gibi önde gelen yapay zekâ şirketleri tarafından desteklenen Yapay Zekâ Güvenlik Fonu da bu girişime katkı sağlıyor.
ABD, yapay zekâ güvenliği için küresel liderliği hedefliyor
ABD, Yapay Zeka Güvenlik Enstitüsü Ulusal Güvenlik İçin Yapay Zekâ Risklerinin Test Edilmesi (TRAINS) Görev Gücü’nü kurduğunu duyurdu. Bu görev gücü, ABD Yapay Zekâ Güvenlik Enstitüsü tarafından yönetilecek ve ABD hükümetinin farklı birimlerinden temsilcileri bir araya getirerek yapay zekanın ulusal ve uluslararası güvenlik ve kamu güvenliği üzerindeki etkilerini belirlemek, ölçmek ve yönetmek için çalışmalar yürütecek. Enstitü tarafından yapılan açıklamaya göre bu görev gücü; radyolojik ve nükleer, biyolojik ve siber güvenlik, kritik altyapı ve konvansiyonel askeri yetenekler gibi ulusal ve uluslararası güvenlik alanlarında yapay zekâ modellerinin test edilmesi ve bu alanlardaki çalışmaların koordine edilmesini sağlayacak.
ABD, yapay zekâ yarışında Çin’i başlıca düşman olarak görmeye devam ediyor ve bu tehdit algısı, stratejik politikalarının merkezinde yer alıyor.
ABD ayrıca uluslararası güvenlik işbirliğini artırmak amacıyla müttefik ülkelerle ortak yapay zekâ projeleri yürütmeyi hedefliyor. Bu kapsamda, NATO müttefikleriyle yapay zekâ tabanlı savunma sistemlerinin entegrasyonu ve ortak simülasyon çalışmaları gerçekleştirilecek. Bu sayede yapay zekâ kullanımı sınır ötesi askeri operasyonlarda hızlı karar alma süreçlerini destekleyecek ve tehditlerin önceden tespit edilmesini sağlayacak. Ayrıca siber saldırılara karşı uluslararası savunma mekanizmalarının geliştirilmesi ve ortak bir siber güvenlik ağı kurulması gibi konular da ABD'nin uluslararası güvenlik stratejisinin bir parçası olarak değerlendiriliyor.
Bu çabalar Çin’e karşı bir koalisyonun habercisi mi?
ABD ve Çin arasındaki yapay zekâ yarışı, yalnızca bir teknolojik üstünlük arayışı değildir. Bu yarış aynı zamanda küresel düzenin şekillendirilmesinde büyük bir rekabet haline geldi. Her iki ülke de yapay zekâyı stratejik bir güç unsuru olarak görerek ekonomik ve askeri alanda avantaj sağlamaya çalışıyor. Bu bağlamda ABD'nin attığı adımlar, Çin'in hızla ilerleyen yapay zekâ kapasitesine karşı bir denge oluşturmayı amaçlıyor. Bu durum, uluslararası güvenlik, ekonomik çıkarlar ve etik değerler arasında yoğun bir çekişmeyi de beraberinde getiriyor. ABD Senato Çoğunluk Lideri Chuck Schumer toplantı için önceden kaydedilmiş mesajında, Çin Komünist Partisi'nin (ÇKP) "Yapay zekâda kuralları yazmasına" izin verilmemesi gerektiğinin altını çizdi. ABD, yapay zekâ yarışında Çin'i başlıca düşman olarak görmeye devam ediyor ve bu tehdit algısı, stratejik politikalarının merkezinde yer alıyor. Çin'in yapay zekâ teknolojilerini hızla geliştirmesi ve küresel alanda etkisini artırma çabaları, ABD'yi bu alanda daha agresif adımlar atmaya itiyor. ABD'nin yalnızca ulusal güvenliği değil, aynı zamanda müttefikleriyle ortak savunma stratejilerini de bu eksende güçlendirme girişimleri, Çin'e karşı geniş bir koalisyon kurma niyetini açıkça gösteriyor. Kısacası, Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı bu amaç doğrultusunda Çin'in artan yapay zekâ gücüne karşı uluslararası bir işbirliği ve savunma hattı oluşturmak için kurulmuş olabilir. İki ülke arasındaki bu rekabet, yapay zekâ teknolojilerinin geleceğini ve küresel güç dengesini belirleyecek temel faktörlerden biri olarak ortaya çıkıyor. [Büşra Begçecanlı, Anadolu Ajansı muhabiridir.] * Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansı'nın editoryal politikasını yansıtmayabilir.
Instagram
KRIPTOKRAL.COM GÜNCEL HABERLER | Yatırım Tavsiyesi Değildir.
Leave feedback about this