Kasım 25, 2024
İstiklal Cd. Tokatlıyan İş Mrk. K:1 N:1 Beyoğlu – İstanbul
Yapay zeka

YAPAY ZEKÂ ÇAĞI BAŞLADI: KONTROL KİMDE OLACAK?

yapay

San Francisco’da gerçekleştirilen yapay zekâ toplantısında hükümet, özel sektör, akademi ve sivil toplumdan teknik uzmanlar, giderek daha güçlü hale gelen yapay zekâ sistemlerinin risklerini nasıl yönetebileceklerini tartışmak üzere buluştu.

Anadolu Ajansı Muhabiri Büşra Begçecanlı, 20-21 Kasım’da ABD'nin San 
Francisco kentinde gerçekleştirilen yapay zekâ toplantısında alınan 
kararları AA Analiz için kaleme aldı.

***

“Yapay zekâ, insanlık tarihindeki diğer hiçbir teknolojiye benzemiyor.” 
Bu cümle, Amerika Birleşik Devletleri (ABD) Ticaret Bakanı Gina 
Raimondo’nun 20-21 Kasım’da San Francisco’da gerçekleştirilen yapay 
zeka toplantısında sarf ettiği en dikkat çekici cümleydi. Bakan 
Raimondo, “Yapay zekâyı geliştirmek doğru bir adım olabilir ancak sadece 
yapabildiğimiz için sonuçlarını düşünmeden hızla ilerlemek akıllıca 
değil.” diye devam etti.

Raimondo’nun bu açıklamaları, yapay zekâ alanında bir ilk olan 
Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı’nın birinci 
toplantısında dile getirilmesi açısından önemli. ABD Ticaret ve 
Dışişleri Bakanlıkları tarafından organize edilen bu ağ, 9 ülkeden ve 
Avrupa Komisyonu'ndan yapay zekâ güvenliği enstitülerini bir araya 
getirdi. Etkinlikte hükümet, özel sektör, akademi ve sivil toplumdan 
teknik uzmanlar, giderek daha güçlü hale gelen yapay zekâ sistemlerinin
risklerini nasıl yönetebileceklerini tartışmak üzere buluştu.

Bu toplantı, yapay zekânın yönetimi konusunda uluslararası işbirliğinin 
güçlendirilmesi adına önemli bir adım olarak görülüyor. Kasım ayında 
İngiltere’nin ev sahipliğinde düzenlenen Yapay Zekâ Güvenlik 
Zirvesi’nde ilk yapay zekâ güvenlik enstitüleri oluşturuldu. Hem 
İngiltere hem de ABD hükümetleri, yapay zekâ modellerinin güvenliğini 
değerlendirebilmek için bu enstitülerin kurulacağını duyurdu.

ABD, uluslararası güvenlik işbirliğini artırmak amacıyla müttefik ülkelerle ortak yapay zekâ projeleri yürütmeyi hedefliyor. NATO müttefikleriyle yapay zekâ tabanlı savunma sistemlerinin entegrasyonu ve ortak simülasyon çalışmaları gerçekleştirilecek.

Diğer ülkeler de bu yolu izleyerek mayıs ayında Seul’de gerçekleştirilen
bir başka yapay zekâ zirvesinde bu uluslararası ağı kurduklarını ilan 
etti. Böylece 20-21 Kasım 2024'te Avustralya, Kanada, Avrupa Komisyonu,
Fransa, Japonya, Kenya, Güney Kore, Singapur, Birleşik Krallık ve 
ABD'den yapay zekâ güvenlik enstitüleri ve hükümet yetkilileri, San 
Francisco’da Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı’nın ilk 
toplantısı için bir araya geldi.

Hükümetler ve özel sektör bu girişimle yapay zekâ güvenliği 
araştırmalarını finanse etmek ve işbirliğini güçlendirmek adına harekete 
geçti. Bu küresel girişim, yapay zekânın geliştirilmesi ve güvenli bir 
şekilde uygulanması için atılan önemli bir adım niteliğinde. Ağ üyeleri, 
misyon beyanlarında da vurguladıkları üzere, yapay zekânın güvenliğini, 
kapsayıcılığını ve güvenilirliğini sağlamak amacıyla uluslararası 
işbirliğinin önemini vurguluyor. Bu işbirliği, toplantıya katılan 
ülkeler tarafından sorumlu yenilikçiliğin teşvik edilmesi ve yapay 
zekânın dünya genelindeki faydalarının genişletilmesi için elzem 
görülüyor.

En acil 4 konu belirlendi

San Francisco’da düzenlenen yapay zekâ toplantısında uluslararası 
işbirliğinin en acil fayda sağlayabileceği 4 öncelikli konu belirlendi. 
Bu fayda ile kültürel ve dilsel çeşitliliğin farkında olarak yapay 
zekânın ortaya çıkardığı güvenlik riskleri ve bu risklerin azaltılmasına 
yönelik stratejiler konusunda ortak bir anlayış hedefleniyor. Bu kapsamda 
öncelikli olarak şu 4 alana odaklanılacak:
  • Araştırma: İleri düzey yapay zekâ sistemlerinin riskleri ve 
    yetenekleri üzerine bilim camiasıyla işbirliği yaparak, yapay zekâ
    güvenliği bilimini ilerletmek ve sentetik içeriği yönetmek.
  • Test: Gelişmiş yapay zekâ sistemlerinin test edilmesi konusunda en 
    iyi uygulamaları geliştirip paylaşmak, ortak test çalışmaları 
    gerçekleştirmek ve ulusal değerlendirmelerden elde edilen bilgileri 
    uygun şekilde paylaşmak.
  • Rehberlik: Yapay zekâ sistemlerinin test sonuçlarını yorumlamak 
    için ortak yaklaşımlar geliştirerek tutarlı ve etkili çözümler 
    sunmak.
  • Kapsayıcılık: Farklı gelişmişlik seviyelerindeki bölgelerdeki 
    paydaşları yapay zekâ güvenliği bilimine dahil etmek amacıyla bilgi 
    ve teknik araçları erişilebilir hale getirmek.
Toplantıda ayrıca, Meta’nın Llama 3.1 modeline yönelik ilk ortak test 
çalışmasının sonuçları ele alındı. Bu modelin genel bilgi seviyesi, çok 
dilli yetenekleri ve talimat verilen kapsamın dışında bilgi sunması 
(Halisünasyon) incelendi. Bu çalışma, yapay zekâ güvenliği testlerinin 
diller, kültürler ve bağlamlar arasında nasıl geliştirilebileceği 
konusunda önemli çıkarımlar sağladı. Bu bağlamda, 2025'te Paris'te 
düzenlenecek RAISE Zirvesi’nden (Responsible AI for Social Empowerment) 
önce daha geniş kapsamda ortak test egzersizleri gerçekleştirilmesi 
planlanıyor.

Yapay zekâ güvenlik araştırmalarına 11 milyon dolar’ın üzerinde kaynak ayrıldı

Toplantının başlangıcında ABD, Güney Kore ve Avustralya yapay zekâ
güvenliği araştırmalarına destek amacıyla toplamda 11 milyon dolar'dan 
fazla kaynak sağladıklarını açıkladı. Bu fon, özellikle sentetik 
içeriğin tespiti ve bu içeriğin getirdiği risklerin azaltılması gibi
kritik alanlara ayrılacak. Ayrıca ABD Uluslararası Kalkınma Ajansı, 
partner ülkelerdeki yapay zekâ güvenliği çalışmalarını desteklemek için 
3,8 milyon dolar tahsis etti. Güney Kore ise önümüzdeki 4 yıl boyunca 
sentetik içerik risklerine yönelik araştırma ve geliştirme 
faaliyetlerine 7,2 milyon dolar ayırdı. Avustralya’nın Ulusal Bilim 
Ajansı ve Google gibi önde gelen yapay zekâ şirketleri tarafından 
desteklenen Yapay Zekâ Güvenlik Fonu da bu girişime katkı sağlıyor.

ABD, yapay zekâ güvenliği için küresel liderliği hedefliyor

ABD, Yapay Zeka Güvenlik Enstitüsü Ulusal Güvenlik İçin Yapay Zekâ 
Risklerinin Test Edilmesi (TRAINS) Görev Gücü’nü kurduğunu duyurdu. Bu 
görev gücü, ABD Yapay Zekâ Güvenlik Enstitüsü tarafından yönetilecek ve 
ABD hükümetinin farklı birimlerinden temsilcileri bir araya getirerek 
yapay zekanın ulusal ve uluslararası güvenlik ve kamu güvenliği 
üzerindeki etkilerini belirlemek, ölçmek ve yönetmek için çalışmalar 
yürütecek. Enstitü tarafından yapılan açıklamaya göre bu görev gücü; 
radyolojik ve nükleer, biyolojik ve siber güvenlik, kritik altyapı ve 
konvansiyonel askeri yetenekler gibi ulusal ve uluslararası güvenlik 
alanlarında yapay zekâ modellerinin test edilmesi ve bu alanlardaki 
çalışmaların koordine edilmesini sağlayacak.

ABD, yapay zekâ yarışında Çin’i başlıca düşman olarak görmeye devam ediyor ve bu tehdit algısı, stratejik politikalarının merkezinde yer alıyor.

ABD ayrıca uluslararası güvenlik işbirliğini artırmak amacıyla müttefik 
ülkelerle ortak yapay zekâ projeleri yürütmeyi hedefliyor. Bu kapsamda, 
NATO müttefikleriyle yapay zekâ tabanlı savunma sistemlerinin 
entegrasyonu ve ortak simülasyon çalışmaları gerçekleştirilecek. Bu 
sayede yapay zekâ kullanımı sınır ötesi askeri operasyonlarda hızlı 
karar alma süreçlerini destekleyecek ve tehditlerin önceden tespit 
edilmesini sağlayacak. Ayrıca siber saldırılara karşı uluslararası 
savunma mekanizmalarının geliştirilmesi ve ortak bir siber güvenlik ağı 
kurulması gibi konular da ABD'nin uluslararası güvenlik stratejisinin 
bir parçası olarak değerlendiriliyor.

Bu çabalar Çin’e karşı bir koalisyonun habercisi mi?

ABD ve Çin arasındaki yapay zekâ yarışı, yalnızca bir teknolojik 
üstünlük arayışı değildir. Bu yarış aynı zamanda küresel düzenin 
şekillendirilmesinde büyük bir rekabet haline geldi. Her iki ülke de 
yapay zekâyı stratejik bir güç unsuru olarak görerek ekonomik ve askeri
alanda avantaj sağlamaya çalışıyor. Bu bağlamda ABD'nin attığı adımlar, 
Çin'in hızla ilerleyen yapay zekâ kapasitesine karşı bir denge 
oluşturmayı amaçlıyor. Bu durum, uluslararası güvenlik, ekonomik 
çıkarlar ve etik değerler arasında yoğun bir çekişmeyi de beraberinde 
getiriyor.

ABD Senato Çoğunluk Lideri Chuck Schumer toplantı için önceden 
kaydedilmiş mesajında, Çin Komünist Partisi'nin (ÇKP) "Yapay zekâda 
kuralları yazmasına" izin verilmemesi gerektiğinin altını çizdi.​​​​​​​

ABD, yapay zekâ yarışında Çin'i başlıca düşman olarak görmeye devam 
ediyor ve bu tehdit algısı, stratejik politikalarının merkezinde yer 
alıyor. Çin'in yapay zekâ teknolojilerini hızla geliştirmesi ve küresel 
alanda etkisini artırma çabaları, ABD'yi bu alanda daha agresif adımlar 
atmaya itiyor. ABD'nin yalnızca ulusal güvenliği değil, aynı zamanda 
müttefikleriyle ortak savunma stratejilerini de bu eksende güçlendirme 
girişimleri, Çin'e karşı geniş bir koalisyon kurma niyetini açıkça 
gösteriyor. Kısacası, Uluslararası Yapay Zekâ Güvenlik Enstitüleri Ağı 
bu amaç doğrultusunda Çin'in artan yapay zekâ gücüne karşı uluslararası 
bir işbirliği ve savunma hattı oluşturmak için kurulmuş olabilir. İki 
ülke arasındaki bu rekabet, yapay zekâ teknolojilerinin geleceğini ve 
küresel güç dengesini belirleyecek temel faktörlerden biri olarak ortaya 
çıkıyor.

[Büşra Begçecanlı, Anadolu Ajansı muhabiridir.]

* Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansı'nın editoryal 
politikasını yansıtmayabilir.

KAYNAK

Instagram
KRIPTOKRAL.COM GÜNCEL HABERLER | Yatırım Tavsiyesi Değildir.

Leave feedback about this

  • Quality
  • Price
  • Service

PROS

+
Add Field

CONS

+
Add Field
Choose Image
Choose Video