İstanbul Teknik Üniversitesi (İTÜ) Siber Güvenlik Meslek Yüksekokulu Müdürü Prof. Dr. Kemal Bıçakcı, “Yaptığınız iş rutin işlerdense, bunlar çok daha hızlı bir şekilde yapay zekâ tarafından yapılabilir olacak.” dedi.
Prof. Dr. Bıçakçı, gelinen teknoloji itibarıyla gündelik rutin işlerden, üretimde verimliliğinin artırılmasına, enerji tasarrufundan, sağlık ve güvenlik gibi birçok alana kadar kolaylık sağlayan yapay zekâdaki son gelişmeler ve bu teknolojinin kötüye kullanımına ilişkin AA muhabirine değerlendirmelerde bulundu. Yapay zeka çalışmalarında büyük ilerlemeler olduğuna dikkati çeken Bıçakcı, son iki yılda "ChatGPT"nin çıkmasının ve "Devin" isimli dünyanın ilk yapay zekâ yazılım mühendisinin duyurulmasının önemli gelişmeler olduğunu söyledi.
“Çoğu meslek yok olmayacak ama sayıları azalacak”
Yaşanan gelişmeler karşısında gençlerin işsizlik problemini düşünerek endişeye kapılmalarının yerinde olduğunu anlatan Bıçakçı, geçmiş teknolojik gelişmelerle yapay zekânın kıyaslanmasını ise doğru bulmadığını belirterek, şöyle devam etti: "Daha önceki hesap makineleri, bilgisayarlar, otomasyon araçları, internet gibi bilimsel gelişmelere bakarak, 'Bu yeni gelişmeler çok da işsizlik sonucunu doğurmamıştı.' gibi bir anlayış olabilir. Ancak yapay zekâ hepsinden farklı, bambaşka bir teknoloji. Bizden daha iyi yapabildiği pek çok şey var. En son çıkan 'Devin' isimli bu yapay zekâ yazılım mühendisi gayet güzel kod yazabiliyor, yazılım geliştiriyor, yazılımda bir problem varsa buna müdahil olup bunu düzeltebiliyor gibi. Benim kanaatim 10 veya 20 yıl içerisinde insanların verimini müthiş seviyede arttıracak ve çoğu meslek yok olmayacak ama sayıları çok azalacak." İşlerin rutin taraflarını yapan bir yapay zekânın daha hızlı hayatımıza gireceğini ifade eden Bıçakcı, "Ölçü şu: Sizin yaptığınız iş bir tablolama programına veri girme, sosyal medya içeriği üretme gibi rutin işlerdense bunlar çok daha hızlı bir şekilde yapay zeka tarafından yapılabilir olacak ve işvereniniz sizin yerinize bu işleri yapay zekâya yaptırmayı tercih edecek. Yani buradaki ölçü bir işin ne kadar rutin olup olmadığıyla ilgili. Yazılım mühendisi tarafına baktığımızda da yine bu işlerin ön yüz program yazma gibi biraz daha rutin tarafları var. Daha rutin, web sayfası geliştirme, basit programlama işlerini yapan kişiler işsiz kalabilirler." diye konuştu. Yapay zekâ teknolojisinin gündelik yapılan işlerde kullanıldığında zaman açısından fayda sağladığını anlatan Bıçakcı, aynı zamanda işlerin daha verimli ve kaliteli yapılabileceğini vurguladı.
“Acaba insanlarla yapay zekâ karşı karşıya mı gelecek?”
Siber güvenlik alanında ise insan unsurunun ön plana çıktığına işaret eden Bıçakcı, "Deepfake" teknolojisiyle birlikte artan siber suçların yeni riskler doğurduğunu ve son gelişmelerle daha fazla siber güvenlikçiye ihtiyaç duyulacağını kaydetti. Yapay zekânın siber güvenliğe olası etkisini de değerlendiren Bıçakcı, şunları aktardı: "Siber güvenliğin ileride önemli bir alan olacağını değerlendiriyorum. Şimdi yapay genel zekâdan bahsediliyor. Belirli görevlerde yapay zekâ daha iyiyken süreç içerisinde insanın yaptığı çoğu işte yapay zeka daha yetenekli hale gelebildiği görülüyor. Robot teknolojisinin de gelişmesiyle birlikte 'Acaba insanlarla yapay zekâ karşı karşıya mı gelecek ve insan soyu adına böyle bir tehlike mi olacak?' Uzun vadede bu tartışılıyor. Yapay zekâ dijital teknolojileri kullanıyor, bunları 'hack' edip bunlarla mücadele edecek insanlar da siber güvenlikçilerdir. Bu teknolojileri iyi bilen, bu teknolojilerin zafiyetlerini analiz edebilen, o bakış açısına sahip hacker mantığını oturtmuş kişilere ihtiyaç duyulacak." Ödev, tez ile analiz gibi çalışmalarda yapay zekâ teknolojisinden faydalanılabileceğini dile getiren Bıçakcı, araştırmacının teknolojiden hangi noktada nasıl faydalandığını yayınında belirterek etik sınırlar içerisinde kalması gerektiğini ifade etti. "Deepfake" teknolojisiyle dolandırıcılığın da farklı bir boyuta geldiğine işaret eden Bıçakcı, "Basit bir e-posta mesajına aldanıp parasını kaptıran insanlarla, siz görüntüsü ve sesi tamamen tanıdığı insanlara benzeyen şekilde görüşme yapıp bir şey talep ettiğinizde korkutucu durumlar ortaya çıkabilir. Elektronik dünyada her şey mümkün. Gençler pek değil belki ama bu teknolojiyi çok bilmeden kullanan insanlar buna maruz kalıyorlar. Yapay zekâ ve 'Deepfake' dediğimiz teknoloji bu sorunu kat kat büyütecek gibi duruyor." dedi. Bıçakcı, bu tür dolandırıcılıklara karşı, teknik önlemlerin yanı sıra eğitim gibi yollarla farkındalığın artırılması gerektiğini kaydetti. Yapay zekâyla ilgili özellikle ABD'deki büyük gelişmelerin ülkelerin güvenliğini de yakından etkileyeceğine dikkati çeken Bıçakcı, sosyal medya, arama motoru gibi bilinen teknolojilerin yanı sıra yeni 'ChatGPT' gibi yapay zekâ uygulamalarının kullanımı ile kişisel ve hassas verilerin diğer ülke ve şirketlerin eline geçebildiğini aktardı.
Açık yapay zekâda yerlilik çalışması
Şirketlerin de projelerini korumak için bu teknolojilerin kullanımını sınırlandırması ve yerli alternatiflerinin üretilmesi gerektiğini ifade eden Bıçakcı, "Şu an kullanılan yapay zekâ uygulamaları, hep arkasında bir şirketin olduğu ve bizim sadece kullanıcısı olduğumuz, kullanıcısı olmakla da kalmayıp verimizi onlarla paylaşarak onların daha da gelişmesini sağladığımız sistemler. Bunların mutlaka Türkiye içerisinde de yerli versiyonlarının üretilmesi gerekiyor. Bu bağlamda da belki açık kaynak projelere dahil olunabilir." değerlendirmesini yaptı. Prof. Dr. Bıçakçı, artık "Açık yapay zekâ' diye bir kavram olduğunun altını çizerek, Avrupa'da birtakım noktalarda çalışmalar yürütüldüğünü, bunların daha çok şirketler üzerinden gittiğini ve biraz daha önde olduklarını, Türkiye'de de belli şirketlerin bu konuda çalışmaya başladıklarını fakat burada mutlaka daha farklı ve daha bütçeli çalışmalar yapmak gerektiğini bildirdi. Risklere karşı belli yasakların getirilebileceğini anlatan Bıçakcı, her kullanım durumunun ayrı ayrı incelenerek risk değerlendirmesi yapılıp güvenlik önlemleri alma yollarının aranması gerektiğini sözlerine ekledi.
Instagram
KRIPTOKRAL.COM GÜNCEL HABERLER | Yatırım Tavsiyesi Değildir.