Cerrahpaşa Tıp Fakültesi Temel Tıp Bilimleri Bölümü Öğretim Üyesi Prof. Dr. Murat Kirişci, algoritmaların tarafsız olduğu algısının yanlış olduğunu belirterek, “İnsan düzelmedikçe yapay zekâdan daha iyi sonuçlar beklemek imkansızdır.” dedi.
Dijital çağın en büyük teknolojik icatlarından biri olan yapay zekâ, getirdiği yeniliklerle beraber yarattığı sorunlarla da gündeme gelmeye devam ediyor. Yapay zekâ sistemleri ile ilgili son dönemde en büyük sorunlardan biri olarak ise ırkçılık ve ayrımcılık ön plana çıkıyor. Mevcut verilerde bulunan önyargı ve ayrımcılık gibi istenmeyen özellikleri de öğrenen yapay zekâ ürünler, bu sebeple geçmişte pek çok skandala imza attı. 2016 yılında Microsoft tarafından geliştirilen ve X (Eski adıyla Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zekâ hesap "Tay", çok kısa bir süre içinde gerçek kullanıcıların tweet'lerinden beslenerek ırkçı ve islamofobik tweet'ler atmaya başlamış ve bu sebeple Microsoft, Tay'ın tweet'lerine müdahale etmek zorunda kalmıştı. Yapay zekâ uzmanı Prof. Dr. Murat Kirişci, AA muhabirine yaptığı açıklamada, algoritmaların verilerden öğrendiğine dikkati çekerek, "Bu kaynaklarda var olan yanlı, ayrımcı, ırkçı bilgiler de algoritmalar tarafından işlenmekte ve sonuçta araçlar ayrımcı, ırkçı kararlar almaya başlamaktadır." dedi. Sorunun algoritmaları besleyen verilerde, dolayısıyla o verileri elde eden, üreten insanda olduğuna vurgu yapan Kirişci, "Irkçılık, eşitsizlik özünde verinin bir hatası değil, bizzat verinin bir özelliğidir. Veriyi üreten, algoritmaları yazan, araçları dizayn eden insanın tüm önyargıları, yanlılıkları ve zihnindeki olumsuzluklarıdır sorun olan." şeklinde konuştu. Kirişci, ayrımcılık yapan algoritmaların hayatın her yerinde var olabileceğini belirterek, sözlerini şöyle sürdürdü: "Irkçı algoritmalar bir iş yerinde, kişinin işe alınmasından, şirkette çalışırken birçok konuya etki edebilir. Mesela iş başvurularında erkekleri tercih eden algoritmalar mevcuttur. Koyu tenli kişilerde düzgün çalışmayan bir sosyal medya filtresinden veya nörolojik açıdan sıkıntılı öğrencilerin davranışlarını hesaba katmadan bu kişilere ayrımcı bir önyargı ile yaklaşan yapay zekâlar çok sıklıkla karşılaşılan araçlardır. Bölgelerinde siyahi ya da farklı ırktan insanların oturmasını istemeyenlerin taleplerine göre üretilmiş algoritma, ırkçı, ayrımcı konut satışı-kiralaması yapmaktadır. Yüz tanıma sistemlerinde siyahileri ya da ten rengi ortamdaki kişilerden farklı olanları suçlu görme eğiliminde olan algoritmalar birçok masum kişiyi hürriyetinden yoksun bırakmaktadır. Irkçı algoritmalar yüzünden sosyo-ekonomik geçmiş, eğitim ve yaşanılan bölgeye göre tanımlanan kişiler polis tarafından daha fazla gözlem altına tutulabilmektedir. Şiddet uygulayan kişi ya da grupları temize çıkartan ırkçı algoritmalar mevcuttur. Hakkını savunana toplumları (Örneğin Filistin halkını) marjinalleştirip kötüleyerek yok olmalarını haklı sebeplere dayandıracak algoritmalar özellikle sosyal mecrada kullanılmaktadır."
“İnsan düzelmedikçe…”
İnsanların zihninde algoritmaların daha tarafsız olduğu yönünde bir algı olduğunu söyleyen Kirişci, insanların tüm önyargılarının algoritmalar vasıtasıyla o araçlara geçtiğini ve bu araçların zaman zaman daha ırkçı, daha taraflı ve ayrımcı olabildiğini söyledi. Kirişci, "İnsanlar arasında nasıl ki bir grup bir başka gruba göre orantısız davranışlar sergileyebiliyorsa yapay zekâ araçlarının hepsi aynı şekilde önyargı ve ırkçı orantısızlıklar uygulamaktadır. Yapay zeka gelişip hayat içerisinde yaygınlaştıkça bu adaletsizlik ve ırkçılık da giderek hayatın içerisinde farklı yapay zekâ araçlarıyla yürütülmektedir. Bu karmaşa içinde bir yapay zekânın daha adil olmasının tek yolu veri-bilgi aldığı insanoğlunun daha adil olmaya çalışmasıdır. İnsan düzelmedikçe yapay zekâdan daha iyi sonuçlar beklemek imkansızdır." değerlendirmesinde bulundu.
Instagram
KRIPTOKRAL.COM GÜNCEL HABERLER | Yatırım Tavsiyesi Değildir.
Leave feedback about this