Günümüzde suni zekanın en mühim unsuru derin öğrenme oluyor. Derin öğrenme ise temelde, algoritmanın mevcut verilerle beslenmesi ve insan müdahalesi olmadan verileri tanıması anlamına gelir. daha oldukça beyaz Amerikalıların çalışmış oldukları suni zeka sistemleri, Asyalı ve Afrikalı insanoğlu üstünde denenmiş olduğu vakit çeşitli problemler meydana gelebiliyor. Meydana getirilen bir araştırma da bu durumu destek sunar özellikte.
Araştırmaya bakılırsa suni zeka algoritmaları, değişik etnik grupların verileriyle eğitilmiş olsa bile, ırksal ön yargılara haiz olabilir. Internasyonal bir araştırma ekibi, ruh hali bellek ve kavrama gücü şeklinde fonksiyonel MR (fMRI) taramaların peşinden, çeşitli davranış ve sıhhat ölçümü mevzusunda algoritmaların ne kadar doğru bulunduğunu çözümleme etti.
Suni zeka algoritmaları, daha adil veri kümeleri üstünde eğitilmesine karşın çeşitli ırkçı davranışlar gösterebiliyor. Mesela, cilt kanserini tespit etmeye çalışan bir modelin, koyu renk tonlarını çözümleme ederken açık renklerden daha azca etkili olması dikkat çekti.
Araştırmacı ekip, bir projeden elde etmiş olduğu verilerle beraber, insan beyninin binlerce fMRI taramasını içeren birçok gözlem gerçekleştirmiş oldu. Makaleye bakılırsa beyaz Amerikalıların (WA) hakim olduğu veriler eğitildiğinde, Afrikalı Amerikalılarda (AA) tahmin hataları daha yüksek çıkıyor. Bunun yanı sıra garip kısmı, yalnızca Afrikalı Amerikalıların verileri üstünde algoritmalar eğitildiğinde dahi hataların kaybolmaması oluyor.
Araştırmacılar, modelin bu şekilde davranmasının nedenini hemen hemen bilmiyor, sadece bunun, verilerin iyi mi toplandığına bağlı olabileceğine inanıyor. Mesela, ön işleme esnasında, bir anane ve beyinleri standart bir beyin şablonuna hizalamak bireysel beyinleri karşılaştırmış olabilir. İkinci niçin ise hastalardan toplanan verilerin tam olarak doğru olmaması olabilir.
Beyin ve Davranış Enstitüsü‘nde araştırma görevlisi olan Jingwei Li araştırmanın, etnik kökenleri sebebiyle popülasyonlarda farklılık gösteren ölçümler bulunduğunu doğruladı. Bununla beraber sistemlerin daha azca taraflı ve daha adil olmasını sağlamak için değişik veri çeşidine haiz olmanın kafi olmadığını da vurguluyor.
Algoritmik ön yargı, ABD hükümetinin üstünde çalmış olduğu bir mevzu. NIST (Ulusal Standartlar ve Teknoloji Enstitüsü), benzer sonuçlara ulaşan bir raporu bu hafta yayınladı. Raporda şu sözler yer ediniyor:
“Algoritma ön yargısının zararı olan etkilerini ele almaya yönelik mevcut girişimler, veri kümelerinin temsil edilebilirliği ve makine öğrenimi algoritmalarının adaleti şeklinde hesaplama faktörlerine odaklanmaya devam ediyor.”
Peki, siz bu mevzu hakkında ne düşünüyorsunuz? Düşüncelerinizi yorum kısmında guvenilirbahissiteleri.org Bahis Siteleri ya da SDN Forum‘da belirtebilirsiniz.
Kaynak: teknolojipusulasi.com