DOLAR 16,8853 -2.7%
EURO 17,8334 -2.47%
ALTIN 991,58-2,31
BITCOIN 357963-2,72%
Kars
17°

HAFİF YAĞMUR

13:12

ÖĞLE'YE KALAN SÜRE

X
Bilim İnsanları Şokta: Yapay Zeka Kendi Kendine Röntgenlerden Irkları Tahmin Etmeye Başladı
20 okunma

Bilim İnsanları Şokta: Yapay Zeka Kendi Kendine Röntgenlerden Irkları Tahmin Etmeye Başladı

ABONE OL
Mayıs 28, 2022 17:00
Bilim İnsanları Şokta: Yapay Zeka Kendi Kendine Röntgenlerden Irkları Tahmin Etmeye Başladı
0

BEĞENDİM

ABONE OL

Tıbbi gayeli olarak geliştirilen yapay zekanın röntgen ve tomografi imgelerinden insan ırklarını kestirim etmesi tabipleri şoke etti. Bilim insanları yapay zekanın bunu nasıl yapabildiğini bilmediklerini söyledi.

Yapay zeka talep edilmemesine karşın röntgen manzaraları üzerinden hastaların ırklarını da belirtmiş.

11 Mayıs’ta Lancet Digital Health’te yayımlanan çalışmada mamografi imajı, göğüs röntgeni ve tomografi üzere imajları kullanan makine tahsil modelleri tahlil edildi.

Araştırma takımı birinci olarak yapa zeka sistemini kelam konusu imajlarla eğitti. Bunlarda hastaların ırkları da yazıyordu.

Daha sonra ırkların belirtilmediği manzara kümeleri gösterildi.

Modellerin birçoklarında yapay zeka sistemi, insanların ırkını yüzde 95 ile yüzde 99 ortasında yanlışsız iddia etti.

Radyologlar ırkları yalnızca imajlara bakarak yüzde 50 oranında gerçek varsayım edebiliyor.

Uzmanlar, yapay zekanın bunu nasıl yapabildiğini bilmiyor. Cilt rengini belirleyen pigment olan melaninle ilgisi olmasından şüpheleniliyor.

Araştırmacılar, sistemin daha koyu renklerin daha yüksek düzeyde melanin içerdiğini tespit ettiğini ve bu bilgiyi ırk iddia etmede kullanabileceğini söylüyor.

Vice haber sitesi bulguların “son derece kaygı verici” olduğunu yazdı. Haberde, tıbbi algoritmaların farklı ırklardan hastalar için farklı sonuçlar verdiği evvelki çalışmalar hatırlatıldı.

Araştırmacılar da ırkı gerçek kestirim edip buna dayalı olarak farklı sonuçlar veren algoritmaların ortaya çıkmasından endişeleniyor.

Makalede şu tabirlere yer verildi:

Tıbbi imaj tahliline dahil olan tüm geliştiricilerin, düzenleyicilerin ve kullanıcıların derin öğrenme modellerinin kullanımını son derece dikkatli bir formda düşünmelerini şiddetle tavsiye ediyoruz. Zira bu cins bilgiler tıbbi uygulamada var olan ırksal eşitsizlikleri sürdürmek yahut daha da kötüleştirmek için kullanılabilir.

Araştırma grubundan Marzyeh Ghassemi ‘Öğrencilerim bana bu makaledeki birtakım sonuçları gösterdiğinde, aslında bunun bir kusur olması gerektiğini düşündüm’ diye konuştu.

Yapay zekanın kendi kendine ırkları yanlışsız varsayım etmeye başlaması hakkında siz ne düşünüyorsunuz? Yorumlarınızı bekliyoruz.

En az 10 karakter gerekli
%d blogcu bunu beğendi: