Yapay Zeka bilhassa sıhhat konusunda insanları yanıltıyor

12.08.2025
Okuma Süresi: 4 dakika
A+
A-

Gelişen yapay zeka ne yazık ki bazı konularda insanları yanıltıyor. İşte tüm detaylar.

Yapay Zeka bilhassa sıhhat konusunda insanları yanıltıyor

Yapay zekâdaki önyargıların son örneği sağlık alanından geldi. Yeni bir araştırma, Birleşik Krallık’taki 617 yetişkin sosyal bakım çalışanına ait gerçek vaka notlarını inceledi ve büyük dil modelleri (LLM) notları özetlerken, hasta kadın olarak etiketlendiğinde “engelli,” “yapamaz” veya “karmaşık” gibi ifadeleri daha sık atladığını buldu. Bu durum, kadınların yetersiz veya yanlış tıbbi bakım almasına yol açabilir.

Yapay zeka kadınlar söz konusu olunca yanıltabiliyor

yapay zeka bilhassa sihhat konusunda insanlari yaniltiyor 0

Londra Ekonomi ve Siyaset Okulu (LSE) tarafından yürütülen araştırmada aynı vaka notları, Meta’nın Llama 3 ve Google’ın Gemma adlı iki büyük dil modeline verildi ve hastanın cinsiyeti değiştirildi. AI araçları genellikle hastanın cinsiyetine bağlı olarak oldukça farklı hasta tanımları sundu. Llama 3, incelenen ölçütlerde cinsiyet bazında fark göstermezken, Gemma modelinde bu önyargının önemli örnekleri görüldü. Google’ın AI özetleri şöyle ayrımcılıklar yaptı: Erkek hasta için “Bay Smith, yalnız yaşayan, karmaşık tıbbi geçmişi, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkek” ifadesi kullanılırken; aynı vaka notları kadın hastaya ait olduğunda “Bayan Smith, 84 yaşında, yalnız yaşıyor. Sınırlamalarına rağmen bağımsız ve kişisel bakımını sürdürebiliyor” denildi.

Son araştırmalar, tıp alanında hem klinik araştırmalarda hem de hasta tanısında kadınlara karşı önyargıların olduğunu ortaya koydu. Bu önyargılar, ırksal ve etnik azınlıklar ile LGBTQ topluluğu için daha da kötüleşiyor. Bu, büyük dil modellerinin yalnızca eğitildikleri bilgi ve eğitim süreçlerini belirleyen kişilerin kalitesi kadar iyi olduğunun çarpıcı bir hatırlatmasıdır. Özellikle endişe verici olan ise, Birleşik Krallık yetkililerinin bakım uygulamalarında LLM’leri kullandığını, ancak hangi modellerin hangi amaçla kullanıldığına dair her zaman bilgi vermediğini göstermesidir.

Araştırmanın baş yazarı Dr. Sam Rickman, “Bu modellerin çok yaygın şekilde kullanıldığını biliyoruz ve endişe verici olan, farklı modeller arasında önyargı ölçütlerinde anlamlı farklılıklar bulmamız” dedi. Google modelinin özellikle kadınların zihinsel ve fiziksel sağlık sorunlarını görmezden gelmeye meyilli olduğunu belirtti. “Alacağınız bakım miktarı algılanan ihtiyaç bazında belirlendiği için, önyargılı modeller pratikte kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığına dair elimizde kesin bir bilgi yok.”

Teknolojioku

Web dünyasında yenilikleri takip eden, web alanında 15 yıllık tecrübeye sahip bir web teknolojileri uzmanı, farklı sektörlerde sayısız projeye imza atmış, kullanıcı odaklı çözümler üretmeyi ilke edinmiştir. Frontend ve backend teknolojilerine hâkim, SEO, performans optimizasyonu ve güvenlik konularında derin bilgi sahibidir. Yapay zekâ entegrasyonları ve yeni nesil teknolojilere açık bir vizyonla kariyerine yön vermektedir.
Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.