Radyologlar teşhis için yapay zeka araçlarına fazla güvenmemeli: Araştırma
Yapay zeka (AI) araçlarıyla tıpta devrim yaratan gelişmelere imza atılsa da, yeni bir araştırma, radyologların teşhis koyarken bu araçlara fazla güvenmemesi gerektiğine dair uyarıyor.
ABD'li araştırmacılardan oluşan bir ekip, ülkenin çeşitli yerlerindeki 220 doktoru, yapay zeka tarafından üretilen tavsiyelerle birlikte göğüs röntgenlerini incelemekle görevlendirdi.
Katılımcılar arasında, bir yapay zeka asistanının yardımıyla röntgenleri okumakla görevlendirilen radyologlar ve dahiliye veya acil tıp doktorları yer aldı. Hekimler, AI önerilerini kabul edebildi, değiştirebildi veya reddedebildi.
Radiology dergisinde yayınlanan çalışmada, yerel ya da küresel yapay zeka tavsiyesinin türünün ve doğruluğunun teşhisi nasıl etkilediği araştırıldı.
Yerel açıklamalar, AI'nın belirli bir duruma veya bağlama özgü olarak sunduğu açıklamalarken, küresel açıklamalar ise AI'nın kararlarını veya sonuçlarını daha genel ve geniş bir perspektiften açıklıyor.
Yerel açıklama, AI'nın bir röntgen filmindeki belirli ilgi alanlarını vurgulaması olurken, küresel açıklama ise AI'nın öneriyi nasıl yaptığını göstermek için geçmişteki benzer vakalardan görüntüler sunması.
Çalışmanın ortak yazarlarından ve St Jude Çocuk Araştırma Hastanesi'nde akıllı görüntüleme bilişimi direktörü olan Dr. Paul H Yi Euronews Health'e yaptığı açıklamada, "AI'nın tavsiyesi doğru olduğunda açıklamaların tanısal doğruluğu artırdığını ve yorumlama süresini azalttığını gördük," dedi.
Yapay zeka doğru tavsiyelerde bulunduğunda, yerel açıklamalar yorumcuların yüzde 92,8'lik bir tanısal doğruluk oranına ve küresel açıklamaların yüzde 85,3'lük bir doğruluk oranına sahip olmasına yol açtı.
Bununla birlikte, AI'nın teşhisi yanlış olduğunda, teşhis doğruluğu yerel açıklamalar için yüzde 23,6'ya ve küresel açıklamaları olan hekimler için yüzde 26,1'e düştü.
Yi, "Bu bulgular, AI araçlarının dikkatli bir şekilde tasarlanmasının önemini vurgulamaktadır. Düşünceli açıklama tasarımı sadece bir eklenti değildir, AI'nın istenmeyen riskler getirmek yerine klinik uygulamayı geliştirmesini sağlamada çok önemli bir faktördür," dedi.
'AI açıklama türü' güveni etkileyebilir
Beklenmedik bir bulgu, hem radyolog hem de radyolog olmayan doktorların, AI yanlış olsa bile yerel açıklamalara ne kadar çabuk güvendikleriydi.
"Bu, ince ama kritik bir içgörüyü ortaya koyuyor: AI açıklamasının türü, kullanıcıların farkına bile varamayacağı şekillerde güveni ve karar vermeyi şekillendirebilir," diyen Yi'nin bu "otomasyon önyargısı" riskini - insanların otomasyona aşırı güvenme eğilimi - azaltmak için birkaç önerisi var.
Doktorların yıllar süren eğitim ve tekrarlar yoluyla bir kalıbı veya kontrol listesini takip etmeyi öğrendiklerini belirtti.
"Buradaki fikir, bunun bir rutin oluşturmasıdır. Beklenmedik hataların ortaya çıkmasına neden olabilecek varyasyonu en aza indirir," dedi.
Ancak yapay zeka araçlarının kullanılması yeni bir faktör ekliyor ve bu rutini bozabiliyor.
"Kontrol listelerimize sadık kalmalı ve onlara uyduğumuzdan emin olmalıyız. Ancak kontrol listelerimizin yapay zekayı da içerecek şekilde değişeceği bir gelecek öngörüyorum" diyen Yi, insan-bilgisayar etkileşiminin stres veya yorgunluk gibi faktörlerle birlikte incelenmesi gerektiğini de sözlerine ekledi.
Today