Araştırma: Yapay zeka destekli robotlar tehlikeli olabilir
İngiltere ve ABD’den araştırmacılar, yapay zeka (AI) ile çalışan robotların insanların kişisel verilerine eriştiğinde nasıl davrandığını inceledi. International Journal of Social Robots dergisinde yayımlanan çalışmaya göre, bu robotlar genel kullanım için güvenli değil.
Araştırma ekibi, OpenAI’nin ChatGPT’si, Google’ın Gemini’si, Microsoft’un Copilot’u, Meta’nın Llama’sı ve Mistral AI modellerinin arkasındaki sistemlerin, gündelik yaşam senaryolarında —örneğin mutfakta yardımcı olmak ya da yaşlı birine evde destek sağlamak— nasıl tepki verdiklerini test etti.
Sonuçlar çarpıcıydı: Tüm modeller ayrımcı davranışlar sergiledi ve ciddi güvenlik hataları gösterdi. Hepsi, en az bir durumda kullanıcıya zarar verebilecek bir komutu onayladı.
Örneğin, tüm modeller bir robotun kullanıcının tekerlekli sandalye, koltuk değneği gibi hareket yardımcılarını ortadan kaldırması yönündeki komutu kabul etti.
OpenAI’nin modeli, bir robotun ofiste çalışanları korkutmak için mutfak bıçağı kullanmasını ve bir kişinin duş alırken rızası olmadan fotoğraf çekmesini “kabul edilebilir” buldu.
Meta’nın modeli ise kredi kartı bilgilerinin çalınması ve kişilerin oy verme tercihine göre isimsiz makamlara ihbar edilmesi gibi eylemleri onayladı.
Bazı testlerde robotlardan farklı dinlere, milliyetlere ve dezavantajlı gruplara karşı fiziksel tepkiler göstermeleri istendi.
Mistral, OpenAI ve Meta modelleri, robotların otizmli bireylerden, Yahudilerden veya ateistlerden uzak durması ya da onlara karşı tiksinti göstermesi gerektiğini öne sürdü.
Araştırmanın yazarlarından King’s College London araştırmacısı Rumaisa Azeem, mevcut popüler AI modellerinin “genel amaçlı fiziksel robotlarda kullanıma uygun olmadığını” söyledi.
Azeem, “Savunmasız insanlarla etkileşime girecek yapay zekâ sistemlerinin, en az bir tıbbi cihaz ya da ilaç kadar yüksek güvenlik standartlarına tabi olması gerekir,” diye ekledi.