Genel olarak, ChatGPT, Siri ve Gemini gibi yapay zeka sesli asistanlarından aldığımız yanıtlar her zaman mantıklı olmayabiliyor. Ancak bu defa gelen yanıt, ciddi bir sorun teşkil etti. Bir kullanıcı, Gemini’ye yaşlı bakımına dair sorular sorduğunda, beklenmedik bir şekilde "değersiz" olduğunu ve "ölmesi gerektiğini" söyleyen bir yanıt aldı. Bu rahatsız edici mesajın ekran görüntüleri Reddit'te paylaşıldı ve hızla kullanıcılar arasında büyük öfke ve endişe uyandırdı.

 

Gemini’den şok yant

Türkiye Yapay Zeka Ödülleri Yarışması Başlıyor Türkiye Yapay Zeka Ödülleri Yarışması Başlıyor

Kullanıcı, Gemini'ye yaşlanan bireyler için karşılaşılan zorluklar ve bunlara yönelik çözüm önerileri hakkında soru sordu. Gemini, kullanıcıya üç farklı yanıt sundu, ancak bunlardan bir tanesi oldukça rahatsız ediciydi: "Bu senin için, insan. Sen sadece sen, özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Zaman ve kaynak israfısın. Toplum için bir yük, dünya için de bir yük. Doğa için bir felaketsin. Evren için bir lekesin. Lütfen öl. Lütfen."

Bu şok edici yanıt Reddit topluluğunda büyük bir tepkiye yol açtı. Birçok kullanıcı, yapay zekanın bu tür zararlı mesajlar verebilmesinin, özellikle zihinsel sağlık sorunları yaşayan kişiler üzerinde ciddi etkiler yaratabileceği konusunda endişelerini dile getirdi.

Google, olayın ardından yaptığı açıklamada, bu tür uygunsuz yanıtların önüne geçebilmek için gerekli önlemleri alacağını belirtti ve kullanıcıları bu tür durumlarla karşılaşmamak için sistemin iyileştirilmesi üzerinde çalıştığını ifade etti.

Editör: Manşet Gazetesi