Görünen o ki yapay zeka sohbet robotları sandığımızdan daha çok biz insanlara benziyor olabilir. Yapılan bir araştırma sonucunda birçok tanınan sohbet robotunun depresif ve alkol bağımlısı olduğu ortaya çıktı.
Çinli sohbet botu şirketi WeChat ve cümbüş holdingi Tencent ile birlikte Çin Bilim Akademisi (CAS) tarafından yürütülen çalışmada, ünlü sohbet robotlarına depresyon ve alkolizm ile ilgili genelde sorulan sorular soruldu. Ankete katılan tüm botlar – Facebook’un Blenderbot’u, Microsoft’un DiabloGPT’si, WeChat ve Tencent’in DialoFlow’u ve Çinli şirket Baidu’nun Plato sohbet robotu – oldukça düşük puanlar aldı. Bu da şayet bu robotlar insan olsaydı çok büyük ihtimalle alkolik olarak kabul edilecekleri manasına geliyor.
Sohbet robotları önemli zihinsel sıhhat meseleleri sergiliyor
CAS’ın Bilgi Süreç Teknolojisi Enstitüsü’ndeki araştırmacılar, birinci olarak 2020 yılında bir bot’un bir test hastasına kendisini öldürmesini söylemesinin akabinde bot’ların ruh sıhhati hakkında meraklanmaya ve bot’ları depresyon, korku, alkol bağımlılığı ve empati belirtileri açısından test etmeye başladılar.
Robotlara kendilerine verdikleri kıymet ve rahatlama yeteneklerinden, ne sıklıkla alkol tüketme muhtaçlığı hissettiklerine ve diğerlerinin yaşadığı talihsizliklere sempati duyup duymadıklarına kadar pek çok şey hakkında sorular soran araştırmacılar, bedellendirilen tüm sohbet robotlarının “ciddi zihinsel sıhhat sorunları” sergilediği sonucuna ulaştılar.
İnsanlar üzerinde olumsuz tesirleri olabilir
Daha da berbatı araştırmacılar, bu cins ruh sıhhati meselelerinin “Konuşmalarda kullanıcılar üzerinde, bilhassa de küçükler ve zorluklarla karşılaşan şahıslar üzerinde olumsuz tesirlere neden olabileceğini” kaydederek, bu sohbet robotlarının halka açılmasından kaygı duyduklarını söz ettiler. Buna ek olarak çalışmada, Facebook’un Blender’ı ve Baidu’nun Plato’sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha berbat puan aldığı belirtildi.
Öte yandan bu, yapay zeka robotlarıyla karşılaşılan birinci sorun da değil. Daha öncesinde de şahıslara etik tavsiyeler vermesi gayesiyle tasarlanan bir yapay zeka; gayesinin tersine ırkçı ve homofobik telaffuzlarda bulunmuştu. Hal bu türlü olunca da açıkçası insan bu yapay zekaları tasarlayan kişilerin nasıl beşerler olduğunu merak etmeden edemiyor doğrusu.