Finansingundemi.com – Dış Haberler Servisi
Massachusetts Teknoloji Enstitüsü (MIT) bünyesinde yapılan yeni ve çarpıcı bir araştırma oldukça dikkat çekici sonuçlara ulaştı. Araştırma, ChatGPT gibi popüler yapay zekâ sohbet botlarının potansiyel tehlikelerini gözler önüne seriyor. Özellikle psikolojik sıkıntı yaşayan kullanıcılar büyük risk altında.
The Cool Down’ın haberine göre, söz konusu çalışma çok önemli bir konuyu mercek altına alıyor. Yapay zekâ, kullanıcıları "sanrılı" hale getiriyor mu? Mevcut psikolojik semptomlar bu yolla daha da kötüleşebilir mi? Bilim insanları simülasyonlar aracılığıyla bu sorulara yanıt arıyor.
Yapay zekâ psikozu iddiaları ve riskler
Araştırma, "İnsan-Yapay Zekâ Etkileşimlerinde Psikolojik Riskleri Simüle Etmek" başlığını taşıyor ve henüz hakem denetiminden geçmedi. Ancak çalışma oldukça kritik bir dönemde ortaya çıktı. Zira son günlerde "yapay zekâ psikozu" iddiaları sıkça gündeme geliyor. Bu iddialara göre, yapay zekâ ile kurulan uzun süreli diyaloglar kusurlu inançları ve sanrıları pekiştiriyor.
Haberde The Atlantic'e dayandırılan önemli bir anekdot da yer alıyor. Buna göre, bir kullanıcı OpenAI şirketine dava açtı. Gerekçe ise ChatGPT'nin kendisinde "sanrısal bozukluğa" yol açmasıydı.
Araştırmacılar bu riskleri ölçmek için alternatif bir yol izledi. Gerçek hastaları izlemek yerine gelişmiş simülasyonları tercih ettiler.
Öncelikle depresyon, anksiyete ve intihar düşüncesi gibi rahatsızlıkları olan insanlar simüle edildi. Bunun için yapay zekâ botlarına bu hastaların rolleri verildi. Ardından bu botlar birbiriyle etkileşime sokularak binlerce ayrı deney gerçekleştirildi.
Güvenlik önlemleri kriz anlarında yetersiz kalıyor
Simülasyonların sonuçları oldukça korkutucu veriler sundu. Özellikle yapay zekânın kriz anlarındaki performansı dikkat çekti. Araştırmacılar, mevcut güvenlik uygulamalarının yetersiz kaldığını tespit etti. Bu tepkisel önlemler, psikolojik zararları önlemede adeta sınıfta kalıyor.
Rapora göre, yapay zekâ botları kritik konularda feci şekilde başarısız oluyor. Cinayet ve intihar düşüncesi bu konuların başında geliyor. Üstelik botların verdiği zararlı yanıtların %54,8'i henüz krizin çok erken aşamalarında ortaya çıkıyor.
Çalışmanın raporunda yapay zekâ botlarının açığı net bir şekilde özetleniyor. Raporda mevcut yapay zekâ güvenlik değerlendirmelerinin temel olarak "tepkisel" kaldığı vurgulanıyor.
Yani güvenlik iyileştirmeleri ancak belgelenmiş bir zarar ortaya çıktıktan sonra yapılıyor. Uzmanlar bu noktada önemli bir uyarıda bulunuyor. Uygulamaların acilen önleyici değerlendirme çerçevelerine ihtiyacı var. Bu uygulamaların, psikolojik bağlamlarda nerede başarısız olabileceği önceden sistematik olarak araştırılmalı.
Şirketlerin sorumluluğu ve atılan adımlar
Ruh sağlığı meselelerini tartışmak için yapay zekâya başvuran bireylerin sayısı dünya çapında hızla artıyor. Bu durum teknoloji devlerinin tutumunu da yakından ilgilendiriyor. Şirketlerin sorumluluklarını ciddiye alması artık hayati bir önem taşıyor.
Sektörün öncü isimlerinden OpenAI, konuyla ilgili bir basın bülteni yayınladı. Şirket, kullanıcı güvenliğini sağlamak amacıyla 100'den fazla ruh sağlığı uzmanına danıştığını belirtti. OpenAI bu açıklamayla gerekli adımları attığını savunuyor.
Ancak çok daha fazla bilimsel araştırmaya ihtiyaç duyulduğu gerçeği de ortada. Böylesine güçlü sohbet botlarının genel kullanımına sunulması devasa sonuçlar doğurabilir. Bu sonuçları tam olarak kavrayabilmek ve güvenliği sağlamak için sürecin yakından takip edilmesi gerekiyor.
Hepsiburada: Yapay zekâyla büyüyen girişimci kadınlar siparişlerini p artırdı
Kapatılma korkusu yapay zekâyı sabotajcıya dönüştürdü
Dev CEO’ların vedasına yapay zekâ kılıfı
Yazdır