| Hisse | Fiyat | Değişim(%) | Piyasa Değeri |
|---|---|---|---|
| AKBNK | 68,85 | -0,58 | 358.020.000.000,00 |
| ALBRK | 8,31 | 0,24 | 20.775.000.000,00 |
| GARAN | 132,20 | 0,69 | 555.240.000.000,00 |
| HALKB | 36,52 | -0,60 | 262.388.094.093,84 |
| ICBCT | 14,07 | -0,21 | 12.100.200.000,00 |
| ISCTR | 13,15 | -0,23 | 328.749.605.500,00 |
| SKBNK | 10,83 | 2,27 | 27.075.000.000,00 |
| TSKB | 11,31 | -0,88 | 31.668.000.000,00 |
| VAKBN | 31,14 | -0,64 | 308.781.796.226,22 |
| YKBNK | 34,42 | -0,58 | 290.747.505.195,28 |
E-posta listemize kayıt olun, en son haberler adresinize gelsin.

Finansingundemi.com – Dış Haberler Servisi
Massachusetts Teknoloji Enstitüsü (MIT) bünyesinde yapılan yeni ve çarpıcı bir araştırma oldukça dikkat çekici sonuçlara ulaştı. Araştırma, ChatGPT gibi popüler yapay zekâ sohbet botlarının potansiyel tehlikelerini gözler önüne seriyor. Özellikle psikolojik sıkıntı yaşayan kullanıcılar büyük risk altında.
The Cool Down’ın haberine göre, söz konusu çalışma çok önemli bir konuyu mercek altına alıyor. Yapay zekâ, kullanıcıları "sanrılı" hale getiriyor mu? Mevcut psikolojik semptomlar bu yolla daha da kötüleşebilir mi? Bilim insanları simülasyonlar aracılığıyla bu sorulara yanıt arıyor.
Yapay zekâ psikozu iddiaları ve riskler
Araştırma, "İnsan-Yapay Zekâ Etkileşimlerinde Psikolojik Riskleri Simüle Etmek" başlığını taşıyor ve henüz hakem denetiminden geçmedi. Ancak çalışma oldukça kritik bir dönemde ortaya çıktı. Zira son günlerde "yapay zekâ psikozu" iddiaları sıkça gündeme geliyor. Bu iddialara göre, yapay zekâ ile kurulan uzun süreli diyaloglar kusurlu inançları ve sanrıları pekiştiriyor.
Haberde The Atlantic'e dayandırılan önemli bir anekdot da yer alıyor. Buna göre, bir kullanıcı OpenAI şirketine dava açtı. Gerekçe ise ChatGPT'nin kendisinde "sanrısal bozukluğa" yol açmasıydı.
Araştırmacılar bu riskleri ölçmek için alternatif bir yol izledi. Gerçek hastaları izlemek yerine gelişmiş simülasyonları tercih ettiler.
Öncelikle depresyon, anksiyete ve intihar düşüncesi gibi rahatsızlıkları olan insanlar simüle edildi. Bunun için yapay zekâ botlarına bu hastaların rolleri verildi. Ardından bu botlar birbiriyle etkileşime sokularak binlerce ayrı deney gerçekleştirildi.
Güvenlik önlemleri kriz anlarında yetersiz kalıyor
Simülasyonların sonuçları oldukça korkutucu veriler sundu. Özellikle yapay zekânın kriz anlarındaki performansı dikkat çekti. Araştırmacılar, mevcut güvenlik uygulamalarının yetersiz kaldığını tespit etti. Bu tepkisel önlemler, psikolojik zararları önlemede adeta sınıfta kalıyor.
Rapora göre, yapay zekâ botları kritik konularda feci şekilde başarısız oluyor. Cinayet ve intihar düşüncesi bu konuların başında geliyor. Üstelik botların verdiği zararlı yanıtların %54,8'i henüz krizin çok erken aşamalarında ortaya çıkıyor.
Çalışmanın raporunda yapay zekâ botlarının açığı net bir şekilde özetleniyor. Raporda mevcut yapay zekâ güvenlik değerlendirmelerinin temel olarak "tepkisel" kaldığı vurgulanıyor.
Yani güvenlik iyileştirmeleri ancak belgelenmiş bir zarar ortaya çıktıktan sonra yapılıyor. Uzmanlar bu noktada önemli bir uyarıda bulunuyor. Uygulamaların acilen önleyici değerlendirme çerçevelerine ihtiyacı var. Bu uygulamaların, psikolojik bağlamlarda nerede başarısız olabileceği önceden sistematik olarak araştırılmalı.
Şirketlerin sorumluluğu ve atılan adımlar
Ruh sağlığı meselelerini tartışmak için yapay zekâya başvuran bireylerin sayısı dünya çapında hızla artıyor. Bu durum teknoloji devlerinin tutumunu da yakından ilgilendiriyor. Şirketlerin sorumluluklarını ciddiye alması artık hayati bir önem taşıyor.
Sektörün öncü isimlerinden OpenAI, konuyla ilgili bir basın bülteni yayınladı. Şirket, kullanıcı güvenliğini sağlamak amacıyla 100'den fazla ruh sağlığı uzmanına danıştığını belirtti. OpenAI bu açıklamayla gerekli adımları attığını savunuyor.
Ancak çok daha fazla bilimsel araştırmaya ihtiyaç duyulduğu gerçeği de ortada. Böylesine güçlü sohbet botlarının genel kullanımına sunulması devasa sonuçlar doğurabilir. Bu sonuçları tam olarak kavrayabilmek ve güvenliği sağlamak için sürecin yakından takip edilmesi gerekiyor.
Hepsiburada: Yapay zekâyla büyüyen girişimci kadınlar siparişlerini p artırdı
Kapatılma korkusu yapay zekâyı sabotajcıya dönüştürdü
Dev CEO’ların vedasına yapay zekâ kılıfı
Finansingundemi.com’da yer alan bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti; aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çerçevesinde sunulmaktadır. Burada yer alan yorum ve tavsiyeler, yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmaktadır. Bu görüşler mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabilir. Bu nedenle, sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi beklentilerinize uygun sonuçlar doğurmayabilir. Burada yer alan bilgiler, güvenilir olduğuna inanılan halka açık kaynaklardan elde edilmiş olup bu kaynaklardaki bilgilerin hata ve eksikliğinden ve ticari amaçlı işlemlerde kullanılmasından doğabilecek zararlardan www.finansingundemi.com ve yöneticileri hiçbir şekilde sorumluluk kabul etmemektedir. Burada yer alan görüş ve düşüncelerin www.finansingundemi.com ve yönetimi için hiçbir bağlayıcılığı yoktur. BİST isim ve logosu “koruma marka belgesi” altında korunmakta olup izinsiz kullanılamaz, iktibas edilemez, değiştirilemez. BİST ismi altında açıklanan tüm bilgilerin telif hakları tamamen BİST’e ait olup, tekrar yayınlanamaz.