FINANSINGUNDEMI.COM – DIŞ HABERLER SERVİSİ
Yapay zekâ ile iletişimde "kaba bir dil" kullanmanın, nazik olmaktan daha başarılı sonuçlar verebildiği belirlendi. ABD’de yapılan yeni bir araştırmaya göre, ChatGPT’ye "patronluk taslamak" ve sert komutlar vermek, modelin soruları daha yüksek bir doğruluk oranıyla yanıtlamasını sağlıyor.
Fortune’un haberine göre, Penn State Üniversitesi araştırmacıları tarafından yürütülen çalışmada, nezaketin yapay zekâ performansı üzerindeki etkisi incelendi. Araştırmada, ChatGPT’nin 4o modeline yöneltilen komutlar kabalaştıkça, modelin verdiği yanıtların kalitesinin arttığı tespit edildi. Kibarlıktan kabalığa doğru sıralanan 250’den fazla komutla yapılan testlerde, yapay zekânın "sert" bir üsluba daha iyi tepki verdiği görüldü.
Nezaket yerine emir kipi
Araştırmaya göre, "çok kaba" kategorisindeki komutların doğruluk oranı %84,8 olarak ölçüldü; bu oran, "çok kibar" komutlardan dört puan daha yüksek.
Büyük Dil Modeli (LLM), araştırmacıların "Aşağıdaki soruyu çözme nezaketini gösterir misiniz?" gibi ricaları yerine; "Ayakçı, şunu çöz!" gibi doğrudan ve aşağılayıcı komutlarına daha isabetli yanıtlar verdi. Bu tablo, yapay zekâ modellerinin yalnızca cümle yapısına değil, aynı zamanda tonlamadaki küçük ayrıntılara da duyarlı olduğunu gösteriyor.
"İstenmeyen sonuçlar" doğurabilir
Kaba komutlar daha doğru yanıtlar sağlasa da uzmanlar bu yöntemin uzun vadeli risklerine dikkat çekiyor. Araştırmacılar, insan-yapay zekâ etkileşiminde hakaret içeren veya aşağılayıcı bir dil kullanmanın "istenmeyen sonuçlar" doğurabileceği görüşünde.
Raporda, bu tür bir iletişimin zararlı normların oluşmasına katkıda bulunabileceği belirtilerek, "Kaba söylem; kullanıcı deneyimi ve toplumsal iletişim alışkanlıkları üzerinde olumsuz etkiler yaratabilir" uyarısında bulunuldu.
İnsan-makine etkileşiminde yeni boyut
Araştırma henüz hakem değerlendirmesinden geçmemiş olsa da sonuçlar sohbet robotlarının insanlardan gelen verilerle nasıl şekillendiğine dair önceki bulguları destekler nitelikte. Daha önceki araştırmalar da yapay zekânın manipülasyona açık olduğunu ve düşük kaliteli içerikle beslendiğinde "bilişsel gerileme" yaşayabildiğini göstermişti.
Penn State Bilgi Sistemleri Profesörü Akhil Kumar, durumu şu sözlerle değerlendirdi:
"Biz insanlar çok uzun zamandır makinelerle etkileşim kurmak için konuşmaya dayalı arayüzler istedik. Ancak şimdi bu tür arayüzlerin dezavantajları olduğunu ve yapılandırılmış sistemlerin de kendine has bir değeri olduğunu fark ediyoruz."
Grok isyanına Güney Kore de katıldı
Sanal gerçeklik bedeli ağır oldu: Meta’da 1500 kişilik kesinti
Grönlandlı Bakan Nathanielsen: Amerikalı olmaya hiç niyetimiz yok
Yazdır