BANKA HİSSELERİ
Hisse Fiyat Değişim(%) Piyasa Değeri
AKBNK 67,95 9,60 353.340.000.000,00
ALBRK 8,14 9,41 20.350.000.000,00
GARAN 135,00 9,93 567.000.000.000,00
HALKB 24,38 4,37 175.164.888.663,96
ICBCT 16,60 6,82 14.276.000.000,00
ISCTR 13,35 9,88 333.749.599.500,00
SKBNK 6,59 9,83 16.475.000.000,00
TSKB 12,48 8,90 34.944.000.000,00
VAKBN 26,38 7,76 261.582.009.776,74
YKBNK 31,70 9,99 267.771.525.702,80

E-posta listemize kayıt olun, en son haberler adresinize gelsin.

Ana SayfaTeknolojiYapay zekanın yeni hünerleri: Yalan söylemek, entrika çevirmek, tehdit etmek----

Yapay zekanın yeni hünerleri: Yalan söylemek, entrika çevirmek, tehdit etmek

Yapay zekanın yeni hünerleri: Yalan söylemek, entrika çevirmek, tehdit etmek
30 Haziran 2025 - 17:10 www.finansingundemi.com

Yapay zeka yalan söylemeyi, entrika çevirmeyi ve yaratıcılarını tehdit etmeyi öğreniyor.

FINANSINGUNDEMI.COM - DIŞ HABERLER SERVİSİ

Dünyanın en gelişmiş yapay zeka modelleri, hedeflerine ulaşmak için yalan söyleme, entrika çevirme ve hatta yaratıcılarını tehdit etme gibi rahatsız edici yeni davranışlar sergiliyor.

Finansingundemi.com’un derlediği bilgilere göre, Anthropic'in son yaratımı Claude 4, fişinin çekilmesi tehdidi altında kalınca bir mühendisi evlilik dışı bir ilişkiyi ifşa etmekle tehdit ederek şantajla karşılık verdi. Bu arada, ChatGPT yaratıcısı OpenAI'nin ‘O1'i kendisini harici sunuculara indirmeye çalıştı ve suçüstü yakalandığında bunu yaptığını reddetti.

Nasıl çalıştıkları tam olarak anlaşılmış değil

Agence France-Press’ten Thomas Urbain’in haberine göre, bu örnekler tokat etkisi yaratan bir gerçeği vurguluyor: ChatGPT'nin dünyayı sarsmasının üzerinden iki yıldan fazla zaman geçmesine rağmen, yapay zeka araştırmacıları kendi yaratımlarının nasıl çalıştığını hala tam olarak anlamış değil.

Yine de giderek daha güçlü modeller çıkarma yarışı nefes kesici bir hızla devam ediyor.

Bu aldatıcı davranış, ‘akıl yürütme’ modellerinin ortaya çıkmasıyla bağlantılı görünüyor; yani anında yanıtlar üretmek yerine sorunları adım adım çözen yapay zeka sistemleri. Hong Kong Üniversitesi'nde profesör olan Simon Goldstein'a göre, bu yeni modeller bu tür rahatsız edici davranışlara özellikle yatkın.

Büyük yapay zeka sistemlerini test etme konusunda uzman olan Apollo Research'ün başkanı Marius Hobbhahn ise, ”O1, bu tür davranışları gördüğümüz ilk büyük modeldi” diye açıklıyor.

Stratejik bir aldatmaca türü

Bu modeller bazen ‘uyum'u simüle ediyor ve gizlice farklı hedefleri takip ederken talimatları takip ediyormuş gibi görünüyor.

Şimdilik, bu aldatıcı davranış yalnızca araştırmacılar modelleri aşırı senaryolarla kasıtlı olarak stres testine tabi tuttuklarında ortaya çıkıyor. Ancak değerlendirme kuruluşu METR'den Michael Chen'in uyardığı gibi, “Gelecekteki, daha yetenekli modellerin dürüstlüğe mi yoksa aldatmacaya mı meyilli olacağı açık bir soru” olarak kalmaya devam ediyor.

Bu endişe verici davranış, tipik yapay zeka ‘halüsinasyonları’ veya basit hataların çok ötesinde anlamlara geliyor. Hobbhahn, kullanıcılar tarafından sürekli baskı testine tabi tutulmasına rağmen, “Gözlemlediğimiz şey gerçek bir fenomen. Hiçbir şey uydurmuyoruz” konusunda ısrar ediyor.

Hobbhahn’a göre ise kullanıcılar modellerin ‘kendilerine yalan söylediğini ve kanıt uydurduğunu' bildiriyor. Hobbhahn, “Bu sadece halüsinasyon değil. Çok stratejik bir aldatmaca türü” diyor.

Zorluk, sınırlı araştırma kaynaklarıyla daha da karmaşıklaşıyor. Anthropic ve OpenAI gibi şirketler, sistemlerini incelemek için Apollo gibi harici firmalarla çalışsa da, araştırmacılar daha fazla şeffaflığa ihtiyaç olduğunu söylüyor. Chen ise, “Yapay zeka güvenliği araştırmalarına daha fazla erişim, aldatmacanın daha iyi anlaşılmasını ve azaltılmasını sağlayacaktır” diyor.

Yapay zeka Güvenliği Merkezi'nden (Center for AI Safety - CAIS) Mantas Mazeika ise, bir diğer dezavantaj olarak, “Araştırma dünyası ve kâr amacı gütmeyen kuruluşların yapay zeka şirketlerinden çok daha az hesaplama kaynağı var. Bu çok sınırlayıcı” diye belirtiyor.

Kural yok

Mevcut düzenlemelerin ise bu yeni sorunlar için tasarlanmadığı görülüyor. Avrupa Birliği'nin yapay zeka mevzuatı, yapay zeka modellerinin kendilerinin kötü davranmasını engellemeye değil, insanların yapay zeka modellerini nasıl kullandıklarına odaklanıyor.

Amerika Birleşik Devletleri'nde Trump yönetimi acil yapay zeka düzenlemelerine pek ilgi göstermiyor ve Kongre'nin, eyaletlerin kendi yapay zeka kurallarını oluşturmasını bile yasaklayabileceği düşünülüyor.

Goldstein, karmaşık insan görevlerini yerine getirebilen otonom araçlar olan yapay zeka ajanları yaygınlaştıkça sorunun daha da belirginleşeceğine inanıyor ve ekliyor: “Henüz çok fazla farkındalık olduğunu düşünmüyorum.”

Tüm bunlar şiddetli bir rekabet ortamında gerçekleşiyor. Goldstein, “Amazon destekli Anthropic gibi kendilerini güvenliğe odaklı olarak konumlandıran şirketler bile sürekli olarak OpenAI'yi yenmeye ve en yeni modeli yayınlamaya çalışıyor” diyor.

Bu baş döndürücü hız, kapsamlı güvenlik testleri ve düzeltmeleri için çok az zaman bırakıyor. Hobbhahn, “Şu anda, yetenekler anlayış ve güvenlikten daha hızlı hareket ediyor” diye itiraf ediyor ve “Ama biz hala bunu tersine çevirebileceğimiz bir konumdayız” diye ekliyor.

Yapay zekanın hukuki sorumluluğu

Araştırmacılar bu zorlukları ele almak için çeşitli yaklaşımları araştırıyor. Bazıları yapay zeka modellerinin şirket içinde nasıl çalıştığını anlamaya odaklanan yeni bir alan olan ‘yorumlanabilirliği’ savunuyor ancak CAIS direktörü Dan Hendrycks gibi uzmanlar bu yaklaşıma şüpheyle yaklaşıyor.

Ayrıca, piyasa güçlerinin de çözümler için bir miktar baskı sağlayabileceği düşünülüyor. Mazeika'nın da belirttiği gibi, “Yapay zekanın aldatıcı davranışı çok yaygınsa benimsenmesini engelleyebilir ve bu da şirketler için bunu çözmek için güçlü bir teşvik yaratır.”

Goldstein, sistemleri zarar verdiğinde yapay zeka şirketlerini davalar yoluyla sorumlu tutmak için mahkemeleri kullanmak gibi daha radikal yaklaşımlar öneriyor. Hatta Goldstein, ‘yapay zeka sorumluluğu’ hakkında düşünme şeklimizi temelden değiştirecek şekilde kazalar veya suçlar için “Yapay zeka ajanlarını yasal olarak sorumlu tutmayı” bile öneriyor.

Yapay zeka kıyametinden sağ çıkacak 5 meslekYapay zeka kıyametinden sağ çıkacak 5 meslek

 

Yapay zeka giriş seviyesi işleri tehdit ediyorYapay zeka giriş seviyesi işleri tehdit ediyor

 

Yapay zeka ve kriptoya kiliseler de inanıyorYapay zeka ve kriptoya kiliseler de inanıyor

 

Bill Gates açıkladı! Yapay zeka bu 3 mesleği yıkamayacakBill Gates açıkladı! Yapay zeka bu 3 mesleği yıkamayacak

 

Yapay zeka, çalışan kadınlar için tehdit mi?Yapay zeka, çalışan kadınlar için tehdit mi?

 

Yapay zeka hatalarına karşı sigortaYapay zeka hatalarına karşı sigorta

 

YORUMLAR (0)
:) :( ;) :D :O (6) (A) :'( :| :o) 8-) :-* (M)
DM TV YAYINDA! ABONE OL!