OpenAI’nin ChatGPT ve Anthropic’in Claude modelleri, yapılan güvenliktestlerinde endişe verici sonuçlar verdi. Testlerde, bombalı saldırı planları, biyolojik silah tarifleri ve siber suç yöntemleri gibi zararlı bilgiler ortaya çıktı. Uzmanlar, yapay zekâ güvenliği konusunda daha sıkı önlemler alınması gerektiğini vurguluyor.
HABERİN DEVAMINI OKUMAK İÇİN TIKLAYIN
Yapay zeka çiplerinde yeni hamle: Çin’in stratejik planı
Çocuklar ve yapay zeka ilişkisi: Aileler nelere dikkat etmeli?
Yapay zekada yeni dönem: Artık size iltifat etmek zorunda
Yazdır