Hisse | Fiyat | Değişim(%) | Piyasa Değeri |
---|
E-posta listemize kayıt olun, en son haberler adresinize gelsin.
FINANSGUNDEM.COM – DIŞ HABERLER SERVİSİ
Son dönemde yükselişe geçen ‘deepfake’ teknolojileri gerçek insanların seslerini taklit olarak gerçek zamanlı bir biçimde üretilmesine imkan sağlıyor. Üretken yapay zeka teknolojilerindeki son yükseliş söz konusu deepfake teknolojilerinin çok daha yaygın bir biçimde kullanılmasına olanak sundu. Financial Times’ın haberinde ise söz konusu teknolojiler karşısında dijital bankacılığın güvenliği sorgulanıyor.
Deepfake uygulamaları bir süredir film düzenleme gibi alanlarda sıklıkla kullanılıyordu. Ancak finansgundem.com’un derlediği bilgilere göre teknolojinin yaygınlaşmasıyla birlikte ‘deepfake’in yanlış ellere geçme olasılığı da arttı. Dolayısıyla deepfake içeriklerinin hırsızlık ve sahtekarlık işlemleri için kullanılması ciddi bir risk unsuru haline geldi.
Elbette teknolojinin gelişimiyle birlikte piyasadaki deepfake tespit araçları da hızlı bir şekilde gelişti. Söz konusu araçlar yine yapay zekayı kullanarak içeriklerdeki sahtekarlık sinyallerini algılamaya odaklanıyor. Örneğin bir fotoğrafta yer alan aydınlatmalar, gölgeler ve açılar üzerindeki bozulmalar ve bulanıklıklar tutarsızlıkların yakalanmasını sağlayan bariz işaretler arasında.
Bununla birlikte son dönemde yaratılan yapay zeka modellerinin ve ChatGPT gibi yapay zeka sohbet robotlarının patlaması deepfake teknolojisini daha ikna edici ve daha kolay ulaşılır hale getirdi. Diğer bir deyişle artık bilgisayar korsanlarının daha yüksek teknik yeteneklere ihtiyacı da kalmadı.
FT haberinde deepfake tespiti alanında uzmanlaşan start-up firması Clarity’nin CEO’su Michael Matias, “Açık kaynaklı daha gelişmiş yapay zeka modelleri piyasaya sürülüyor. Bu da deepfake’i daha yaygın hale getiriyor ve teknolojiyi daha da ileri götürüyor” dedi. Matias kolayca ulaşılabilen “katil uygulamalar” konusunda uyardı. CEO kötü insanların hızlı, kolay ve masrafsız bir şekilde süper yüksek kalitede deepfake üretebilme kapasitesine imkan sağlandığını söyledi. Üstelik bu deepfake’ler bazı deepfake tespit araçlarını çok da etkisiz hale getirebilir.
Teknoloji tedarikçisi ExpressVPN’e göre şu anda milyonlarca deepfake içerik şu anda çevrimiçi durumda ve bu rakamlar 2019’da 15 bin’den daha düşüktü. Regula tarafından yapılan bir ankete göre kurumsal şirketlerin yaklaşık yüzde 80’i bu deepfake ses veya video kayıtlarını operasyonlarına yönelik bir tehdit olarak görüyor.
Kimlik doğrulama sağlayıcısı şirket OneSpan’in CEO’su Matthew Moynahan, “İşletmelerin bu konuyu yeni nesil siber güvenlik endişesi olarak görmeleri gerekiyor. Gizlilik ve uyumluluk sorunlarının hemen hemen hepsini çözdük. Şimdiyse tüm konu kimlik doğrulama ile alakalı” dedi.
Deepfake ilgili sorunlar gerçekten de şirketler için ciddi bir öncelik haline geldi. Transmit Security tarafından haziran ayında yayınlanan bir rapor, yapay zeka tarafından üretilen deepfake'lerin, müşterilerin hesaplarını koruyan yüz tanıma sistemleri gibi biyometrik güvenlik sistemlerini atlamak ve sahte kimlik belgeleri oluşturmak için kullanılabileceğini ortaya koydu. Yapay zeka sohbet robotları artık güvenilir bir bireyi veya müşteri hizmetlerini taklit edebilecek derecede programlanabilir durumda. Bu da insanların diğer saldırılarda kullanılacak kişisel verilerini paylaşması için kandırılabilmesi tehdidini artırıyor.
Risk çözümleri kuruluşu LexisNexis’in CEO’su Haywood Talcove bu tip kimlik hırsızlığıyla mücadele etmenin yolu olarak davranışsal biyometriyi gösteriyor. Söz konusu teknik bir kullanıcının akıllı telefon veya bilgisayar gibi bir cihazı kullanırken nasıl davrandığını değerlendirmeyi ve öğrenmeyi içeriyor. Buna göre kullanıcıda herhangi bir şüpheli değişikliğin algılanması halinde sistem uyarı veriyor.
Talcove, “Bu davranışsal biyometrik sistemler, birinin aslında iddia ettiği kişi olmayabileceğine dair binlerce ipucu arar” açıklamasında bulundu. Örneğin, bir kullanıcı daha önce hiç ziyaret etmediği bir internet sitesinin yeni bir bölümündeyse, bu siteye aşina görünüyorsa ve hızla gezinebiliyorsa, bu bir dolandırıcılık göstergesi olabilir.
BioCatch gibi start-up'ların yanı sıra LexisNexis gibi daha büyük gruplar, bir kullanıcıyı gerçek zamanlı olarak sürekli doğrulamak için bu teknolojiyi geliştirenler arasındadır.
Yine de karşı saldırı riskleri de bulunuyor. Transmit Security raporunda, “Geleneksel dolandırıcılık tespit sistemleri genellikle kural tabanlı algoritmalara veya model tanıma tekniklerine dayanır. Ancak, AI destekli dolandırıcılar bu sistemlerden kaçmak için deepfake kullanabilirler. Sahte veriler üreterek veya AI modellerinin öğrendiği kalıpları manipüle ederek dolandırıcılar, algoritmaları hileli faaliyetleri meşru olarak sınıflandırmak için kandırabilirler” uyarısında bulunuldu.
İnternet kimlik hırsızlığıyla mücadele için diğer yaklaşımlar arasında çok faktörlü kimlik doğrulama ve cihaz değerlendirme araçları bulunmaktadır. Kimlik doğrulama start-up firması Verisoul’un CEO’su Henry Legard “canlılık” olarak adlandırdığı niteliğin kimlik hırsızlığını önlemede önemli bir gösterge olacağına inanıyor.
Söz konusu kriter, kullanıcıların kim olduklarını doğrulamak için kendilerinin kısa bir videosunu çekmelerini gerektirebilir. Teknoloji, 3 boyutlu maske veya görüntü değil, gerçek olduğunuzdan emin olmak için hareketlerinizi veya insan olduğunuzdan emin olmak için göz kırpmaları, ağız seğirmeleri gibi ince ayrıntıları kullanıyor.
Özellikle bankalar olmak üzere birçok şirket davranışsal biyometri ve diğer sağlam kimlik doğrulama tekniklerini benimsiyor. Ancak Talcove devlet dairelerinde hala yalnızca yüz tanıma sistemlerine güvenildiği uyarısında bulunuyor. Talcove, “Şu anda, neredeyse tüm ABD hükümeti ifşa olmuş durumda” ifadelerine yer verdi.
Dikkat! Dolandırıcılar ‘deepfake’ kullanıyor
Müzik sektöründe ‘deepfake’ tartışması
İnternette 'deepfake' dolandırıcılık: Kendilerini kadın olarak tanıtıyorlar!
Finansingundemi.com’da yer alan bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti; aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çerçevesinde sunulmaktadır. Burada yer alan yorum ve tavsiyeler, yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmaktadır. Bu görüşler mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabilir. Bu nedenle, sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi beklentilerinize uygun sonuçlar doğurmayabilir. Burada yer alan bilgiler, güvenilir olduğuna inanılan halka açık kaynaklardan elde edilmiş olup bu kaynaklardaki bilgilerin hata ve eksikliğinden ve ticari amaçlı işlemlerde kullanılmasından doğabilecek zararlardan www.finansingundemi.com ve yöneticileri hiçbir şekilde sorumluluk kabul etmemektedir. Burada yer alan görüş ve düşüncelerin www.finansingundemi.com ve yönetimi için hiçbir bağlayıcılığı yoktur. BİST isim ve logosu “koruma marka belgesi” altında korunmakta olup izinsiz kullanılamaz, iktibas edilemez, değiştirilemez. BİST ismi altında açıklanan tüm bilgilerin telif hakları tamamen BİST’e ait olup, tekrar yayınlanamaz.