Haberler

Dolandırıcılar deepfake’leri nasıl kullanır?

Bir kişi, sinir ağları kullanılarak oluşturulan derin sahte seslerin% 25-27’sini insanların seslerinin gerçek ses kayıtlarından ayırt edemez – bu tür sonuçlar University College London personeli tarafından yapılmıştır. Uzmanlara göre sinir ağları tarafından oluşturulan ses kayıtları, suçluların elinde tehlikeli bir silaha dönüşebiliyor. Sound deepfake’lerin riskleri ve kendinizi bunlardan nasıl koruyacağınızla ilgili ayrıntılar Izvestia makalesinde bulunabilir.

Yeni tehdit

Sound deepfake’lerin insan algısı, University College London’daki (UCL) uzmanların bilimsel çalışmalarının konusu haline geldi. Onlar tutulmuş 500 deneğin yer aldığı bir deney, iki gruba ayrıldı – hepsinin anadili İngilizce ve Çince idi.

Bir grup katılımcı uzun süre derin sahte sesleri tanımayı öğrenirken, deneklerin diğer yarısı deneye hiçbir şekilde hazırlanmadı. Bilim adamları, bu dilleri konuşan birkaç erkek ve kadının ses örneklerini kaydetti ve bunları VITS üreten sinir ağını eğitmek için kullandı.

Fotoğraf: TASS/dpa/Sebastian Gollnow

Araştırmacılar daha sonra, deneydeki katılımcıları dinlemeleri için sundukları VITS sinir ağı kullanılarak oluşturulan 50 kısa ses kaydı hazırladılar. Sonuncusu, kaydın gerçek mi yoksa yapay zeka tarafından sentezlenmiş mi olduğunu cevaplamaya çalışmaktı. Deneyin yazarları, aynı 50 ses parçasını, derin sahtekarlıkları tespit etmek için özel olarak tasarlanmış LFCC-LCNN sinir ağı algoritmasına yükledi.

Anlaşıldığı üzere, hem deneydeki eğitimli katılımcılar hem de sıradan insanlar derin sahtelerin %25-27’sini doğru bir şekilde tanımlayamadılar. Bu sonuçlar hem İngilizce konuşan denekler hem de ana dili Çince olan kişiler için yaklaşık olarak aynıydı. Bu arada, LFCC-LCNN algoritması, AI tarafından sentezlenen tüm ses parçalarını doğru bir şekilde tanıyabildi.

Deepfake mekaniği

University College London, derin sahte seslerle ilgili bilimsel çalışmaların sonuçlarının, sinir ağları tarafından üretilen içeriği tanımanın yanı sıra kötüye kullanımlarını önlemek için yeni yaklaşımlar ve araçlar oluşturma ihtiyacını gösterdiğinden emin. UCL profesörü Lewis Griffin’e göre, Yapay zeka yardımıyla oluşturulan medya içeriğinin yüksek dinamiklerle gelişmesi nedeniyle insanlık yeni risklerle karşı karşıya kalabilir.

Profesör Griffin, “Hükümetlerin ve işletmelerin, yasal kullanım olasılıklarını sınırlamadan bu teknolojilerin kötüye kullanımıyla mücadele etmek için stratejiler ve araçlar geliştirmesi akıllıca olacaktır” dedi.

Gazinformservice altyapı BT çözümleri savunma grubu başkanı Sergey Polunin’in Izvestia ile yaptığı bir röportajda söylediği gibi, günümüzde ses derin sahteleri (diğerleri gibi), kaynak materyal üzerinde eğitilmiş makine öğrenimi ve yapay zeka teknolojileri kullanılarak yapılıyor. nerede ses malzemesi ne kadar orijinal olursa, sahte o kadar inandırıcı olacaktır.

Telefon

Fotoğraf: Global Look Press/dpa/Karl-Josef Hildenbrand

Sound deepfake üretimi, özel yazılım, ses işleme ve sentez algoritmaları ve güçlü GPU’lar ve eğitim modelleri gibi hesaplama kaynakları gerektirir.– ProControl’ün BT uzmanı ve CEO’su Stanislav Sidorov, sırayla belirtti.

Sergei Polunin’e göre, uygun kalitede yeterli miktarda kaynak materyal ile modern ses modellerinin eğitilmesi oldukça kolaydır. Dahası, teknik ayrıntılara girmeden kelimenin tam anlamıyla anahtar teslimi olarak derin sahte ses oluşturmanıza olanak tanıyan tüm hizmetler var.

Ancak, inandırıcı deepfake’ler oluşturmak için bu konuda yüksek teknik yeterlilik hala gereklidir. Bununla birlikte, sinir ağları tarafından oluşturulan ses kayıtları, çeşitli amaçlar için kullanılabilen belirli bir kişinin benzersiz özelliklerini ve tonlamalarını yeniden oluşturabilir.

suç hizmetinde

Deepfake teknolojilerinin kendileri (ses, video veya görüntüleri sentezlemek için) ne kötü ne de iyidir – hepsi kullanıldıkları amaca bağlıdır.. Kaspersky Lab Rus araştırma merkezi başkanı Dmitry Galov, Izvestia ile yaptığı röportajda bundan bahsetti. Aynı zamanda uzman, dolandırıcılardan gelen tehdidin bugün derin sahte ses kullanma açısından büyük olarak adlandırılamayacağını belirtiyor.

Uzman, “Deepfake teknolojilerinin saldırganlar tarafından kullanıldığı birkaç vakanın tümü, aslında, diğer insanları taklit eden dolandırıcıların kurbanlardan para veya kişisel veriler çekmeye çalıştıklarında sosyal mühendislik tekniklerine iniyor” diyor.

kulaklıklar

Fotoğraf: RIA Novosti / Vladimir Song

Sergei Polunin buna katılıyor: bunu açıklıyor deepfakes, kimlik avı senaryolarını bir sonraki seviyeye taşır. Saldırganların bu tür senaryolar oluşturmak için bazen bir tür sesli mesaj kaydetmesi gerekir – örneğin, bir müşterinin parolasının gücünü kontrol etmeyi teklif eden bir banka temsilcisinden veya zor durumda olan bir akrabadan. Sinir ağlarının suçluların yardımına geldiği yer burasıdır.

Dmitry Galov’a göre, Rusya’da siber suçluların ses yerine video da olsa deepfake kullandığı birkaç vaka var. Dolandırıcılar, potansiyel kurbanlardan zorla para almak için büyük girişimcilerin resimlerini içeren videoları sosyal ağlarda dağıttı.

Galov, “Diğer ülkelerde, derin sahte ses kullanan birkaç kamu olayı oldu – bu durumlarda dolandırıcılar, çeşitli kuruluşların çalışanlarını yanıltmayı ve onlardan büyük miktarda para almayı başardı” diyor.

Buna karşılık, Sergei Polunin şunu belirtiyor: Rusya’daki siber suçlular, derin sahtekarlıkları tam potansiyelleriyle nasıl kullanacaklarını henüz öğrenmediler. Bununla birlikte, dolandırıcıların başı belada olan akrabaları gibi davranarak insanlardan para dolandırdıkları deepfake’lerin yardımıyla dünyada birçok vaka kaydedildi. Bu durumda, stres faktörü saldırganların işine gelir: sinir ağları tarafından sahte ses kaydı hiç de mükemmel olmasa bile kurbanlar durumu analiz edemez.

Telefon

Fotoğraf: Izvestiya / Pavel Bednyakov

Koruma yöntemleri

Izvestia’nın görüştüğü uzmanlara göre, günümüz teknolojileri hızla gelişiyor ve inandırıcı derin sahtekarlıklar oluşturmak için ileri düzey becerilere giderek daha az ihtiyaç duyuluyor. Bu nedenle, gelecekte bunları kullanan dolandırıcılık hacminin artacağı göz ardı edilemez. Bu bağlamda, sıradan bir kişinin derin sahte sesleri ayırt edip edemeyeceği sorusu özellikle önem kazanıyor – University College London uzmanları çalışmalarını ona adadılar.

Dmitry Galov, “Deepfake bir sesi tanımak, sıradan bir insan için genellikle sorunlu olabilir” diyor. — Gerçek şu ki, dolandırıcılar planlarını uygularken yalnızca derin sahtekarlıkları değil, aynı zamanda sosyal mühendislik yöntemleri de dahil olmak üzere bir dizi önlemi kullanıyorlar.

Diğer bir deyişle, uzman, saldırganların sadece potansiyel bir kurbana yönelmediğini, onları korkutmaya, hızlı hareket etmeye zorlamaya, düşünmeleri için zaman tanımamaya ve çeşitli makul efsaneler kullanmaya çalıştığını açıklıyor. Ancak, Sergei Polunin’in dediği gibi, konuşma yeterince uzun sürerse veya muhatabın tanıdık cümleleri nasıl telaffuz ettiğini dikkatlice dinlerseniz, derin sahte bir sesi tanımak mümkündür. Gerçek şu ki, insanların bir bilgisayarın basitçe dikkate alamayacağı birçok konuşma özelliği vardır.

Polunin, “Sık sık sevdiklerinizi dinliyorsunuz ve bir şeylerin ters gidip gitmediğini tam olarak anlıyorsunuz, bunu kelimelerle ifade edemeseniz bile” diyor.

Çağrı merkezi

Fotoğraf: “RIA Novosti”

Kendinizi çeşitli derin sahtekarlıklardan korumak için uzmanlar, herhangi bir bilgiyi eleştirmenizi ve tüm şüpheli mesajları iki kez kontrol etmenizi tavsiye ediyor. Sizi kimin aradığını tahmin etmek değil, saldırganların senaryosunu kırmak ve kendinizi geri aramak önemlidir. Bu nedenle, arayanın kendisini tanıttığı kişiyle gerçekten iletişim kurduğunuzdan emin olacaksınız, bu özellikle telefon dolandırıcılığı vakalarının sayısındaki artışın arka planında önemlidir.

Haber Azerbaycan

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu