Haberler

Rusya’da sinir ağları tarafından oluşturulan içeriğin etiketlenmesi önerildi

Yapay zeka (AI) kullanılarak oluşturulan içeriğin Rus çevrimiçi hizmetlerine kullanıcı tarafından etiketlenmesine yönelik bir mekanizmanın tanıtılması gerekmektedir. Bu, Devlet Duma Bilgi Politikası, Bilgi Teknolojileri ve İletişim Komitesi Başkan Yardımcısı Anton Gorelkin tarafından belirtildi. İçerik etiketlemenin deepfake’lere karşı mücadelede nasıl yardımcı olabileceği ve bunun Rusya’da nasıl uygulanabileceği hakkında ayrıntılar için İzvestia makalesini okuyun.

Deepfake Karşıtı Çözüm

Yapay zeka içeriğinin özel etiketlenmesine yönelik mekanizmanın, YouTube’un video barındırma hizmetine benzer şekilde Rus çevrimiçi hizmetlerinde uygulanması gerekiyor. Devlet Duması Bilgi Politikası, Bilgi Teknolojileri ve İletişim Komitesi Başkan Yardımcısı Anton Gorelkin yazdı Telegram kanalınızda.

“Bir video yayınlarken yazar, videonun oluşturulmasında üretken teknolojilerin yer aldığını belirtmelidir. Bana göre bu doğru ve izleyiciye karşı adil bir davranıştır” dedi Gorelkin.

Milletvekiline göre, güvenilmez içeriğin belirlenmesi için tek bir platform temelinde materyallerin ek doğrulaması uygulanabilir – Dijital Kalkınma Bakanlığı bu yeni gelişmeyi daha önce bildirmişti. Yaratılışının kesin zamanlaması henüz açıklanmadı, ancak departman bu alanda araştırma çalışması yürütmek için zaten bir teklif aldı.

Fotoğraf: IZVESTIA/Dmitry Korotaev

Gorelkin şunu da vurguladı: Platform oluşturulduktan sonra kullanıcı içeriğiyle çalışan tüm Rus çevrimiçi hizmetlerinin ona bağlanması gerekir. Milletvekili, bu tür sistemlerin, saldırganların Rus kamuoyunu manipüle etmek amacıyla sahte resim ve videolar kullanmasını engellemek için tasarlandığını belirtti. Bu tür eylemlerin “an meselesi” olduğunu söyledi.

Gorelkin sözlerini şöyle tamamladı: “Yapay zeka araçlarının her geçen gün daha erişilebilir hale geldiği göz önüne alındığında, bir sonraki seçimlerde bunların kötü niyetli kullanımlarıyla karşılaşabileceğimizden hiç şüphem yok.”

Dolandırıcılık aracı

Yapay zeka kullanılarak oluşturulan içeriklerin etiketlenmesi konusu, kullanımının yaygınlaşması nedeniyle günümüzde giderek önem kazanmaktadır. Bu yüzden, RuNet’te yapay zeka, kullanıcılardan ve işletmelerden yasal içerik oluşturmak için kullanılır. Sinir ağları özellikle sosyal ağlar, reklam fotoğraf ve video materyalleri, sunum tasarımı, illüstrasyonlar ve diğer materyaller için içerik planları oluşturmaya yardımcı olur.

Angara Security’de olay müdahale uzmanı Alina Andrukh, Izvestia ile yaptığı röportajda “Sinir ağları, tek seferlik veya kısa vadeli görevler için gerekli olan bu tür içeriğin üretilmesine yönelik maliyetleri ve zamanı büyük ölçüde azaltabilir” diyor.

Uzmanın belirttiği gibi, 2023 yılında internetteki deepfake video içeriklerinin sayısı 2019 yılına göre %550 arttı. Bu gösterge, bu tür materyallerin İnternet kullanıcıları tarafından oluşturulmasının ve dağıtımının erişilebilirliğini gösterir. Aynı zamanda sinir ağlarının yetenekleri, çeşitli siber saldırılar ve İnternet dolandırıcılığı gerçekleştirmek için yapay zeka tabanlı yöntemler kullanmaya başlayan siber suçlular tarafından da takdir edildi.

telefonlu kız

Fotoğraf: IZVESTIA/Dmitry Korotaev

Alina Andrukh’a göre, ses verilerinin toplanması sonucunda siber suçlular, sahte ses ve video kullanan bireylere ve işletmelere yönelik kimlik avı saldırılarının taktiklerini geliştirmeyi başardı. Böylece 2024 yılı başından itibaren Rusya’da sosyal mühendislik ve deepfake tekniklerinin bir arada kullanıldığı dolandırıcılık vakaları kayıtlara geçmeye başladı..

Uzman, “Bu tür saldırıların amacı, yöneticilerinin sahte Telegram hesabından mesaj alan şirket çalışanlarından fon elde etmektir” diye açıklıyor.

Fakat, Deepfakes kullanmanın başka bir senaryosu da kullanıcıları yanıltmak ve kamuoyunda büyük bir tepki yaratmaktır.. Örnek olarak, Güvenlik Kodu şirketinin bilgi güvenliği departmanı başkanı Alexey Korobchenko, eski cumhurbaşkanının gözaltına alınmasına ilişkin sahte fotoğraflardan bahsediyor Amerika Birleşik Devletleri AI tarafından yaratılan kuş tüyü ceketli Donald Trump veya Papa Francis. Aynı zamanda deepfake’ler ters yönde de kullanılabilir: örneğin, antisosyal bir davranışta bulunan bir ünlü, kendisiyle ilgili video veya fotoğraf verilerinin sahte olduğunu söyleyebilir.

Sinir ağları için kurallar

Üretilen içeriklerin ortaya çıkması ve herhangi bir etiketlemenin bulunmaması, kullanıcıların çeşitli kaynaklara olan güvenini kaybetmesine yol açmaktadır, Alexey Korobchenko’ya dikkat çekiyor. Öte yandan yapay zekanın yetenekleri konusunda pek tecrübeli olmayanlar, yapay zeka videosunun herhangi bir dehşeti göstermesi durumunda korku gibi olumsuz bir etkiye yenik düşebilirler.

İzvestia’nın muhatabı, “Bu bağlamda, yapay zeka yardımıyla oluşturulan içeriğin düzenlenmesi konusu geçen yıl geniş çapta tartışılmaya başlandı” diyor. — AB, ABD ve diğer ülkelerdeki yasa koyucular, yapay zeka içeriğinin zorunlu olarak etiketlenmesine yönelik projeleri değerlendirdi ancak henüz birleşik bir yaklaşım geliştirmediler.

II

Fotoğraf: IZVESTIA/Anna Selina

Yönetici ortak, “Hukuk Stratejileri” hukuk bürosunda kamu hukuku uygulama başkanı Oleg Nikolaev şunu hatırlatıyor: 13 Mart 2024’te AB, dünyanın ilk özel düzenleyici kanunu olan “Yapay Zeka Kanunu”nu kabul etti. Aynı zamanda bazı hizmetler kendi etiketleme kurallarını uygulamaya koydu; örneğin YouTube, kullanıcıların sinir ağları tarafından oluşturulan içeriği etiketlemesini zorunlu kıldı. Ancak şu ana kadar bu tür girişimler aralıklı olarak gerçekleşti.

Bu arada, Rusya’da yapay zekanın yardımıyla oluşturulan içeriğin düzenlenmesi alanında adımlar atılıyor: özellikle Alina Andrukh’a göre, Rus hükümeti 19 Mart 2024’e kadar yapay zeka teknolojisinin kullanımını düzenlemenin yollarını geliştirme talimatı verdi. .

Uzman, “Daha önce, 2023’te Rusya’da, gerçek içerik ile yapay zeka kullanılarak oluşturulan içerik arasında özel bir damga konularak ayrım yapılması zaten önerilmişti” diyor. “Ancak bu yöntemin uygulanması ve kontrolü oldukça zordur.

Üstelik Alina Andrukh, böyle bir zorunlu işaretin getirilmesi durumunda saldırganların yapay zeka kullanımını belirtmeden materyalleri kasıtlı olarak dağıtabileceklerini ve bu durumun insanları daha da yanıltabileceklerini belirtiyor. Bu nedenle yapay zeka içerik kontrolü söz konusu olduğunda dengeli bir yaklaşım çok önemlidir.

telefon

Fotoğraf: IZVESTIA/Dmitry Korotaev

Mevzuat yönü

Bugün Rusya’da, sahte ses ve video sahtekarlıkları da dahil olmak üzere yapay zeka izlerini tanımlamak için yeni araçlar geliştiriliyor – örneğin, geçen yaz sunulan Rus projesi “Zephyr”. Alina Andrukh’un dediği gibi Zephyr, yapay olarak oluşturulmuş içeriği yüksek olasılıkla tespit etme yeteneğine sahip.

İzvestia’nın muhatabı, “Yeni araçların ve gelişmelerin yaratılması, yakın gelecekte bu tür malzemelerin tanımlanmasının basitleştirilmesini mümkün kılacak” diyor.

Aynı zamanda Oleg Nikolaev’e göre, Yapay zeka içeriğinin özel olarak etiketlenmesine yönelik bir mekanizma uygulamak için ya “Bilgi, Bilgi Teknolojileri ve Bilginin Korunması Hakkında” Federal Yasayı uygun düzenlemelerle tamamlamak ya da yapay zeka ile ilgili tüm konuları düzenleyen tamamen yeni bir düzenleyici kanun geliştirip yürürlüğe koymak gerekli olacaktır. etiketleme sorunları da dahil.

Uzmanın belirttiği gibi, yapay zeka teknolojileri halkla ilişkilere daha da derinlemesine nüfuz ettiği ve vatandaşların ve kuruluşların günlük faaliyetleri üzerindeki etkisini arttırdığı için ikinci seçenek daha tercih edilebilir görünüyor.

robot

Fotoğraf: Global Look Press/Eric Renom

İzvestia’nın muhatabı, “Aynı zamanda, sosyal ağ kullanıcılarına veya sahiplerine yapay zeka kullanılarak oluşturulan içeriği etiketleme yükümlülüğü getirmek gereksiz görünüyor” diyor.

Oleg Nikolaev şunu hatırlatıyor Mevcut mevzuat, web sitesi yöneticilerinin (sosyal ağlar dahil) kullanıcılar tarafından üretilen içeriği izleme ve yasaklı bilgilere erişimi sınırlama yükümlülüğünü getirmektedir. Bu yükümlülüğün yerine getirilmemesi, 8 milyon rubleye kadar para cezası şeklinde sorumluluğa tabidir.

Bu nedenle, günümüzde yasaklı bilgilerin yayılmasıyla mücadele etmek için halihazırda yasal mekanizmalar mevcuttur ve bu bilgilerin yapay zeka kullanılarak mı yoksa yapay zeka olmadan mı oluşturulduğu önemli değildir. Uzman, yapay zeka teknolojileri kullanılarak üretilen tüm materyalleri etiketlemenin pek mantıklı olmadığı sonucuna varıyor.

Haber Azerbaycan

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu