Haberler

Sinir ağları kullanıcıları nasıl gözetleyebilir?

Uzmanlar, macOS’un popüler ChatGPT uygulamasında yeni bir güvenlik açığı keşfetti: yapay zeka hafıza işlevi sayesinde saldırganların casus yazılım yüklemesine olanak tanıyor. Bu, kullanıcı bilgisayarlarında sürekli veri sızıntısını tehdit eder. İzvestia makalesinde sinir ağlarının neden kullanıcıları gözetleyebileceği hakkında daha fazla bilgi edinin.

Yeni tehdit

MacOS için ilk kez ChatGPT uygulamasındaki tehlikeli bir güvenlik açığı hakkında rapor edildi Siber güvenlik araştırmacısı Johann Reiberger. Uzmana göre güvenlik açığı, yapay zeka (AI) bellek işlevi sayesinde saldırganların casus yazılım yüklemesine olanak tanıyor.

Fotoğraf: Global Look Press/Cfoto

Uzmanlar tarafından SpAIware olarak adlandırılan teknik, kullanıcılar tarafından girilen veya sohbetlerde alınan bilgiler de dahil olmak üzere kullanıcıların cihazlarından sürekli olarak veri sızdırdığı için tehlikelidir. Johann Reiberger’in açıkladığı gibi, Güvenlik açığı, ChatGPT’nin geliştiricisi OpenAI’nin geçen Şubat ayında uyguladığı ve ardından hem ücretli hem de ücretsiz sürümlerin tüm kullanıcılarına genişlettiği bir bellek işlevinden yararlanıyor.

Bu özellik sayesinde ChatGPT, farklı sohbetlerdeki belirli verileri “hatırlayabilir”, böylece kullanıcıların aynı bilgileri tekrarlaması gerekmez. Ancak aynı mekanizmanın, sistem belleğine kötü amaçlı talimatlar enjekte etmek için de kullanılabileceği ortaya çıktı. Bu, bilgisayar korsanlarının tüm yeni kullanıcı sohbetlerini gözetlemesini ve hassas verileri sunucularına aktarmasını mümkün kılar.

Sohbet botu

Fotoğraf: IZVESTIA/Dmitry Korotaev

Güvenlik açığının işe yaraması için potansiyel bir kurbanın yalnızca kötü amaçlı bir web sitesini ziyaret etmesi veya ChatGPT için gizli komutlar içeren bir dosya indirmesi gerekiyor. Uzmanlar bu güvenlik açığı hakkında konuşmaya başlayınca OpenAI, veri sızıntısı olasılığını ortadan kaldıran ChatGPT güncelleme sürümü 1.2024.247’yi yayınladı. Ancak uzmanlar yine de kullanıcıları ChatGPT hafızasındaki bilgileri düzenli olarak kontrol etmeye ve oradan hem şüpheli hem de yanlış verileri silmeye çağırdı.

Bellek riskleri

Angara Güvenlik siber güvenlik uzmanı Len Rudolf’un Izvestia ile yaptığı röportajda söylediği gibi SpAIware tekniği, chatbot hafıza fonksiyonunu kullanan kullanıcılar için ciddi bir risk oluşturuyor çünkü bu güvenlik açığı, girilen verilerin sızmasına neden olabiliyor.

“Böyle bir işlevin avantajları, yapay zekanın bilgiyi uzun süre hatırlaması ve kullanıcılarla etkileşimi geliştirmesidir, ancak dezavantajı, bu işlevin aynı zamanda saldırganın belleğe erişim sağlaması durumunda bir vektör oluşturmasıdır” diyor. uzman. “Uzmanlar tarafından bulunan güvenlik açığı, yapay zeka hafıza fonksiyonunun izlenmesinin daha fazla dikkat gerektirdiğini gösteriyor.

Len Rudolph şunu belirtiyor: Johann Reiberger tarafından tanımlanan ChatGPT’deki sorun, ilk kez bir chatbot’un varsayımsal olarak kullanıcıları gözetleme yeteneğine sahip olduğunun bulunmasıdır.. Bununla birlikte, OpenAI ürünündeki güvenlik açıkları daha önce de bulunmuştu: özellikle Mart 2023’te, chatbot kullanıcılarının kişisel verilerinin sızıntısı kaydedildi – bir süreliğine sohbet geçmişinden başlıkları ve banka kartlarıyla ilgili bazı bilgileri görmek mümkün hale geldi. kurbanlar.

Fotoğraf: IZVESTIA/Pavel Volkov

T1 AI (T1 Holding) Başkan Yardımcısı Evgeny Grigoriev, yapay zeka ajanları kullanıcı için rutin işlevleri yerine getirmeyi öğrendiğinde sinir ağlarının hafızasını manipüle etme sorununun daha da ciddi hale gelebileceğini ekliyor. Bu nedenle Apple Intelligence ve benzeri servislerin akıllı telefon ve bilgisayarlarda kullanılması ilk etapta riskli olabiliyor.

Uzman, “Chatbot’ların hafızasıyla ilgili güvenlik açıkları tehlikelidir çünkü saldırganların, bilgileri olmadan kullanıcı verilerine uzun süre erişmesine olanak tanır” diyor. — Bu özellikle gizli bilgilerle çalışan kuruluşlar için tehlikelidir. SpAIware saldırıları haftalarca, hatta aylarca sürebilir. Ayrıca siber suçluların sürekli etkileşimine de ihtiyaç duymazlar.

Bilgisayar korsanlarının saldırısı altında

Chatbot hafızasıyla ilgili güvenlik açıkları, kurumsal sırların açığa çıkmasına neden olabilir. Evgeny Grigoriev’i uyarıyor. Bu, örneğin şirket çalışanlarının gizli belgelerden alıntıları işlemek için sinir ağlarını kullanması durumunda mümkündür. Ayrıca saldırganlar, sinir ağlarının yanıtlarını “bozmak” için güvenlik açıklarını kullanabilir ve kullanıcılara çarpık bilgiler sunabilir.

Prensip olarak, hassas konularda sinir ağı yanıtlarına %100 güvenilmemelidir: İzvestia’nın muhatabı, eğitimleri için sınırlı veri kümelerinin neden olduğu algoritmalarda “halüsinasyonlar” veya önyargı olasılığının her zaman bulunduğunu söylüyor.

Yapay zekanın saldırganların etkisi altında olduğunu chatbotun davranışındaki beklenmedik değişikliklerden, garip yanıtlardan veya şüpheli bilgi taleplerinden anlayabilirsiniz.. Len Rudolph’a göre, hafıza fonksiyonunu izlemenin önemli olmasının nedeni budur: Bir bot, açık izniniz olmadan bilgileri hatırlıyorsa veya beklenmedik içerik saklıyorsa, bu, bir tehlikenin göstergesi olabilir.

ChatGPT aracılığıyla kişisel verilerle ilgili sorular

Fotoğraf: Global Look Press/Frank Rumpenhorst

SpAIware örneğinde ChatGPT, başlatıcının isteğini yanıtının arkasına ekledi ve ardından saldırganın sunucusuna gönderdi. Uzman, kullanıcının bu anormal aktiviteyi bizzat görmüş ve bir şeylerin ters gittiğinden şüphelenmiş olabileceğini ekliyor. Buna karşılık Evgeny Grigoriev, sohbet robotlarının çıktılarını birkaç cihazda karşılaştırmak gibi bir teknik öneriyor.

Uzman, “Elbette cevaplar birebir örtüşmeyecek, ancak aralarında kavramsal farklılıklar da olmamalı” diye açıklıyor. — “Pizzadaki peynir nasıl daha viskoz hale getirilir?” sorusuna cevap olarak ise iki cihazdaki aynı sohbet robotu, ona un eklemeyi öneriyor ve üçüncü ofis yapıştırıcısında bu, dikkatli olmak için bir neden. Bu gibi durumlarda aracı kullanmayı bırakmalı, ardından destek ekibiyle iletişime geçerek uzmanlara olay hakkında bilgi vermelisiniz.

Koruma Mekanizmaları

Izvestia’nın görüştüğü uzmanlar, sinir ağlarındaki güvenlik açıklarıyla ilişkili risklerden kendinizi korumak için belirli güvenlik kurallarına uymanızı öneriyor. Özellikle Len Rudolph şunları tavsiye ediyor: gerekmiyorsa sinir ağı hafıza fonksiyonunu devre dışı bırakın veya düzenli olarak kontrol edip temizleyin.

Yapay zekanın davranışındaki anormallikleri izlemek ve beklenmedik istekler veya kişisel bilgileri bulmaya yönelik girişimler gibi olağandışı davranışları yakından izlemek önemlidir.diyor uzman.

Ek olarak, önemli verileri filtrelemek de gerekiyor: ChatGPT’nin geliştiricisi OpenAI’nin gizlilik politikasında, chatbot ile yapılan tüm görüşmelerin kaydedildiğini ve çeşitli amaçlarla kullanılabileceğini açıkça belirttiğini hatırlamakta fayda var. Solar Group Siber Güvenlik Teknolojileri Merkezi’nin Ar-Ge laboratuvarında veri analisti olan Andrey Pimenov, bu nedenle kişisel belgelerin fotoğrafları veya kredi verileri gibi önemli kişisel bilgileri bu tür hizmetlere aktarmamanız gerektiğini söylüyor. Uzman ayrıca kişisel şifreler oluşturmak için chatbotların kullanılmasını önermiyor.

Bilgisayar korsanlığına karşı koruma

Fotoğraf: IZVESTIA/Artem Korotaev

Kaspersky Lab’de makine öğrenimi teknolojileri araştırma ve geliştirme grubunun başkanı Vladislav Tushkanov, asistanın önerdiği kötü amaçlı bir bağlantıya yanlışlıkla tıklamanız durumunda sizi koruyacak bir güvenlik çözümünün cihazınızda bulunması gerektiğini ekliyor.

FACCT’de siber güvenlik danışmanı Sergey Zolotukhin, “Günümüzde siber suçlular, yeni saldırı yöntemleri uygulamak, bunları otomatikleştirmek ve başarı şanslarını artırmak için yapay zekanın olanaklarını bilinçli olarak araştırıyor” dedi. “Ve ChatGPT’deki yeni güvenlik açığı, hem siber uzayın risklerinin ciddiyetini hem de dijital ortamda iyi bilinen güvenlik kurallarına uyma ihtiyacını bir kez daha hatırlatıyor.

Haber Azerbaycan

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu