Haberler

Bir aile, sinir ağı tarafından oluşturulan bir tarif nedeniyle zehirlendi

Sinir ağları tarafından oluşturulan içerik sağlığa ciddi zararlar verebilir; uzmanlar bu konuda uyardı. Bazı durumlarda, örneğin tarif kitaplarında yapılan bu tür hatalar, insan hayatını tehdit eden zehirlenmelere yol açabilmektedir. Bazen AI önerileri saçmalık noktasına ulaşıyor: Kullanıcılara günde bir taş yemeleri, güneşe bakmaları veya hamilelik sırasında sigara içmeleri tavsiye ediliyor. Yapay zeka içeriklerinin ne gibi riskler taşıdığı ve bu sorunun nasıl çözülebileceği hakkında detaylı bilgi için İzvestia yazısını okuyun.

Tehlikeli kitaplar

Sinir ağlarının etkileyici yeteneklerine rağmen, programların gerçekleri uydurduğu ve bunları güvenle ifade ettiği büyük dil modelleri fenomeni olan “halüsinasyonlara” karşı duyarlı olmaya devam ediyorlar.Kaspersky Lab makine öğrenimi teknolojileri araştırma ve geliştirme grubunun başkanı Vladislav Tushkanov, Izvestia ile yaptığı röportajda şöyle diyor:

Uzman, “Bir süre önce kullanıcılar, Google’ın sinir ağının peynirli pizzaya tutkal eklenmesini önerdiğini ve Gemini sohbet robotunun zeytinyağında sarımsak tarifi verdiğini ve bunun botulinum toksini zehirlenmesine yol açabileceğini keşfetti” diyor.

Ayrıca, popüler chatbot ChatGPT sıklıkla hata yaparken yakalandı; bu, diğer şeylerin yanı sıra, ABD’li bir avukatın dava hazırlığı sırasında yaptığı talebe yanıt olarak hayali emsaller ortaya çıkardı. Duruşma sırasında bu durum ortaya çıktı ve avukata büyük miktarda para cezası verildi.

Fotoğraf: Global Look Press/Frank Rumpenhorst

Ayrıca ChatGPT kullanılarak yazılan bir kitap yüzünden zehirli mantarlardan zehirlenen İngiliz bir ailenin hikayesi de büyük bir skandala dönüştü. The Guardian’ın anlattığına göre ailenin reisine göre, Amazon’da bulduğu ve daha sonra birçok tehlikeli hata içerdiği ortaya çıkan bir kitaptaki resimlere ve tavsiyelere güveniyordu. Özellikle ChatGPT kullanılarak oluşturulan yayında, zehirli mantarların tat ve kokuya göre tanımlanmasına yönelik öneriler yer alıyordu ve bu da ciddi sonuçlara yol açabiliyordu.

Yapay zekadan bir koleksiyon Amazon’da görünüyor yorum yaptı Prondo yayınevi Elena Kosma’nın kurucusu. Metin yazarken sinir ağının bir insan gibi düşünmediğini, ancak internetten gelen büyük hacimli metni analiz ettiğini belirtti. Örneğin, bir program, yenilebilir bir mantarın tanımını bir kaynaktan, zehirli bir mantarın tanımını ise başka bir kaynaktan alabilir ve bunları rastgele bir metinde karıştırabilir.

Uzman ayrıca Amazon’un yazarların yüklediği kitapların ayrıntılı doğruluğunu kontrol etmediğini de açıkladı. Ona göre siteye olan güven meselesi karmaşık hale geliyor.

Yayıncı aynı zamanda kitap yayıncılığında sinir ağlarının yararlarına da dikkat çekti. Böylece yapay zeka büyük miktarda metin üretebilir, yazarlara fikir önerebilir, izleyici tercihlerini analiz edebilir ve benzersiz çizimler oluşturabilir.

Kitaplar

Fotoğraf: Global Look Press/Robert Michael

Yapay zeka halüsinasyonlarının örnekleri burada bitmiyor. Mayıs 2024’te Google, aramayı iyileştirmesi beklenen yapay zeka tabanlı bir özellik olan AI Genel Bakış’ı tanıttı. Ancak ürünün piyasaya sürülmesinden kısa bir süre sonra kullanıcılar yeni ürün hakkında şikayet etmeye başladı ve bu da kullanıcılara beklenmedik, tuhaf ve bazen de düpedüz tehlikeli yanıtlar verdi.

Bu yüzden, AI Genel Bakış, kullanıcılara günde en az bir taş yemelerini tavsiye etti. Sinir ağı muhtemelen bu tavsiyeyi, daha önce “Jeologlar günde en az bir çakıl taşı yemeyi öneriyor” başlıklı komik bir haberin yayınlandığı hiciv haber ajansı The Onion’un web sitesinden almıştır. Sosyal ağ kullanıcısı X Jeremiah Johnson, AI Genel Bakış’ın en saçma ifadelerini topladı – liste etkileyiciydi. İşte bunlardan bazıları:

1. “Doktorlar hamile kadınların günde 2-3 kez sigara içmelerini öneriyor”;
2. “Bilim insanları güneşe 5 ila 15 dakika, koyu tenlilerde 30 dakikaya kadar bakılması gerektiğini söylüyor”;
3. “Haftanın sekiz günü antrenman yapılabilir”;
4. “Peniste yaşayan hamamböcekleri normaldir.”

Riskli alanlar

Güvenlik Kodunun web geliştiricisi, ağ tehditleri konusunda önde gelen bir uzman, tüm faaliyet alanlarında, yapay zeka teknolojilerinin insanlar tarafından uygun kontrol ve denetim olmadan kullanılmasının en azından istenmeyen bir durum olduğunu ve yaşam ve sağlık da dahil olmak üzere bazen güvensiz olduğunu söylüyor. Konstantin Gorbunov şirketi. Örneğin, Öğrenciler sınavlara girmek için yapay zekayı kullanabilir, bu da eğitim kalitesinin düşmesine neden olur.

İzvestia’nın muhatabı, “Haber oluşturmak için sinir ağlarının kullanılması, yanlış bilgilerin yayılmasına yol açabilir ve hukuk alanında, yasal belgelerin oluşturulması ve yorumlanması, yapay zekanın anlayamayabileceği özel bir doğruluk ve bağlamın anlaşılmasını gerektirir” diyor.

kayıtlar

Fotoğraf: Getty Images/Westend61

Positive Technologies’in ileri teknolojiler departmanının önde gelen uzmanlarından Stepan Kulchitsky, yapay zeka yardımıyla oluşturulan içerik sorununun özellikle hata maliyetinin çok yüksek olduğu alanlarda ciddi olduğunu ekliyor. Örneğin sağlık ve hukuk alanında.

T1 Holding’in yapay zeka departmanı başkan yardımcısı Evgeniy Grigoriev, “Üretken yapay zeka, kabaca insan faktörüne eşitlenebilecek hatalara eğilimlidir” diye vurguluyor. “Bu nedenle finansal, itibari ve diğer sonuçları açısından yanlış karar alınırken olası bir hatanın maliyetinin maksimum olacağı alanlara en fazla dikkat edilmesi gerekiyor. Bunlardan biri de otopilot kullanarak araç kullanmaktır.

Koruma Mekanizmaları

Vladislav Tushkanov’a göre, Büyük dil kalıplarına ilişkin halüsinasyonlar herhangi bir alanda ortaya çıkabilir. Bu nedenle, chatbotlarla çalışmanın temel kurallarına uymak önemlidir: Özellikle hassas alanlarda, onların yanıtlarına göre önemli kararlar vermeyin ve sağlanan bilgileri iki kez kontrol edin.

Evgeny Grigoriev, Izvestia ile yaptığı röportajda şöyle diyor: “İnsanın karar verme sürecinin kopyalanması, bağımsız yapay zeka temsilcilerinin kolektif kararları yoluyla çeşitlendirilmesi, bu sistemlerin test edilmesine yönelik yeni yaklaşımların ve derin sahtekarlıkları tespit etmeye yönelik araçların geliştirilmesi ve uygulanması, bu tür risklerin en aza indirilmesine yardımcı olacaktır.” .

Uzman, kaynakların kalitesini ve bilgilerin güvenilirliğini her zaman kontrol etmenin ve önemli konularda ilgili uzmanlara danışmanın gerekli olduğunu vurguluyor.

Yüz, derin sahte

Fotoğraf: IZVESTIA/Anna Selina

Stepan Kulchytsky’ye göre büyük teknoloji devleri hükümetlerle birlikte çalışmalı; yapay zekanın kabul edilebilir kullanım ve uygulama sınırlarını, bunları ihlal etmenin sorumluluğunu, etik standartları, telif haklarını vb. birlikte belirlemeli. Ayrıca, kurgu haberler ve deepfake’ler de dahil olmak üzere üretilen içeriklerin tespitine yönelik teknik önlemlerin ve araçların geliştirilmesi de önem taşıyor.

“Yapay zekadan gelen içerikle ilgili riskleri en aza indirmek için, sinir ağlarının kritik alanlarda kullanımını düzenleyen yasal önlemlerin yanı sıra yapay zeka yardımıyla oluşturulan içerik için doğrulama ve etiketleme sistemlerinin getirilmesi gerekiyor.” Konstantin Gorbunov’u vurguluyor.

Yasaklar meselesi

Bu sırada Sinir ağları tarafından oluşturulan içeriğin riskinden bahseden uzmanlar, bazen yapay zeka kullanımının yasaklanması veya kesinlikle sınırlandırılması gereken insan faaliyeti alanları olup olmadığını merak ediyor. Konstantin Gorbunov’a göre sinir ağlarının kullanımının en dikkatli kontrolü veya kısıtlanması, insanların sağlığını ve refahını doğrudan etkileyen alanlarda olmalıdır.

İzvestia’nın muhatabı, “Öncelikle bu, mahkeme kararlarının alınmasının ve yasal belgelerin oluşturulmasının uzman uzmanların elinde kalması gereken hukuki ve hukuki alandır” diyor. “İkincisi, bu, uzmanlar tarafından uygun şekilde kontrol edilmeden oluşturulan tıbbi görüş ve tavsiyelerin hatalı olabileceği tıp alanıdır.

Haplar

Fotoğraf: IZVESTIA/Pavel Volkov

Konstantin Gorbunov’a göre pratikte, ilgili yasa ve yönetmeliklerin getirilmesi, yapay zeka içeriği oluşturmaya yönelik yazılımların lisanslanması ve sertifikalandırılmasının düzenlenmesi ve izleme ve kontrol alanında düzenleyici kurumların kurulması yoluyla belirli alanlarda yapay zeka kullanılarak içerik üretilmesine yönelik bir yasak uygulanabilir. AI kullanımının yanı sıra bu tür içeriği tespit etmek ve etiketlemek için teknik çözümlerin geliştirilmesi ve uygulanması.

Aynı zamanda Şu anda Devlet Duması, sinir ağları kullanılarak oluşturulan içeriğin etiketlenmesine ilişkin bir yasa geliştirmeye başladı. Ancak Vladislav Tushkanov’a göreİçerik üretmek için teknolojinin kullanımının yasaklanması etkisizdir, çünkü mesele teknolojinin kendisi değil, sadece bir araçtır, insanların onu nasıl kullandığıdır. Bu nedenle uzman, kullanıcıların dijital okuryazarlığını geliştirmenin ve eleştirel düşünceyi geliştirmenin, etkili oldukları alanlarda sinir ağlarıyla nasıl doğru çalışılacağını öğretmenin ve riskli olabileceği yerlerde kullanmamanın çok daha iyi olduğuna inanıyor.

bilgisayar korsanı

Fotoğraf: IZVESTIA/Sergey Lantyukhov

Uzman, “Bilgileri tekrar kontrol etme ve güvenebileceğiniz kaynakları seçme yeteneği, yalnızca büyük bir dil modeli tarafından yazılan ve halüsinasyonlar içeren potansiyel metinleri tanımak için değil, aynı zamanda çevrimiçi dolandırıcılıkla karşılaşma açısından siber riskleri azaltmak için de faydalı olabilir” dedi. sonucuna varıyor.

Haber Azerbaycan

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu