Yapay zeka yalanları tanımayı öğrendi
İnsanların kişisel bilgilerini verirken her zaman doğruyu söylemediği gerçeğini daha iyi dikkate almak amacıyla yapay zekaya (AI) yönelik yeni bir eğitim yöntemi oluşturuldu. Yalan söylemek için ekonomik bir teşvikin olduğu durumlarda bu gelişme yararlı olabilir. — örneğin ipotek başvurularında bulunurken veya sigorta primlerini düşürmeye çalışırken. Yapay zekanın yalanları tanımayı nasıl öğrendiği ve bu başarının ne gibi sonuçlara yol açabileceğiyle ilgili ayrıntılar için İzvestia makalesini okuyun.
Aldatma nedeni
Günümüzde yapay zeka, karar desteğine ihtiyaç duyulan birçok alanda kullanılmaktadır. Kural olarak, buna dayalı programlar yalnızca tahmin istatistiklerine dayalı matematiksel algoritmalar kullanır. Ancak bir komplikasyon var: Bu yaklaşım, insanların yalan söylemesi için ekonomik teşvikler yaratıyor; örneğin, ipotek başvurusunda bulunurken veya sigorta primlerini düşürmeye çalışırken.
Bu sorunu çözmek için, North Carolina Eyalet Üniversitesi’nden (ABD) araştırmacılar, yapay zeka eğitimi için yeni bir araç geliştirdi. Yapay zeka yazılımının, insanların kişisel bilgileri verirken her zaman doğruyu söylemediği gerçeğini daha iyi hesaba katmasına yardımcı olur.
Kavram kanıtı simülasyonları değiştirilmiş yapay zekanın gerçekten daha iyi olduğunu gösteriyor bulmak Kullanıcılardan gelen yanlış bilgiler. Araştırmacılar artık geliştiricilerin bunlarla deney yapabilmesi için yeni AI eğitim parametrelerini kamuya açık hale getirmeyi planlıyor.
Çalışmanın yazarlarından Mehmet Caner, “Bu, kullanıcının bilgi gönderirken yalan söyleme isteğini etkili bir şekilde azaltıyor” dedi. “Ancak küçük yalanlar yine de fark edilmeden kalabilir.” Küçük yalan ile büyük yalan arasındaki eşiğin nerede olduğunu anlamak için daha fazla çalışmamız gerekiyor. Bir noktada yapay zekayı yeterince akıllı hale getirirsek bu teşvikleri tamamen ortadan kaldırabileceğiz.”
Öğrenme Mekanizmaları
Ağ tehditleri konusunda önde gelen bir uzman ve Güvenlik Kodu şirketinin web geliştiricisi Konstantin Gorbunov, Izvestia ile yaptığı görüşmede, Amerikalı bilim adamları tarafından geliştirilene benzer algoritmaların çalışmasının, sinir ağlarını tarihsel verilerle eğitmeye dayandığını söylüyor. İnsanlar ekonomik çıkarlarının olduğu durumlarda yalan söylediklerinde (örneğin, kredi başvurusu yaparken gelirlerini şişirmek gibi), uzmanların gerçek verilere erişebildiğini belirtiyor.
— Birkaç benzer vakadan oluşan bir diziye sahip olan araştırmacılar, bir “yalancı” portresi oluşturabilir ve ardından yapay zekaya aynı durumları tanımayı öğretebilirKonstantin Gorbunov diyor. — Teknik açıdan böyle bir portre oluşturmak için konuşma duyarlılığı analizi, davranış modeli tanıma ve doğal dil işleme gibi çeşitli makine öğrenmesi yöntemleri kullanılabilir.
Kaspersky Lab’daki kıdemli veri bilimci Dmitry Anikin, araştırmacıların, bir kullanıcının sabit bir dizi faktöre dayanarak yalan söylemeye motive olup olmadığını tahmin etmek için eğitilmiş bir makine öğrenimi algoritması sunduğunu ekliyor. Temelde bu, sabit parametrelere dayalı olarak yalanların olasılıksal değerlendirmesini sağlayan akıllı bir matematiksel formüldür.
Öyle olsa bile, yeni gelişme bankacılık ve sigorta sektörlerinde uygulama alanı bulabilir ancak diğer alanlarda da faydalı olabilir. Konstantin Gorbunov’a göre, modernize edilmiş yapay zeka, sosyal alandaki çeşitli avantajlar ve ödenekler için başvuruları kontrol edebilir ve aynı zamanda işe alımda yardımcı olabilir – örneğin, bir özgeçmişteki deneyim ve becerilerin gerçekliğini kontrol etmek için. Ayrıca yeni ürün, karşı tarafları iş yapmak üzere değerlendirirken de faydalı olabilir.
Yapay zeka uzmanı ve veri analisti Alexander Malakhov, “Mal satarken, büyük dağıtım şirketlerinin karşı taraflara hangi ödeme koşullarının uygun olduğunu değerlendirmesi çok önemli” diye açıklıyor. “Bu tür durumlar aynı zamanda yeni yapay zeka modelinin azaltabileceği risk modelleme kategorisine de giriyor.
Kanun uygulama yönü
Yapay zekanın aldatmacayı tespit etmeyi öğrenmesi, bir gün (kısmen veya tamamen) yalan makinesinin yerini alıp alamayacağı sorusunu gündeme getiriyor. Bu cihaz, kişinin sorulara verdiği psikolojik tepkiye göre yalan söyleyip söylemediğini belirliyor. Alexander Malakhov’a göre bu şu şekilde oluyor: Yalan makinesi uzmanı temel davranış çizgisini ve reaksiyonun bilindiği ve doğruyu söyleyip söylemediğini belirlemenin kolay olduğu bir kişinin sorulara tepkisini belirler (örneğin, 2 ne kadardır) +2).
İzvestia’nın muhatabı, “Daha sonra uzman kendisini ilgilendiren sorular sormaya başlıyor ve temel noktayla karşılaştırma yaparak kişinin yalan söyleyip söylemediğini belirlemeye çalışıyor” diyor. — Yapay zeka eğitilirken de benzer bir süreç yaşanıyor.
Alexander Malakhov’un açıkladığı gibi, önce bir eğitim örneği toplanıyor, ardından test bölümünün cevapları “tahmin ediliyor”. Sonuç olarak, bugün yapay zeka, daha fazla bilgi sayesinde yalan makinesinin doğruluğunu artırmak için ek bir araç olarak ve aynı zamanda yalan makinesi incelemecileri için önerilerin birleştirilmesinde bir yardımcı olarak hareket edebilir. Ancak uzmana göre, onu tamamen değiştirmek mümkün olmayacak ve yine de bir makine tarafından değil, bir kişi tarafından sonuçlara varılması gerekiyor.
Konstantin Gorbunov ise modernize edilmiş yapay zekanın, yeniliği nedeniyle henüz insan analizinin veya yalan dedektörlerinin yerini almayacağını, bunun da hata olasılığının yüksek olduğu anlamına geldiğini belirtiyor. Fakat, Yapay zeka, yalan tespitinin tüm teknik özelliklerinin bir arada kullanılmasında uygulama alanı bulabiliruzman notları.
League of Digital Economy’nin Veri Füzyon Direktörü Alexander Kobozev, “Yalanların yapay zeka tarafından tanınması henüz erken bir aşamada ve daha fazla geliştirme ve araştırma gerektiriyor” diye vurguluyor.
arka taraf
Yalanları tanıyan yapay zekanın çeşitli alanlarda oldukça geniş fırsatlar yaratmasına rağmen, Izvestia’nın görüştüğü uzmanlar bunun bazı risklerini de görüyor. Böylece Alexander Malakhov şuna dikkat çekiyor: kullanıcılar giderek insani iletişimden uzaklaşıyor ve şirket çalışanlarının ayrıntılı ilgisini gerektiren benzersiz durumlar, genellikle hizmet alıcılar için olumsuz sonuçlarla sonuçlanıyor.
— İnsanlar müşteri hizmetlerinde yapay zekanın kendileriyle konuşmasından ve hayatlarındaki önemli olayların (ipotek almak gibi) yapay zeka tarafından belirlenmesinden pek hoşlanmazlar.diyor uzman.
Ayrıca Konstantin Gorbunov, yapay zeka kullanılarak yapılan yalan tespitinin “savaş” operasyonunda test edilmemiş yeni bir teknoloji olduğuna dikkat çekiyor. Bu nedenle, bu aşamadaki yapay zeka, yalanları tanırken hata yapma yeteneğine sahiptir ve bu da yanlış sonuçlara ve olası olumsuz sonuçlara yol açabilir. Özellikle benzer hatalar kişinin itibarını etkileyebilir veya sinir ağından gelen güvenilmez bilgiler nedeniyle karar vericileri yanlış kararlar almaya zorlayabilir.
— Eğer bu çok sık gerçekleşirse, çok riskli krediler vermeye başlayacak (ve bankalar kendilerinin düşük riskli olduğunu düşünecek)., diyor Alexander Malakhov. “Bunların sayısı çok fazla olduğunda bu, 2008’de karşılaştığımız krize benzer başka bir krize yol açabilir.”
Alexander Kobozev’e göre, tüm bu riskler nedeniyle yakın gelecekte bankalar ve finans kuruluşları, hem geleneksel hem de yapay zeka kullanan çeşitli çek türlerini aynı anda birleştirecek. Dmitry Anikin, değiştirilmiş yapay zekanın belirli eylemler hakkında karar vermek için ek bir araç görevi görebileceği sonucuna varıyor ancak makine öğrenme algoritmalarını kullanarak yalanları tespit etme sorununa tam bir çözümden bahsetmek henüz mümkün değil.