Ev Ai ve makine öğrenmesi istismarını, deepfakes, şimdi tespit etmek zor

Ai ve makine öğrenmesi istismarını, deepfakes, şimdi tespit etmek zor

İçindekiler:

Video: Bill Hader impersonates Arnold Schwarzenegger [DeepFake] (Kasım 2024)

Video: Bill Hader impersonates Arnold Schwarzenegger [DeepFake] (Kasım 2024)
Anonim

Gelecek cumhurbaşkanlığı seçim kampanyası sezonuna girerken, yapay video istihbarat (AI) ve makine öğrenimi (ML) kullanımından kaynaklanan çevrimiçi videoların sahte tehlikelerinden sakınmak isteyeceksiniz. AI yazılımını kullanarak insanlar, ML algoritmalarının birinin söylediği veya söylemediği bir şey söylediği yanılsamasını yaratmak için yüz takası yapmak için kullandığı derin ("derin öğrenme ve sahte" için kısa) videolar oluşturabilir. değil. Deepfake videoları, eğlenceden siyasete, kurumsal dünyaya kadar çeşitli arenalarda gösteriliyor. Sahte videolar yalnızca sahte mesajları olan seçimleri haksız yere etkilemekle kalmaz, aynı zamanda bir ürünün piyasaya sürüldüğünü veya gerçekten gerçekleşmemiş bir kazanım ilan ettiğini söyleyen bir CEO’ya gösterdikleri takdirde kişisel utanç getirebilir veya yanıltıcı marka mesajlarına neden olabilir.

Derin yüzeyler, iki sinir ağının gerçek görünen fotoğraflar veya videolar oluşturmak için rekabet ettiği "Üretken Rekabetçi Ağlar" veya GAN'lar adlı bir AI kategorisinin parçasıdır. GAN'lar, sahte video gibi yeni bir veri kümesi oluşturan bir jeneratör ve gerçek videodaki verileri sentezlemek ve karşılaştırmak için bir ML algoritması kullanan bir ayırıcıdan oluşur. Jeneratör, diskrimatörün verilerin yeni olduğunu söyleyene kadar sahte videoyu eskisi ile sentezlemeye çalışıyor.

McAfee'nin Kıdemli Başkan Yardımcısı ve Baş Teknoloji Sorumlusu (CTO) Steve Grobman'ın Mart 2010'da San Francisco'da düzenlenen RSA Konferansı'na işaret ettiği gibi, fotoğrafçılığın icadından bu yana sahte fotoğraflar çekilmiştir. Fotoğrafları değiştirmenin Adobe Photoshop gibi bir uygulamada gerçekleştirebileceğiniz basit bir görev olduğunu söyledi. Ancak şimdi bu gelişmiş düzenleme yetenekleri videoya da geçiyor ve bunu çok yetenekli ve kolayca erişilebilen yazılım araçları kullanarak yapıyorlar.

Deepfakes Nasıl Oluşturulur?

AI kavramlarını anlamak faydalı olsa da, derin bir video oluşturmak için veri bilimcisi olmak gerekli değildir. Grobman’a göre sadece bazı yönergeleri çevrimiçi olarak izlemekten ibarettir. RSA Konferansı 2019'da (yukarıdaki videoya bakın) McAfee'de Dr. Celeste Fralick, Veri Bilimcisi ve Kıdemli Baş Mühendisi ile birlikte derin bir video yayınladı. Deepfake videosu bu teknolojinin sunduğu tehdidi göstermektedir. Grobman ve Fralick, bir videodaki bir kamu görevlisinin tehlikeli bir şey söyleyerek kamuoyunun mesajın gerçek olduğunu düşünmesi için nasıl yanıltıcı olabileceğini gösterdi.

Grobman ve Fralick, videolarını oluşturmak için deepfake yazılımını indirdi. Daha sonra 2017'de ABD Senatosu'ndan önce tanıklık eden bir Grobman videosu çektiler ve Fralick'in ağzını Grobman'ın üzerine yerleştirdiler.

Fralick sahneye gelen RSA izleyicisine, "Bir ML modeli oluşturmak ve eğitmek için serbestçe kullanabileceğim kamuya açık yorumlar kullandım; bu sözler ağzımdan çıkan derin bir video geliştirmeme izin verdi" dedi. Fralick derin videoların sosyal sömürü ve bilgi savaşı için kullanılabileceğini söylemeye devam etti.

Derin videolarını yapmak için Grobman ve Fralick, FakeApp adında geliştirilen ve Red algoritmalarını kullanan ve bir videoda yüz takas etmek için ML algoritmaları kullanan fotoğraflar kullanan bir araç kullandı. RSA sunumları sırasında Grobman sonraki adımları açıkladı. "Videoları hareketsiz görüntülere böldük, yüzleri çıkarttık ve bunları sıralayarak temizleyerek Instagram'da temizledik."

Python komut dosyaları, McAfee ekibinin Fralick'in konuşmasını Grobman'ın ağzıyla eşleştirmesi için ağız hareketleri oluşturmasına izin verdi. Sonra bazı özel scriptler yazmaları gerekiyordu. Grobman, inandırıcı bir derinlemesine yaratılmasındaki zorluk, cinsiyet, yaş ve cilt tonu gibi özelliklerin uyuşmadığıdır.

O ve Fralick daha sonra Fralick'in konuşmasıyla Senato'dan önce tanıklık eden Grobman'ın görüntülerini eşleştirmek için son bir AI algoritması kullandılar. Grobman, bu ML algoritmalarını eğitmenin 12 saat sürdüğünü de sözlerine ekledi.

McAfee, 2019 RSA Konferansında gösterilen derin bir video oluşturmak için attığı adımları açıkladı. Fralick'in konuşması ile Grobman'ın videosunu değiştirmek için FakeApp denilen derin suç yazılımı ve ML modellerinin eğitimi kullanıldı. (Görüntü kredisi: McAfee).

Deepfakes'in Sonuçları

Hacker'ın oluşturduğu derin sahte videoların birçok soruna neden olma potansiyeli var - hükümet yetkililerinden yanlış yanlış bilgi yaymalarına kadar ünlülere kadar her şey rakiplerin borsa sıralamasında zarar vermeyen şirketlere girmedikleri videolarda olmaktan utanıyor. Bu sorunların farkında olan Eylül ayında milletvekilleri, ABD Ulusal İstihbarat Direktörü Daniel Coats'a deepfakes'in oluşturduğu tehdidin gözden geçirilmesini talep etmek için bir mektup gönderdi. Mektup, Rusya gibi ülkelerin yanlış bilgileri yaymak için sosyal medyada derin ağları kullanabilecekleri konusunda uyardı. Aralık ayında, milletvekilleri, 2018 tarihli Kötü Amaçlı Derin Sahte Yasak Yasasını, derinliklere atıfta bulunan "görsel-işitsel kayıtlar" ile ilgili sahtekarlığı yasaklamaya sundu. Tasarı geçip geçmeyeceği görülmeye devam ediyor.

Bahsedildiği gibi, ünlüler, Gal Gadot'ta olduğu gibi, yüzlerinin porno yıldızlarının yüzlerine bindirildiği videolardan utanç duyabilirler. Ya da bir CEO'nun sözde ürün haberlerini duyuracağını ve bir şirketin hisselerini batırdığını hayal edin. Güvenlik uzmanları bu tür saldırıları tespit etmek için ML kullanabilir, ancak zamanında tespit edilmezse, bir ülkeye veya markaya gereksiz zarar verebilirler.

Forrester Research’ün Baş Analisti Dr. Chase Cunningham, “Deepfakes ile ne yaptığınızı ve kimi hedef alacağınızı biliyorsanız, gerçekten bir markanın zarar görmesine neden olacak ikna edici bir video ile karşılaşabilirsiniz” dedi. . Bu mesajları LinkedIn ya da Twitter'da dağıtırsanız ya da bir bot formunu kullanırsanız, "bir şirketin toplam stok videosuna dayanarak bir şirketin stokunu çok fazla çaba harcamadan ezebilirsiniz."

Derin sahte videolar aracılığıyla, tüketiciler bir ürünün yapamayacağı bir şey yapabileceğine inanmakla kandırılabilir. Cunningham, eğer bir otomobil üreticisinin CEO'su sahte bir videoda şirketin artık gazla çalışan araçlar üretmeyeceğini ve ardından bu mesajı Twitter veya LinkedIn'de bu videoda yayınladığını söylerse, o zaman bu eylem bir markaya kolayca zarar verebilir.

Cunningham, "Araştırmamdan ilginç bir şekilde, insanlar 37 saniyede manşetlere ve videolara dayalı kararlar veriyorlar, " dedi. Böylece, 37 saniyeden uzun süren bir video elde edip edemeyeceğinizi hayal edebilirsiniz, insanların buna dayalı bir karar vermelerini sağlayabilirsiniz. gerçek olsun ya da olmasın. Ve bu korkunç. "

Sosyal medya, derin sahte videoların viral hale gelebileceği hassas bir yer olduğundan, sosyal medya siteleri aktif olarak derin ağların tehdidine karşı mücadele etmek için çalışıyor. Örneğin Facebook, manipüle edilmiş fotoğrafları, sesleri ve videoları tespit edebilen mühendislik ekipleri kuruyor. Yazılım kullanmaya ek olarak, Facebook (ve diğer sosyal medya şirketleri) elle derinleri aramak için insanları işe alıyor.

Bir Facebook temsilcisi yaptığı açıklamada, "manipüle edilmiş medya ile mücadele etme konusundaki çabalarımızı derin baskılarla mücadele etmek için genişlettik." Dedi. “Manipüle edilen tüm medya araçlarının ortaya çıkmasının devam etmesinin toplum için gerçek zorluklar yarattığını biliyoruz. Bu nedenle yeni teknik çözümlere yatırım yapıyoruz, akademik araştırmalardan ders alıyoruz ve sektördeki diğer firmalarla birlikte çalışıyoruz. ."

Tüm Derin Derinler Kötü Değil

McAfee'nin eğitim amaçlı derin video videosu ve gece yarısı TV'sindeki komik derin videolarla gördüğümüz gibi, bazı derin videoların mutlaka kötü olması gerekmez. Aslında, siyaset deepfake videolarının gerçek tehlikelerini ortaya çıkarsa da, eğlence endüstrisi genellikle sadece deepfake videolarının daha hafif tarafını gösterir.

Örneğin, Stephen Colbert ile Geç Şov'un son bölümünde, aktör Steve Buscemi'nin yüzünün, aktris Jennifer Lawrence'ın cesedi üzerine bindirildiği komik, derin bir sahte video gösterildi. Başka bir durumda, komedyen Jordan Peeler eski Başkan Barack Obama'nın kendi sesiyle konuşan bir videosunun yerini aldı. Başkan Trump'ın yüzünün Alman Şansölyesi Angela Merkel'in yüzüyle üst üste konulduğu, bunun gibi komik derin sahtekar videolar da çevrimiçi olarak ortaya çıktı.

Yine, eğer derin videolar hicivli ya da komik bir amaç için ya da sadece eğlence olarak kullanılıyorsa, sosyal medya platformları ve hatta film yapım evleri bunlara izin verir ya da kullanır. Örneğin, Facebook platformunda bu tür içeriğe izin veriyor ve Lucasfilm "Rogue One: A Star Wars Hikayesi" ndeki aktris Ingvild Deila'nın vücudunda genç bir Carrie Fisher'ı tanıtmak için bir tür dijital rekreasyon kullandı.

McAfee'den Grobman, derin yüzeylerin arkasındaki teknolojinin bir kısmının, oyuncuları güvende tutmak için film yapımcılığındaki dublörlerle iyi bir şekilde kullanıldığını belirtti. Grobman, “Bağlam her şeydir. Eğer komedi amaçlıysa ve gerçek olmadığı açıksa, bu teknolojinin meşru bir kullanımıdır” dedi. "Her türlü farklı amaç için kullanılabileceğini kabul etmek anahtardır."

(Resim kredisi: Statista)

Deepfake Videolar Nasıl Tespit Edilir

Sahte videoların nasıl algılandığını deneyen tek güvenlik şirketi McAfee değil. Symantec güvenlik uzmanı, Güvenlik Müdahale Lideri Vijay Thaware ve Yazılım Geliştirme Mühendisi Niranjan Agnihotri, "AI Hague Gone: Tehdit Etmeden Önce Derin Faktörleri İmha Etmek" başlıklı Black Hat 2018'de yayınlanan makalesinde; Google FaceNet’e dayalı sahte videolar. Google FaceNet, Google araştırmacılarının yüz doğrulaması ve tanınmasına yardımcı olmak için geliştirdikleri bir sinir ağı mimarisidir. Kullanıcılar, bir FaceNet modelini belirli bir görüntü üzerinde eğitir ve daha sonra yapılacak testler sırasında kimliklerini doğrulayabilir.

Derin videoların yayılmasını engellemeye çalışmak için, insan ve AI etkileşimine odaklanan kar amacı gütmeyen bir kuruluş olan AI Foundation, sahte içeriği tespit etmek için "Reality Defender" adlı yazılımı sunar. AI kullanılarak değiştirilip değiştirilmediklerini görmek için görüntüleri ve videoları tarayabilir. Eğer varsa, "Dürüst AI Filigran" alacaklar.

  • Makine Öğrenimi İş Rehberi Makine Öğrenimi İş Rehberi
  • PornHub, Twitter Yasağı 'Deepfake' AI-Modifiye Porn PornHub, Twitter Yasağı 'Deepfake' AI-Modifiye Porn
  • Son Deepfake Tech Bruno Mars Gibi Dans Edecek Olacak Son Deepfake Tech Bruno Mars Gibi Dans Edecek Olacak

Diğer bir strateji de, Sıfır Güven kavramını akılda tutmak, yani "asla güvenme, her zaman doğrula" anlamına gelen bir siber güvenlik sloganıdır; bu, BT uzmanlarının erişim izni vermeden önce tüm kullanıcıların meşru olduğunu onaylamaları gerektiği anlamına gelir. Kalan video içeriğinin geçerliliği hakkında şüpheci gerekli olacaktır. Ayrıca, sahte içeriği tespit etmek için dijital analitik özellikli bir yazılım da isteyeceksiniz.

Deepfakes'ı Arıyor

Devam edersek, video içeriğiyle daha temkinli olmamız ve kötüye kullanılması durumunda topluma sağlayabilecekleri tehlikeleri göz önünde bulundurmamız gerekir. Grobman'ın belirttiği gibi, "Yakın vadede, insanların gördükleri konusunda daha şüpheci olmaları ve video ve sesin üretilebileceğini kabul etmeleri gerekir."


Öyleyse, bir sonraki seçim sezonuna girerken izlediğiniz politik videolara şüpheyle göz atın ve şirket liderlerinin yer aldığı tüm videolara güvenmeyin. Çünkü duyduklarınız gerçekten söylenenler olmayabilir ve yanıltıcı derin sahtekarlık videoları toplumumuza gerçekten zarar verme potansiyeline sahiptir.

Ai ve makine öğrenmesi istismarını, deepfakes, şimdi tespit etmek zor