İçindekiler:
Video: Reacting To My Deepfakes.. (Kasım 2024)
2017 yılının sonlarında, Anakart, videolarda yüzleri değiştirebilecek bir AI teknolojisi olduğunu bildirdi. O zamanlar, daha sonra derin yüzeyler olarak adlandırılan teknoloji, kaba ve grenli sonuçlar verdi ve çoğunlukla ünlülerin ve politikacıların yer aldığı sahte porno videolar oluşturmak için kullanıldı.
İki yıl sonra, teknoloji muazzam bir şekilde gelişti ve çıplak gözle algılaması daha zor. Sahte haberler ile birlikte sahte videolar, özellikle 2020 başkanlık seçimlerinin yaklaşmasıyla birlikte ulusal bir güvenlik kaygısı haline geldi.
Derin sistemler ortaya çıktığından beri, birkaç kurum ve şirket AI tarafından değiştirilen videoları tespit etmek için teknolojiler geliştirdi. Ancak bir gün deepfakes teknolojisinin tespit edilmesinin imkansız olacağına dair bir korku var.
Surrey Üniversitesi'ndeki araştırmacılar sorunu çözebilecek bir çözüm geliştirdi: yanlış olanı tespit etmek yerine, doğru olanı ispatlayacaktır. Gelecekteki Bilgisayar Görme ve Örüntü Tanıma Konferansı'nda (CVPR) sunulması planlanan Archangel teknolojisi, orijinal videolar için kurcalamaya karşı dayanıklı bir dijital parmak izi oluşturmak ve kaydetmek için AI ve blockchain kullanıyor. Parmak izi, çevrimiçi olarak dağıtılan veya televizyonda yayınlanan medyanın geçerliliğini doğrulamak için bir referans noktası olarak kullanılabilir.
Videoları İmzalamak için AI Kullanımı
İkili bir belgenin orijinalliğini kanıtlamanın klasik yolu, dijital imza kullanmaktır. Yayıncılar belgelerini, SHA256, MD5 veya Blowfish gibi şifrelemeli bir algoritma ile çalıştırırlar ve bu dosyanın içeriğini temsil eden ve dijital imzası haline gelen kısa bir bayt dizisi olan bir "karma" üretir. Aynı dosyayı herhangi bir zamanda karma algoritmasıyla çalıştırmak, içeriği değişmediyse aynı kareyi üretecektir.
Hash'ler, kaynak dosyanın ikili yapısındaki değişikliklere karşı aşırı duyarlıdır. Karma dosyadaki tek bir baytı değiştirip algoritma boyunca tekrar çalıştırdığınızda tamamen farklı bir sonuç ortaya çıkar.
Ancak karma metin dosyaları ve uygulamaları için iyi çalışsa da, Surrey Üniversitesi'nde bilgisayar vizyonu profesörü ve Archangel'in proje lideri John Collomosse'ye göre, farklı formatlarda saklanabilen videolar için zorluklar ortaya koyuyor.
Collomosse, “İmzanın, videonun sıkıştırıldığı kodlayıcıdan bağımsız olarak aynı olmasını istedik” diyor. "Videomu alıp, MPEG-2'den MPEG-4'e dönüştürürsem, o zaman bu dosya tamamen farklı bir uzunluğa sahip olacak ve bitler tamamen değişmiş olacak, bu da farklı bir karma üretecektir. içeriğe duyarlı bir karma algoritma idi. "
Bu sorunu çözmek için Collomosse ve meslektaşları videoda yer alan içeriğe duyarlı, derin bir sinir ağı geliştirdi. Derin sinir ağları, geniş miktarda örneklerin analiziyle davranışını geliştiren bir tür AI yapısıdır. İlginç bir şekilde, sinir ağları aynı zamanda deepfakes'in kalbindeki teknolojidir.
Derin yüzeyler oluştururken, geliştirici ağı bir öznenin yüzünün fotoğraflarıyla besler. Sinir ağı, yüzün özelliklerini öğrenir ve yeterli eğitim ile konunun yüzü ile diğer videolardaki yüzleri bulma ve değiştirme yeteneğine sahiptir.
Başmelek sinir ağı, parmak izi aldığı video üzerinde eğitilmiştir. Collomosse, “Ağ, videonun içeriğine, bunun altındaki bit ve bayt yerine bakıyor” diyor.
Eğitimden sonra, ağ üzerinden yeni bir video yayınladığınızda, formatı ne olursa olsun, kaynak video ile aynı içeriği içerdiğinde doğrular ve farklı bir video oynatıldığında veya üzerinde oynandığında veya düzenlendiğinde reddeder.
Collomosse'a göre, teknoloji hem mekansal hem de zamansal kurcalamayı tespit edebiliyor. Mekânsal kurcalama, derinliklerde yapılan yüz takas düzenlemeleri gibi tek tek karelerde yapılan değişikliklerdir.
Ancak, derin görüntüler videoların oynanabileceği tek yol değildir. Daha az tartışılan ancak eşit derecede tehlikeli, kare dizisinde ve videonun hızı ve süresi üzerinde yapılan kasıtlı değişiklikler. Ev Konuşmacısı Nancy Pelosi'nin yakın zamanda yayılmış, değiştirilmiş bir videosu, derin yüzeyler kullanmıyordu, fakat onun kafasını karıştırmasını sağlayan basit düzenleme tekniklerinin dikkatlice kullanılmasıyla yaratıldı.
"Tespit edebileceğimiz kurcalama biçimlerinden biri videonun kısa bölümlerinin kaldırılması. Bunlar geçici kurcalama. Ve üç saniyeye kadar kurcalama algılayabiliyoruz. Yani, eğer video birkaç saat sürerse ve sadece üçünü çıkarırsanız O videonun birkaç saniyesini anlayabiliyoruz, "diyor Collomosse, Archangel'in Pelosi videounda olduğu gibi orijinal videonun hızında yapılan değişiklikleri de algılayacağını ekliyor.
Parmak İzini Blockchain Üzerine Kaydetmek
Başmelek projesinin ikinci bileşeni, yeni bilgilerin saklanabileceği ancak değiştirilemeyeceği kurcalanmaya karşı korumalı bir veri tabanı olan bir blok zinciridir - video arşivleri kaydedildikten sonra videolarda değişiklik yapmamak için idealdir.
Blockchain teknolojisi, Bitcoin ve Ether gibi dijital para birimlerinin temelini oluşturur. Birkaç bağımsız tarafın tuttuğu dijital bir defter. Tarafların çoğunluğu, herhangi bir tarafın defter ile tek taraflı olarak karışmasını imkansız kılan blok zincirinde yapılan değişiklikler üzerinde anlaşmalıdır.
Katılımcılarının yüzde 50'sinden fazlasının uyuyakalması halinde bir blok zincirinin içeriğine saldırmak ve değiştirmek teknik olarak mümkündür. Ancak uygulamada, özellikle blok zinciri, farklı amaç ve çıkarlara sahip birçok bağımsız taraf tarafından bakımı yapıldığında oldukça zordur.
Başmelek bloğu, halka bloktan biraz farklıdır. Birincisi, kripto para birimini üretmez ve yalnızca her bir video için tanımlayıcıyı, içeriğe duyarlı parmak izini ve doğrulayıcı sinir ağının ikili karmasını bir arşive depolar (blokajlar büyük miktarda veri depolamak için uygun değildir, bu yüzden Videonun kendisi ve sinir ağı zincir dışında saklanır).
Ayrıca, izin verilen veya "özel" bir blok zinciridir. Bu, herkesin yeni işlemler kaydedebileceği Bitcoin blok zincirinin aksine, yalnızca izin verilen tarafların Başmelek blok zincirinde yeni kayıtlar depolayabileceği anlamına gelir.
Başmelek şu anda İngiltere, Estonya, Norveç, Avustralya ve ABD'den bir ulusal hükümet arşiv ağı tarafından yargılanıyor: Yeni bilgiler saklamak için, katılan her ülkenin eklemenin altına girmesi gerekiyor. Ancak, yalnızca katılımcı ülkelerin ulusal arşivleri kayıt ekleme hakkına sahipken, diğer herkes blok zincirine erişimi okuyabilir ve diğer videoları arşive doğrulamak için kullanabilir.
- AI ve Makine Öğrenmesi Exploit, Deepfakes, Şimdi Tespit Etmek Zor
- Deepfake videoları burada ve hazır değil Deepfake videoları burada ve hazır değil
- Adobe'nin Yeni AI'si Photoshopped Yüzünü Algılıyor Adobe'nin Yeni AI'si Photoshopped Yüzünü Algılıyor
Collomosse, "Bu, kamu yararı için bir blockchain uygulamasıdır" diyor. “Benim görüşüme göre, blok zincirinin tek makul kullanımı, birbirlerine mutlaka güvenmeyen bağımsız kuruluşlara sahip olduğunuzdur ancak karşılıklı güven bu ortak hedefe bu kazanılmış ilgiye sahip olmalarıdır. Bu teknolojiyi kullanarak bütünlüklerinin altını çizebilmemiz için dünyanın dört bir yanındaki devletin ulusal arşivlerini güvence altına alın. ”
Sahte videolar oluşturmak daha kolay, daha hızlı ve daha erişilebilir hale geldiğinden, herkesin video arşivlerinin - özellikle de hükümetlerin - bütünlüğünü sağlamak için alabilecekleri her türlü yardıma ihtiyacı olacak.
Collomosse, “Bence derin yüzeyler neredeyse bir silahlanma yarışı gibidir” diyor. “Çünkü insanlar gittikçe daha inandırıcı derin yüzeyler üretiyorlar ve bir gün onları algılamak imkansız hale gelebiliyor. Bu yüzden yapabileceğiniz en iyi şey videonun kanıtını kanıtlamaktır.”