Ev Görüşler Openai'nin sahte haber uyarıları gerçek sahte haberleri nasıl tetikledi

Openai'nin sahte haber uyarıları gerçek sahte haberleri nasıl tetikledi

İçindekiler:

Video: РОБОТЫ ПРОТИВ ЧЕМПИОНОВ TI8 | OG vs OpenAI Five #1 (BO3) (Kasım 2024)

Video: РОБОТЫ ПРОТИВ ЧЕМПИОНОВ TI8 | OG vs OpenAI Five #1 (BO3) (Kasım 2024)
Anonim

Kâr amacı gütmeyen AI araştırma laboratuarı OpenAI, geçtiğimiz ay GPT-2 adında son teknolojiye sahip metin üreten bir AI ortaya çıkardığında bir AI kıyamet panik dalgasına neden oldu. Ancak GPT-2'nin başarılarını kutlarken, OpenAI, AI modelini halka açıklamayacağını, yanlış ellerde GPT-2'nin başkalarını çevrimiçi taklit etmek gibi yanıltıcı haber makaleleri oluşturmak gibi zararlı amaçlar için kullanabileceğinden korktuğunu açıkladı. ve sosyal medyada sahte içerik üretiminin otomatikleştirilmesi.

Tahmin edilebileceği gibi, OpenAI'nin duyurusu sansasyonel bir haber hikayesi seli yarattı, ancak herhangi bir ileri teknoloji silahlandırılabilse de, AI hala metin oluşturmada ustalaşmadan önce gidebileceği çok şey var. O zaman bile sahte haber krizi yaratmak için metin üreten AI'dan daha fazlası gerekir. Bu ışıkta, OpenAI'nin uyarıları abartıldı.

AI ve İnsan Dili

Bilgisayarlar tarihsel olarak insan dilini ele almakta zorlandılar. Yazılı metinde o kadar çok karmaşıklık ve nüans vardır ki bunların hepsini klasik yazılım kurallarına dönüştürmek neredeyse imkansızdır. Ancak, derin öğrenme ve sinir ağlarındaki son gelişmeler, dille ilgili görevleri yerine getirebilecek yazılım oluşturmada farklı bir yaklaşımın yolunu açmıştır.

Derin öğrenme, makine çevirisi, metin özetleme, soru cevaplama ve doğal dil üretimi gibi alanlarda büyük gelişmeler sağlamıştır. Yazılım mühendislerinin birçok davranışı analiz ederek kendi davranışlarını geliştiren algoritmalar oluşturmalarını sağlar. Dil ile ilgili görevler için, mühendisler sinir ağlarını, haber hikayeleri, Wikipedia sayfaları ve sosyal medya yayınları gibi sayısallaştırılmış içeriği besler. Sinir ağları verileri dikkatlice karşılaştırır ve belirli kelimelerin tekrar eden dizilerde diğerlerini nasıl takip ettiğini not eder. Daha sonra bu kalıpları, bir metin sırasındaki eksik kelimeleri tahmin etmek gibi dille ilgili görevleri çözmelerine yardımcı olan karmaşık matematiksel denklemlere dönüştürürler. Genel olarak, derin öğrenme modeline ne kadar kaliteli bir eğitim verisi sağlarsanız, görevini o kadar iyi yapar.

OpenAI’ye göre, GPT-2 8 milyon web sayfasında ve diğer benzer modellerden çok daha fazla olan milyarlarca kelime üzerinde eğitildi. Ayrıca, metin desenlerini daha iyi uygulamak için gelişmiş AI modelleri kullanır. GPT-2'den alınan örnek çıktısı, modelin öncekilerden daha uzun metin dizilerinde tutarlılığı korumayı başardığını göstermektedir.

Ancak GPT-2, doğal dil üretimi alanında bir adım ileride olsa da, yazılı metnin anlamını ve içeriğini anlayabilen AI yaratmaya yönelik teknolojik bir atılım değildir. GPT-2, daha önce gördüğü milyarlarca metin alıntılarına istatistiksel olarak benzeyen sözcük dizileri oluşturmak için hala algoritmalar kullanıyor - ne ürettiği konusunda hiçbir fikri yok.

Derinlemesine bir analizde, ZDNet'in Tiernan Ray'i, GPT-2'nin çıktı örneklerinin yapay doğalarına, terimlerin tekrarlanması, gerçeklerin mantık ve tutarlı olmayışı gibi iyi bilinen eserlerle ihanet ettiğini gösteren birkaç örneğe işaret ediyor. Ray, “GPT-2, fikirlerin ve mantığın daha fazla geliştirilmesini gerektiren yazı yazmak için harekete geçtiğinde, çatlaklar oldukça geniş açılıyor” diyor.

İstatistiksel öğrenme, bilgisayarların gramer olarak doğru metinler üretmesine yardımcı olabilir, ancak mantıksal ve olgusal tutarlılığı korumak için daha derin bir kavramsal anlayış gereklidir. Ne yazık ki, bu hala mevcut AI karışımlarının üstesinden gelmediği bir zorluktur. Bu nedenle GPT-2 güzel paragraf paragrafları oluşturabilir, ancak otantik bir uzun formlu makale üretmek veya birisini inandırıcı bir şekilde ve uzun bir süre boyunca kimliğe bürünmek için zorlanır.

AI Fake-News Panic Neden Şişirilmiş

OpenAI'nin akıl yürütmesiyle ilgili bir başka sorun: AI'nın sahte bir haber krizi yaratabileceğini varsayar.

2016'da bir grup Makedon genç, ABD başkanlık seçimleriyle ilgili milyonlarca insana sahte haberler verdi. İronik olarak, düzgün İngilizce becerilerine bile sahip değillerdi; Web'de öykülerini buluyorlardı ve farklı içerikleri bir arada dikiyorlardı. Başarılı oldular çünkü ziyaretçileri güvenilir haber kaynakları olarak güvenmeye ikna edebilecek kadar özgün görünen web siteleri oluşturdular. Gerisini sansasyonel manşetler, olumsuz sosyal medya kullanıcıları ve trend algoritmaları yaptı.

Daha sonra, 2017'de, kötü niyetli aktörler Katar devleti haber sitelerini ve hükümet sosyal medya hesaplarını hackleyerek ve Katar Emirliği Şeyh Tamim bin Hamad Al Thani adına sahte açıklamalar yayınlayarak Basra Körfezi bölgesinde diplomatik bir krizi tetikledi.

Bu hikayelerin gösterdiği gibi, sahte haber kampanyalarının başarısı, büyük miktarda tutarlı İngilizce metni oluşturmaya değil, güven oluşturmaya (ve ihanet etmeye) bağlıdır.

OpenAI'nin sahte medya içeriğini sosyal medyada yayınlamak için otomatik hale getirme konusundaki uyarıları daha garantilidir, çünkü ölçek ve hacim sosyal ağlarda geleneksel medya kuruluşlarında olduğundan daha önemli bir rol oynamaktadır. Buradaki varsayım, GPT-2 gibi bir AI'nın, sosyal medyayı belirli bir konu hakkında milyonlarca benzersiz gönderiyle tıkatacağı ve trend algoritmalarını ve kamuya açık tartışmaları etkileyebileceği.

Ancak yine de, uyarılar gerçeklikten yoksundur. Son birkaç yılda, sosyal medya şirketleri sürekli olarak otomatik davranışları tespit etmek ve engellemek için yetenekler geliştiriyorlar. Bu yüzden, metin üreten bir AI ile donanmış kötü niyetli bir aktör, benzersiz içerik oluşturmanın ötesinde bir takım zorlukların üstesinden gelmek zorunda kalacaktı.

Örneğin, AI tarafından oluşturulan içeriğini yayınlayabilecekleri binlerce sahte sosyal medya hesabına ihtiyaçları olacaktı. Daha da zor, sahte hesapları bağlamanın bir yolu olmadığından emin olmak için, her hesap için benzersiz bir aygıta ve IP adresine ihtiyaçları olacaktır.

Kötüleşir: Benzerlikleri azaltmak için hesapların farklı zamanlarda, muhtemelen bir yıl veya daha uzun bir süre içinde oluşturulması gerekir. Geçen yıl, New York Times soruşturması, yalnızca hesap oluşturma tarihlerinin bot hesaplarını keşfetmeye yardımcı olabileceğini gösterdi. Daha sonra, otomatikleştirilmiş yapılarını diğer kullanıcılardan ve polislik algoritmalarından daha da gizlemek için, hesapların, diğer kullanıcılarla etkileşimde bulunmak ve mesajlarına benzersiz bir ton koymak gibi insan benzeri davranışlarda bulunması gerekir.

Bu zorlukların hiçbiri üstesinden gelmek imkansız, ancak içeriğin bir sosyal medya sahte haber kampanyasında yapılması gereken çabanın yalnızca bir parçası olduğunu gösteriyorlar. Ve yine, güven önemli bir rol oynar. Birkaç sahte haber yayınlayan birkaç güvenilir sosyal medya aracı, büyük miktarda içerik üreten bilinmeyen hesaplardan daha büyük bir etkiye sahip olacaktır.

OpenAI Uyarılarını Savunma

OpenAI'nin abartılı uyarıları, ünlü AI uzmanlarından eleştirilere yol açan, ironik bir şekilde sahte haberi sınırlayan bir medya yutturmaca ve panik döngüsünü tetikledi.

Basın mensuplarını sonuçlara daha erken erişmeleri için davet ettiler, bir basın ambargosu ile herkes aynı gün halka açıklandı. Tanıdığım hiçbir araştırmacı bu büyük modeli görmedi, ancak gazeteciler yaptı. Evet, bilerek havaya uçurdular.

- Matt Gardner (@nlpmattg) 19 Şubat 2019

Her yeni insan potansiyel olarak sahte haber üretmek, komplo teorilerini yaymak ve insanları etkilemek için kullanılabilir.

O zaman bebek yapmayı bırakmalı mıyız?

- Yann LeCun (@ylecun) 19 Şubat 2019

Hepinize kafa kafaya vermek istedim, laboratuarımız dil anlayışında inanılmaz bir buluş buldu. ama aynı zamanda yanlış ellere düşebileceğinden de endişe ediyoruz. bu yüzden onu hurdaya çıkarmaya karar verdik ve sadece normal * ACL sayfalarını yayınlayalım. Takım için büyük çalışmaları için büyük saygı.

- ((((? () (? () 'Yoav))))) (@yoavgo) 15 Şubat 2019

AI araştırmacısı ve Yaklaşık Doğru’nın editörü olan Zachary Lipton, OpenAI’nın “bloglarını kullanma ve büyük olgunlaşmamış çalışmaların kamuoyuna bakış açısına büyük önem verdiğini ve çoğu zaman entelektüel olmayan işlerin insan güvenliği yönlerini ortaya koymalarına dikkat çekti. ayakta durmak için bacaklar. "

Her ne kadar OpenAI, yanıltıcı açıklamalar sonucu aldığı tüm eleştiriyi ve sıcaklığı hak etse de, şirket halkı bu konuda eğitmek için sorumsuz bir yol kullansa bile, teknolojisinin olası kötü niyetli kullanımları konusunda gerçekten endişeli olmak da haklı.

  • AI Endüstrisinin Etik Hesaplaşma Yılı AI Endüstrisinin Etik Hesaplaşma Yılı
  • Haksız avantaj: AI bir insan gibi oynamasını beklemeyin haksız avantaj: AI bir insan gibi oynamasını beklemeyin
  • Bu AI Olmadan Önce Online Trolling Tahmini Yapıyor Bu AI Olmadan Önce Online Trolling Tahmini Ediyor

Geçtiğimiz yıllarda, AI teknolojilerinin düşüncesiz kamuoyu yarattığını ve kötü niyetli niyetler için yansıma oluşturduğunu gördük. Bir örnek, videolardaki yüzleri değiştirebilen bir AI uygulaması olan FakeApp'tı. FakeApp'ın yayınlanmasından kısa bir süre sonra, ünlülerin ve politikacıların yer aldığı sahte pornografik videolar oluşturmak için kullanıldı ve AI kaynaklı sahtecilik tehdidi konusunda endişelere yol açtı.

OpenAI'nin kararı, halka açık teknolojinin olası sonuçları hakkında durmamız ve düşünmemiz gerektiğini gösteriyor. AI teknolojilerinin riskleri hakkında daha aktif tartışmalar yapmamız gerekiyor.

“Belirli bir projeyi duraklatan bir kuruluş gerçekten uzun vadeli bir şeyi değiştirmeyecek. Ama OpenAI yaptıkları herhangi bir şeye çok dikkat çekiyor… ve bence bu konuyu vurgulamak için alkışlanmaları gerektiğini düşünüyorum.” David Bau, MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL) araştırmacı, Slate'e söyledi.

Openai'nin sahte haber uyarıları gerçek sahte haberleri nasıl tetikledi