Ev Özellikleri Google yapboz interneti detoksifiye etmeye çalışıyor

Google yapboz interneti detoksifiye etmeye çalışıyor

İçindekiler:

Video: Ari Lennox - GROUNDED (A #BlackOwnedFriday Jingle) (Kasım 2024)

Video: Ari Lennox - GROUNDED (A #BlackOwnedFriday Jingle) (Kasım 2024)
Anonim

İnternet toksik bir yer gibi hissedebilir. Troll'ler, nefret dolu konuşma ve tacizi engellemek için yorum bölümlerine ve sosyal medya konularına iner ve potansiyel olarak aydınlatıcı tartışmaları reklam hominem saldırılarına ve grup yığınlarına dönüştürür. Bir fikri çevrimiçi olarak ifade etmek çoğu zaman sonuçta ortaya çıkan vitriole değmez.

Facebook, Twitter ve YouTube dahil olmak üzere çok büyük sosyal platformlar, bu sorunları yeterince karşılayamayacaklarını itiraf ediyor. Botlar, troller ve içerik filtrelerinden kayan diğer istenmeyen bir silah yarışındalar. İnsanlar fiziksel olarak internetteki her bir yorumu okuyamıyor; Sık sık deneyenler bunu pişman.

Teknoloji devleri, her gün beslemeleri arasında akan içeriğin yayılmasını engellemek için çeşitli insan denetimi, AI algoritmaları ve filtreleri kombinasyonlarını denediler. Yapboz orta bir zemin bulmaya çalışıyor. Eskiden Google Ideas olarak bilinen Alfabenin bağlı kuruluşu ve teknoloji inkübatörü, insan moderatörleri için araçlara dönüştürülen makine öğreniminin (İnternet) internetin toksisite sorununa yaklaşım biçimimizi değiştirebileceğini kanıtlamaya başladı.

Perspektif, Jigsaw ve Google'ın Counter Abuse Technology ekibi tarafından geliştirilen bir API'dir. Çevrimiçi taciz ve taciz olaylarını tespit etmek için ML kullanır ve insan moderatörlerinin hayatlarını kolaylaştırmak amacıyla bir konuşmada olabilecekleri algılanan etkiye dayalı yorumları puanlar.

Bağırarak Eşleşenlerin Perspektifleri

Açık kaynak teknolojisi ilk olarak 2017'de açıklandı, bununla ilgili gelişme birkaç yıl önce başladı. Perspektif ile deneme yapan ilk sitelerden bazıları The New York Times ve Wikipedia gibi sitelerdir. Ancak son zamanlarda, Perspective Reddit ve yorum platformu Disqus gibi sitelerde bir ev buldu (PCMag.com'da kullanılıyor.)

Perspective ürün müdürü CJ Adams, projenin insanların seslerinin çevrimiçi ortamda nasıl susturulduğunu incelemek istediğini söyledi. Jigsaw, hedeflenen suiistimalin veya genel bir taciz atmosferinin, insanları konuşmaya seslerini eklemenin zamana veya enerjiye değmeyeceğini düşündüğü noktaya değinmeyecek şekilde ürpertici bir etki yaratabileceğini keşfetmek istedi. Ne kadar sıklıkla bir tweet, gönderi veya yorum gördünüz ve yanıt vermemeyi seçtiniz, çünkü trollerle savaşmak ve Mad Online'ı kazanmak ağırlaştırmaya değmez mi?

Adams, “Çevrimiçi bir sohbeti mahvetmek çok kolay, ” dedi. “İçeri atlaması kolay, ancak gerçekten kaba veya toksik olan bir kişi diğer sesleri açığa çıkarabilir. Belki 100 kişi bir makale okur veya bir tartışma başlatır ve çoğu zaman o odadaki en yüksek seslerden kalan tek kişi olur. beğeniler ve paylaşımlar için optimize edilmiş bir internette. Böylece tüm bu sesleri susturuyorsunuz. O zaman tartışmayı tanımlayan şey, sadece odadaki en gürültülü ses olan bağırarak eşleşiyor. "

    Yapboz ve Google

    Veri güvenliği sorunları, çalışanların Pentagon ve Çin projelerinde yer almasının önlenmesi ve cinsel tacizin ele alınması konusundaki vahiyleri ile uğraşan Jigsaw'un kardeş şirketi Google için zor bir yıl oldu. CEO Sundar Pichai'nin milletvekilleri tarafından kızartıldığı tartışmalı bir Kongre duruşmasından bahsetmiyorum bile.

    Alfabenin özgecil inkübatörü Jigsaw'da işler biraz daha dramatik hale geldi. Ekip, Intra uygulamasıyla DNS zehirlenmesi ve Project Shield'a karşı DDoS saldırıları gibi daha teknik sansür biçimlerini incelemek için zamanını harcadı. Perspektif ile amaç daha soyut. Belirli bir kurallar grubuna neyin ya da neyin karşı olmadığını belirlemek için makine öğrenmesini kullanmak yerine, Perspektifin zorluğu yoğun bir sübjektiftir: dilin duygusal etkisini sınıflandırmak.

    Bunu yapmak için, desenleri belirleme cümlesini bozan doğal dil işlemeye (NLP) ihtiyacınız var. Perspective ekibi, teknolojinin erişebileceği ve çözülmesini zorlaştırdığı bir ortamda doğrulama yanlılığı, grup düşüncesi ve taciz edici davranış gibi sorunlarla karşı karşıya.

    AI 'Bazen Yanlış ve Aptal'

    Makine öğrenimi ile çevrimiçi konuşmaların geliştirilmesi basit bir iş değildir. Hala gelişmekte olan bir araştırma alanı. Algoritmalar önyargılı olabilir, makine öğrenme sistemleri sonsuz bir iyileştirme gerektirir ve en zor ve en önemli problemler hala büyük ölçüde keşfedilmemiş durumdadır.

    Perspektif'i oluşturan Konuşma AI araştırma grubu, gazeteler, yayıncılar ve konuşmaları barındıran diğer sitelerle görüşerek başladı. Teknolojiyi deneyen ilk sitelerden bazıları New York Times, Wikipedia, The Guardian ve The Economist'tir .

    2017 yılında, ekip, alfa testinin bir parçası olarak halka açık web sitesi aracılığıyla ilk Perspektif demosunu açarak insanların siteye milyonlarca alçakgönüllü, küfürlü yorum yazmasına izin verdi. Microsoft'un rezil başarısız Tay chatbot deneyi gibi bir şey gibiydi, botu ırkçı tweet'lerle yanıtlamak yerine kandırmak yerine, kitle kaynaklı virülansı modellerini beslemek için eğitim verisi olarak kullandı, farklı çevrimiçi suistimal türlerini tanımlamaya ve kategorilere ayırmaya yardımcı oldu.

    İlk halka açık test çalışması sorunsuz geçmedi. Perspektif puanlamasına dayanarak ülke genelinde yorum yapmada toksisiteyi ortadan kaldıran Wired'ın "Amerika Genelinde Trolls" adlı algoritması, algoritmanın yanlışlıkla gruba, cinsiyet kimliğine veya cinsel yönelime göre nasıl ayrımcılık yaptığını gösterdi.

    Adams, Perspective'in ilk testinin önemli kör noktaları ve algoritmik önyargıları ortaya çıkardığı konusunda samimi idi. Amazon'un onlarca yıllık kusurlu iş verilerini eğiten ve kadın başvuru sahiplerine karşı doğal bir önyargı geliştiren hurda toplama aracı gibi, ilk Perspektif modelleri de üzerinde çalıştığı veriler nedeniyle göze çarpıyordu.

    “Sık hedefli gruplar örneğinde, eğitim veri setindeki yorumların dağılımına bakacak olursanız, 'eşcinsel' veya 'feminist' kelimesini içeren ve olumlu bir şekilde kullanan utanç verici derecede az sayıda yorum vardı. "diye açıkladı Adams. “Kötü niyetli yorumlar kelimeleri hakaret olarak kullanıyor. Dolayısıyla, kalıplara bakarak ML, “ Hey, bu kelimenin varlığı, bu duyguların toksik olup olmadığının oldukça iyi bir tahmincisidir ”der.

    Örneğin, alfa algoritması yanlışlıkla "Gururlu bir erkeğim" ya da "Ben bir feminist ve transsenderim" gibi ifadeleri yüksek toksisite puanlarıyla etiketlemiş olabilir. Ancak, halka açık şeffaf eğitim süreci - acı verici olsa da - istenmeyen yanlılığın sonuçlarında Jigsaw için paha biçilmez bir dersti.

    Makine öğrenimi modellerini çevrimiçi kötüye kullanma ve taciz kadar sıkıntılı ve kişisel bir şey üzerine eğitirken, algoritmik önyargının varlığı da tek başına AI'nın neden çözüm olmadığını vurgulamaktadır. Facebook ve YouTube gibi sosyal şirketler, binlerce insan moderatörü işe alarak platformlarının AI içerik denetleme özelliklerini yalnızca skandal altında geri adım atmak ve rota düzeltmek için kullanmaya başladı.

    Yapbozun çakışması ikisinin bir melezidir. Perspektif bir vakumda kararlar veren AI algoritmaları değildir; API, insan moderatörleri için yardımcı bir araç olarak hizmet etmek üzere topluluk yönetimi ve içerik denetimi arayüzlerine entegre edilmiştir. Perspektif mühendisleri, bir samanlıkta analoji kullanarak ML ile ve olmadan nefret dolu konuşmayı yönetmeyi açıklar: AI, insanlara bir yorumun kötü niyetli veya taciz olarak kabul edilip edilmeyeceği konusunda son sözünü verirken, sıralama sürecini otomatik hale getirerek, büyük haystacks'ı kısaltarak yardımcı olur.

    Adams, "Bu ML'nin yeni yeteneği" dedi. “İnsanlar AI'nın ne kadar akıllı olduğu hakkında konuşuyorlar, ancak bazen bazen yanlış ve aptalca yollardan bahsetmiyorlar. En başından beri bunun bir çok hata yapacağını biliyorduk ve” dedi. araç, makine destekli insan denetimi için faydalıdır, ancak otomatik karar vermeye hazır değildir. ' Fakat bu zehirli konuşmayı bulma ve 'samanlıkta iğne' sorununu alıp bir avuç samana götürebilir. ”

    Toksisite Skoru Nedir?

    Perspektif modellemesinin en bölünmüş yönü sayıları "toksisite" kadar öznel bir değişkene koymaktır. Adams'ın işaret ettiği ilk şey, Perspektifin puanlarının ciddiyet değil, olasılık göstergesidir. Daha yüksek sayılar, metindeki kalıpların, insanların toksik olarak nitelendirdiği yorumlardaki kalıplara benzemesi olasılığını artırır.

    "Toksik" in aslında ne anlama geldiğine gelince, Perspektif ekibi bunu geniş bir şekilde "sizi bir tartışma bırakmanız için muhtemel kaba, saygısız veya makul olmayan bir yorum" olarak tanımlar. Ancak bu tezahürlerin nasıl ince olduğu ortaya çıkabilir. 2018 yılında, Jigsaw, açıkça düşmanca davranan, küçümseyen veya iğneleyici bir yorum gibi daha belirsiz tehdit edici veya nefret dolu konuşma biçimleri alabilecek ML modelleri geliştirmek için Rodos Yapay Zeka Laboratuvarı (RAIL) ile ortaklık kurdu.

    Bu noktaya kadar, Perspektifin modellerinin çoğu, insanlardan internet yorumlarını "çok zehirli" den "çok sağlıklı" ye kadar derecelendirmelerini isteyerek eğitildi. Geliştiriciler daha sonra 0.0 ile 1.0 arasındaki yorumları belirli bir eşiğin üstünde işaretlemek için modeli kalibre edebilirler. 0.9'un üzerindeki bir puan, yüksek toksisite olasılığını belirtirken, 0.5 veya daha düşük bir puan, çok düşük bir algoritmik kesinlik derecesi anlamına gelir. Perspektif ayrıca, skor normalleştirme adı verilen şeyi kullanır ve bu da geliştiricilere puanları yorumlama konusunda tutarlı bir temel sağlar. Adams, foruma veya web sitesine bağlı olarak, geliştiricilerin modelleri karıştırıp eşleştirebileceklerini açıkladı. Dolayısıyla, bir topluluk küfürle ilgilenmiyorsa, bu özellik azaltılabilir.

    Adams, Perspective API ile entegre bir demo denetleme arayüzü gösterdi. Yönetici panelinde, yorumları en üste, en yeniye vb. Göre sıralama seçeneklerinin yanında, toksisiteye göre sıralamak için küçük bir bayrak simgesi bulunur. İnsan moderatörün Perspektif'e yanlış yorum yaptığını ve zaman içinde modelini geliştirdiğini söylemesi için yerleşik bir geri bildirim mekanizması da var.

    Farklı Perspektif modelleri ile puanlanan Wikipedia Talk sayfası yorumlarını ve bir yorum yazarı için bir yorum yazarı veya başka bir yorumcuya yapılan bir saldırı olması muhtemel olan ayrılan bir histogram grafiği için demo arayüzünü tıkladı.

    Adams, “İnsanları gözden geçirmek için bir şeyleri işaretlemek için makine destekli moderasyon araçları oluşturmak istiyoruz, ancak bazı merkezi tanımların ya da birinin iyi ve kötü olanı söylemesini istemiyoruz” dedi. “Eğer toksisiteye göre sıralarsam, yorumların en üste geldiğini görüyorsunuz. Fakat küfür gibi metriklere göre kimlik saldırılarını veya tehditleri daha fazla önemsiyorsanız, belki de genel bir toksisite modeli kullanmazsınız. Karıştırabileceğiniz içerikler. Bunları sunuyoruz ve geliştiriciler onları ağırlıyor. "

    RAIL deneyi daha ayrıntılı bir yaklaşım izliyor. Oxford'daki lisans öğrencileri Kanada gazetesi Globe ve Mail'in yorumlar bölümünden ve Wikipedia Talk sayfalarından on binlerce yorumdan oluşan bir veri kümesi oluşturuyorlar. İnsanlardan “noterlerden”, “sağlıksız içerik” in beş alt özniteliği ile ilgili her yorum hakkındaki soruları yanıtlamasını istiyorlar: düşmanca veya hakaret (troller), küçümseyen, küçümseyen veya koruyucu, iğneleyici ve haksız genellemeler.

    Bu daha ince niteliklere uymak, belirli gruplara yönelik istenmeyen önyargılar ve alaycı yorumlarla yanlış pozitif olan yeni karmaşık sorunları ortaya çıkardı. AI'nın artan acılarının bir parçası, insan konuşmasının arkasındaki ima edilen, dolaylı anlamları anlamasına yardımcı olmak için modelleri gittikçe daha fazla veri besliyor. Ekip hala binlerce yorumu taramakta ve yorumlamaktadır ve bu yılın başındaki nihai veri setini yayınlamayı planlamaktadır.

    Adams, "Doğru çalışmak istediğimiz, topluluğun bir dizi yorumu puanlayabileceği bir şeydir ve sonra bunları eşleşmek için özel bir Perspektif modelleri karışımı haline getirebiliriz" dedi.

    Reddit'in Meraklı Test Tablosu

    Reddit, internet hakkında iyi ve korkunç her şeyin bir mikrokozmosudur. Her konu ve niş için bir subreddit topluluğu var, aklınıza gelebilecek tuhaf bir ilgi. Yapboz, Reddit ile kurumsal düzeyde çalışmaz, ancak Perspektif'in AI denetlemesinin test edildiği en ilgi çekici yerlerden biri, r / changemyview adlı bir alt dizindedir.

    Şaşırtıcı bir şekilde, gerçek tartışma ve tartışmaların gerçekleştiği İnternet köşeleri var. Görünümümü Değiştir veya CMV, diğer alt dizinlerin çoğuna benzemez. Buradaki fikir, kabul edebileceğiniz bir düşünceyi kusurlu veya değişime açık olabilir, daha sonra bir konudaki fikrinizi değiştirip değiştiremeyeceklerini görmek için diğer bakış açılarını dinlemek ve anlamaktır. Bu konudaki konular Yıldız Savaşları filmleri için uygun görüntüleme sırası gibi sıradan konulardan ırkçılık, politika, silah kontrolü ve din gibi konularda ciddi tartışmalara kadar uzanıyor.

    Bakışımı Değiştir, Perspektif için ilginç bir test niteliğindedir çünkü subreddit, tartışmayı teşvik eden ve tasarımla tartışmayı başlatan konuşmaları başlatmak ve denetlemek için kendi ayrıntılı kurallarına sahiptir. Snorrrlax'ı Reddit'te yöneten Kal Turnbull, r / changemyview'in kurucuları ve moderatörlerinden biri. Turnbull, PCMag’e Perspektif API’sinin, özellikle kaba veya düşmanca konuşmayı yasaklayan sub-Kural 2’ye uygun olduğunu söyledi.

    İskoçya'da yaşayan Turnbull, "Basit bir kural gibi gözüküyor, ancak buna çok fazla ilgi gösteriliyor" dedi. “Dil konusunda akıllıca olmadan bu kuralı otomatikleştirmek zor. Reddit, işaretleme için filtreleri ve anahtar kelimeleri ayarlayabileceğiniz AutoModerator adlı bu şeyi size verir. Ancak çok fazla sayıda yanlış pozitif var ve bunu yakalamak oldukça zor olabilir, çünkü birisi birine hakaret etmeden kötü bir kelime söyleyebilir ve ayrıca kötü kelimeleri kullanmadan birine hakaret edebilir. ”

    Jigsaw Mart 2018'de Turnbull'a ulaştı. İşbirliği Kural 2 ile başladı, ancak yakında takım diğer kurallar için de Perspektif modeller oluşturuyordu. Açık kaynaklı Perspektif API'sinin tam bir entegrasyonu değil, moderatörlerin belirli bir toksisite eşiğinin üstünde puanlanan yorumları işaretlemesine izin veren bir Reddit botudur.

    Geçtiğimiz altı yıl boyunca, Turnbull ve diğer modlar tüm bunları AutoModerator raporları (işaretli anahtar kelimeler) ve kullanıcı raporları sırasından elle yapıyorlar. Jigsaw, tarayıcı uzantısı aracılığıyla takip ettikleri moderatörlerin yıllarca kural ihlali notları kullandı ve Perspektifin bazı toksisite modelleriyle birleştirilen verilere dayanan Perspektif modelleri oluşturdu. 2018 boyunca, CMV modları, aşırı hatalı pozitifler gibi konularda geri bildirimde bulundu ve Jigsaw, CMV'nin kurallarının daha fazlasını modellemeye devam ederken puanlama eşiklerini ayarladı.

    Çevrimiçi Tartışmada Karma Kararlar

    (Perspektif bot, Reddit moderatör arayüzüne entegre edildi.)

    Perspektif, tüm subreddit'in kural denetimi için canlı değildir. Daha karmaşık veya soyut kurallardan bazıları hala bu tür ML'nin anlayabileceği alanın ötesindedir.

    Örneğin Kural 4, alt birimin Delta puan sistemini yönetirken, Kural B, kullanıcıların şeytanın avukatı oynamasını veya "sabun köpüğü" için bir yazı kullanmasını önler. Bunun gibi nüanslı denetim, birinin gerçek nedenlerle mi tartıştığını ya da basitçe trolling yaptığını ayırt etmek için bağlamsal veri ve açık bir insan anlayışı gerektirir.

    Öngörülebilir gelecek için, yine de insan modlarına ihtiyacımız olacak. Bu daha karmaşık değerlendirme senaryoları CMV moderatörlerinin AI modellemesinde çatlaklar görmeye başladıkları yerlerdir ve daha akıllı bir otomasyon tüm bunların ölçeklenebilir olup olmadığını belirleyebilir.

    Turnbull, "Bunun neden bu kadar karmaşık olmasının sebebi, orijinal gönderileri hakkındaki yargımızın ve tüm konuşma boyunca etkileşimlerinin bir birleşimi olmasıdır. Bu nedenle, bir modeli tetikleyen tek bir yorum değil." Dedi. "Eğer bir argüman ileri geri gidiyorsa ve sonunda 'teşekkür ederim' veya bir açıklama yazan bir yorum ise, bir kural iş parçacığında önceden bir kural ihlal edilmiş olsa bile, bırakalım. kaba görünebilir - güzel, küçük bir insan olayı ve botun henüz alamadığı bir şey. "

    Bakışımı Değiştir, şu anda denetleme için Perspective ML modellerini aktif olarak kullanan tek subreddit, Adams takımın diğerlerinden erişim talepleri aldığını söyledi. Özel CMV kuralı seti ideal bir test durumu yaptı, ancak Perspektif modeller dövülebilir; Bireysel alt dizinler, puanlama algoritmasını topluluk kurallarına uyacak şekilde özelleştirebilir.

    Turnbull'un bir sonraki adımı CMV'yi Reddit'in dışına çıkarmak olacak çünkü topluluk onu geride bırakıyor. Geçtiğimiz altı ay boyunca, moderatörlerin yeni oluşturdukları başlangıç, Reddit'in mod arabiriminin ve botların sağlayabileceğinden daha derin işlevselliğe sahip özel bir sitede Jigsaw ile çalışıyor.

    Proje hala sadece alfa testlerinde, ancak Turnbull, bir kullanıcı bir kuralı ihlal edebilecek bir yorum yazarken proaktif uyarılar, moderatörlere daha fazla bağlam vermek için yerleşik raporlama ve kararlar almak için geçmiş veriler gibi özellikler hakkında konuştu. Turnbull, subreddit'i kapatmak veya taşımak için hiçbir plan olmadığını vurguladı, ancak yeni deney için heyecanlı.

  • Tüm Yorumlar Yazdırmaya Uygun

    Haftanın gününe bağlı olarak, The New York Times'ın web sitesi 12.000'den 18.000'den fazla yoruma ulaşıyor. 2017 yılının ortasına kadar, makalenin yorum bölümleri, her bir yorumu okuyan ve onaylayıp onaylamamaya karar veren tam zamanlı bir topluluk yönetimi personeli tarafından yönetildi.

    Bu aya kadar The Times'ın topluluk editörlüğünü yapan Bassey Etim, Topluluk masasında on yıl geçirdi ve 2014'ten beri editörlüğünü yaptı. Bir hafta içi yükseklikte, takımın görüş hikayeleri hakkında yorum yapan birkaç kişi olabilir. ele alınan haberler. Bir e-tablo ayrıldı ve farklı sorumluluklar izledi, ancak yaklaşık bir düzine insandan oluşan ekip, o andaki en iyi haberlere bağlı olarak sürekli olarak yeniden atandı veya taşındı. Ayrıca, potansiyel hikaye yemleri için yapılan açıklamalardan gazetecilere haber verdiler.

    Sonunda, bunun başarabilecek 12 kişiden fazlası olduğu ortaya çıktı. Hikayeler hakkındaki yorum bölümleri, ekibin denetleyebileceği maksimum yorum sayısına ulaştıktan sonra kapanmak zorunda kalacak.

    Gazetenin hedef kitle geliştirme grubu, temel, açık yorum onayları için makine öğrenmesi konusunda zaten deneyler yapıyordu, ancak Etim, bunun akıllıca veya özelleştirilebilir olmadığını söyledi. The Times ilk kez Jigsaw’la Eylül 2016’da ortaklığını ilan etti. O zamandan beri, yorum bölümleri tüm hikayelerin yüzde 10’undan daha azında görünüp bugün yüzde 30’a çıkıp tırmanmaya başladı.

    Jigsaw’un bakış açısından, inkübatör, Perspektif Perspektifinden günlük milyonlarca yorumdan anonimleştirilmiş verileri besleyerek, sürecin iyileştirilmesine yardımcı olabilecek uzmanlar tarafından yönetilme fırsatını gördü. Anonimleştirilmiş ML eğitim verisi karşılığında, Jigsaw ve Times, Haziran 2017'de açılan Moderatör adında bir platform oluşturmak için birlikte çalıştılar.

  • Moderatör İçinde, NYT Yorum Arabirimi

    ( New York Times’ın izniyle )

    Moderatör, Perspective'in modellerini 2007 yılına kadar giden 16 milyondan fazla anonimleştirilmiş, moderatörlü Times yorumuyla birleştiriyor.

    Topluluk ekibinin Moderatör arayüzünde gerçekte gördüğü şey, yorum dökümünü belirli bir eşiğin üstünde görselleştiren etkileşimli bir histogram grafiğine sahip bir panodur. Örneğin, yorumun müstehcenlik, toksisite ve reddedilme olasılığı olasılığının bir kombinasyonuna dayanan tüm yorumları yalnızca yüzde 0 ila 20 özet puanıyla otomatik olarak onaylamak için kaydırıcıyı ileri ve geri sürükleyebilirler. Perspektifin modellemesini geliştirmeye devam etmek için, bir yorumu onaylamak veya reddetmek, yorumlamak veya yorumlamak için hızlı denetleme düğmeleri bulunmaktadır.

    Etim, "Web sitesinin her bölümü için gelen yorumları ve Perspektifin onları etiketleme şeklini analiz ettik. Hem genel Perspektif modellerini hem de The New York Times'a özgü kendi modellerimizi kullandık" dedi. “Her bölümden yorumları analiz edip rahat edeceğimiz kesme noktasını bulmaya çalışacağım, 'Tamam, bu özelliğin üzerindeki her şeyi bu müstehcenlik gibi bu özel toksisite etiketlerini kullanarak onaylayacağız' diyeceğim.”

    Makine öğrenimi, nispeten daha küçük bir yorum yüzdesini onaylıyor (Etim, yaklaşık yüzde 25 civarında), Times'ın daha fazla hikaye hakkındaki yorumları ortaya koymaya ve sonuç olarak modellerin sitenin farklı bölümleri için yorumları nasıl filtrelediğini ve onayladığını kişiselleştirmeye çalıştığını söyledi. Modeller yalnızca yorumları onaylar; reddetme hala tamamen insan moderatörler tarafından yapılmaktadır.

    Bu manuel yorum kesintileri gitti. Etim, yorumların bir hikayenin çevrimiçi yayınlanmasından 24 saat sonra veya basılı olarak yayınlanmasından bir gün sonra tipik olarak kapandığını belirtti.

    'Sizi Makinelerle Değiştirmiyoruz'

    Bir sonraki aşama, moderatörlerin ilk olarak hangi yorumlara bakacaklarını önceliklendirmelerine yardımcı olmak için sisteme daha fazla özellik kazandırmaktır. Artan bir şekilde, her zaman manuel bir işlem olanı otomatik hale getirmek, moderatörlerin yorumlara cevap vermek için proaktif olarak muhabirlerle birlikte çalışarak zaman geçirmelerini sağlamıştır. Yorumların takip raporlamasına ve ek hikayelere yol açtığı bir geribildirim döngüsü yarattı - daha fazla gazetecilik oluşturmak için kaynakları kurtarabilir ve yeniden tahsis edebilir.

    Etim, "Moderatör ve Perspektif, Times'ı okurların endişelerine daha duyarlı hale getirdi, çünkü kendimiz hikayeler yazarak ya da hikayeleri bulmak için gazetecilerle birlikte çalışarak bunu yapacak kaynaklarımız var" dedi. “Bu projeyle ilgili en güzel şey kimseyi bırakmadığımızdır. Sizi makinelerle değiştirmiyoruz. Biz sadece daha verimli olanları kullanıyoruz ve gerçekten zor kararlar almak için.”

    Rapor, endüstrinin geri kalanının bu tür teknolojiyi uygulamasına yardımcı olmak için diğer yayınlarla çalışmaya açıktır. Yerel haber kuruluşlarına sınırlı kaynaklara sahip, büyük bir özverili personel olmadan yorum bölümlerini muhafaza etmek ve yorumları, Times'ın yaptığı gibi potansiyel müşterileri bulmak ve taban gazetecilerini yakmak için kullanabilir.

    Etim, AI destekli ılımlılığı, bir çiftçiye kürek yerine mekanik bir pulluk vermeye benzetmişti. Bir pulluk ile işi daha iyi yapabilirsin.

    "Perspektif doğru şekilde gelişebiliyorsa, umarım, en azından küçük satış yerleri için tekrarlanabilir bir dizi kılavuz oluşturabilir" dedi. “Uzun bir oyun, ancak bu okuyucu deneyiminin bir parçası olmak için çok fazla temel hazırladık. O zaman belki bu yerel gazeteler tekrar yorum yapabilir ve büyük sosyal oyunculara karşı küçük bir engel oluşturabilir.”

    Uçuruma Çığlık

    Bu noktada birçoğumuz bir fikri dile getirdiği için sosyal medyaya saldıran veya taciz eden insanlar gördük. Kimse onların başına gelmesini istemez, böyle bir şeyi yapan troller dışında. Ve akılcı bir argümanı hiç dinlemeyecek bir yabancıya bağırmanın zamanın değerli bir kullanımı olmadığını öğrendik.

    Perspektif bu dinamiği artırmaya çalışıyor, ancak CJ Adams, daha geniş bir hedefin yeni konuşma yapıları oluşturmak için veri, araştırma ve yeni açık kaynaklı UX modelleri yayınlamak olduğunu - göz korkutucu bir görev. İnterneti insanların zamanına değecek kadar sağlıklı bir yer haline getirmek, bu sistemleri haber yorum bölümlerinin ve alt bölümlerin ötesine ölçeklendirmek anlamına geliyor. Sonuçta, AI araçları günlük dijital etkileşimlerimize hâkim olan devasa sosyal uygulamaları ve ağları idare edebilmelidir.

    Facebook, Twitter ve diğer sosyal devlerin içeride yaptıklarını bir yana koymak, bunu başarmanın en doğrudan yolu, teknolojiyi moderatörlerden kullanıcılara itmek. Adams, neye benzeyeceğine dair bir fikir için Mercan Projesine işaret etti.

    Mercan Projesi başlangıçta Mozilla Vakfı, The New York Times ve Washington Post arasında bir işbirliği olarak kuruldu . Coral, çevrimiçi tartışmayı teşvik etmek ve haber sitelerine yorum bölümlerini kapatmaya alternatif vermek için Konuşma platformu gibi açık kaynaklı araçlar üretiyor. Talk şu anda Post, New York Dergisi, The Wall Street Journal ve The Intercept dahil olmak üzere yaklaşık 50 çevrimiçi yayıncının platformlarını güçlendirmektedir.

    Bu ayın başlarında Vox Media, Coral Projesini Mozilla Vakfı'ndan satın aldı; içerik yönetimi ve hikaye anlatımı platformu olan Koro'ya "derinlemesine" eklemeyi planlıyor.

    Adams, kullanıcılara yazdıkları gibi proaktif öneriler sunmak için aynı temel teknolojiyi (ML tabanlı toksisite skoru ve eşikleri) kullanan Mercan Projesi için bir eklentiye sahip olduğunu söyledi. Bu nedenle, kullanıcı kötüye kullanım veya taciz olarak işaretlenen ifadeleri içeren bir yorum yazarken, kullanıcı için "Bunu göndermeden önce, topluluk kurallarımızı hatırladığınızdan emin olun" veya "Bu yorumdaki dil kurallarımızı ihlal ediyor olabilir" şeklinde bir bildirim açılabilir. topluluk kuralları. Denetim ekibimiz kısa bir süre içinde gözden geçirecek. "

    Adams, "Bu küçük dürtme, insanların düşünmek için sadece o saniyeyi kullanmasına yardımcı olabilir, ancak aynı zamanda kimseyi engellemiyor" dedi. "Tartışmayı durdurmuyor."

    Video oyunu sohbet ve akış platformlarının kötüye kullanımı ve tacizi önlemek için bir araya getirdiği bir mekanizmadır. Twitter kullanıcıları da böyle bir sistemden açıkça faydalanabilirler.

    MIT araştırma bilimcisi Andrew Lippmann'ın PCMag'in Geleceği Konusunda gündeme getirdiği fikrine değiniyor: Yanlış bilgilendirmenin yayılmasını sağlamak için insanların çevrimiçi bir şeyi paylaşmadan önce durmalarını ve düşünmelerini sağlayacak yerleşik mekanizmalardan bahsetti. Konsept çevrimiçi tartışma için de geçerlidir. Lippmann, ifadenin bir anda üssel olarak erişimini arttırabilen sürtünmesiz iletişim sistemleri yarattık, ancak bazen biraz sürtünme iyi bir şey olabilir.

    Perspektif AI'yı battaniye çözümü olarak kullanmakla ilgili değil. ML modellerini insanların kendi deneyimlerini geliştirmelerine yardımcı olacak araçlara dönüştürmenin bir yolu. Ancak bir nokta, insanların sevmedikleri çevrimiçi gürültüyü ayarlamasını daha da kolaylaştırırsanız, internetin halihazırda olduğundan daha fazla bir yankı odası haline gelmesidir.

    Perspective gibi araçların nihayetinde bunu daha da kötüleştirip etkileyemeyeceğini sorduğunu söyleyen Adams, çevrimiçi yankı odalarının var olduğuna inandığını, çünkü insanların anlamlı şekilde aynı fikirde olamayacakları bir tartışmaya ev sahipliği yapacak mekanizmalar bulunmadığını söyledi.

    "En az direniş yolu:" Bu insanlar kavga ediyor. Hadi, kendi köşelerinde kendileriyle aynı fikirde olmalarına izin verelim. İnsanların kendilerini silo etmelerine izin verin. "Dedi. “İnsanların odadaki herkesi bağırmasına ya da tartışmayı kapatmasına izin veriyorsun. Perspektif'in üçüncü bir seçenek yaratmasını istiyoruz.”

    Adams örnek bir senaryo hazırladı. 1000 kişilik bir odaya sorarsanız, “Bugün kaçınız değer verdiğiniz bir şeyi okudunuz?” çoğu internet kullanıcısı bir makaleye, bir tweet'e, bir gönderiye veya çevrimiçi okudukları bir şeye işaret edecektir. Fakat eğer onlara daha sonra sorarsanız, “Kaçınız onun hakkında yorum yapmanın veya bir tartışma yapmanın zaman alacağını düşündünüz?” odadaki bütün eller aşağı inecek.

    “Birçoğumuz için bu sadece çabaya değmez. Şu anda sahip olduğumuz tartışma yapısının sadece bir sorumluluk olduğu anlamına geliyor. Mevcut bir makul düşünceniz veya paylaşmak istediğiniz bir şey varsa, çoğu insan için katılmak istemiyorum, "dedi Adams. “Bu, odada olabilecek 1000 kişinin, tartışmada sadece bir avuç temsil ettiğiniz anlamına gelir; 10 kişi diyelim. Diyelim ki, diğer 990'ı tekrar tartışmaya sokacak bir yapı inşa edebileceğimize dair derin bir inancım var. ve zamanlarına değer bulacakları şekilde yapıyor. ”

Google yapboz interneti detoksifiye etmeye çalışıyor