İçindekiler:
- 1 Instagram'ın Şüpheli Reklamları
- 2 Hedefli Irkçı Reklam
- 3 Facebook Yıl İnceleme Woes
- 4 Tesla Otopilot Kazası
- 5 Tay Irkçı Microsoft AI
- (Varolmayan) Bebeğinize Tebrikler!
- 7 Amazon 'Tavsiye Edilen' Bomba Malzemesi
- 8 Google Haritalar Irkçı Alır
- 9 Google Etiketler Goriller Olarak İnsanları
- 10 Robot Güvenliği Çocuğa Vurdu, Kendini Öldürdü
Video: 24 SAAT MİNİCİK EV 'DE YAŞAMAK ?! (Kasım 2024)
Teknoloji sadece meraklılar için değil, herkes için ve çok fazla insan var. Apple ve Amazon'dan Facebook, Microsoft ve Google'a kadar çoğu donanım ve yazılımı kontrol eden bir avuç şirketle, cüzdanınızı ve gözbebeklerinizi kontrol etmek için yalnızca çok şey yapabilir. Fakir, dev bir şirket ne yapmalı? Bazı önemli kararları almak için algoritmalara güvenin.
Oxford Living Dictionaries, algoritmayı "hesaplamalarda veya özellikle bilgisayar tarafından yapılan diğer problem çözme işlemlerinde izlenecek bir süreç veya kurallar kümesi" olarak tanımlar. Mükemmel bir örnek Facebook Haber Kaynağı. Hiç kimse yayınlarınızın bazılarının Haber Yayınlarında görünüp görünmediğini bilmiyor; ancak Facebook bunu yapıyor. Veya Amazon'un size ilgili kitapları göstermesi nasıl olur? Google'da ilgili aramalar? Bunların hepsi, şirket için çok fazla iş yapan ve yaşamınız üzerinde büyük bir etkisi olabilecek yakından korunan sırlardır.
Ancak algoritmalar mükemmel değildir. Başarısız olurlar ve bazıları muhteşem bir şekilde başarısız olur. Sosyal medyanın parlamasını ekleyin ve küçük bir aksaklık PR hızlı bir kabusa dönüşebilir. Nadiren zararlı; Bunlar New York Times’ın “Frankenstein Moments” dediği şeydir, burada yaratılan yaratık bir canavara dönüşür. Ancak olur ve aşağıdaki en korkunç örneklerden bazılarını derledik. Aşağıdaki yorumlardaki favorilerinizi bize bildirin.
-
4 Tesla Otopilot Kazası
Çoğu algoritmik tuzak ölümcül olmaktan uzak, ancak kendi kendini süren otomobillerin dünyası yepyeni bir tehlike seviyesi getirecek. Bu zaten en az bir kere oldu. Florida otoyolundaki bir Tesla sahibi yarı özerk modu (Autopilot) kullandı ve onu kesen bir traktöre çarptı. Tesla hızlı bir şekilde yükseltmeler yayınladı, ancak gerçekten Autopilot modunun hatası mıydı? Ulusal Karayolu Trafik Güvenliği İdaresi, belki de sistemin videoda gördüğünüz gibi sistemin sürücünün problemler için tetikte kalmasını gerektirdiği için olmadığını söylüyor. Şimdi, Tesla, sürücü önce görsel ipuçlarına yanıt vermezse, Otomatik Pilot'un devreye girmesini bile önler.
1 Instagram'ın Şüpheli Reklamları
The Guardian tarafından bildirildiği gibi, Facebook, kendi kullanıcılarından gelen yayınlarla Instagram hizmeti için reklam yayınlamayı sever. Ancak algoritma, kendisinin The Guardian'da muhabiri olan Olivia Solon'un arkadaşlarına zorlamak için yanlış bir "fotoğraf" seçti ve tehdit edici bir e-posta aldığı bir yıllık ekran görüntüsünü seçti.
2 Hedefli Irkçı Reklam
Geçtiğimiz hafta, ProPublica, Facebook'un reklamverenlerin "Yahudi düşmanları" gibi saldırgan insan kategorilerini hedeflemesine izin verdiğini bildirdi. Site, "Yahudilerin neden dünyayı mahvetti" ve "Hitler yanlış bir şey yapmadı" gibi şeylere olumlu yanıt verecek bir kitleyi hedefleyen bir reklam için 30 dolar ödedi. 15 dakika içinde onaylandı.
Slate benzer şekilde saldırgan kategoriler buldu ve Facebook'un yalnızca özür dilemek zorunda kalmayacağı, bazı insan gözetiminde düzeltmeyi vaat ettiği uzun bir sıradaki ürün haline geldi. Bilirsin, Rusya’ya 100.000 dolar değerinde seçim ilanı verdiğinde olduğu gibi.
Bir Facebook yazısında, COO Sheryl Sandberg "bu kelimeleri bıkkın ve hayal kırıklığına uğrattı" dedi ve reklam araçlarında değişiklik yaptığını açıkladı.
BuzzFeed, Google’ın benzer şeylerle nasıl başa çıkacağını görmek için kontrol etti ve ırkçıların ve bigotların göreceği hedefli reklamlar ayarlamanın kolay olduğunu buldu. The Daily Beast, Twitter'da kontrol etti ve "Nazi", "wetback" ve N kelimesi gibi terimler kullanarak milyonlarca reklam buldu.
3 Facebook Yıl İnceleme Woes
Facebook'taysanız, yılın sonundaki, algoritma tarafından üretilen ve son 12 ayın en çok dikkat çeken videolarını gördüğünüzden hiç şüpheniz yok. Ya da bazıları için düşük ışıklar. 2014'te bir baba, geç kızının bir resmini görmüş, bir başkası da evinin enstantanelerini alevler içinde görmüştür. Diğer örnekler arasında geç evcil hayvanlarını gören insanlar, ebeveynlerinin külleriyle dolu ütüler ve ölen arkadaşlar vardır. 2015 yılına kadar, Facebook üzücü hatıraları filtrelemeye söz verdi.
5 Tay Irkçı Microsoft AI
Birkaç yıl önce, sohbet botlarının dünyayı fırtınaya sokması, müşteri hizmetleri temsilcilerinin yerini alması ve çevrimiçi dünyayı bilgi almak için konuşkan bir yer haline getirmesi gerekiyordu. Microsoft, Mart 2016'da Tay adında bir AI'yi, özellikle de 18 ila 24 yaşları arasındaki kişilerin Twitter'da etkileşime girebileceğini belirtti. Buna karşılık Tay, kitleler için halka tweetler yapar. Ancak 24 saatten daha az bir sürede, kirli ağızlı kitlelerden bir şeyler öğrenerek Tay, tam anlamıyla ırkçı bir ırkçı oldu. Microsoft Tay'ı hemen aşağı çekti; Aralık 2016'da Zo adında yeni bir AI olarak geri döndü ve “onu sömürüye karşı korumak için güçlü kontroller ve dengeler sağladı”.
(Varolmayan) Bebeğinize Tebrikler!
Tam açıklama: Bunu yazarken karım aslında hamile. İkimiz de Amazon'dan bir e-posta aldık, birisinin bebek kayıt defterimizden birileri bizim için bir şey aldığını söyledi. Henüz halka açıklamamıştık ama çok da şok edici değildi. Bu arada, birkaç milyon diğer Amazon müşterisi de aynı notu aldı, bazıları kayıtsız ya da yolda bebek de dahil olmak üzere. Bir kimlik avı düzeninin parçası olabilirdi, ancak değildi. Amazon hatayı yakaladı ve özür dileme e-postası gönderdi. O zamana kadar, birçok kişi bunun uygunsuz veya duyarsız olduğundan şikayet etmişti. Bu, karmaşık e-posta sunucusundan daha az algoritma idi, ancak size her zaman hakaret etmenin kolay olduğunu göstermeye devam ediyor.
7 Amazon 'Tavsiye Edilen' Bomba Malzemesi
Fox News'den The New York Times'a İngiltere Kanal 4 Haberinde bildirildikten sonra herkes bu işe atladı. Amazon'un "sık sık birlikte alındığı" özelliğinin, sitenin isimlendirmeyeceği bileşenlerden biriyle başlarsa (potasyum nitrattı), insanlara bomba yapmak için neye ihtiyaçları olduğunu göstereceği söylendi.
Amazon'un algoritmasının gerçekte yaptığı şey, alıcılara Birleşik Krallık'ta tamamen yasal olan ve kısa sürede inanılmaz derecede iyi düşünülmüş bir havai fişek gibi havai fişek gibi her türlü şey için kullanılan siyah toz yapma katkılarını göstermektı. sözlerindeki blog yazısı. Bunun yerine, tüm raporlar Amazon'un nasıl baktığı ile ilgilidir, çünkü terörizm ve mantıktan korkan bir dünyada yaptıklarını söylemek zorunda oldukları şey.
8 Google Haritalar Irkçı Alır
2015'te Google, Google Haritalar'ın "n ***** king" ve "n *** bir ev" aradığı zaman özür dilemek zorunda kaldı, o sırada halen Barack Obama tarafından işgal edilen Beyaz Saray'a yöneldi. Bu, bir "Googlebomb" un sonucuydu, burada tekrar tekrar kullanılan bir terim arama motoru tarafından toplanır ve "popüler" olarak işaretlenir, böylece sonuçlar aramanın en üstüne çıkar. Santorum kelimesi yeni tanımını böyle yaptı.
9 Google Etiketler Goriller Olarak İnsanları
Google Foto, tüm fotoğraflarınızı ve daha fazlasını depolayan muhteşem bir uygulama / hizmettir. Bu şeylerden biri, insanları ve fotoğraflardaki şeyleri otomatik olarak etiketlemektir. İnsanların onları doğru kişiye daraltmak için yüz tanıma özelliğini kullanır. Hatta bütün köpeklerimden bir klasör bile var ve hiçbirini etiketlemedim. İşe yaradığı gibi, Google’ın 2015’te Google’ın bilgisayar programcısı Jacky Alciné’den özür dilemesi gerektiğine çok üzülmüştü. Google PCMag’e yaptığı açıklamada, "Bu olaydan dolayı dehşete düştük ve gerçekten üzgünüz." Dedi.
10 Robot Güvenliği Çocuğa Vurdu, Kendini Öldürdü
Knightscope, okulları, alışveriş merkezlerini ve mahalleleri devriye gezmek için K5 adında özerk güvenlik robotları yapar. 5 metre yüksekliğindeki Dalek esque, kredileri hala beta testinde olan tekerlekler üzerindeki konileri haberi yok etmek için değil, suçlamalar için de kullanıyor.
Örneğin, Temmuz 2016'da, Palo Alto'daki Stanford Alışveriş Merkezi'ndeki K5, 16 aylık bir çocuğun ayağına çarptı ve Knightscope, resmen özür dilemek zorunda kaldı. Aynı yer - belki de aynı droid - bir park yerinde sarhoş bir çarpışma geçirdi, ama en azından K5'in hatası değildi. Jüri hala Washington DC'deki ofis / alışveriş kompleksi olan Georgetown Waterfront'taki K5 ünitesinde… birisinin iş başında sadece bir hafta sonra bazı merdivenlerden su çeşmesine girdiği iddia ediliyor. Skynet ordusu için iyi görünmüyor.