Talaan ng mga Nilalaman:
- Mga Kwentong Ad na May Kahusayan sa Instagram
- 2 Mga naka-target na Racist Ads
- 3 Taon ng Facebook sa Review Woes
- 4 Tesla Autopilot Crash
- 5 Tay ang Racist na Microsoft AI
- 6 Mga Pagbati sa Iyong (Non-Existent) Baby!
- 7 Amazon 'Inirerekumenda' Mga materyales sa bomba
- 8 Ang Google Maps ay Nakakuha ng Racist
- 9 Mga Google Tags Ang Tao bilang Gorillas
- 10 Robot Security Hits Bata, Pinapatay ang Sarili
Video: Instacart Is Going Entirely On-Demand (Nobyembre 2024)
Ang teknolohiya ay hindi lamang para sa mga geeks, ito ay para sa lahat, at iyan ay maraming tao. Sa kaunting mga kumpanya lamang na nagkokontrol sa karamihan ng mga hardware at software - mula sa Apple at Amazon hanggang sa Facebook, Microsoft, at Google - magagawa lamang nila ito upang makontrol ang iyong pitaka at eyeballs. Ano ang isang mahirap, higanteng korporasyon na gagawin? Umaasa sa mga algorithm upang makagawa ng ilan sa mga mahahalagang desisyon.
Tinukoy ng Oxford Living Dictionary ang algorithm bilang "isang proseso o hanay ng mga patakaran na dapat sundin sa mga kalkulasyon o iba pang mga operasyon sa paglutas ng problema, lalo na ng isang computer." Ang isang perpektong halimbawa ay ang Facebook News Feed. Walang nakakaalam kung paano ito gumagana na ang ilan sa iyong mga post ay lumilitaw sa ilang Mga Balita sa Balita o hindi, ngunit ang Facebook ay. O paano ang tungkol sa Amazon na nagpapakita sa iyo ng mga nauugnay na libro? Mga kaugnay na paghahanap sa Google? Ang lahat ng ito ay malapit na binabantayan ang mga lihim na gumagawa ng maraming trabaho para sa kumpanya at maaaring magkaroon ng malaking epekto sa iyong buhay.
Ngunit ang mga algorithm ay hindi perpekto. Nabigo sila at ang ilan ay nabigo sa kamangha-manghang. Idagdag sa sulyap ng social media, at ang isang maliit na glitch ay maaaring maging isang napakagandang night night. Ito ay bihirang nakakahamak; ito ay may posibilidad na tinatawag ng New York Times na "Frankenstein Moments, " kung saan ang nilalang na nilikha ng isang tao ay naging isang halimaw. Ngunit nangyari ito, at pinagsama-sama namin ang ilan sa mga pinaka-mabagsik na kamakailang mga halimbawa sa ibaba. Ipaalam sa amin ang iyong mga paborito sa mga komento sa ibaba.
-
4 Tesla Autopilot Crash
Karamihan sa algorithmic snafus ay malayo sa nakamamatay, ngunit ang mundo ng mga self-driving na sasakyan ay magdadala sa isang buong bagong antas ng panganib. Na nangyari nang kahit isang beses. Ang isang may-ari ng Tesla sa isang daanan ng Florida ay ginamit ang semi-autonomous mode (Autopilot) at nag-crash sa isang traktor-trailer na pinutol siya. Mabilis na naglabas ng mga pag-upgrade ang Tesla, ngunit kasalanan ba talaga ang mode ng Autopilot? Sinabi ng National Highway Traffic Safety Administration na marahil hindi dahil ang system ay nangangailangan ng driver na manatiling alerto sa mga problema, tulad ng nakikita mo sa video sa itaas. Ngayon, pinipigilan ni Tesla ang Autopilot na maging aktibo kung ang driver ay hindi muna tumugon sa mga visual cues.
Mga Kwentong Ad na May Kahusayan sa Instagram
Tulad ng iniulat ng The Guardian, ang Facebook ay nagnanais na magpatakbo ng mga ad para sa serbisyo sa Instagram na may mga post mula sa sariling mga gumagamit. Ngunit pinili ng algorithm ang maling "larawan" upang itulak sa mga kaibigan ni Olivia Solon, siya mismo ang isang reporter sa The Guardian, na pumipili ng isang taong gulang na screenshot na kinuha niya sa isang nagbabantang email.
2 Mga naka-target na Racist Ads
Noong nakaraang linggo, iniulat ng ProPublica na pinapayagan ng Facebook ang mga advertiser na mag-target ng mga nakakasakit na kategorya ng mga tao, tulad ng "mga haters ng Hudyo." Ang site ay nagbabayad ng $ 30 para sa isang ad (sa itaas) na naka-target sa isang tagapakinig na tutugon nang positibo sa mga bagay tulad ng "kung bakit sinisira ng mga Hudyo ang mundo" at "Wala nang ginawa si Hitler." Inaprubahan ito sa loob ng 15 minuto.
Ang slate ay natagpuan ang parehong mga nakakasakit na kategorya, at ito ay naging isa pa sa mahabang linya ng mga item ng Facebook ay hindi lamang humihingi ng tawad, ngunit nangangako na ayusin sa ilang pangangasiwa ng tao. Alam mo, tulad ng noong naglagay ito ng $ 100, 000 na halaga ng mga ad ng halalan para sa Russia.
Sa isang post sa Facebook, sinabi ni COO Sheryl Sandberg na siya ay "naiinis at nabigo ang mga salitang iyon" at inihayag ang mga pagbabago sa mga tool ng ad nito.
Sinuri ng BuzzFeed upang makita kung paano hahawak ng Google ang mga katulad na bagay, at natagpuan na madaling mag-set up ng mga naka-target na ad na makikita ng mga racists at bigots. Sinuri ito ng Daily Beast dito sa Twitter at natagpuan ang milyun-milyong mga ad na gumagamit ng mga termino tulad ng "Nazi, " "wetback, " at ang salitang N.
3 Taon ng Facebook sa Review Woes
Kung nasa Facebook ka, walang alinlangan na nakita mo ang pagtatapos ng taon, ang mga video na nabuo ng algorithm na may mga highlight mula sa huling 12 buwan. O para sa ilan, ang mga mababang ilaw. Noong 2014, ang isang ama ay nakakita ng isang larawan ng kanyang yumaong anak na babae, habang ang isa pa ay nakakita ng mga snapshot ng kanyang bahay na nagliliyab. Kasama sa iba pang mga halimbawa ang mga taong nakikita ang kanilang mga huling alagang hayop, urns na puno ng abo ng magulang, at namatay na mga kaibigan. Sa pamamagitan ng 2015, ipinangako ng Facebook na i-filter ang malungkot na mga alaala.
5 Tay ang Racist na Microsoft AI
Ilang taon na ang nakalilipas, ang mga chat sa bots ay dapat na dalhin sa mundo sa pamamagitan ng bagyo, na pinapalitan ang mga rep ng serbisyo sa customer at ang paggawa sa online na mundo ng isang lugar ng chatty upang makakuha ng impormasyon. Tumugon ang Microsoft noong Marso 2016 sa pamamagitan ng pagtulak sa isang AI na nagngangalang Tay na ang mga tao, partikular na 18- hanggang 24 taong gulang, ay maaaring makipag-ugnay sa Twitter. Si Tay naman ay gagawa ng mga pampublikong tweet para sa masa. Ngunit sa mas mababa sa 24 na oras, na natututo mula sa misa na napakarumi, si Tay ay naging isang ganap na racist. Hinila agad ng Microsoft si Tay; bumalik siya bilang isang bagong AI na nagngangalang Zo noong Disyembre 2016, na may "malakas na mga tseke at balanse sa lugar upang maprotektahan siya mula sa pagsasamantala."
6 Mga Pagbati sa Iyong (Non-Existent) Baby!
Buong pagsisiwalat: Habang isinusulat ko ito, ang aking asawa ay talagang buntis. Parehong nakuha namin ang email na ito mula sa Amazon na nagsabing may binili ng isang bagay para sa amin mula sa registry ng aming sanggol. Hindi pa namin ito ipakilala sa publiko, ngunit hindi ito nakagugulat. Samantala, maraming milyong iba pang mga customer ng Amazon ang nakakuha rin ng parehong tala, kasama ang ilan na walang rehistro … o isang sanggol na nasa daan. Maaari itong maging bahagi ng isang phishing scheme, ngunit hindi. Nahuli ng Amazon ang error at nagpadala ng isang follow-up na apology email. Nang panahong iyon, marami ang nagreklamo na hindi ito nararapat o hindi mapaniniwalaan. Ito ay hindi gaanong algorithm kaysa sa glitchy email server, ngunit pupunta upang ipakita sa iyo na laging madaling makakasala.
7 Amazon 'Inirerekumenda' Mga materyales sa bomba
Tumalon ang lahat sa isa pagkatapos nito ay iniulat ng Channel 4 News ng UK, mula sa Fox News hanggang sa The New York Times . Ito ay nalamang natagpuan na ang tampok na "madalas binili" ng Amazon ay magpapakita sa mga tao kung ano ang kailangan nila upang makabuo ng isang bomba, kung nagsimula sila sa isa sa mga sangkap, na hindi pangalan ng site (ito ay potasa nitrayd).
Kung ano ang tunay na ginawa ng Amazon ay ipakita sa mga mamimili ang mga sangkap upang gumawa ng itim na pulbos sa maliit na halaga, na lubos na ligal sa United Kingdom, at ginagamit para sa lahat ng uri ng mga bagay - tulad ng mga paputok - na mabilis na itinuro sa isang hindi kapani-paniwalang mahusay na naisip lumabas sa post ng blog sa Mga Salita ng Idle. Sa halip, ang lahat ng mga ulat ay kung paano tinitingnan ito ng Amazon, dahil iyon ang dapat nilang sabihin na ginagawa nila sa isang mundo na takot sa terorismo at lohika.
8 Ang Google Maps ay Nakakuha ng Racist
Noong 2015, kailangang humingi ng paumanhin ang Google nang maghanap ang Google Maps ng "n ***** king" at "n *** isang bahay, " ay humantong sa White House, na sinakop pa rin ng Barack Obama sa oras. Ito ay isang resulta ng isang "Googlebomb, " kung saan ang isang term na ginamit nang paulit-ulit ay kukunin ng search engine at minarkahan bilang "tanyag" kaya ang mga resulta ay pumunta sa tuktok ng paghahanap. Ito ay kung paano nakuha ang salitang "Santorum" ng bagong kahulugan nito.
9 Mga Google Tags Ang Tao bilang Gorillas
Ang Mga Larawan ng Google ay isang kamangha-manghang app / serbisyo na nag-iimbak ng lahat ng iyong mga larawan at marami pa. Ang isa sa mga bagay ay ang pag-auto-tag ng mga tao at mga bagay sa mga larawan. Gumagamit ito ng pagkilala sa facial para sa mga tao upang mapaliit sila hanggang sa tamang tao. Mayroon pa akong isang folder ng lahat ng aking mga aso, at hindi ko na-tag ang alinman sa mga ito. Para rin sa gumagana, malubha nang noong 2015 ay humingi ng paumanhin ang Google kay Computer programmer na si Jacky Alciné nang siya at isang kaibigan - silang dalawa ay itim - ay na-ID ng serbisyo bilang gorillas. "Kami ay nakakagulat at tunay na nagsisisi na nangyari ito, " sinabi ng Google sa PCMag.
10 Robot Security Hits Bata, Pinapatay ang Sarili
Ang Knightscope ay gumagawa ng autonomous security robot na tinatawag na K5 para sa mga patrolling school at mall at kapitbahayan. Ang 5-paa-taas na Dalek-esque cones sa mga gulong-na kung saan sa kanilang kredito, ay nasa beta testing pa rin - ay may posibilidad na gawin ang balita hindi para sa nakakabagabag na krimen ngunit para sa mga glitches.
Halimbawa, noong Hulyo 2016, ang K5 sa Stanford Shopping Center sa Palo Alto ay tumakbo sa paanan ng isang 16-buwang gulang, at pormal na humingi ng tawad si Knightscope. Ang parehong lokasyon na iyon - marahil ang parehong droid-ay nagkaroon ng pag-iiba sa isang paradahan na may isang lasing, ngunit hindi bababa sa hindi iyon kasalanan ng K5. Ang hurado ay nasa labas pa rin ng K5 unit sa Georgetown Waterfront, office / shopping complex sa Washington DC … na ang isa ay diumano’y bumagsak ng ilang mga hagdan sa isang bukal ng tubig pagkatapos ng isang linggo lamang sa trabaho. Ito ay hindi naghahanap ng mabuti para sa hukbo ni Skynet.