Talaan ng mga Nilalaman:
- Ang Pinagmulan ng Algorithmic Bias
- Ang Epekto ng Algorithmic Bias
- Pag-alis ng Mga Bias Mula sa AI Algorithms
- Ang Opacity ng AI ay Nakumpleto ang pagiging patas
- Pananagutan ng Tao
Video: ISYUNG PANGKAPALIGIRAN: Kalagayan, Suliranin, at Tugon (Nobyembre 2024)
Noong 2016, ang mga mananaliksik mula sa Boston University at Microsoft ay nagtatrabaho sa mga algorithm ng artipisyal na intelihente nang natuklasan nila ang mga tendensya ng racist at sexist sa teknolohiyang pinagbabatayan ng ilan sa mga pinakatanyag at kritikal na serbisyo na ginagamit namin araw-araw. Ang paghahayag ay labag sa maginoo na karunungan na ang artipisyal na intelihensiya ay hindi nagdurusa mula sa pagkiling ng kasarian, lahi, at kultura na ginagawa ng mga tao.
Ginawa ng mga mananaliksik ang pagtuklas na ito habang pinag-aaralan ang mga algorithm ng pag-emblay ng salita, isang uri ng AI na nakakahanap ng mga ugnayan at asosasyon kasama ng iba't ibang mga salita sa pamamagitan ng pagsusuri sa mga malalaking katawan ng teksto. Halimbawa, ang isang sinanay na algorithm ng pag-emblay ng salita ay maaaring maunawaan na ang mga salita para sa mga bulaklak ay malapit na nauugnay sa kaaya-ayang damdamin. Sa isang mas praktikal na antas, nauunawaan ng salita ang pag-embed ng salita na ang salitang "computer programming" ay nauugnay sa "C ++, " "JavaScript" at "pagtatasa at disenyo ng object-oriented." Kapag isinama sa isang application ng resume-scan, pinapayagan ng pag-andar na ito ang mga employer na makahanap ng mga kwalipikadong kandidato na may mas kaunting pagsisikap. Sa mga search engine, maaari itong magbigay ng mas mahusay na mga resulta sa pamamagitan ng pagdadala ng nilalaman na semantically nauugnay sa termino ng paghahanap.
Nalaman ng mga mananaliksik ng BU at Microsoft na ang mga algorithm ng pag-embiring ng salita ay may mga problemang biases, bagaman - tulad ng pag-uugnay sa "computer programmer" sa mga pangngalan ng lalaki at "homemaker" sa mga babae. Ang kanilang mga natuklasan, na inilathala nila sa isang papel sa pananaliksik na naaangkop na pinamagatang "Ang Tao ay sa Computer Programmer dahil ang Babae ay sa Homemaker?" ay isa sa maraming mga ulat upang bawasan ang mito ng AI neutralidad at upang magaan ang algorithmic bias, isang kababalaghan na umaabot sa mga kritikal na sukat habang ang mga algorithm ay nagiging mas kasangkot sa aming pang-araw-araw na pagpapasya.
Ang Pinagmulan ng Algorithmic Bias
Ang pag-aaral ng makina at mga algorithm ng malalim na pag-aaral ay sumasailalim sa karamihan ng mga kontemporaryong AI-powered software. Sa kaibahan sa tradisyonal na software, na gumagana batay sa mga paunang natukoy at napatunayan na mga patakaran, ang malalim na pag-aaral ay lumilikha ng sariling mga patakaran at natututo sa pamamagitan ng halimbawa.
Halimbawa, upang lumikha ng application ng pagkilala sa imahe batay sa malalim na pag-aaral, "tren" ng algorithm ang mga programmer sa pamamagitan ng pagpapakain nito na may label na data: sa kasong ito, ang mga larawan na naka-tag na may pangalan ng bagay na naglalaman nito. Sa sandaling ang mga algorithm ay nagsusumite ng sapat na mga halimbawa, maaari itong glean karaniwang mga pattern sa mga katulad na may label na data at gamitin ang impormasyong iyon upang maiuri ang mga hindi nasabing mga sample.
Pinapayagan ng mekanismong ito ang malalim na pag-aaral upang maisagawa ang maraming mga gawain na halos imposible sa software na nakabase sa panuntunan. Ngunit nangangahulugan din ito ng malalim na software sa pag-aaral ay maaaring magmana ng mga covert o over bias.
"Ang mga algorithm ng AI ay hindi likas na bias, " sabi ni Propesor Venkatesh Saligrama, na nagtuturo sa Kagawaran ng Elektriko at Computer Engineering ng Boston University at nagtrabaho sa mga algorithm ng word-embedding. "Mayroon silang deterministikong pag-andar at kukuha ng anumang mga tendensyang mayroon na sa data na sinasanay nila."
Ang mga algorithm ng pag-emblay ng salita na nasubok ng mga mananaliksik ng Boston University ay sinanay sa daan-daang libong mga artikulo mula sa Google News, Wikipedia, at iba pang mga online na mapagkukunan kung saan ang mga social bias ay malalim na nai-embed. Bilang halimbawa, dahil sa kultura ng bro na namumuno sa industriya ng tech, ang mga pangalan ng lalaki ay madalas na lumapit sa mga trabaho na may kaugnayan sa tech-at humahantong sa mga algorithm upang maiugnay ang mga kalalakihan sa mga trabaho tulad ng programming at software engineering.
"Ang mga algorithm ay walang kapangyarihan ng pag-iisip ng tao sa pagkilala sa tama mula sa mali, " idinagdag ni Tolga Bolukbasi, isang pangwakas na taong PhD na mag-aaral sa BU. Maaaring hatulan ng tao ang moralidad ng ating mga aksyon, kahit na nagpasya kaming kumilos laban sa mga pamantayang etikal. Ngunit para sa mga algorithm, ang data ay ang panghuli na kadahilanan ng pagtukoy.
Ang Saligrama at Bolukbasi ay hindi ang unang nagtaas ng alarma tungkol sa bias na ito. Ang mga mananaliksik sa IBM, Microsoft, at University of Toronto ay may salungguhit na kailangan upang maiwasan ang diskriminasyon ng algorithm sa isang papel na nai-publish noong 2011. Noong una, ang algorithmic bias ay isang pag-aalala sa esoteric, at ang malalim na pag-aaral ay hindi pa natagpuan ang daan sa mainstream. Gayunman, ngayon, ang algorithm na bias ay nag-iiwan ng marka sa maraming bagay na ginagawa natin, tulad ng pagbabasa ng balita, paghahanap ng mga kaibigan, pamimili online, at panonood ng mga video sa Netflix at YouTube.
Ang Epekto ng Algorithmic Bias
Noong 2015, humingi ng paumanhin ang Google matapos ang mga algorithm na nag-kapangyarihan sa mga Photos app na naka-tag sa dalawang itim na tao bilang mga gorilya - marahil dahil ang mga pagsasanay sa pagsasanay ay walang sapat na mga larawan ng mga itim na tao. Noong 2016, sa 44 na nanalo ng isang beauty contest na hinuhusgahan ng AI, halos lahat ay puti, iilan ang mga Asyano, at isa lamang ang may madilim na balat. Muli, ang dahilan ay ang algorithm ay halos sinanay sa mga larawan ng mga puting tao.
Mga Larawan ng Google, y'all fucked up. Ang aking kaibigan ay hindi isang gorilya. pic.twitter.com/SMkMCsNVX4
- hindi tumutugon si jackyalciné dito. DM (@jackyalcine) Hunyo 29, 2015
Karamihan sa mga kamakailan lamang, isang pagsubok ng mga serbisyo ng face-analysis ng IBM at Microsoft ay natagpuan ang mga algorithm ng mga kumpanya ay halos walang kamali-mali sa pagtuklas sa kasarian ng mga kalalakihan na may magaan na balat ngunit madalas na nagkamali kapag ipinakita sa mga larawan ng mga kababaihan na may madilim na balat.
Habang ang mga pangyayaring ito ay malamang na nagdulot ng napabayaang pinsala, ang parehong hindi masasabi ng mga algorithm ng AI sa mas kritikal na mga domain, tulad ng pangangalaga sa kalusugan, pagpapatupad ng batas, at pangangalap. Noong 2016, natuklasan ng isang pagsisiyasat ng ProPublica na ang software na hinimok ng AI-na-software na tinatasa ang panganib ng recidivism sa mga nagkasala - ay bias laban sa mga taong may kulay. Ang pagtuklas ay lalo na tungkol sa dahil ang mga hukom sa ilang mga estado ay gumagamit ng COMPAS upang matukoy kung sino ang lumalakad nang libre at sino ang mananatili sa kulungan.
Sa isa pang kaso, ang isang pag-aaral ng platform ng advertising ng Google, na pinalakas ng mga malalim na pag-aaral ng algorithm, natagpuan na ang mga kalalakihan ay ipinakita ng mga ad para sa mga mataas na bayad na trabaho kaysa sa mga kababaihan. Ang isang hiwalay na pag-aaral ay natagpuan ang isang katulad na isyu sa mga ad ad ng LinkedIn. Ngunit isa pang nagpakita na ang mga bias na pag-upa ng mga algorithm ay 50 porsyento na mas malamang na magpadala ng isang paanyaya sa pakikipanayam sa isang tao na ang pangalan ay European-American kaysa sa isang taong may pangalan ng Africa-American.
Ang mga lugar tulad ng pag-apruba ng pautang, rating ng kredito, at iskolar ay nahaharap sa mga katulad na banta.
Ang bias ng Algorithmic ay lalong nag-aalala dahil sa kung paano ito maaaring palakihin ang mga panlipunang mga bias. Sa ilalim ng ilusyon na ang AI ay malamig, ang pagkalkula ng matematika na wala ng pagkiling o bias, ang mga tao ay maaaring may tiwala sa algorithmic na paghuhusga nang hindi pinag-uusisa ito.
Sa isang pakikipanayam sa Wired UK, Edinburgh Napier University criminology lektor Andrew Wooff na-obserbahan na ang "time-pressure, mapagkukunan ng masinsinang" mundo ng policing ay maaaring maging sanhi ng mga opisyal ng nagpapatupad ng batas na umasa sa labis sa mga desisyon ng algorithm. "Maaari kong isipin ang isang sitwasyon kung saan ang isang opisyal ng pulisya ay maaaring umasa nang higit pa sa system kaysa sa kanilang sariling mga proseso ng paggawa ng desisyon, " aniya. "Bahagi iyan ay maaaring sa gayon ay maaari mong bigyang-katwiran ang isang desisyon kapag may mali."
Ang pag-asa sa mga bias na algorithm ay lumilikha ng isang feedback loop: Gumagawa kami ng mga pagpapasya na lumikha ng higit na bias na data na pagkatapos ay pag-aralan ng mga algorithm at sanayin sa hinaharap.
Ang ganitong uri ng bagay ay nagaganap na sa mga social media network tulad ng Facebook at Twitter. Ang mga algorithm na nagpapatakbo ng mga feed ng balita ay lumikha ng "mga bula ng filter, " na nagpapakita ng nilalaman na umaayon sa mga kagustuhan at mga bias ng gumagamit. Maaari itong gawing mas mababa ang kanilang pagpaparaya sa mga sumasalungat na pananaw at maaari ring higit na polarahin ang lipunan sa pamamagitan ng pagmamaneho ng isang kalso sa pamamagitan ng pampulitika at panlipunang paghati.
"Ang Algorithmic bias ay maaaring makaapekto sa anumang pangkat, " sabi ni Jenn Wortman Vaughan, senior researcher sa Microsoft. "Ang mga pangkat na hindi ipinapahiwatig sa data ay maaaring mapanganib lalo na."
Sa mga domain na kilala na para sa bias, tulad ng endemic diskriminasyon ng industriya ng tech laban sa mga kababaihan, ang mga algorithm ng AI ay maaaring magpahiwatig ng mga biases at magreresulta sa karagdagang marginalization ng mga pangkat na hindi mahusay na kinakatawan.
Ang kalusugan ay isa pang kritikal na domain, itinuro ni Wortman. "Maaari itong maging sanhi ng mga malubhang problema kung ang isang algorithm ng pag-aaral ng makina na ginagamit para sa diagnosis ng medikal ay sinanay sa data mula sa isang populasyon at, bilang isang resulta, ay nabigo na gumanap nang maayos sa iba, " sabi niya.
Ang mga Bias ay maaari ring mapanganib sa mas banayad na paraan. "Noong nakaraang taon ay pinaplano kong kunin ang aking anak na babae para sa isang gupit at naghanap online sa mga larawan ng mga larawan ng 'toddler haircuts' para sa inspirasyon, " sabi ni Wortman. Ngunit ang mga imahe ay bumalik ay halos lahat ng mga puting bata, lalo na sa tuwid na buhok, at mas nakakagulat, lalo na ang mga batang lalaki, napansin niya.
Tinatawag ng mga eksperto ang hindi pangkaraniwang bagay na ito na "representational harm": kapag pinalakas ng teknolohiya ang mga stereotypes o pinaliit ang mga tiyak na grupo. "Mahirap ma-quantify o sukatin ang eksaktong epekto ng ganitong uri ng bias, ngunit hindi nangangahulugang hindi ito mahalaga, " sabi ni Wortman.
Pag-alis ng Mga Bias Mula sa AI Algorithms
Ang patuloy na kritikal na mga implikasyon ng AI bias ay nakuha ang pansin ng maraming mga organisasyon at mga katawan ng gobyerno, at ang ilang mga positibong hakbang ay ginagawa upang matugunan ang mga etikal at panlipunang mga isyu na pumapalibot sa paggamit ng AI sa iba't ibang larangan.
Ang Microsoft, na ang mga produkto ay lubos na umaasa sa mga algorithm ng AI, ay naglunsad ng isang proyekto ng pananaliksik tatlong taon na ang nakakaraan na tinawag na Pagkamakatarungan, Pananagutan, Transparency, at Etika sa AI (FATE) na naglalayong paganahin ang mga gumagamit na tamasahin ang mga pinahusay na pananaw at kahusayan ng mga serbisyo na pinapatakbo ng AI nang walang diskriminasyon at bias.
Sa ilang mga kaso, tulad ng AI-adjudicated beauty contest, ang paghanap at pag-aayos ng mapagkukunan ng isang pag-uugali ng pag-uugali ng isang algorithm ng algorithm ay maaaring maging mas madali tulad ng pagsuri at pagbabago ng mga larawan sa dataset sa pagsasanay. Ngunit sa iba pang mga kaso, tulad ng mga algorithm ng pag-emblay ng salita na sinuri ng mga mananaliksik sa University ng Boston, ang bias ay nakaukit sa data ng pagsasanay sa mas banayad na paraan.
Ang pangkat ng BU, na sinamahan ng mananaliksik ng Microsoft na si Adam Kalai, ay gumawa ng isang paraan upang maiuri ang mga salitang naka-embed na batay sa kanilang mga pagkategorya sa kasarian at kilalanin ang mga pagkakatulad na maaaring maging bias. Ngunit hindi nila ginawa ang pangwakas na pasya at tatakbo ang bawat isa sa mga pinaghihinalaang asosasyon ng 10 katao sa Mechanical Turk, merkado sa online ng Amazon para sa mga gawain na nauugnay sa data, na magpapasya kung ang asosasyon ay dapat tanggalin o hindi.
"Hindi namin nais ipasok ang aming sariling mga biases sa proseso, " sabi ni Saligrama, ang propesor ng BU at mananaliksik. "Nagbigay lang kami ng mga tool upang matuklasan ang may problemang mga asosasyon. Ang tao ay gumawa ng pangwakas na desisyon."
Sa isang mas kamakailang papel, iminungkahi ni Kalai at iba pang mga mananaliksik ang paggamit ng hiwalay na mga algorithm upang pag-uri-uriin ang iba't ibang mga grupo ng mga tao sa halip na gamitin ang parehong mga hakbang para sa lahat. Ang pamamaraang ito ay maaaring patunayan na epektibo sa mga domain kung saan ang umiiral na data ay na-bias sa pabor ng isang tiyak na grupo. Halimbawa, ang mga algorithm na suriin ang mga babaeng aplikante para sa isang trabaho sa programming ay gumagamit ng pamantayan na pinakaangkop para sa pangkat na iyon sa halip na gamitin ang mas malawak na hanay ng data na labis na naiimpluwensyahan ng mga umiiral na mga biases.
Ang Wortman ng Microsoft ay nakakakita ng pagiging kasama sa industriya ng AI bilang isang kinakailangang hakbang upang labanan ang bias sa mga algorithm. "Kung nais naming maging kapaki-pakinabang ang aming mga sistema ng AI sa lahat at hindi lamang sa ilang mga demograpiko, kung gayon ang mga kumpanya ay kailangang umupa ng magkakaibang mga koponan upang magtrabaho sa AI, " sabi niya.
Noong 2006, tinulungan ni Wortman ang mga natagpuan na Women in Machine Learning (WiML), na humahawak ng isang taunang pagawaan kung saan maaaring matugunan ang mga kababaihan na nag-aaral at nagtatrabaho sa industriya ng AI, network, palitan ng mga ideya, at dumalo sa mga talakayan sa panel kasama ang matatandang kababaihan sa industriya at akademya. Ang isang katulad na pagsisikap ay ang bagong Black sa AI Workshop, na itinatag ni Timnit Gebru, isa pang Microsoft researcher, na naglalayong bumuo ng mas magkakaibang talento sa AI.
Ang Bolukbasi ng Boston University ay nagmumungkahi din na baguhin ang paraan ng paglutas ng mga algorithm ng AI. "Ang mga algorithm ay pipili ng isang set ng panuntunan na nagpapakinabangan sa kanilang layunin. Maaaring maraming paraan upang maabot ang parehong hanay ng mga konklusyon para sa mga ibinigay na pares ng output ng pag-input, " sabi niya. "Kunin ang halimbawa ng maraming mga pagsubok na pagpipilian para sa mga tao. Maaaring maabot ng isa ang tamang sagot na may maling proseso ng pag-iisip, ngunit gayunpaman makuha ang parehong marka. Ang isang mataas na kalidad na pagsubok ay dapat idinisenyo upang mabawasan ang epekto na ito, pinapayagan lamang ang mga tao na tunay alamin ang paksa upang makakuha ng tamang mga marka.Ang paggawa ng kamalayan ng mga algorithm sa mga hadlang sa lipunan ay makikita bilang isang analog sa halimbawang ito (bagaman hindi isang eksaktong), kung saan ang pag-aaral ng isang maling panuntunan na itinakda ay parusa sa layunin.Ito ay isang patuloy at mapaghamong pananaliksik. paksa. "
Ang Opacity ng AI ay Nakumpleto ang pagiging patas
Ang isa pang hamon na nakatayo sa paraan ng paggawa ng mas mahusay na algorithm ng AI ay ang "black box" na kababalaghan. Sa maraming mga kaso, ang mga kumpanya ay nagseselos na bantayan ang kanilang mga algorithm: Halimbawa, ang Northpointe Inc., ang tagagawa ng COMPAS, ang software na naghuhula sa krimen, ay tumangging isiwalat ang proprietary algorithm. Ang tanging tao na pribado sa mga panloob na gawain ng COMPAS ay ang mga programmer nito, hindi ang mga hukom na gumagamit nito upang maipasa ang paghuhusga.
Bukod sa korporasyon sa korporasyon, ang mga algorithm ng AI kung minsan ay napapalibutan na ang mga kadahilanan at mekanismo sa likuran ng kanilang mga pagpapasya ay mawala kahit sa kanilang mga tagalikha. Sa UK, ginagamit ng pulisya ng Durham ang AI system HART upang matukoy kung ang mga suspect ay may mababang, katamtaman, o mataas na peligro na gumawa ng karagdagang mga krimen sa loob ng isang dalawang taong panahon. Ngunit ang isang 2017 pang-akademikong pagsusuri ng HART ay napansin na "ang opacity ay tila mahirap iwasan." Bahagi ito dahil sa dami ng dami at iba't ibang data na ginagamit ng system, na nahihirapan itong suriin ang mga kadahilanan sa likod ng mga pagpapasya. "Ang mga detalyeng ito ay maaaring malayang magagamit sa publiko, ngunit mangangailangan ng malaking oras at pagsisikap upang lubos na maunawaan, " sabi ng papel.
Maraming mga kumpanya at organisasyon ang nangungunang mga pagsisikap na magdala ng transparency sa AI, kasama ang Google, na naglunsad ng GlassBox, isang inisyatiba upang mas maunawaan ang pag-uugali ng mga algorithm ng pag-aaral ng machine na hindi masakripisyo ang kalidad ng output. Ang Defense Advanced Research Projects Agency (DARPA), na nangangasiwa sa paggamit ng AI sa militar, ay pinopondohan din ang isang pagsisikap upang paganahin ang mga algorithm ng AI upang maipaliwanag ang kanilang mga pagpapasya.
Sa iba pang mga kaso, ang paghatol ng tao ay magiging susi sa pagharap sa bias. Upang maiwasan ang mga umiiral na lahi ng lipunan at panlipunan mula sa paggagapang sa mga algorithm ng HART, binigyan ng Durham Constabulary ang mga miyembro ng kawani nito ng mga session ng kamalayan sa paligid ng walang malay na bias. Ang puwersa ng pulisya ay gumawa din ng mga hakbang upang maalis ang mga puntos ng data tulad ng mga katangian ng lahi, na maaaring lumikha ng mga batayan para sa mga bias na pagpapasya.
Pananagutan ng Tao
Mula sa isang iba't ibang pananaw, ang mga algorithm ng AI ay maaaring magbigay ng isang pagkakataon upang maipakita ang aming sariling mga bias at mga pagkiling. "Ang mundo ay bias, ang data sa kasaysayan ay bias, samakatuwid hindi nakakagulat na natatanggap namin ang mga bias na resulta, " Sandra Wachter, isang mananaliksik sa etika ng data at algorithm sa University of Oxford, sinabi sa The Guardian .
Ang Wachter ay bahagi ng isang pangkat ng pananaliksik mula sa Alan Turing Institute sa London at University of Oxford, na naglathala ng isang papel na nanawagan para sa mga regulasyon at institusyon upang siyasatin ang posibleng diskriminasyon ng mga algorithm ng AI.
Nakikipag-usap din sa The Guardian, si Joanna Bryson, isang scientist ng computer sa University of Bath at coauthor ng isang papel sa pananaliksik sa bias algorithm, sinabi, "Maraming tao ang nagsasabi na nagpapakita na ang AI ay pinipigilan. Hindi. Ipinapakita nito ang ipinapakita namin. "pinipigilan at natututo ito ng AI."
Noong 2016, inilunsad ng Microsoft ang Tay, isang bot ng Twitter na dapat matutunan mula sa mga tao at makisali sa mga matalinong pag-uusap. Ngunit sa loob ng 24 na oras ng paglulunsad ni Tay, kinailangang isara ito ng Microsoft matapos itong magsimula ng spewing racist na mga puna, na kinuha mula sa mga pag-uusap nito sa mga gumagamit ng Twitter. Marahil ito ay isang paalala na ito ay nakalipas na oras na kinikilala ng mga tao ang aming sariling papel sa pananaw at pagpapalaganap ng algorithmic bias phenomenon at gumawa ng mga kolektibong hakbang upang alisin ang mga epekto nito.
"Ito ay isang napaka-kumplikadong gawain, ngunit ito ay isang responsibilidad na tayo bilang lipunan ay hindi dapat ikahiya palayo, " sabi ni Wachter.