Bahay Negosyo Sinasamantala ang Ai at machine learning, deepfakes, ngayon mas mahirap makita

Sinasamantala ang Ai at machine learning, deepfakes, ngayon mas mahirap makita

Talaan ng mga Nilalaman:

Video: Fake Obama created using AI video tool - BBC News (Nobyembre 2024)

Video: Fake Obama created using AI video tool - BBC News (Nobyembre 2024)
Anonim

Habang papunta kami sa susunod na panahon ng kampanya sa halalan ng halalan, nais mong mag-ingat sa mga potensyal na panganib na madadala ng pekeng mga video sa pamamagitan ng paggamit ng artipisyal na intelihente (AI) at pag-aaral ng makina (ML). Gamit ang software ng AI, ang mga tao ay maaaring lumikha ng deepfake (maikli para sa "malalim na pag-aaral at pekeng") na mga video na kung saan ang mga algorithm ng ML ay ginagamit upang magsagawa ng isang swap ng mukha upang lumikha ng ilusyon na ang isang tao ay nagsabi ng isang bagay na hindi nila sinabi o may isang tao sila hindi. Ang mga malalim na video ay lumalabas sa iba't ibang mga arena, mula sa libangan hanggang sa politika hanggang sa mundo ng korporasyon. Hindi lamang maaaring malalim ang mga video na hindi makatarungang nakakaimpluwensya sa isang halalan na may maling mga mensahe, ngunit maaari silang magdala ng personal na kahihiyan o magdulot ng maling mga mensahe ng tatak kung, sabihin, nagpapakita sila ng isang CEO na nagpapahayag ng paglulunsad ng produkto o isang acquisition na talagang hindi nangyari.

Ang mga deepfakes ay bahagi ng isang kategorya ng AI na tinawag na "Generative Adversarial Networks" o GAN, kung saan ang dalawang neural network ay nakikipagkumpitensya upang lumikha ng mga litrato o video na mukhang tunay. Ang mga GAN ay binubuo ng isang generator, na lumilikha ng isang bagong hanay ng data tulad ng isang pekeng video, at isang discriminator, na gumagamit ng isang ML algorithm upang synthesize at ihambing ang data mula sa totoong video. Patuloy na sinusubukan ng generator ang huwad na video kasama ang matanda hanggang hindi masasabi ng discriminator na bago ang data.

Bilang Steve Grobman, Senior Vice President at Chief Technology Officer (CTO) ni McAfee, na itinuro sa RSA Conference 2019 noong Marso sa San Francisco, ang mga pekeng litrato ay nasa paligid mula nang pag-imbento ng litrato. Sinabi niya na ang pagbabago ng mga larawan ay isang simpleng gawain na maaari mong gawin sa isang application tulad ng Adobe Photoshop. Ngunit ngayon ang mga uri ng mga advanced na kakayahan sa pag-edit ay lumilipat din sa video, at ginagawa nila ito gamit ang lubos na may kakayahang at madaling ma-access ang mga tool ng software.

Paano Nilikha ang mga Deepfakes

Bagaman kapaki-pakinabang ang pag-unawa sa mga konsepto ng AI, hindi kinakailangan na maging isang scientist ng data upang makabuo ng isang malalim na video. Ito ay nagsasangkot lamang ng pagsunod sa ilang mga tagubilin sa online, ayon kay Grobman. Sa RSA Conference 2019 (tingnan ang video sa itaas), nagbukas siya ng isang malalim na video kasama si Dr. Celeste Fralick, Chief Data Scientist at Senior Principal Engineer sa McAfee. Ang deepfake video ay naglarawan ng banta na ibinibigay ng teknolohiyang ito. Ipinakita nina Grobman at Fralick kung paano ang isang pampublikong opisyal sa isang video na nagsasabing isang mapanganib na maaaring iligaw ang publiko upang isipin na totoo ang mensahe.

Upang lumikha ng kanilang video, Grobman at Fralick na nai-download na deepfake software. Pagkatapos ay kumuha sila ng isang video ng Grobman na nagpapatotoo sa harap ng Senado ng US noong 2017 at ang bibig ng superimposed Fralick sa Grobman's.

"Malaya akong magagamit ang mga pampublikong puna sa pamamagitan ng upang lumikha at sanayin ang isang modelo ng ML; na hayaan akong gumawa ng isang malalim na video sa aking mga salita na lumalabas sa bibig, " sinabi ni Fralick sa RSA madla mula sa onstage. Sinabi ni Fralick na ang mga malalalim na video ay maaaring magamit para sa pagsasamantala sa lipunan at pakikidigma ng impormasyon.

Upang makagawa ng kanilang malalim na video, ginamit ng Grobman at Fralick ang isang tool na binuo ng isang Reddit na gumagamit na tinawag na FakeApp, na gumagamit ng mga algorithm ng ML at larawan upang magpalit ng mga mukha sa mga video. Sa kanilang pagtatanghal ng RSA, ipinaliwanag ni Grobman ang mga susunod na hakbang. "Hinahati namin ang mga video sa mga imahe pa rin, kinuha namin ang mga mukha, at nilinis namin ang mga ito sa pamamagitan ng pag-uuri ng mga ito at nilinis ang mga ito sa Instagram."

Pinayagan ng mga script ng Python ang koponan ng McAfee na bumuo ng mga paggalaw sa bibig upang magkaroon ng pagtutugma ng speech ni Grobman ang bibig ni Fralick. Pagkatapos ay kailangan nilang magsulat ng ilang mga pasadyang script. Ang hamon sa paglikha ng isang nakakumbinsi na deepfake ay kapag ang mga katangian tulad ng kasarian, edad, at tono ng balat ay hindi tumutugma, sinabi ni Grobman.

Siya at si Fralick ay ginamit ang isang pangwakas na algorithm ng AI upang tumugma sa mga imahe ng Grobman na nagpapatotoo sa harap ng Senado sa pagsasalita ni Fralick. Idinagdag ni Grobman na tumagal ng 12 oras upang sanayin ang mga algorithm na ML na ito.

Inilarawan ni McAfee ang mga hakbang na ginawa upang lumikha ng isang malalim na video na ipinakita sa 2019 RSA Conference. Gumamit ito ng deepfake software na tinatawag na FakeApp at pagsasanay ng mga modelong ML upang mabago ang video ng Grobman na may pagsasalita mula sa Fralick. (Credit ng larawan: McAfee).

Ang mga Resulta ng Deepfakes

Ang mga video na nilikha ng malalim na hacker ay may potensyal na magdulot ng maraming problema - lahat mula sa mga opisyal ng gobyerno na kumakalat ng maling maling impormasyon sa mga kilalang tao ay nakakahiya mula sa pagiging sa mga video na talagang hindi sila nakakasama sa mga kumpanya na pumipinsala sa mga pamantayan sa stock market. Nalalaman ang mga problemang ito, ang mga mambabatas noong Setyembre ay nagpadala ng isang sulat kay Daniel Coats, Direktor ng Pambansang Intsik ng US, upang humiling ng isang pagsusuri ng pagbabanta na nagdulot ng malalim. Nagbabala ang liham na ang mga bansa tulad ng Russia ay maaaring gumamit ng mga malalalim na salat sa social media upang maikalat ang maling impormasyon. Noong Disyembre, ipinakilala ng mga mambabatas ang Malicious Deep Fake Prohibition Act of 2018 upang iligal ang pandaraya na may kaugnayan sa "mga audiovisual record, " na tumutukoy sa mga deepfakes. Ito ay nananatiling makikita kung ipapasa ang bayarin.

Tulad ng nabanggit, ang mga kilalang tao ay maaaring magdusa ng kahihiyan mula sa mga video kung saan ang kanilang mga mukha ay na-superimposed sa mga mukha ng mga bituin ng porn, tulad ng nangyari kay Gal Gadot. O isipin ang isang CEO na dapat na nagpapahayag ng balita ng produkto at paglubog ng stock ng isang kumpanya. Ang mga propesyonal sa seguridad ay maaaring gumamit ng ML upang makita ang mga ganitong uri ng pag-atake, ngunit kung hindi nila napansin ang oras, maaari silang magdala ng hindi kinakailangang pinsala sa isang bansa o isang tatak.

"Sa mga deepfakes, kung alam mo kung ano ang iyong ginagawa at alam mo kung sino ang mag-target, maaari ka talagang makabuo ng isang nakakumbinsi na video na magdulot ng maraming pinsala sa isang tatak, " sabi ni Dr. Chase Cunningham, Punong Pananaliksik sa Forrester Research . Idinagdag niya na, kung ipamahagi mo ang mga mensaheng ito sa LinkedIn o Twitter o gumamit ng isang bot form, "maaari mong durugin ang stock ng isang kumpanya batay sa kabuuang bogus na video nang walang maraming pagsisikap."

Sa pamamagitan ng mga malalim na video, ang mga mamimili ay maaaring mapaglarayan sa paniniwalang ang isang produkto ay maaaring gumawa ng isang bagay na hindi nito magagawa. Nabanggit ni Cunningham na, kung sinabi ng isang pangunahing CEO ng tagagawa ng kotse sa isang maling video na ang kumpanya ay hindi na gagawa ng mga sasakyan na pinapagana ng gas at pagkatapos ay ikakalat ang mensahe na iyon sa Twitter o LinkedIn sa video na iyon, kung gayon ang pagkilos na iyon ay madaling makapinsala sa isang tatak.

"Kapansin-pansin na sapat mula sa aking pananaliksik, ang mga tao ay gumawa ng mga pagpapasya batay sa mga headline at video sa loob ng 37 segundo, sinabi ni Cunningham." Kaya maaari mong isipin kung makakakuha ka ng isang video na tumatakbo nang mas mahigit sa 37 segundo, maaari kang makakuha ng mga tao na gumawa ng isang desisyon batay sa totoo o hindi. At nakakatakot iyon. "

Dahil ang social media ay isang masugatang lugar kung saan maaaring mag-viral ang mga malalalim na video, ang mga site ng social media ay aktibong nagtatrabaho upang labanan ang banta ng mga deepfakes. Halimbawa, ang Facebook, nagtatanggal ng mga koponan sa engineering na maaaring makita ang mga manipuladong larawan, audio, at video. Bilang karagdagan sa paggamit ng software, ang Facebook (at iba pang mga kumpanya ng social media) ay umarkila ng mga tao upang manu-manong maghanap ng mga deepfakes.

"Pinalawak namin ang aming patuloy na pagsisikap upang labanan ang mga manipuladong media upang isama ang pagtitiklop ng mga deepfakes, " sinabi ng isang kinatawan ng Facebook sa isang pahayag. "Alam namin ang patuloy na paglitaw ng lahat ng mga anyo ng manipuladong media ay nagtatanghal ng mga tunay na hamon para sa lipunan. Iyon ang dahilan kung bakit kami ay namumuhunan sa mga bagong teknikal na solusyon, natututo mula sa pananaliksik sa akademiko, at nagtatrabaho sa iba sa industriya upang maunawaan ang mga deepfakes at iba pang anyo ng manipuladong media. . "

Hindi Lahat ng Deepfakes Masama

Tulad ng nakita namin sa pang-edukasyon na deepfake video ng McAfee at ang comedic deepfake video sa huli ng gabi sa TV, ang ilang mga malalalim na video ay hindi kinakailangang masama. Sa katunayan, habang ang politika ay maaaring mailantad ang totoong mga panganib ng malalim na mga video, ang industriya ng libangan ay madalas na nagpapakita lamang ng mas malalim na panig ng mga video.

Halimbawa, sa isang kamakailan-lamang na yugto ng The Late Show With Stephen Colbert, isang nakakatawang video ng deepfake ang ipinakita kung saan ang mukha ng aktor na si Steve Buscemi ay superimposed sa katawan ng aktres na si Jennifer Lawrence. Sa isa pang kaso, pinalitan ng komedyante na si Jordan Peeler ng isang video ng dating Pangulong Barack Obama na nagsasalita sa kanyang sariling tinig. Ang mga nakakatawang malalim na video na tulad nito ay lumitaw din online, kung saan ang mukha ni Pangulong Trump ay superimposed sa mukha ng Aleman Chancellor na si Angela Merkel habang nagsasalita ang tao.

Muli, kung ang mga malalalim na video ay ginagamit para sa isang satirical o nakakatawa na layunin o simpleng libangan, kung gayon ang mga platform ng social media at kahit na ang mga bahay sa paggawa ng pelikula ay pinahihintulutan o gamitin ang mga ito. Halimbawa, pinapayagan ng Facebook ang ganitong uri ng nilalaman sa platform nito, at ginamit ni Lucasfilm ang isang uri ng digital na libangan upang itampok ang isang batang Carrie Fisher sa katawan ng aktres na si Ingvild Deila sa "Rogue One: Isang Star Wars Story."

Ang McAfee's Grobman ay nabanggit na ang ilan sa mga teknolohiya sa likod ng mga deepfakes ay gagamitin nang mabuti sa mga dobleng pag-aalinlangan upang mapanatili ang kaligtasan ng mga aktor. "Ang konteksto ay lahat. Kung para sa mga layunin ng komedya at malinaw na hindi ito totoo, iyon ay isang bagay na lehitimong paggamit ng teknolohiya, " sabi ni Grobman. "Ang pagkilala na maaari itong magamit para sa lahat ng uri ng iba't ibang mga layunin ay susi."

(Credit ng larawan: Statista)

Paano Makita ang Malalim na Mga Video

Hindi lamang ang McAfee ang security firm na nag-eksperimento sa kung paano makita ang mga pekeng video. Sa papel na ito na naihatid sa Black Hat 2018 na may pamagat na, "AI Gone Rogue: Nakapagpapatay ng mga Malalim na Buta Bago Sila Magdulot ng Menace, " dalawang dalubhasa sa Symantec na security, Security Response Lead Vijay Thaware at Software Development Engineer Niranjan Agnihotri, isulat na gumawa sila ng isang tool upang makita pekeng mga video batay sa Google FaceNet. Ang Google FaceNet ay isang arkitektura ng neural network na binuo ng mga mananaliksik ng Google upang makatulong sa pagpapatunay ng mukha at pagkilala. Sinasanay ng mga gumagamit ang isang modelo ng FaceNet sa isang partikular na imahe at pagkatapos ay ma-verify ang kanilang pagkakakilanlan sa mga pagsubok pagkatapos.

Upang subukang pigilan ang pagkalat ng mga malalim na video, ang AI Foundation, isang nonprofit na samahan na nakatuon sa pakikipag-ugnayan ng tao at AI, ay nag-aalok ng software na tinatawag na "Reality Defender" upang makita ang mga pekeng nilalaman. Maaari itong i-scan ang mga imahe at video upang makita kung binago nila gamit ang AI. Kung mayroon sila, makakakuha sila ng isang "Honest AI Watermark."

  • Ang Gabay sa Negosyo sa Pag-aaral ng Machine Ang Gabay sa Negosyo sa Pag-aaral ng Machine
  • PornHub, Twitter Ban 'Deepfake' AI-Modified Porn PornHub, Twitter Ban 'Deepfake' AI-Modified Porn
  • Ang Pinakabagong Teknolohiya ng Deepfake Ay Magkaroon Ka Ba ng Pagsayaw Tulad ng Bruno Mars Pinakabagong Deepfake Tech Ay Magkakaroon Ka Ba ng Pagsayaw Tulad ng Bruno Mars

Ang isa pang diskarte ay tandaan ang konsepto ng Zero Trust, na nangangahulugang "huwag magtiwala, palaging mapatunayan" - isang motto sa cybersecurity na nangangahulugang dapat kumpirmahin ng mga propesyonal sa IT ang lahat ng mga gumagamit ay lehitimo bago magbigay ng mga pribilehiyo sa pag-access. Ang natitirang pag-aalinlangan sa bisa ng nilalaman ng video ay kinakailangan. Gusto mo rin ng software na may mga digital analytics na kakayahan upang makita ang mga pekeng nilalaman.

Naghahanap ng Mga Deepfakes

Patuloy, kailangan nating maging mas maingat sa nilalaman ng video at tandaan ang mga panganib na maari nilang ipakita sa lipunan kung maling nagamit. Tulad ng nabanggit ni Grobman, "Sa malapit na termino, ang mga tao ay kailangang maging mas nag-aalinlangan sa kung ano ang nakikita nila at kinikilala na ang video at audio ay maaaring gawing katha."


Kaya, panatilihing may pag-aalinlangan ang mga pampulitikang video na pinapanood mo habang papunta kami sa susunod na panahon ng halalan, at huwag magtiwala sa lahat ng mga video na nagtatampok ng mga pinuno ng kumpanya. Sapagkat ang narinig mo ay hindi maaaring kung ano ang talagang sinabi, at ang nakaliligaw na malalim na mga video ay may potensyal na talagang masira ang ating lipunan.

Sinasamantala ang Ai at machine learning, deepfakes, ngayon mas mahirap makita