Bahay Ipasa ang Pag-iisip Itinulak ng Nvidia ang mga pagpapabuti ng memorya, pinag-isang arkitektura para sa gpus, mga mobile processors

Itinulak ng Nvidia ang mga pagpapabuti ng memorya, pinag-isang arkitektura para sa gpus, mga mobile processors

Video: EPP ICT and Entrepreneurship - Computer File System - Mga Pagsasanay (Nobyembre 2024)

Video: EPP ICT and Entrepreneurship - Computer File System - Mga Pagsasanay (Nobyembre 2024)
Anonim

Sa Kumperensya ng GPU Technology ng Nvidia noong nakaraang linggo, nagulat ako nang makita kung gaano kalayo ang graphics at teknolohiya ng GPU - sa desktop at sa mga mobile device - at kung paano ang paraan ng pagsulat ng mga tao ng software ay kailangang magbago upang samantalahin ito.

Ang malaking kilusan ay patungo sa heterogenous software, mga program na maaaring magamit ang parehong tradisyonal na microprocessor CPU at ang GPU nang sabay. Ito ay hindi isang bagong konsepto - parehong Nvidia at AMD ay pinag-uusapan ito tungkol sa isang habang-ngunit ang magkabilang panig ay mas malapit na magkasama.

Ang pamamaraan ng AMD ay upang maitaguyod ang tinatawag na "pinabilis na yunit ng pagproseso, " na pinagsama ang parehong mga GPU at CPU sa isang solong mamatay, at kung ano ang tinawag nitong "heterogenous system architecture." Sa nakalipas na ilang taon, isinusulong nito ang HSA at noong nakaraang taon itinatag nito ang HSA Foundation, kasama ang 21 iba pang mga kumpanya, upang bumuo ng bukas na pamantayan para sa heterogenous computing.

Ang pamamaraan ni Nvidia ay ibang-iba, na nakatuon sa mga platform ng CUDA para sa pagsulat ng software sa mga GPU nito at ang bersyon ng Tesla ng mga GPU, na ginagamit ngayon sa mga supercomputers tulad ng Titan superkomputer ng Titan ng Roul National Laboratory. Sa ganitong mga sistema, sa halip kumplikadong software ang namamahala sa kung ano ang gumagana sa computing sa CPU at kung ano ang gumagana sa GPU.

Pagbukas ng kanyang pangunahing tono, sinabi ng CEO ng Nvidia na si Jen-Hsun Huang, "Ang visual na computing ay isang malakas at natatanging daluyan. Sa nakaraang 20 taon, ang daluyan na ito ay nagbago sa PC mula sa isang computer para sa impormasyon at pagiging produktibo sa isa sa pagkamalikhain, expression, at pagtuklas. . " Ang susunod na ilang taon ay dapat sabihin kung ang paglipat na ito ay umabot sa isang talampas o kung sa katunayan, nagsisimula pa lang ito. "

Tulad ng inaasahan na napag-usapan ni Huang sa kanyang pangunahing tono tungkol sa kung paano lumalaki ang computing ng GPU batay sa CUDA. Ang kumpanya ay nagpadala ng 430 milyong CUDA na may kakayahang GPU at 1.6 milyong pag-download ng CUDA programming kit; Ginagamit na ngayon ang Nvidia GPUs sa 50 supercomputers sa buong mundo. Halimbawa, sinabi niya, kamakailan lamang na ginawa ni Titan ang pinakamalaking solido mekanikal na simulation sa buong mundo, gamit ang 40 milyong mga CUDA processors upang maghatid ng 10 petaflops ng matagal na pagganap. Sinabi rin niya na ang computing ng GPU ay may maraming mga potensyal sa mga application na "malaking data".

Dinala ni Huang ang isang kinatawan mula sa Shazam upang pag-usapan ang tungkol sa kung paano gumagamit ang kumpanya ng mga GPU upang matulungan ang pagtutugma ng musika at audio mula sa isang malawak na bilang ng mga gumagamit. Binanggit ni Huang na ang isang kumpanya na tinawag na Cortexica ay gumagamit ng magkaparehong teknolohiya para sa paghahanap sa visual.

Pinakamahalaga, ang kumpanya ay nagpakita ng isang bagong roadmap para sa GPU engine na ginamit sa parehong mga produkto ng gaming na GeForce at ang linya ng Tesla. Ang kasalukuyang arkitektura ng GPU ay tinatawag na "Kepler, " na naipadala noong nakaraang taon. Ang susunod na bersyon, na kilala bilang "Maxwell, " ay darating sa susunod na taon. Ito ay tumatagal ng isang malaking hakbang patungo sa heterogenous computing sa pamamagitan ng pagdaragdag ng isang "pinag-isang virtual memory" na arkitektura, nangangahulugang makikita ang CPU at GPU na makita ang lahat ng memorya ng system.

Mahalaga ito dahil ang isa sa mga malaking bottlenecks sa GPU computing ay lumipat ng data sa pagitan ng pangunahing mga sistema ng memorya at memorya ng graphics at dahil ang pagsusulat ng software na gumagamit ng parehong uri ng mga processors ay mahirap. (Inihayag ng AMD ang isang katulad na tampok para sa Kaveri processor nito, dahil sa katapusan ng taong ito. Medyo hindi ako malinaw kung paano ito gumagana nang walang direktang suporta mula sa mga gumagawa ng CPU, ngunit tiyak na isang diskarte na makikita natin ang higit pa sa pasulong.)

Para sa 2015, ipinangako ni Huang ng isa pang bersyon, na tinatawag na "Volta, " na kukuha ng memorya ng graphics at isasalansan ito nang direkta sa tuktok ng GPU, kapansin-pansing madaragdagan ang bandwidth ng memorya sa halos isang terabyte bawat segundo. Para sa paghahambing, ang kabuuang maximum na bandwidth ni Kepler ay tungkol sa 192 gigabytes bawat segundo.

Ang isang bilang ng mga kumpanya, kabilang ang Intel, ay nakikipag-usap tungkol sa pag-stack ng memorya sa tuktok ng isang processor ngunit ang mga kable upang ikonekta ang memorya at ang processor, na gumagamit ng isang pamamaraan na kilala bilang through-silicon vias, ay naging kumplikado. Sa pagkakaalam ko, ang Volta ang unang relatibong mainstream na proseso na inihayag na magkakaroon ng tampok na ito.

Ang mobile roadmap ay may ilan sa mga parehong tampok. Kamakailan ay inihayag ng kumpanya ang Tegra 4 (pinangalanan ng code na "Wayne") at mga Tegra 4i (mga pinangalanang code na "Grey"). "Logan, " dahil sa produksiyon noong 2014, nagdaragdag ng unang CUDA na may kakayahang graphics sa linya ng Tegra. Susundan ito sa 2015 kasama ang "Parker, " na pagsasama-sama ng teknolohiya ng Maxwell GPU sa unang natatanging disenyo ng CPU core ng kumpanya, isang 64-bit na ARM processor na kilala bilang Project Denver. (Tandaan na habang binabahagi ng dalawang processors ang disenyo ng GPU, ang bilang ng mga aktwal na mga cores ng graphics ay malamang na mas maliit sa isang mobile processor kaysa sa isang bersyon ng desktop.)

Ito ay dapat na maging kawili-wili kapwa dahil sa pinag-isang arkitektura ng memorya at dahil ito ay isinaayos na gagawin gamit ang 3D FinFET transistors. Ginagamit ng Intel ang pamamaraang ito sa mga prosesong 22nm at parehong pangmatagalang kasosyo sa pagmamanupaktura ng Nvidia na si Taiwan Semiconductor Manufacturing Corp. at ang karibal ng Globalfoundries ay nagsabing magkakaroon sila ng FinFETS minsan sa susunod na taon. Ang paggawa ng masa ay malamang na magsimula sa 2015.

"Sa loob ng limang taon, dadagdagan namin ang pagganap ng Tegra ng 100 beses, " pangako ni Huang.

Siyempre, ang malaking katanungan ay kung ano ang gagamitin namin sa horsepower ng computer para sa. Napakadali para sa akin na makita ang mataas na pagganap ng computing at mga "malaking data" na aplikasyon - ang mga ito ay patuloy na lumalaki at madaling gamitin ang mga kahanay na tampok ng computing ng mga GPU. Ang Nvidia ay mag-aalok ng mga tampok na ito sa iba't ibang mga iba't ibang mga pamamaraan kabilang ang sa pamamagitan ng mga Tesla board para sa mga workstation at supercomputers; nito GRID CPU server virtualization teknolohiya para sa mga server ng negosyo; at isang bagong GRID Virtual Computing Appliance (VCA), isang 4U tsisis na may mga prosesong Xeon, mga GPU na nakabase sa Kepler, at memorya, na naglalayong sa mga kagawaran.

At syempre, ang mga laro ay gagamit ng higit pang mga graphics, nakakakuha ng mas makatotohanang sa bawat henerasyon. Ang laki at paglutas ng mga pagpapakita ay tumataas, at nais ng mga tao ng higit pang mga graphics. Ipinakita ni Huang ang bagong high-end desktop graphics card ng kumpanya, na tinatawag na Titan, na nagpapatakbo ng isang real-time na simulation ng karagatan mula sa Waveworks. Nag-demo din ito ng Faceworks, isang head sa pakikipag-usap sa 3D na nagngangalang Ira (sa itaas), na nilikha kasama ang Institute for Creative Technology sa USC.

Ang pagdadala ng lahat ng mga tampok na ito sa mobile ay partikular na kawili-wili. Hindi ako lubos na sigurado na talagang kailangan ko ang lahat ng lakas ng isang high-end desktop GPU sa isang mobile device - pagkatapos ng lahat, sa isang limang-pulgadang screen, 1, 980-by-1, 080 ay tila sapat na - ngunit wala akong pag-aalinlangan na makakahanap ang mga tao ng mga gamit para dito. Ang isang alalahanin ay gumagamit ito ng sobrang lakas, ngunit sinabi ni Huang na si Logan ay "hindi mas malaki kaysa sa isang dime." Sa anumang kaso, magiging interesado akong makita kung ano ang gagawin ng mga tao sa maraming pagganap.

Sa pangkalahatan, si Nvidia, tulad ng AMD, ay pumusta sa patuloy na mga pagpapabuti ng graphics, pinag-isang memorya, at isang heterogenous na diskarte sa pagprograma ng CPU at GPU. Sasabihin ng AMD na ito ay gumagana sa bukas na mga pamantayan, habang ituturo ni Nvidia ang mga tagumpay na nakukuha ng CUDA, lalo na sa arena na may mataas na pagganap. At siyempre, mayroong Intel, na ang mga graphic lag parehong AMD at Nvidia ngayon, ngunit nangingibabaw pa rin sa lugar ng PC CPU. Mayroon din itong sariling hanay ng mga tool sa software. Ang iba't ibang mga diskarte ay dapat gawin itong isang kamangha-manghang lugar upang mapanood.

Itinulak ng Nvidia ang mga pagpapabuti ng memorya, pinag-isang arkitektura para sa gpus, mga mobile processors