La differenza tra GPU e CPU

So che CPU sia (credo). È la cosa che la velocità è misurata in GigaHertz (questi giorni).

Tuttavia, si sente molto su una GPU e lasciare che la GPU abbia a disposizione, non lasciando che la CPU, ma la GPU lo faccia, rende GPU, ecc …

Qual è comunque questa GPU? Come posso accedervi e utilizzarlo a mio vantaggio? Che cosa mi manca qui?

  • Software per il monitoraggio e la misurazione della temperatura GPU (Windows XP / 7)
  • C'è un modo per vedere la memory di sistema GPU suddivisa per process?
  • Come funzionano i processri Intel HD Graphics da 2010 confrontati con le tabs grafiche a basso livello attuale?
  • Impostare l'affinità di processre predefinita per tutte le applicazioni
  • Esecuzione di un Sandybridge i5 2500K su una scheda H67
  • Quanto è veloce each core in un processre dual-core?
  • Una scheda madre deve sostenere 64 bit o è solo la CPU?
  • Come posso combinare la CPU & GPU Graphics per get performance migliori?
  • Task Manager mostra un processre (e non più core)
  • È folle per sostituire una CPU senza sostituire il dissipatore?
  • Utilizzando riserti PCIe, quante GPU possono montare su una scheda madre e quali alimentatori lo richiederebbero?
  • Cosa succede quando si aggiunge una scheda grafica ad un i7 con grafica incorporata (ad esempio HD 4000)
  • 4 Solutions collect form web for “La differenza tra GPU e CPU”

    La GPU è l'unità di elaborazione grafica. È la CPU della scheda video.

    Tradizionalmente la CPU ha fatto tutta la grafica fino a quando i produttori di tabs video hanno iniziato, incluse le GPU sugli adattatori di display. La GPU era un pezzo di hardware dedicato simile all'antica unità FPU (unità a virgola mobile dedicata all'esecuzione di routine avanzate di math più veloce della CPU) che potrebbe eseguire routine comuni di grafica molto veloci. (In realtà le GPU sono venute con la mossa da parte dei produttori di tabs video per incorporare l'accelerazione grafica nella scheda anziché richiedere una scheda separata, proprio come la function di FPUs è stata incorporata direttamente nelle CPU.)

    Alla fine, le GPU hanno superato le CPU in modo che un processre grafico avesse effettivamente più transistor, corse più velocemente (e più caldo) e simili. I produttori di tabs grafiche hanno capito che la GPU era ora un pezzo di hardware molto potente, spesso seduto inattivo (ad esempio, quando si naviga su Internet, ha modificato i documenti, ecc.) Dunque, a partire dall'X1300, le tabs di ATI includevano AVIVO utente per eseguire il software di conversione video sul processre della scheda video invece di farlo solo sulla CPU più lenta. Nvidia ha risposto con CUDA , il primo vero GPGPU che fondamentalmente è un modo per utilizzare le GPU su una scheda video come processri supplementari di uso generale che possono essere utilizzati per qualsiasi scopo, non solo per scopi grafici o video.

    Poiché una GPU è altamente ottimizzata per eseguire calcoli avanzati come aritmetica a virgola mobile, matrix aritmetica e simili, possono eseguire funzioni come la conversione video, la post-elaborazione e le attività come BOINC o Folding @ Home molto meglio di una sola CPU.

    Un computer moderno può essere la potenza, con una CPU multi-core e tabs video multi-GPU che possono agire come super CPU, il potere di elaborazione dei computer di oggi è veramente incredibile. Ancora meglio, i produttori stanno rendendo i chip più efficienti dal punto di vista energetico, in modo che siano davvero potenti, ma possono anche trarre il minimo potere e generare il minimo calore ansible quando non sono necessari, dandoci così il meglio di entrambi i mondi!

    La GPU è l'unità di elaborazione grafica. È essenzialmente la CPU della scheda video (la CPU è unità di elaborazione centrale, il "cervello" o un processre di un computer). Le tabs video in questi giorni sono così complesse che essenzialmente sono computer in sé, con la propria memory, bus e processri.

    Le GPU storicamente sono state relativamente speciali, progettate per la massima potenza quando eseguono un insieme discreto di operazioni grafiche su particolari tipi di primitive dati (vertici, pixel, ecc.). Tuttavia, le aziende come Intel, nVidia e ATI stanno iniziando a spingere la busta con componenti più generali di GPU, rendendo più facile che mai per gli sviluppatori di software di utilizzare la potenza di elaborazione aggiuntiva disponibile sulla scheda video per eseguire operazioni non grafiche. Combinati a cose come CUDA e altre lingue specializzate in GPU, questi nuovi chip offrono molte possibilità.

    GPGPU è una sorta di sede per il GPU di uso generale. Come un utente, piuttosto che un programmatore, l'integer "trasferimento alla GPU" non ti riguarda veramente a questo punto, al di fuori di una situazione in cui si userebbe il software progettato in questo modo (non molto molti pezzi di utenti finali il software esiste all'ora corrente).

    La CPU è l'unità di elaborazione centrale (probabilmente il processre Intel o AMD).

    La GPU è l'unità di elaborazione grafica sulla scheda grafica. Vedere:

    http://en.wikipedia.org/wiki/Graphics_processing_unit

    Sono difficili da programmare, ma hanno il vantaggio di essere massicciamente paralleli in modo da poter sfruttare alcuni compiti molto più velocemente della CPU.

    Nuove iniziative come CUDA da Nvidia sperano di sfruttare questo potenziale rendendo più facile la programmazione. Vedere:

    http://en.wikipedia.org/wiki/CUDA

    Una GPU è solo una CPU dedicata all'elaborazione grafica. Una CPU può elaborare quasi tutto, ma una GPU è adattata al calcolo di immagini 3D – le persone stanno iniziando a sfruttare la GPU perché è molto, molto buona per l'elaborazione parallela, il che significa che un software che fa tante cose che non dipendono l'un l'altro può farla passare attraverso la scheda grafica per una migliore preformance.

    Inoltre, non è mai usato normalmente, quindi sfruttare il suo potere non può realmente danneggiare.

    Siamo il genio del computer e della rete.