Procesoare și serii paralele

Un procesor.

Procesare paralelă

Procesarea paralelă necesită o tehnică prin care seturile de date complexe sunt împărțite în fire individuale și procesate simultan de unul sau mai multe nuclee. Atât AMD, cât și Intel au încorporat această tehnică (cunoscută sub numele de HTT) pentru a mări considerabil viteza cu care lucrează. Până de curând, acest lucru nu a oferit întotdeauna o creștere semnificativă a vitezei, deoarece tehnologia de împărțire a seturilor de date și apoi de reasamblare a fost în principiile lor.

Procesarea în serie

Procesarea în serie necesită o tehnică în care datele sunt ordonate secvențial și apoi calculate de un procesor individual. Această tehnică funcționează foarte bine cu liste comandate care utilizează contracții similare. Cea mai mare problemă cu acest lucru este că un singur bit de date poate fi procesat la un moment dat și programele complexe nu pot fi împărțite în segmente mai mici.

supercalcul

Mulți dezvoltatori au făcut dezvoltarea procesării paralele la următorul pas prin crearea rețelelor de supercomputere puternice. Aceste rețele funcționează la unison prin utilizarea unui software de controler complicat care acționează pentru a împărți programele și ecuațiile complexe prin rețea și apoi colectează datele totale. Unele dintre cele mai puternice supercomputere au fost inițial evoluții militare sau educaționale, până în anul 2000, când grupurile mai mari au fost operate de companii de jocuri video pentru a sprijini jocurile online multiplayer masive (MMOG). În 2008, cea mai mare rețea de supercomputing a fost realizată de proiectul Folding @ home, care cuprinde mai multe milioane PlayStation 3 din întreaga lume.

importanță

Conform legii lui Moore (Gordon Moore, Intel Corporation), puterea de procesare (densitatea tranzistorului) a calculatoarelor crește cu o viteză fixă, dublând aproximativ fiecare anume număr de ani. Introducerea proceselor de producție avansate de mai puțin de 65 de nanometri a permis evoluții importante în puterea procesoarelor, în principal datorită posibilității plasării mai multor nuclee de procesare într-o singură componentă. Acum, când sa dezvoltat o arhitectură de control suficientă pentru a decoda și a asambla structuri complexe de programare, procesoarele paralele au depășit cu mult predecesorii lor.

concluziile

Procesarea în serie a fost cea mai bună metodă de procesare a seturilor de date până când tehnologiile hardware și software au fuzionat în cele din urmă și au făcut posibilă procesarea paralelă. Proiectul genomului uman are trei miliarde de seturi de date și era de așteptat să dureze aproximativ 100 de ani pentru a decoda complet. Cu toate acestea, aproape toată secvența ADN a homo sapiens a fost decodificată în doar 13 ani, datorită rețelelor masive de supercomputere și utilizării procesării paralele.