Processori e serie parallele
Elaborazione parallela
L'elaborazione parallela richiede una tecnica in base alla quale i set di dati complessi sono suddivisi in singoli thread e elaborati simultaneamente da uno o più core. Sia AMD che Intel hanno incorporato questa tecnica (nota come HTT) per aumentare notevolmente la velocità con cui lavorano. Fino a poco tempo fa, questo non ha sempre fornito un aumento significativo della velocità, perché la tecnologia per dividere i set di dati e quindi ricomporli era nei loro principi.
Elaborazione seriale
L'elaborazione seriale richiede una tecnica in cui i dati vengono ordinati sequenzialmente e quindi calcolati da un singolo processore. Questa tecnica funziona molto bene con liste ordinate che usano contrazioni simili. Il problema più grande è che solo un bit di dati può essere elaborato alla volta e programmi complessi non possono essere suddivisi in segmenti più piccoli.
supercomputing
Molti sviluppatori hanno portato lo sviluppo dell'elaborazione parallela al passaggio successivo creando reti di potenti supercomputer. Queste reti lavorano all'unisono attraverso l'uso di un complicato software di controllo che agisce per dividere la complessa programmazione e le equazioni attraverso la rete e quindi raccoglie i dati totali. Alcuni dei supercomputer più potenti furono inizialmente sviluppi militari o educativi, fino all'anno 2000, quando i cluster più grandi furono gestiti da società di videogiochi per supportare massivamente giochi online multiplayer (MMOG). Nel 2008, la più grande rete di supercomputer proveniva dal progetto Folding @ home, che consiste in diversi milioni di PlayStation 3 in tutto il mondo.
importanza
Secondo la legge di Moore (Gordon Moore, Intel Corporation), la potenza di elaborazione (densità dei transistor) dei computer aumenta a una velocità fissa, raddoppiando all'incirca ogni un certo numero di anni. L'introduzione di processi di produzione avanzati inferiori a 65 nanometri ha consentito importanti sviluppi nella potenza delle CPU, principalmente a causa della possibilità di collocare più core di elaborazione in un singolo componente. Ora che è stata sviluppata un'architettura di controllo sufficiente per decodificare e assemblare correttamente complesse strutture di programmazione, i processori paralleli hanno superato di gran lunga i loro predecessori.
conclusioni
L'elaborazione seriale era il modo migliore per elaborare i set di dati fino a quando le tecnologie hardware e software non si sono fuse e reso possibile l'elaborazione parallela. Il progetto Human Genome ha tre miliardi di dati e ci si aspettava che ci volessero circa 100 anni per decodificarli completamente. Tuttavia, quasi l'intera sequenza del DNA dell'homo sapiens è stata decodificata in soli 13 anni, grazie a massicce reti di supercomputer e all'uso dell'elaborazione parallela.