Il decennio degli anni ’70 rappresenta il terreno fertile in cui germoglia l’informatica personale. È un’epoca di fermento tecnico, anche se apparentemente silenziosa.
Nel 1971 debutta il primo microprocessore, l’Intel 4004, ma bisogna attendere il 1977 per vedere comparire i primi veri personal computer.
Nel frattempo, si sviluppano le componenti fondamentali che renderanno possibile la nascita di questi nuovi strumenti: memorie, circuiti di I/O, periferiche.
Il microprocessore è cuore pulsante di ogni dispositivo digitale moderno: un piccolo ma potentissimo chip, capace di eseguire milioni di operazioni al secondo. Ma come nasce questa meraviglia della tecnologia?
Tutto parte da un materiale ben noto: il silicio. Si utilizza un monocristallo di silicio estremamente puro, tagliato con precisione e sottoposto a processi termici ad alta temperatura. Durante questi trattamenti, il silicio viene "drogato" con impurità controllate, che ne alterano le proprietà elettriche rendendolo un semiconduttore. Il silicio drogato può condurre elettricità meglio di un isolante, ma meno di un metallo come il rame – ed è proprio questa proprietà intermedia a renderlo perfetto per costruire i transistor.
Il microprocessore è un insieme di milioni (o miliardi) di questi minuscoli transistor, collegati tra loro in un circuito integrato. A differenza di altri chip, come quelli audio o di controllo, il microprocessore è progettato per elaborare informazioni: riceve input, esegue calcoli e genera output, tutto al suo interno. Per questo viene anche chiamato CPU, ovvero Central Processing Unit.
La CPU svolge due funzioni fondamentali:
- Coordina il funzionamento dell'intero sistema, inviando segnali ai vari componenti.
- Esegue operazioni logico-aritmetiche, come somme, confronti, spostamenti di bit.
Il microprocessore è composto da tre unità principali:
- Unità di Controllo (CU): è il "regista" della CPU, che dirige il traffico delle istruzioni.
- Unità Logico-Aritmetica (ALU): esegue i calcoli.
- Registri: piccole memorie interne usate per lavorare velocemente con i dati.
Ogni istruzione eseguita dal processore segue un ciclo ben preciso:
- Fetch: la Control Unit preleva l'istruzione dalla memoria, seguendo l'indirizzo contenuto nel Program Counter (PC).
- Decode: l'istruzione viene interpretata, attraverso circuiti cablati o microprogrammazione.
- Execute: viene eseguita, spesso con l'intervento dell'ALU.
Questo ciclo è regolato da un orologio interno, detto clock, che scandisce ogni fase con estrema precisione. Più il clock è veloce (espresso in MHz o GHz), più istruzioni possono essere elaborate. La velocità effettiva viene anche misurata in MIPS (Milioni di Istruzioni Per Secondo).
Due principali filosofie guidano la progettazione dei microprocessori:
- CISC (Complex Instruction Set Computer): punta su una vasta gamma di istruzioni complesse, che semplificano la programmazione e permettono di fare molto con poche righe di codice. Esempi noti: processori Intel, AMD, Cyrix.
- RISC (Reduced Instruction Set Computer): riduce al minimo le istruzioni, puntando tutto su semplicità e velocità. Meno circuiti, meno costi, maggiore efficienza, ma software più complesso da scrivere. Esempi: IBM PowerPC, MIPS R4000, SPARC, Alpha.
Le due architetture a confronto
I RISC si trovano soprattutto nelle workstation, nei dispositivi embedded e in quelli mobile, mentre i CISC dominano nei PC e laptop.
Senza ombrai di dubbio, il microprocessore è uno dei capolavori dell'ingegneria moderna. Dall'elaborazione di una semplice somma alla gestione di sistemi complessi come l'intelligenza artificiale, è sempre lui il protagonista silenzioso che lavora dietro le quinte di ogni tecnologia digitale.
Le origini (1971-1973): PMOS e l'era pionieristica
I primi microprocessori sono progettati con tecnologia PMOS, economica ma lenta e poco compatibile con i circuiti TTL. È il 1971 quando Intel lancia il primo microprocessore commerciale, il 4004, progettato da Federico Faggin, Marcian Hoff e Stanley Mazor per la giapponese BusiCom. Il 4004 è un processore a 4 bit, capace di indirizzare solo 640 byte di memoria, ma inaugura l’era del calcolo programmabile in un solo chip.
Subito dopo, nel 1972, Intel propone l’8008, a 8 bit, capace di trattare caratteri alfanumerici. È l’embrione del personal computing.
Nel 1974 arriva l’8080, versione potenziata dell’8008, che diventa il cuore del primo personal computer della storia: l’Altair 8800. Con l’8080 inizia la corsa ai microcomputer e nasce la comunità degli "hobbisti informatici".
La seconda generazione (dal 1973): NMOS, compatibilità TTL e diffusione
Dal 1973 emergono microprocessori basati su tecnologia NMOS, più veloci e compatibili con i circuiti TTL. Tra i più noti: lo Z80 della Zilog, il 6800 e 6809 di Motorola, e l’8085 di Intel. La produzione in grandi volumi per il nascente mercato dei personal computer li rende sempre più accessibili.
La terza generazione (1978-1985): l’era dei 16 bit
Nel 1978 Intel lancia l’8086, processore a 16 bit con architettura segmentata della memoria. Il successo, però, arriva nel 1979 con l’8088, versione con bus dati esterni a 8 bit, scelto da IBM per il suo PC. Da quel momento, compatibilità software e compatibilità hardware diventano i driver dell’evoluzione Intel.
La quarta generazione (dal 1985): l’ingresso nei 32 bit
Nel 1982 Intel introduce il 286, con supporto al multitasking e modalità protetta. Ma è con l’80386 del 1985 che si entra nel pieno dei 32 bit: registro a 32 bit, supporto alla paginazione e macchine virtuali. Il 386sx, versione più economica, apre il mercato di massa.
1989-1993: prestazioni sempre più spinte
Nel 1989 nasce il 80486, che integra il coprocessore matematico e introduce logiche RISC. Con il Pentium del 1993 si fa un ulteriore salto: istruzioni parallele, registri a 64 bit, doppia cache e milioni di transistor (oltre 3,1 milioni). La potenza è cinque volte superiore al 486.
1995-1999: server, cache e prestazioni grafiche
Il Pentium Pro (1995) mira a server e workstation, con cache esterna dedicata e 5,5 milioni di transistor. Il Pentium II(1997), con tecnologia MMX, supera i 400 MHz e introduce la cartuccia S.E.C.. In parallelo, nascono versioni low-cost come il Celeron, e concorrenti come AMD K6 iniziano a minare il monopolio Intel.
Nel 1999 arriva il Pentium III, con tecnologia SSE per elaborazioni multimediali più veloci. Tuttavia, il debutto del Processor Serial Number (PSN) solleva dubbi sulla privacy e viene presto disattivato.
2000-2006: il GHz e l’era dei multi-core
Con il Pentium 4 (2000), Intel introduce l’architettura NetBurst, puntando a frequenze elevatissime. Ma il sogno dei 10 GHz si infrange per problemi di surriscaldamento. Il Pentium D (2005) è il primo dual core Intel, seguito nel 2006 dal Core 2 Duo, con nuova microarchitettura "Intel Core", più efficiente e universale tra desktop e laptop.
2010: la famiglia i-Series
Nel 2010 nasce la famiglia Intel Core i3/i5/i7, basata su architettura Nehalem. I processori sfruttano Hyper-Threading, che consente a ogni core di gestire due thread simultanei, migliorando le performance e l'efficienza energetica. È l’inizio della moderna era dei processori multicore, destinata a dominare il computing per il decennio successivo.