La rivoluzione del microchip, unità di misura del mondo

È il molto piccolo, piccolissimo, che rende tutto grande e perciò possibile, infinito, irrorato da un soffio quasi divino. Ascolta: Clima impazzito e monti senza...

OFFERTA SPECIALE

2 ANNI
99,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA FLASH
ANNUALE
49,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA
 
ANNUALE
49,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
99,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 3 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno

È il molto piccolo, piccolissimo, che rende tutto grande e perciò possibile, infinito, irrorato da un soffio quasi divino.

È il motore ormai di ogni cosa, dai gesti minimi, quotidiani, fino alle imprese più memorabili. Il microchip è il codice del nostro tempo e ha un cuore un bel po’ italiano. Un wafer di un semiconduttore, quasi sempre il silicio, base per circuiti integrati e cominciò così la magia. I chip sono ovunque, dallo smartphone ai pc, dagli elettrodomestici alle auto: senza non sarebbe immaginabile il mondo digitale nel quale siamo immersi. Stavolta l’intuizione non è stata la folgorazione del momento o il frutto del caso, ma il risultato di un lungo e metodico percorso, con le pionieristiche tappe sul finire degli anni ‘60. E con l’immancabile guerra della paternità e dei brevetti di una delle più sorprendenti innovazioni.

Ad ogni modo: tra il 1958 e il 1959, in parallelo, gli americani Robert Norton Noyce e Jack Kilby realizzarono i primi modelli di circuiti integrati, il primo in silicio e il secondo in germanio. Noyce fu il cofondatore della Fairchild Semiconductor e, successivamente, della Intel. Kilby lavorava invece alla Texas Instruments. Sono loro i protagonisti del primo scontro nel nome del chip. La vera svolta però è tutta italiana, seppur con un riconoscimento pubblico arrivato solo anni dopo: all’inizio degli anni ‘70 la Intel sviluppa il microprocessore che riscriverà la storia dell’informatica, l’Intel 4004. Il capo progetto e designer era Federico Faggin, vicentino, all’epoca nemmeno 30enne, gli inizi alla Olivetti e un concentrato di intuito e caparbietà. La pubblicità di lancio della Intel recitava «a new era of integrated electronics», l’impatto rivoluzionario fu chiaro da subito. Nel 2010 Barak Obama ha conferito a Faggin la National Medal Technology and Innovation proprio per l’Intel 4004, e il fisico veneto nel frattempo non era certo stato fermo: la Zilog, fondata nel 1974, si occupava solo di microprocessori; la Synaptics, nata nel 1986, sviluppò i primi touchscreen. E i microchip? L’evoluzione è stata continua e tumultuosa. La corsa a renderli sempre più piccoli è inesausta: la Taiwan semiconductor manifacturing company, il più grande produttore del mondo, punta a lanciare su larga scala i chip a 2 nanometri. E tra semiconduttori, brevetti, supply chain e delicati equilibri geopolitici i chip sono ormai l’unità di misura del mondo.

Leggi l'articolo completo su
Il Mattino