Utente:Alex brollo/ddac

Da Wikisource.
Jump to navigation Jump to search
[p. 179 modifica]

XI. MATEMATICA E MAGIA






1. I numeri e gli dei

Il mondo dei numeri è così importante presso i popoli antichi, da avere una divinità preposta. Presso i Sumeri è la dea vergine Nidaba; i Babilonesi invece attribuiscono l’incarico a Nabu, il segretario degli dei. Le stesse divinità sono associate a un numero che ne determina anche la posizione gerarchica.
60 = Anu, dio della perfezione e padre di tutti gli altri dei.
50 = Enlil, dio dell’acqua.
40 = Ea, dio della terra.
30 = Sin, dio della luna, che regola i 30 giorni del mese.
20 = Shamash, dio del sole.
6 oppure 10 = Adad.
10 = Marduk.
15 = Ishtar, figlia di Anu, regina degli dei.

Ogni numero, fra 1 e 60, è assegnato a un dio.

Quando il predominio sulla Mesopotamia passa saldamente in mano a Babilonia, anche il dio tutelare, Marduk, è “promosso” e sostituisce Enlil.

I sacerdoti della Mesopotamia, sempre impegnati a indagare sul destino degli uomini e dell’universo, si interessano al contenuto magico dei numeri. Non per [p. 180 modifica]niente la parola “magico” viene da “re magi”, l’appellativo usato nei Vangeli per indicare i re-sacerdoti-sapienti che vengono da Oriente.

Il numero 3 significa perfezione; tutte le religioni antiche hanno le famose triadi. Per limitarci alla Mesopotamia: la triade cosmica Anu, Ea, Enlil (Cielo, Terra, Acqua) e la triade astrale Sin, Shamash, Ishtar (Luna, Sole, Venere). I cristiani hanno la Trinità.

Il numero 7 comprende le due triadi precedenti e il dio del fuoco Nusku; ma 7 sono anche i più terribili demoni mesopotamici, responsabili di ogni sciagura, detti “i Sette” o “Sibitti”.

Gli edifici sacri sono costruiti sulla base di rapporti dimensionali fissi e segreti. In una tavoletta dell’Esagil (tempio di Marduk) sono riportati calcoli e dimensioni relativi alla Torre di Babele. Inoltre, vi è scritto: “... queste notizie l’iniziato le trasmetta all’iniziato. Ma il profano non deve conoscerle” (11a).

I numeri 3, 7 e 60 godono di particolare predilezione presso i popoli mesopotamici. Il 3, il 7 e altri numeri “magici” di varia provenienza sono giunti fino a noi, anche con nuovi contenuti, attraverso la religione, l’astrologia, la numerologia, l’alchimia e le simbologie delle sette segrete.


2. La ghematria

L’uso promiscuo di segni validi come lettere e come numeri conduce allo sviluppo di molti codici usati per messaggi segreti, e di quella “scienza” che i Greci chiamano isopsefia e gli Ebrei ghematria. Sono tecniche molto sofisticate di cui fanno largo uso gli oracoli, i maghi e gli esegeti delle Sacre Scritture. Queste tecniche sono ampiamente descritte da Ifrah nella sua Storia universale dei numeri.

Qui basti ricordare che si ricorre a tali tecniche per dare un nome alla Bestia dell’Apocalisse, cioè [p. 181 modifica]l’Anticristo, che l’evangelista Giovanni indica col numero 666.

“... e che nessuno possa comprare o vendere all’infuori di chi ha il marchio, che è il nome della bestia selvaggia o il numero del suo nome. Qui sta la SAPIENZA. Chi ha INTELLIGENZA calcoli il numero della bestia selvaggia, poiché è un numero d’uomo: e il suo numero è seicentosessantasei” (Apocalisse, 13, 17/18).

Di volta in volta, nel 666 si vuol riconoscere Nerone, Diocleziano, i Romani in genere e, da ultimo, Lutero. Ma i luterani non perdono l’occasione per ribattere che la Bestia è proprio il Papa (Vicarius Filii Dei), considerando la somma di quelle lettere che corrispondono a numeri romani:


3. I numeri secondo i pitagorici

Al pari dei Babilonesi, i pitagorici attribuiscono specifiche caratteristiche ai numeri: “Il numero uno è il generatore dei numeri ed è il numero della ragione; il numero due è il primo numero pari o femminile, il numero dell’opinione; tre è il primo vero numero maschile, il numero dell’armonia, essendo composto di unità e diversità; quattro è il numero della giustizia o del castigo, e indica il far quadrare i conti; cinque è il numero del matrimonio, l’unione del primo vero numero maschile con il primo numero femminile; e sei è il numero della creazione” (8f).

La stella a 5 punte o pentaclo è il segno di riconoscimento dei pitagorici. È simbolo di pienezza, di [p. 182 modifica]benessere e di salute; col passare del tempo viene adottato come amuleto da maghi e ciarlatani.

Il 10 o tetractys gode di speciale venerazione, non perché corrisponda al numero delle dita delle mani, ma perché è ritenuto il numero dell’universo e la sintesi di tutte le dimensioni geometriche. Viene rappresentato sotto forma di punti disposti a triangolo. È il risultato della somma dei numeri 1, 2, 3, 4. Il numero 1, un punto, è il generatore delle dimensioni; 2, cioè due punti, dà luogo a una linea e perciò indica una dimensione; 3, un triangolo, ovvero la figura piana, due dimensioni; 4, il tetraedro (piramide a base triangolare), un corpo solido, perciò tre dimensioni.

Il pentaclo e la tetractys.


4. Il dotto astrologo

Nell’impero romano, compresa la capitale, imperversano culti e sette di ogni genere, fra i quali prevalgono quelli di provenienza mesopotamica, persiana ed egizia. Al di fuori delle cerchie degli eruditi, aritmetica, superstizione, magia e astrologia formano un amalgama buono per tutti gli usi, e molto vitale. Perfino Tolomeo scrive un’opera di astrologia in quattro libri: Tetrabiblos. Sostiene che, “se talvolta ci si [p. 183 modifica]sbaglia, non deve essere condannata questa scienza nel suo insieme: forse che noi respingiamo l’arte di condurre vascelli perché sovente capitano naufragi? In una così alta e divina scienza conviene senz’altro accettare con gioia quanto ne possiamo ricavare, senza tuttavia pretendere in essa la certezza che ci danno quelle arti che possono essere esattamente investigate dallo spirito umano” (23a). Una delle difficoltà che impediscono all’astrologia di assurgere a scienza esatta, secondo Tolomeo, deriva dalla configurazione delle stelle, che muta anche nel breve volgere di un secolo. È quantomeno confortante l’affermazione di Tolomeo secondo cui “non bisogna poi credere che tutte le cose accadano agli uomini per cause celesti... come se ci fosse una legge per ogni cosa che, non essendovi nulla che la possa contraddire, imponga una necessità assoluta” (23b).

Tolomeo ci informa che presso gli Egizi gode di grande prestigio la “iatromatematica”, una scienza che coniuga medicina e astrologia non solo per la cura dei malanni, ma anche per la prevenzione degli stessi con l’uso di opportuni antidoti e rimedi, “mezzi per stornare i mali, presenti o futuri, comuni o particolari” (23c).

Segni zodiacali intorno alla dea del cielo Nut (1°/2° sec. d.C.). [p. 184 modifica]

XII. DAI PALLOTTOLIERI
ALLE CALCOLATRICI






1. Gli strumenti e il calcolo

Come abbiamo già detto, da sempre l’uomo si avvale di strumenti nell’espletamento delle sue attività, e in particolar modo per quelle ripetitive, faticose e che non richiedono fantasia o intelligenza.

L’attività di calcolo, proprio a causa della raffinatezza degli algoritmi messi a punto in secoli di evoluzione, richiede che gli stessi siano eseguiti in maniera assolutamente esatta, meccanica e uniforme: il calcolare, perciò, risulta noioso e privo di fascino.

Oltre a ciò, la progressiva complicazione delle attività sociali ha reso necessario un numero sempre maggiore di persone capaci di risolvere problemi matematici. Un numero così ampio che spesso si è dovuto ricorrere anche a persone con un livello di istruzione piuttosto basso.

Questa situazione ha portato alla creazione di una serie di “macchine” capaci di “calcolare”, o quanto meno di fornire risposte a problemi di carattere matematico.

Queste macchine si possono raggruppare in due grandi categorie, le macchine vere e proprie e quelle che nell’introduzione abbiamo chiamato “macchine astratte”, ovvero una serie di metodi di calcolo e di [p. 185 modifica]prontuari di calcoli risolti (le tavole numeriche) atti a potenziare le possibilità del lavoro matematico.

Inoltre, considereremo anche lo sviluppo delle macchine programmate, come automi, carillon, ecc., e quello delle macchine “autoregolantisi”, come il “regolatore di WATT”, i termostati e simili; questo perché la confluenza dei tre filoni evolutivi indipendenti - capacità di calcolo, capacità di programmare una sequenza di operazioni e capacità di autoregolazione - ha portato alla nascita e allo sviluppo dei calcolatori.


2. Abaco e pallottoliere

La più antica macchina da calcolo è sicuramente il “pallottoliere” o “abaco”, di cui si ha notizia fin dall’antichità.

Gemma: calcolatore etrusco.

La relazione tra questo oggetto e i primitivi calculi dei Sumeri è molto chiara: si tratta di una serie di calculi organizzati in una struttura stabile, che facilita la loro trasportabilità e manipolazione.

Rientrano nella categoria degli abaci oggetti formati da tavolette coperte di sabbia, cera o altra sostanza [p. 186 modifica]“disegnabile”, che permettono di spostare dei sassolini in una serie di solchi; un altro modello di “abaco” è costituito da tavolette nelle quali i solchi sono scavati in modo permanente e nei quali vengono posti i sassolini necessari; in genere, comunque, questo tipo di strumenti usufruisce di una serie di oggetti che rimangono liberi e vanno conservati a parte, mentre le operazioni si svolgono aggiungendo o togliendo sassolini dal piano di scrittura.

Abaco.

I pallottolieri, invece, sono più moderni, le prime notizie relative alla loro esistenza risalgono al III secolo a.C.; sono costituiti da una struttura di stecche sulle quali è infilato in maniera stabile un certo quantitativo di palline forate. In questo strumento il quantitativo di “sassolini” è fisso e la posizione della pallina indica se essa sia da considerare o meno nel conteggio.

In effetti, si ha una certa differenza di organizzazione tra pallottolieri e abaci, ma sul piano logico e operativo questi due strumenti sono completamente sovrapponibili: hanno entrambi una struttura che serve a organizzare in maniera stabile un gruppo di palline, gettoni, sassolini o simili, in modo da mettere a disposizione dell’operatore una serie di “segni” materiali che indichino gli oggetti o i gruppi di oggetti su cui si opera. Questa struttura ha subito l’influenza dei diversi passi compiuti dal pensiero matematico, tra i [p. 187 modifica]Scoty. quali, per ultima, la notazione posizionale, diventando così uno strumento di calcolo molto potente e versatile.

Va notato che l’uso continuo di questo strumento ha diffuso, sul piano della cultura di massa, la padronanza dei concetti relativi alle proprietà delle operazioni di somma e di sottrazione: ad esempio, la pratica della somma su uno Scoty, il pallottoliere tuttora in uso in Russia, comporta una continua attività di complementazione del numero considerato a dieci.

Diamo ora un esempio di come si effettua l’operazione 316 + 428 (i lettori possono seguire la spiegazione eseguendo materialmente le operazioni descritte su un pallottoliere: quello del figlio, o anche uno di fortuna realizzato con materiali a portata di mano).


3. Una somma con il pallottoliere

Si inizia “scrivendo” il primo numero (316): sulla [p. 188 modifica]stecca più a destra sposteremo sei palline, su quella successiva ne sposteremo una e sulla terza ne sposteremo tre.

Somma sullo Scoty 1º.

Come si può facilmente vedere, le diverse stecche stanno per gli ordini di grandezza della notazione decimale, mentre il numero di palline spostato su ogni stecca indica quante unità di quel certo ordine di grandezza vanno considerate.

Il secondo passo consiste nell’aggiungere il secondo numero (428); dovremmo spostare otto palline sulla stecca più a destra, le quali, unite alle sei spostate precedentemente, farebbero un totale di quattordici palline spostate, ma questo non è possibile in quanto ve ne sono solo dieci, perciò dovremo ricorrere allo spostamento di una pallina sulla seconda stecca per indicare il raggiungimento di una decina completa, e poi lasciare quattro palline spostate sulla prima per indicare che nella somma delle unità, dopo il raggiungimento della decina, avanzano ancora quattro unità. [p. 189 modifica]Somma sullo Scoty 2°.

Tutto ciò appare piuttosto complesso nell’esposizione verbale, ma qualsiasi prova vi mostrerà la sostanziale semplicità delle operazioni descritte, che sono esattamente equivalenti alle operazioni logiche che compiamo quando diciamo che 6 + 8 dà quattordici, e cioè una decina da “riportare” e quattro unità; con la differenza che sul pallottoliere l’operazione logica ha il supporto materiale di una trasformazione visibile, mentre operando con carta e penna tutta l’operazione deve avvenire sul piano logico, e sulla carta si riporta solo il risultato. A questo punto dobbiamo ripetere l’operazione per le decine operando sulla seconda stecca: su questa abbiamo, oltre alla decina “scritta” inizialmente, anche una seconda decina ottenuta dalle unità con il “riporto”; a queste due aggiungiamo altre due palline, a indicare l’aggiunta delle decine contenute nel secondo addendo, e otteniamo così alla fine lo spostamento di quattro palline.

L’operazione si completa effettuando la somma anche sulla stecca delle centinaia; su questa stecca erano già state spostate tre palline, ora ne spostiamo altre quattro ottenendo così sette palline spostate. [p. 190 modifica]L’operazione è terminata, non resta che leggere il risultato, e cioè sette centinaia, quattro decine e quattro unità: 744.

Somma sullo Scoty 3º.

Il risultato è chiaramente giusto e lo si è ottenuto con una serie di operazioni che, con un minimo di pratica, diventano semplici e veloci; inoltre essendo legate ad azioni fisiche che comportano materialmente l’aggiunta di oggetti e il riporto di quantità da una stecca all’altra, esse sono anche facilmente comprensibili da chi abbia difficoltà nell’organizzazione del pensiero a livello astratto.


4. Gerberto d’Aurillac

In Europa l’uso di questo tipo di strumenti ha raggiunto, con le modifiche introdotte da Gerberto d’Aurillac, la sua forma più strutturata ed efficace intorno all’anno mille. Questa versione, che innovò il calcolo sull’abaco, invece delle palline si avvaleva di [p. 191 modifica]gettoni, sui quali era segnato il valore di una cifra “araba”.

Abaco di Gerberto d'Aurillac.

Si otteneva così la scrittura di più numeri in una volta, facilitando in maniera notevole le operazioni di somma e sottrazione. Era infatti possibile la verifica in modo molto più semplice: rimanevano “scritti” sia gli operatori che il risultato, si aggirava il problema della mancanza del segno per lo zero (bastava non mettere il gettone in una certa casella) e alla fine del lavoro si trascriveva il risultato su carta usando la notazione romana.

Questo strumento si impose per la sua versatilità, facilitando l’attività di commercianti e matematici; dopo due o tre secoli, però, divenne un freno alla diffusione della notazione completa e degli algoritmi di calcolo ad essa collegati, perché, nonostante la superiorità concettuale delle nuove tecniche, queste non davano vantaggi apprezzabili nella pratica quotidiana.

La situazione provocò addirittura una contesa, tanto aspra da diventare a volte violenta, tra “abachisti”. [p. 192 modifica]- i sostenitori dell’attività di calcolo mediante l’abaco e “algebristi” - i sostenitori dell’uso della notazione “araba” e del calcolo con i nuovi algoritmi.

Lentamente i metodi degli “algebristi” si affermarono, e la comparsa di altre e più perfezionate macchine da calcolo rese la questione superata di fatto. Comunque, continuava ancora ad esistere alla fine del Settecento una notevole quantità di persone, in specie nei mercati dei paesi e nelle realtà periferiche, che utilizzavano l’abaco per i loro calcoli.

La questione fu risolta in modo definitivo dall’intervento autoritario di Napoleone, che vietò in tutta Europa l’insegnamento delle tecniche di calcolo mediante l’abaco, facendo così sparire dal nostro bagaglio culturale questo strumento che invece sopravvive altrove (in Russia sotto il nome di Scoty, in Giappone come Soroban, in Cina come Suan Pan, ecc.).

Il pallottoliere è senza dubbio uno strumento di calcolo molto valido, con caratteristiche eccezionali di economicità, di assenza di consumo energetico, di affidabilità meccanica e aritmetica, di semplicità, sia nella costruzione che nella manutenzione, e di facilità d’uso: ciò spiega la sua straordinaria diffusione e la sua longevità. Si può parlare anzi di macchina quasi perfetta, paragonabile, nel campo dei mezzi di trasporto, alla bicicletta, se si pensa che esso è sopravvissuto per migliaia di anni e ha fatto fronte a esigenze tanto diverse, come quelle delle popolazioni etrusche e quelle dell’Europa del Seicento, o addirittura quelle del Giappone degli anni cinquanta o della Russia della stessa epoca.

Solo ora, sotto l’attacco delle calcolatrici elettroniche tascabili, il pallottoliere sta sparendo, come strumento operativo, praticamente dappertutto.

Con esso sparisce un’impostazione che vedeva lo strumento matematico supportare e non sostituire l’attività umana, mentre le macchine attuali, invece, sono basate appunto su una logica di sostituzione. Il [p. 193 modifica]pallottoliere mantiene comunque un notevole valore sul piano didattico e formativo, proprio per il fatto che richiede all’operatore un’attività che comprende tutti i passaggi logici necessari all’esecuzione delle operazioni.


5. La comparsa delle macchine da calcolo

Nei secoli XV e XVI, la scoperta e la messa a punto di molte macchine, tra cui le armi a lunga gittata, come i cannoni e i mortai, fu una delle ragioni che spinsero a effettuare, rapidamente, calcoli per determinare la traiettoria dei colpi. Non essendo il personale destinato al maneggio di queste armi dotato di troppa istruzione, comparvero vari strumenti, tra i quali l’“archipendolo”, inventato dal matematico bresciano Nicolò Tartaglia, capace di determinare la gittata del pezzo in base alla sua elevazione; da questi attrezzi Galileo fece derivare uno strumento che da alcuni è considerato la prima tappa sulla strada delle moderne “macchine da calcolo”: il compasso

Compasso Galileo.

[p. 194 modifica]geometrico-militare Esso era dotato di varie scale e artifici che permettevano di determinare le altezze, le distanze, le pendenze, i lati dei poligoni regolari inscritti in un certo cerchio; inoltre aiutava nell’estrazione di radici cubiche.

Altro strumento matematico, questa volta concettuale, messo a punto in quell’epoca e legato alla necessità di comprendere e predire il comportamento dei mortai, è il triangolo di Tartaglia, che allora serviva per prevedere la dispersione dei colpi intorno all’obiettivo, mentre oggi viene utilizzato nelle scuole per determinare i coefficienti di uno sviluppo binomiale.

Negli stessi secoli che videro la nascita delle armi da fuoco, si ebbero molte altre invenzioni nel campo della meccanica: i mulini permisero un utilizzo controllato delle ingenti risorse energetiche fornite dall’acqua e dal vento, mettendo a disposizione degli uomini quantità di energia inimmaginabili fino ad allora; questa disponibilità portò alle prime realizzazioni nel campo della concentrazione delle risorse produttive, con la comparsa delle prime manifatture.

Sempre nel Cinquecento furono costruiti i cannocchiali, ma soprattutto gli strumenti di misura del tempo: orologi e clessidre, che determinarono nuove trasformazioni concettuali.


6. Altre macchine

Fin dall’antichità, la misura del tempo era affidata alle meridiane oppure agli orologi ad acqua. Le prime avevano l’ovvio limite di fornire informazioni solo quando il cielo era sufficientemente sereno, mentre i secondi, nonostante le numerose modificazioni per renderli più precisi, rimasero sempre piuttosto inefficienti.

È intorno al 1300 che compaiono sia le prime clessidre che i primi orologi a bilanciere: le clessidre, con la sabbia al posto dell’acqua e la loro facile [p. 195 modifica]trasportabilità, si diffusero immediatamente come strumento affidabile, di semplice manutenzione ed economico, tanto che sopravvissero per alcuni secoli: il loro limite consisteva nel fatto che non erano utilizzabili per misurare intervalli di tempo più lunghi di qualche ora. Gli orologi a bilanciere costituiscono invece la realizzazione di un’idea del tutto nuova, che si dimostrerà vincente, nella misura del tempo: esso viene scandito con il ripetersi di un evento “isocrono”, che richiede cioè sempre lo stesso tempo per svolgersi.

Queste nuove macchine avevano la stessa struttura concettuale degli attuali orologi: una parte del meccanismo forniva energia, ed era costituita da un peso che faceva girare un rullo, derivato probabilmente da vari congegni di sollevamento; una seconda parte conteneva il meccanismo dell’evento isocrono, ed era costituita da uno scappamento ad asse (la vera idea nuova); infine, una parte contava gli eventi e forniva la misurazione dello scorrere del tempo, essendo costituita da un insieme di ingranaggi che movevano le lancette. Questa parte era probabilmente derivata da congegni di demoltiplica di movimenti vari, come i mulini, i sollevatori ecc.

Scappamento a verga.

[p. 196 modifica]

L’idea della partizione del tempo mediante un evento ritmico è ancora alla base di tutti i misuratori di tempo, anche i più sofisticati, costruiti attualmente. I limiti della tecnologia meccanica del Quattrocento fecero sì che gli orologi con bilanciere presentassero errori di misurazione dell’ordine della decina di minuti al giorno, al pari delle clessidre; fu un significativo salto in avanti rispetto all’aleatorietà completa.

Gli orologi di questa epoca hanno spesso solo la lancetta delle ore, affiancata a volte da indicazioni della data, della fase della luna e da altre informazioni astronomiche o astrologiche; la lancetta dei minuti primi mancava, essendo considerata priva di interesse; questa situazione durò fino al Seicento.


Come tutti sanno, all’inizio del Cinquecento fu creata la stampa a caratteri mobili; da sempre si conosceva la possibilità di realizzare molte copie di una figura, se questa era incisa su una matrice di legno, ma ogni matrice, scolpita a mano, poteva essere utilizzata per una sola figura: questo rendeva il metodo poco utilizzabile per la produzione di testi scritti. Infatti, ogni pagina avrebbe richiesto un lavoro enorme e offerto risultati pratici molto limitati.

Il metodo della stampa a caratteri mobili fu messo a punto da un monaco tedesco: vennero cioè realizzati tanti piccoli “timbri”, ognuno recante una lettera, e mediante la loro composizione si ottennero intere pagine stampabili; tale metodo offriva il vantaggio di ridurre i costi di una matrice di testo; infatti, ogni lettera poteva essere riutilizzata molte volte, scomponendo la matrice al termine del lavoro.

L’invenzione propiziò l’economicità di diffusione delle informazioni e delle idee, ed è facilmente collegabile con la riforma protestante, che si impose pochi anni dopo proprio in Germania. [p. 197 modifica]7. Il meccanicismo e gli automi

La disponibilità di questi strumenti, unita all’allargamento delle possibilità economiche dovuto alla scoperta e alla colonizzazione dell’America e delle coste africane da parte delle potenze europee, portò alla comparsa di un modo di pensare che sarà all’origine dello sviluppo, a partire dal Seicento, del meccanicismo: la macchina, con la sua catena di cause ed effetti, materializzati in leve e ingranaggi disposti logicamente in vista del raggiungimento di un fine preciso, diventa un modello per la comprensione della realtà; cominciò a farsi strada l’idea che, oltre al ragionamento filosofico astratto, anche lo studio delle catene causali che portano a certi effetti costituisse una forma di conoscenza utile e costruttiva, e alle speculazioni sul “perché” finalistico di un certo fatto si affiancarono ricerche sul “perché” causale.

Esiste anche un importante aspetto del mutamento culturale avvenuto: la maggiore dignità riconosciuta alle macchine rende più accettabile l’idea che uno strumento meccanico possa eseguire compiti matematici.

Maglio

[p. 198 modifica]Nello stesso ampio arco di anni, che va dagli Etruschi al XVI secolo, sulle linee di sviluppo delle macchine programmate, nasce il maglio come primo esempio di macchina capace di eseguire una “sequenza” di operazioni, mentre Erone e altri (I secolo d.C.) progettano macchine mosse da corde di lunghezza determinata avvolte intorno a cilindri.

Dalla fusione di queste due deriva il concetto di cilindro programmatore. Al-Jazari nel Duecento descrive un “cilindro a schegge”, che azionava leve di comando di alcuni oggetti, come ad esempio un “orologio elefante”, strumento che, mediante il movimento di una folla di automi, variamente allegorici, scandiva il passare del tempo.

Questa idea trova la sua massima espressione antica nel “Teatrino di Erone”, macchina programmata nella quale una serie di “automi” compie azioni determinate appunto dalla rotazione di un cilindro dentato, che attiva ora questa ora quella delle figure: ancora oggi si possono vedere presepi mobili costruiti in base agli stessi princìpi. Anche nei carillon la sequenza delle note da emettere è programmata proprio utilizzando un cilindro dentato.

Le macchine che compiono azioni programmate si sviluppano nei secoli XVI e XVII con la costruzione di automi che adornano molti orologi cittadini, fino ad arrivare alla produzione di oggetti complessi e sofisticati, gli Jacquemart, che con la loro carica di simbolismo e di immagine entrano nella vita di alcune fra le città più importanti del Seicento; molti di essi vengono inclusi in leggende, canzoni e tradizioni popolari.

Oggigiorno, gli alberi a camme che regolano l’apertura e la chiusura delle valvole nei motori a scoppio, in sincronismo con il movimento dei pistoni, sono un’applicazione tecnologicamente evoluta dello stesso principio.

Per quanto riguarda infine l’autoregolazione, [p. 199 modifica]sempre ad Erone è attribuita l’invenzione di alcuni regolatori per distribuire liquidi, basati sul principio di retroazione; in questi apparecchi il peso del liquido fuoriuscito muove una leva che blocca l’afflusso, oppure è il livello dello stesso, rilevato mediante galleggiante, a compiere la medesima funzione.

Distributore di vino.

Questo principio viene ripreso da alcuni pensatori arabi, poi si assiste alla sua apparente scomparsa per tutto il medioevo, fino a che nel Settecento esso viene riesumato in forma chiara dagli ingegneri inglesi, impegnati nella costruzione di mulini a vento.

A dire il vero, nel Duecento-Trecento compare in Olanda un abbozzo di meccanismo nei mulini a vento che serviva a regolare la quantità di grano mandata alla macina in base alla forza del vento, ma questa invenzione dovuta al buon senso di qualche artigiano non si diffuse, e probabilmente non era conosciuta dagli ingegneri inglesi che riaffrontarono in seguito il tema. [p. 200 modifica]Regolatore mulino.


8. Il Seicento

Siamo così arrivati al Seicento, che è stato sicuramente un secolo fondamentale per la nostra storia. Solo ora cominciano ad apparire in maniera esplicita alcune delle realizzazioni più importanti che gettano le basi della situazione attuale.

Negli anni che vanno dal 1550 al 1617 abbiamo l’opera dello scozzese John Napier, il cui nome viene anche italianizzato in Nepero, che proprio nell’anno della sua morte pubblicò un libro, Rabdologia, nel quale, tra l’altro, presentava una sua invenzione: i regoli, che si chiamarono ovviamente “di Nepero”.

Tale strumento affronta finalmente il problema delle moltiplicazioni; esse si possono ora eseguire semplicemente avvicinando le strisce adatte e leggendo il risultato.

I regoli erano stati preceduti di alcuni anni (1614) dall’introduzione dei logaritmi; anch’essi permettono di eseguire moltiplicazioni e divisioni di numeri, [p. 201 modifica]Regoli diNefero. anche molti grandi, semplicemente sommando o sottraendo tra di loro i numeri che si ottengono trasformando i due fattori della moltiplicazione di partenza.

Questo metodo di lavoro comporta una notevole perdita di precisione, ma offre una semplicità operativa che aumenta con l’aumentare delle dimensioni dei numeri da moltiplicare; il problema delle moltiplicazioni, comunque, continua ancora in epoca recente a preoccupare i matematici. [p. 202 modifica]

Nel 1620 Edmund Gunter costruisce in Inghilterra il primo regolo logaritmico, un’applicazione meccanica dei principi logici dei logaritmi.

Alcuni anni più tardi Descartes, tra gli altri ricchi frutti del suo pensiero, intuisce la possibilità di stabilire un’equivalenza tra geometria, lo studio dello spazio, e algebra, lo studio delle proprietà generali delle relazioni numeriche, arrivando così alla costruzione di quella che tuttora si chiama geometria cartesiana o analitica.

Negli stessi anni, il meno noto Fermat giungeva agli stessi risultati, sia pure con un’impostazione un po’ diversa, ma per certi versi più “moderna”.

L’idea consiste nello stabilire una corrispondenza biunivoca tra i punti di una retta e i numeri reali; da ciò deriva la possibilità di effettuare una corrispondenza tra i punti di un piano e coppie di numeri, i punti dello spazio e triplette di numeri. Si apre la strada alla scoperta, avvenuta due secoli dopo, che si possono concepire spazi a quattro o più dimensioni, disponendo anche di gruppi di quattro o più numeri, anche se questi non avranno ovviamente alcun riscontro nella nostra esperienza quotidiana.

Tale nuovo approccio permette di descrivere le proprietà spaziali di figure e/o trasformazioni su figure in termini di relazioni matematiche tra i numeri che “rappresentano” le figure stesse e viceversa, spalancando così un campo vastissimo all’indagine teorica e descrittiva.

La geometria viene liberata dalla schiavitù della riga e del compasso, cui era stata relegata da Platone, e si presenta allora l’occasione di studiare le “coniche”. Queste sono una famiglia di curve che si possono immaginare generate dalla sezione di un cono ottenuta mediante un piano: tali curve, che comprendono l’ellissi e la parabola, erano già state intraviste da matematici del periodo greco, ma il loro studio non era stato sviluppato per il fatto che esse venivano [p. 203 modifica]considerate curve meno “nobili”, in quanto non era possibile costruirle ricorrendo esclusivamente a riga e compasso.

Per quanto riguarda l’algebra, viene ora sviluppata la teoria delle funzioni, grazie a un nuovo metodo di studio delle funzioni algebriche che consiste nell’esame della loro rappresentazione geometrica.

La geometria analitica pone anche le basi della teoria del calcolo infinitesimale.

La potenza di questo strumento logico è tale che ancora ai nostri giorni ha dato un frutto importantissimo: la computergrafica. Se esiste equivalenza tra figure e rappresentazioni aritmetiche, allora il calcolatore, che può trattare numeri, può trattare anche figure, sottoporle a trasformazioni, operazioni varie, ecc.


9. La pascalina

La perla delle realizzazioni meccaniche di questo secolo rimane però la pascalina (1642), costruita appunto da Blaise Pascal all’età di diciotto anni. È una macchina vera e propria, nel senso moderno del termine, capace di eseguire autonomamente somme e sottrazioni. La novità consiste nella meccanizzazione del procedimento del riporto, fino ad allora eseguito dall’operatore. Questa tecnica rimane alla base di tutte le successive macchine calcolatrici meccaniche fino ai giorni nostri.

La pascalina è formata da una ruota a dieci denti per ogni ordine di grandezza; il meccanismo del riporto è costituito essenzialmente dalla presenza su ogni ruota di un dente capace di far eseguire uno scatto alla ruota successiva per ogni suo giro completo. Questo accorgimento inizia il processo di meccanizzazione dell’operare matematico che non si è ancora chiuso.

Lo stesso Pascal e Fermat, che abbiamo già ricordato, iniziano a sviluppare anche lo studio della [p. 204 modifica]probabilità: sono i prodromi della teoria dei giochi.

Gli studi matematici di quel secolo portano anche al primo abbozzo della futura teoria degli insiemi, e all’invenzione della notazione binaria. Quest’ultima fu descritta da Francis Bacon, che la considerava un metodo di codifica per messaggi segreti.

Codice binario di Bacone

A dire il vero, esisteva già, come abbiamo detto, un metodo per effettuare le moltiplicazioni messo a punto dagli egizi e poi diffusosi nel continente eurasiatico (“moltiplicazione del contadino”). Tale metodo si fonda sulla notazione binaria, ma la derivazione è comprensibile solo a posteriori e comunque nessuno aveva mai riflettuto sulle sue implicazioni.


10. La rivoluzione industriale

Non è casuale il fatto che il Seicento sia il secolo nel quale prende avvio la rivoluzione industriale: la serie sconfinata di problemi che essa comporta, sia sul piano socioeconomico che su quello organizzativo, ha riflessi immediati nella vita di tutti i giorni.

Per i proprietari degli opifici si trattava soprattutto [p. 205 modifica]di controllare e governare fonti di energia di dimensioni mai neppure immaginate, mentre nel sociale prendeva consistenza il problema di adattare il governo della società alle nuove dimensioni assunte dalla produzione e dallo scambio delle merci. Diventava pressante anche la richiesta di servizi che sostenessero questa produzione: strade capaci di reggere volumi di traffico enormi per l’epoca, città capaci di ospitare grandi concentrazioni di lavoratori, ecc.

Questo insieme di condizioni spiega la straordinaria ricchezza intellettuale del secolo, ben rappresentata in campo architettonico dell’imporsi di uno stile, il barocco, che aveva appunto i caratteri della ricchezza e dell’estrema libertà di concezione.

Il secolo successivo, il Settecento, è caratterizzato per contro da una notevole povertà di idee innovative: si operò essenzialmente per una sistematizzazione delle scoperte precedenti. Furono messe a punto molteplici realizzazioni tecniche e scientifiche, e una riorganizzazione del tessuto sociale.

Il Settecento fu il secolo delle grandi rivoluzioni borghesi, quella americana e quella francese, che posero le basi della struttura politico-economica dell’Occidente. Queste rivoluzioni possono anche essere lette come lo sforzo di adattare la distribuzione del potere politico alla nuova situazione socio-economica.


11. Saccheri e la geometria non-euclidea

Un esempio classico di questa esigenza di sistematizzazione e razionalizzazione nella ricerca di fondamenti sicuri e affidabili del sapere è il lavoro di Gerolamo Saccheri, che pubblicò, ultima tra le sue opere, Euclides ab omni naevo vindicatus, un lavoro nel quale si cerca di dimostrare la necessità logica del famoso “quinto postulato” di Euclide. La questione è nota: tutta la geometria di Euclide si basa [p. 206 modifica]su cinque postulati, dei quali i primi quattro sono “chiari ed evidenti”, mentre il quinto si presta a varie contestazioni. Molti studiosi per secoli avevano tentato di dimostrare la necessità di questo “scomodo” postulato, in modo da rendere inattaccabile l’opera del maestro.

L’originalità del lavoro di Saccheri consiste nell’aver intrapreso, primo fra tutti, una strada che avrebbe poi permesso di distruggere l’idea del valore assoluto della geometria di Euclide: egli tentò, cioè, una dimostrazione per assurdo, sviluppando una geometria nella quale il quinto postulato non fosse valido, nell’intento di trovarvi delle contraddizioni che gli consentissero di arrivare a dimostrarne l’inaccettabilità.

Purtroppo, dopo la validissima intuizione metodologica, il suo desiderio di reperire eventuali incoerenze lo portò, nonostante un lavoro di ricerca che egli stesso definì “diuturnum proelium contra hypotesim anguli acuti”, ad inventarsele lui stesso, e a concludere, in modo poco rigoroso, che l’ipotesi di partenza “ripugna alla natura della retta”.

Così la scoperta delle geometrie non euclidee fu rimandata di un secolo.

Nel Settecento si sviluppano ulteriormente le macchine derivate dalla pascalina; tra queste segnaliamo la calcolatrice di Leibniz, realizzata nel 1694, capace di eseguire, oltre a somme e sottrazioni, anche moltiplicazioni e divisioni.

Leibniz, contemporaneamente a Newton, ma indipendentemente da lui, sviluppò anche l’idea del calcolo infinitesimale, il quale rappresenta uno dei punti più alti di un’impostazione matematica collegata ad una concezione continua della realtà e dei numeri. Lo sviluppo di questa idea sarà di importanza fondamentale in tutti gli anni successivi, fino alla comparsa dei calcolatori.

Verso la fine del secolo, Laplace sviluppò gli studi di statistica e di teoria delle probabilità, grazie alle [p. 207 modifica]nuove macchine che rendevano molto più veloci e precise le operazioni di calcolo. Altro evento molto importante fu la messa a punto del sistema metrico decimale da parte di una commissione nominata dalla Repubblica francese: si verificò insomma un complessivo riordino concettuale.


12. Vaucanson e i contemporanei

Sul fronte delle macchine programmate abbiamo la costruzione degli automi di Vaucanson e, molto più importante anche se meno spettacolare, l’introduzione della programmazione nei telai delle manifatture francesi, anch’essa ad opera di Vaucanson. Ciò avviene mediante la trasformazione dei cilindri dentati, usati negli orologi e negli automi precedenti, in cilindri forati, capaci di muovere le leve che comandano il sollevarsi e l’abbassarsi dei fili della trama al passaggio della navetta.

Intanto, la produzione di automi prosegue. Fra tutti ricordiamo il famosissimo Turco scacchista, costruito a Vienna da Wolfgang von Kempelen nel 1790. Questo oggetto, proposto come un automa capace di giocare a scacchi, percorse le corti d’Europa in lungo e in largo misurandosi pure con Napoleone, e solo molto dopo la morte del suo costruttore fu smascherato come un imbroglio da Poe. Questa “macchina” raggiunse una fama tale da oscurare quella dei suoi contemporanei “onesti”; infatti, in questi anni furono costruiti molti automi capaci di scrivere, suonare strumenti vari e compiere movimenti diversi.

A dire il vero, fu proprio Vaucanson a iniziare la strada delle mistificazioni. La sua famosissima oca, un automa capace di simulare alla perfezione le movenze naturali dell’animale, conteneva un meccanismo che simulava l’ingestione e la digestione del cibo; tale meccanismo era un falso, in quanto i grani venivano [p. 208 modifica]raccolti in un serbatoio nascosto, mentre le “feci” provenivano da un altro serbatoio, altrettanto nascosto, preventivamente riempito.

Per completare la presentazione della figura di Vaucanson, va detto che egli vedeva il suo lavoro come una ricerca finalizzata alla comprensione del funzionamento del corpo umano. Egli cercava di ottenere prestazioni analoghe a quelle dell’organismo mediante procedure che sapeva essere diverse ma che permettevano comunque di allargare l’intendimento del fenomeno. Si tratta di un’impostazione paragonabile ai moderni studi di intelligenza artificiale, nei quali si tenta di far simulare ai calcolatori il comportamento intelligente, anche con l’impiego di metodologie che sono diverse da quelle di cui si serve il nostro cervello.

Si può pure ricordare che Vaucanson profuse somme enormi per cercare di ottenere del caucciù, sostanza di cui si era avuta notizia, allo scopo di riprodurre nei suoi automi le arterie. Il problema da risolvere era la mancanza di un materiale elastico con cui costruire dei tubicini che simulassero le prestazioni delle arterie, in modo da poter verificare se la pulsazione che si avvertiva in quelle periferiche, ad esempio nel polso, fosse dovuta solo al battito cardiaco o anche a contrazione propria dei vasi. Era questo un problema che appassionava la medicina e la fisiologia dell’epoca.

Sul fronte del principio della autoregolazione mediante retroazione, abbiamo la ricomparsa di meccanismi che sfruttano questa possibilità nella tecnologia dei mulini a vento: gli ingegneri inglesi del XVIII secolo approntarono un meccanismo in grado di regolare l’orientamento delle pale in base alla direzione del vento.

Esso si basa sull’esistenza di una girante minore disposta posteriormente e perpendicolarmente rispetto alla girante principale; questa girante secondaria veniva

mossa dal vento se questo non era orientato [p. 209 modifica]
Direzione mulini

direttamente su quella principale, e spostava tutto il complesso fino ad ottenere l’orientamento ottimale.

I mulini a vento, con la loro necessità di adattarsi a una fonte di energia che varia continuamente, hanno richiesto la scoperta di molte tecnologie di autoregolazione, per poter esimere il personale dal continuo controllo del meccanismo: dopo l’orientamento automatico, è venuta la regolazione della distanza tra le macine in base alla velocità di rotazione, ottenuta mediante l’utilizzo del getto d’aria prodotto da un ventilatore centrifugo solidale alle macine stesse; infine, la scoperta del pendolo centrifugo, impiegato per ottenere in maniera molto più precisa ed affidabile lo stesso risultato.

Il pendolo centrifugo fu inventato da Thomas Mead, che lo applicò ai mulini nel 1787, e poi copiato da Watt, che lo applicò al primo motore rotativo a vapore con funzionamento continuo, nel 1790, sempre con lo scopo di impedire che il motore girasse a una velocità tale da distruggersi. [p. 210 modifica]
Pendolo centrifugo

Questo strumento, illustrato nella figura, sfrutta la forza centrifuga prodotta dalla rotazione dell’albero su cui è fissato il pendolo. All’aumentare della velocità di rotazione, aumenta la forza centrifuga, e quindi l’allontanamento del pendolo dalla posizione di riposo: tale allontanamento viene sfruttato per comandare una valvola che chiude l’afflusso di vapore, mantenendo così costante il numero di giri del congegno.

È interessante notare che nello stesso periodo, tra il Sei e Settecento, l’Europa continentale e in particolare la Francia svilupparono lo studio degli automi programmati, mentre l’Inghilterra privilegiò lo studio dei meccanismi di autoregolazione. Alcuni autori spiegano ciò con la differente situazione politica, caratterizzata in Europa dalla nascita e dallo sviluppo delle monarchie assolute, e in Inghilterra dallo sviluppo della giovane democrazia. [p. 211 modifica]13. L’Ottocento: il boom delle calcolatrici

Nell’Ottocento prosegue lo sviluppo delle macchine calcolatrici e, tra i numerosi modelli, compare l’“aritmometro” del francese Charles Xavier Thomas de Colmar, che fu la prima macchina calcolatrice prodotta in serie, a partire dal 1820.

Tutte queste macchine hanno come fonte di energia l’operatore umano, che le muove utilizzando manovelle, pigiando tasti, ecc., fornendo così agli ingranaggi la spinta necessaria a compiere il loro lavoro.

Altra “macchina” che subisce un’evoluzione interessante è il regolo logaritmico. Esso era comparso nel Seicento, ma solo nel 1850 la ditta francese Tavernier-Gravet vi aggiunge per la prima volta il cursore, un rettangolo di vetro mobile recante incise alcune righe verticali, che facilitavano molto il passaggio da una scala all’altra nell’operazione di lettura dei risultati. Tale miglioramento rende il regolo molto più preciso e affidabile.

L’apparecchio sfruttava le possibilità concettuali offerte dai logaritmi. Tutta l’attività richiesta, infatti, si riduceva alla semplice somma o sottrazione delle lunghezze di due “asticelle”, sulle quali era riportata una scala logaritmica.

Il regolo si è dimostrato tanto efficace ed economico da imporsi come mezzo ideale per i calcoli approssimati, sopravvivendo fino a pochi decenni fa e diventando addirittura il simbolo stesso della professione ingegneristica.

Per scherzo si raccontava che qualche ingegnere avesse detto, dopo una rapida consultazione del regolo, che due per due faceva “circa” quattro. In tal modo si satireggiava innanzitutto l’abitudine di ricorrere alla macchina per eseguire operazioni anche semplici, e in secondo luogo si metteva in ridicolo una delle principali caratteristiche dello strumento: siccome il calcolo prevede la conversione logaritmica della [p. 212 modifica]grandezza data e la lettura del prodotto come giudizio soggettivo della posizione relativa dei regoli, i risultati ottenuti sono sempre più o meno approssimati: di qui l’esigenza di servirsi, a mo’ di precauzione, dell’avverbio “circa”.

Il regolo faceva invariabilmente parte del bagaglio dell’ingegnere, ma molto meno di quello del matematico. Infatti per applicazioni di precisione non era utilizzabile, mentre la sua leggerezza e trasportabilità lo rendeva strumento validissimo per chi doveva, magari in un cantiere di costruzione, eseguire rapidi calcoli per verificare applicazioni tecniche, ed era perciò interessato non al valore esatto, ma ad una accettabile approssimazione.

In questo secolo si sviluppano anche le tecniche del calcolo infinitesimale, applicate a vari casi pratici di misurazione di grandezze fisiche correlate alla nascente tecnologia della corrente elettrica. Tale impostazione analogica prevalse per tutto il secolo e per la prima metà del Novecento.

Altra branca della matematica che vive una fase di sviluppo concettuale molto importante è la statistica; essa si rivolge alle realtà “incerte”, e ai limiti di questa incertezza. Le nuove macchine da calcolo offrono la possibilità di effettuare quantità molto elevate di calcoli, con poco dispendio di lavoro e di energia rispetto al passato. Vengono perciò messi a punto metodi di analisi di grandi quantità di dati, che permettono di individuare l’andamento di fenomeni che erano rimasti assolutamente inesplorati fino a quel momento.

Babbage in Inghilterra costruisce una “macchina analitica” in grado di calcolare e stampare tavole di logaritmi. Essa, in quanto capace di eseguire un solo tipo di operazioni, rientra ancora nella categoria delle calcolatrici; sempre Babbage tenta successivamente, con finanziamenti dell’ammiragliato, la costruzione di una calcolatrice “programmabile” che riesca a [p. 213 modifica]calcolare le tavole delle efemeridi (tavole delle posizioni dei vari corpi celesti alle varie ore, nelle diverse date e alle varie latitudini); non riesce però ad andare oltre la costruzione di un modellino del suo “calcolatore a vapore”.

Nel 1887 l’ingegnere francese Bollée inventa il metodo per eseguire meccanicamente le moltiplicazioni senza ricorrere al metodo delle addizioni ripetute.

Basandosi su questa idea, lo svizzero Otto Steiger progetta e produce il Millionnaire, una macchina “portatile” lunga “solo” ottanta centimetri, larga trenta e profonda venti, del peso di alcune decine di chilogrammi, progettata per essere chiusa in una cassa apposita e risultare “facilmente” trasportabile. Questa macchina ebbe un largo successo commerciale: ne vennero venduti 4.600 esemplari.


14. La meccanizzazione della contabilità

Alla fine del secolo, per il censimento del 1890 negli USA, un certo ingegner Hollerith vinse un concorso indetto dal governo per la messa a punto di una serie di macchine atte a meccanizzare le varie fasi del censimento stesso. Questa decisione era stata presa perché i dati del precedente censimento, quello del 1880, avevano richiesto un lavoro settennale per essere elaborati manualmente, e nel frattempo si stimava che la popolazione fosse cresciuta in misura notevole.

Meccanismo ad aghi.

[p. 214 modifica] L’ingegner Hollerith presenta un pantografo per la

foratura delle schede (schede di cartone, aventi lo stesso formato di una banconota da un dollaro e capaci di contenere quaranta colonne, ognuna di dieci fori) e una sommatrice capace di leggere le schede forate e di eseguire automaticamente le quaranta somme necessarie. Queste sommatrici riprendono la tecnica dei telai di cui abbiamo già parlato, e che Babbage alcuni decenni prima aveva applicato alla sua macchina calcolatrice. Con queste macchine si riusci ad elaborare i risultati del censimento in un terzo del tempo impiegato dieci anni prima.

I problemi affrontati e risolti per l’ufficio del censimento da Hollerith si proponevano comunque a livello generale, in quanto lo sviluppo industriale aveva creato entità produttive che richiedevano l’elaborazione di dati e informazioni in quantità superiore alle capacità organizzative dei singoli impiegati.

Si formarono squadre di contabili preposti alla raccolta e alla conservazione delle informazioni. In questi anni, inoltre, comincia a porsi per le grandi industrie il problema di calcolare il costo complessivo degli articoli prodotti: non basta più sommare il costo della materia prima a quello della manodopera direttamente impiegata nella produzione, ma si profila la necessità di conteggiare i vari servizi: quello contabile, quello finanziario, il marketing, la pubblicità, ecc. Anche per la mano d’opera diretta, la complessità delle lavorazioni da eseguire rende difficile valutare l’apporto di ogni operaio ad ogni singolo elemento del prodotto globale.

Bisogna quindi rilevare separatamente il valore complessivo della produzione e dei costi, per poter risalire al valore di ogni pezzo. Cominciano così a porsi vari problemi di registrazione, codifica e conteggio delle varie parti del bilancio. Questo diventa anzi un aspetto essenziale per la sopravvivenza stessa delle aziende. [p. 215 modifica] Negli ultimi anni dell’Ottocento le macchine calcolatrici permettono di affrontare calcoli gestionali molto complicati, ma la complessità delle ditte e le loro necessità gestionali crescono in maniera più veloce, tanto che si formano uffici specifici (che poi diventeranno i centri meccanografici) per eseguire tutti i calcoli del caso. Nel Novecento, la disponibilità di motori elettrici a basso costo, minimo ingombro e facilmente alimentabili, favorisce la realizzazione delle calcolatrici elettromeccaniche: queste macchine sono concettualmente identiche alla pascalina, ma sono mosse da un motore elettrico che consente di eseguire un volume di conti molto più ampio e in più breve tempo. Esemplare classico di questo tipo di macchine è la Divisumma, ancora presente in molti uffici. L’ultimo passo avviene negli anni sessanta e settanta con la comparsa e la diffusione delle calcolatrici elettroniche, basate su princìpi che non coinvolgono più la meccanica.

Per la prima volta è la tecnologia delle calcolatrici ad andare a rimorchio di quella dei calcolatori: infatti, per la realizzazione di queste macchine era stato necessario mettere a punto meccanismi che, operando in codice binario e attraverso la presenza o no di una certa tensione su un conduttore, fossero capaci di eseguire calcoli in maniera molto veloce.

Altra caratteristica di questi dispositivi è la notevolissima compattezza e il bassissimo consumo energetico: diventa così possibile la miniaturizzazione delle calcolatrici, l’indipendenza dalla connessione alla rete elettrica – ottenuta con alimentazione a pile – e una potenza di calcolo ulteriormente estesa.

Queste nuove calcolatrici si diffondono a livello di massa: vengono usate dai bambini nelle scuole, dalle massaie al mercato, dai geometri, dagli ingegneri e dai tecnici, per i quali diventano il succedaneo naturale del regolo.

È ovvio che queste macchine compiono, oltre alle [p. 216 modifica]quattro operazioni fondamentali, anche potenze, radici, percentuali e tutta una serie di operazioni specialistiche. Alcuni fra i modelli più recenti e potenti sono anche programmabili, e sconfinano perciò nel mondo

dei calcolatori. [p. 217 modifica]

XIII. I CALCOLATORI






1. Le schede perforate

Siamo così arrivati alla parte terminale della nostra storia: essa vede la nascita e l’affermazione dei calcolatori, nonché le più recenti evoluzioni del pensiero matematico e delle capacità gestionali, operative, di comprensione e di governo della realtà attuale.

I calcolatori costituiscono un ramo evolutivo che si separa da quello delle calcolatrici nel momento in cui ad alcune di esse viene aggiunta la possibilità di eseguire non solo calcoli, ma anche sequenze programmabili di calcoli, secondo un programma che può variare di volta in volta.

Come si vede, si tratta di un percorso logico, iniziato con la pascalina e consistente nel realizzare macchine che non solo supportino l’agire dell’operatore umano, ma che lo sostituiscano in alcune fasi della sua attività. La sostituzione avviene in quelle parti di lavoro che sono particolarmente ripetitive e meccaniche.

Fin dai primi passi, questa è una storia formata a sua volta dall’intersezione di varie linee di sviluppo complementari tra di loro: l’evoluzione delle macchine vere e proprie, quella dei loro componenti tecnici, la storia degli strumenti concettuali capaci di facilitare il colloquio tra programmatori e macchine, la storia [p. 218 modifica]delle idee che sono state necessarie alla costruzione delle macchine, ma anche quella delle idee che dalle macchine sono derivate; si tratta di un groviglio abbastanza complesso, che coinvolge anche lo sviluppo dell’ambiente sociale, economico e tecnologico circostante.

Vista l’ampiezza e la complessità del quadro, rinunciamo fin da ora a una pretesa di completezza. Nell’esposizione della materia cercheremo di fornire una quantità di elementi sufficienti a dare un’immagine non distorta del processo in atto.

Partiamo dall’esterno dell’ambito prettamente matematico: nel 1804 Jacquard presenta la sua macchina tessitrice, comandata da schede perforate di cui abbiamo già parlato e presentato le origini. Lo scopo consiste nel migliorare sensibilmente le prestazioni del telaio a rulli perforati, introdotto da Vaucanson intorno al 1750, sostituendo alla superficie fissa e difficilmente modificabile del rullo una serie di schede perforate, ognuna delle quali contiene una parte del disegno: a questo punto, basta comporre in modo differente le stesse schede per ottenere figure diverse. Le sequenze di schede per telaio costituiscono un vero e proprio “programma”: la collocazione dei punti di diversi colori è determinata in maniera inequivocabile dalla posizione delle perforazioni che si trovano sulle schede.

Alcuni decenni più tardi, l’idea di utilizzare le schede perforate per comandare una sequenza determinata di azioni viene applicata alla tecnologia musicale con la costruzione delle pianole. In queste macchine, la successione delle schede produce una successione di note che costituisce la melodia desiderata.


2. Babbage e la macchina programmabile

In campo direttamente matematico, i primi passi [p. 219 modifica]risalgono al 1812 con le intuizioni, già ricordate, di Babbage: questi, oltre alla già citata macchina analitica, tentò di costruire una macchina che potesse fare automaticamente molti tipi diversi di calcoli: la macchina “differenziale”. Per realizzarla mise a punto molte idee fondamentali: l’idea del programma inteso come sequenza di istruzioni eseguibili, l’idea dell’utilizzo delle schede perforate come strumento per ottenere un flusso abbastanza veloce di informazioni, l’idea di un’articolazione della macchina in unità separate funzionalmente e operativamente, ecc. Partendo dallo schema da lui elaborato, lady Ada Byron, figlia del noto poeta, scrisse il primo programma per macchina da calcolo della storia: una sequenza di numeri che avrebbe permesso al futuro “calcolatore a vapore” di stabilire la serie dei numeri primi.

Purtroppo, Babbage non riuscì a realizzare la sua macchina e le sue intuizioni hanno unicamente un valore storico; più fortunato fu lord Kelvin, che, nell’ambito poliedrico delle sue attività, realizzò anche un calcolatore analogico capace di prevedere l’andamento delle maree.


3. Analogico e digitale

La distinzione tra calcolo analogico e digitale è piuttosto importante e va sottolineata: nel calcolo digitale si effettua la trasformazione in numero della grandezza considerata, e poi si opera sui numeri ottenuti; il metodo analogico, invece, prevede che si trovi una grandezza che si comporta in modo analogo a quella da analizzare, e che le operazioni vengano effettuate su questa senza ricorrere alla trasformazione numerica, se non alla fine, in fase di lettura del risultato.

Un orologio a lancette è un misuratore analogico del tempo, in quanto fornisce informazioni su un fenomeno, lo scorrere del tempo, attraverso operazioni [p. 220 modifica]effettuate su una grandezza “analoga”: il movimento di alcune lancette; è l’analogia tra i due fenomeni che ci permette di dedurre il valore della variabile tempo dalla posizione delle lancette sul quadrante.

Digitali sono invece quegli orologi, diffusi al momento attuale, che mostrano direttamente un numero, il quale già ci dice il valore della variabile tempo in quell’istante: ad esempio, se leggiamo 14:45 sappiamo che sono le ore quattordici e quarantacinque minuti primi.

La differenza tra i due modi di rappresentare la realtà è molto importante: in un caso si privilegiano l’aspetto continuo e le relazioni interne alla variabile considerata. Ad esempio, per indicare le quattordici e quarantacinque alcuni anni fa nessuno avrebbe mai usato questa espressione, ma tutti avrebbero detto “sono le tre meno un quarto”.

L’impostazione digitale privilegia invece la frammentazione del fenomeno in una serie di eventi separati, e le corrispondenze con realtà generali esterne al fenomeno considerato. Si utilizza, cioè, il linguaggio dei numeri, che è indifferentemente applicabile a qualsiasi fenomeno e che, quando è espresso, non può che assumere forma discontinua.

L’affermazione della tecnologia digitale su quella analogica, nei nostri giorni, sta già avendo effetti sul piano culturale: la progressiva riduzione della presenza nel linguaggio di espressioni come “sei meno venti” o “tre pomeridiane”, a favore di quelle formalmente equivalenti “cinque e quaranta” e “quindici”, è direttamente legata alla progressiva scomparsa degli orologi analogici, sostituiti da quelli digitali.


4. L’Ottocento

Nel campo delle telecomunicazioni si affermano i [p. 221 modifica]telegrafi: l’inventore Baudot mette a punto un sistema automatico di codifica e decodifica che utilizza una forma di notazione binaria gestita elettricamente. Si inaugura così il rapporto notazione binaria-comunicazione elettrica, che è tuttora fondamentale nella tecnologia della gestione delle informazioni.

Alcuni anni più tardi compaiono i primi relais e le prime valvole termoioniche, basate sul cosiddetto effetto Edison.

Verso la fine dell’Ottocento (1890), Hermann Hollerith costruisce le sue tabulatrici, che, pur rimanendo nel campo delle macchine calcolatrici, assolutamente non programmabili, segnano l’inizio di un’era di meccanizzazione tanto massiccia dell’attività di calcolo, da risultare premessa indispensabile alla futura evoluzione verso le macchine programmabili.

Negli stessi anni compaiono i primi motori a scoppio, che permettono la costruzione di veicoli a motore; viene così dato un impulso incredibile alla produzione industriale. Questa viene favorita non solo dall’apertura di un mercato nuovo, ma anche dalla comparsa di una nuova fonte di energia per il funzionamento delle macchine nelle officine.

I motori a scoppio contengono un albero a camme che comanda l’apertura delle valvole di alimentazione e scarico dei cilindri: anche questa è una sequenza “programmata” di azioni che devono svolgersi in sincronismo con il movimento dei pistoni. Gli alberi a camme che controllano questa sequenza sono un’evoluzione dei cilindri dentati.

Abbiamo anche lo sviluppo di un gran numero di strumenti di misurazione analogici: vengono messi a punto manometri e misuratori elettrici che permettono, con l’uso di opportuni trasduttori e scale di lettura, di ottenere misurazioni analogiche di moltissimi fenomeni.

Nel linguaggio popolare, spesso, questi diversi misuratori venivano chiamati “orologi”: anch’essi, [p. 222 modifica]infatti, posseggono lancette e quadranti.

Sempre nell’Ottocento, la tecnologia della riproduzione di informazioni, fino ad allora limitata alla stampa di testi e figure, fa un incredibile passo in avanti con la creazione di macchine fotografiche che permettono, attraverso un processo fotochimico, la produzione a basso costo di immagini. Successivamente, lo sviluppo delle conoscenze legate alla corrente elettrica consente la realizzazione di fonografi a cilindro e a disco, e del telefono.

Sul piano delle evoluzioni teoriche, l’Ottocento vede l’elaborazione dell’algebra di Boole o logica formale, che fornisce una base matematica alla trattazione degli enunciati logici.

Si afferma inoltre una linea di approccio che viene chiamata riduzionismo, in quanto tende a riunificare le varie branche della matematica spiegando l’una in base all’altra: l’inizio di questa evoluzione si può ricondurre alla nascita della geometria analitica, che riunifica la geometria e l’algebra. Ma sono ancora di questi anni i tentativi di riportare la teoria dei numeri all’insiemistica, e così via.


5. Il Novecento

Nella prima parte del Novecento si sviluppa ulteriormente in matematica il filone della ricerca riduzionista, che finalmente, nel lavoro di B. Russell, acquista il respiro onnicomprensivo che nell’Ottocento era rimasto implicito: il lavoro del logico inglese porta alla scoperta di alcune contraddizioni fondamentali nella teoria degli insiemi, tanto che tutto l’edificio del lavoro riduzionista sembra crollare. In seguito, K. Gödel, uno studioso austriaco, arriva a dimostrare l’impossibilità di costruire un sistema formale di assiomi per i numeri naturali, che goda delle caratteristiche di completezza richieste. La dimostrazione di Gödel viene [p. 223 modifica]efficacemente sintetizzata da D.R. Hofstader: “Tutte le assiomatizzazioni coerenti della aritmetica contengono proposizioni indecidibili” (Gödel, Escher, Bach, Adelphi, 1985, pag. 18).

Dal lavoro di Gödel scaturisce una serie di ricerche che portano, intorno al 1936, alla definizione rigorosa di operazione effettivamente eseguibile: vedremo più avanti come questa definizione sia stata uno strumento concettuale importantissimo nello sviluppo della teoria legata agli elaboratori.

Contemporaneamente, abbiamo la realizzazione del primo circuito di “flip-flop”: una forma di circuito essenziale per la costruzione di memorie. Oltre a ciò, si sviluppa in maniera impetuosa la tecnologia della comunicazione, telefonica e radiofonica.

Comincia a profilarsi la possibilità della comunicazione elettronica. Fino alla scoperta della stampa, la comunicazione tra le persone era affidata essenzialmente all’incontro diretto. Benché i potenti si avvalessero anche della scrittura per comunicare, questo canale era tuttavia sfruttato in modo alquanto ridotto. In quell’epoca era invece essenziale la raffigurazione di messaggi in luoghi aperti al pubblico, con finalità di carattere politico-celebrativo.

Per quanto riguarda le comunicazioni veloci, si ricorreva a metodi imprecisi come i segnali di fumo, i fuochi notturni e così via, oppure, se il testo possedeva una maggiore complessità, ci si serviva di messaggeri, che dovevano colmare materialmente la distanza tra emittente e destinatario.

La stampa a caratteri mobili consentì di produrre a basso costo enormi quantità di testi scritti, il che incrementò i contenuti della comunicazione, ma non la sua velocità: nel romanzo Il conte di Montecristo, Dumas descrive un sistema di telegrafia che avrebbe potuto benissimo essere gestito dagli antichi Romani.

È solo con l’Ottocento che la velocità di trasmissione dei messaggi compie il salto di qualità che [p. 224 modifica]l’arricchisce di strumenti veloci e versatili come quelli conosciuti oggi. Si può dire che oggi la comunicazione interpersonale diretta, nella quale emittente e ricevente si vedono in faccia e possono toccarsi, sia ridotta al minimo. Non è detto che sia un bene e non è chiaro come ciò influisca sulla nostra psiche, ma è così.

In questo ambito di invenzioni legate alle telecomunicazioni, nasce la telefotografia: il primo procedimento che permette di trasformare una figura in una sequenza di impulsi elettronici trasmissibili via cavo.

Sempre all’inizio del secolo compaiono e si diffondono i motori elettrici che, come i precedenti motori a scoppio, consentono la realizzazione di tutta una serie di oggetti, come ad esempio gli elettrodomestici. Nelle officine ogni macchina ha ora la sua fonte di energia: non c’è più bisogno delle pericolose e ingombranti cinghie di trasmissione.

Questa trasformazione si riflette sull’architettura stessa dei luoghi di lavoro, che possono assumere configurazioni più distese, le quali, a loro volta, rendono possibili trasporti interni di materiale semilavorato e di personale.

Nel 1911 Taylor pubblica il suo testo fondamentale sulla parcellizzazione del lavoro. Negli anni successivi, nascono le catene di montaggio, grazie alle nuove tecnologie.

Al di là del giudizio che si può dare sul fatto che questo processo sia stato pagato in termini di condizioni di vita e di lavoro da parte delle maestranze addette all’attività produttiva, e dalle colonie sottoposte ad un rapporto imperialistico finalizzato alla fornitura delle materie prime all’industria in continua espansione, è certo che questo insieme di fenomeni ha costruito un mondo nel quale la disponibilità di prodotti cresce in misura inimmaginabile. Questa crescita è stata accompagnata dall’incremento della popolazione umana e della complessità dei fenomeni economici, tecnologici e sociali in atto. La risposta a questa [p. 225 modifica]accresciuta complessità non può che essere un’accresciuta capacità di comprensione ottenibile anche attraverso una maggiore capacità di elaborazione matematica.

Nel 1931 Vannevar Bush costruisce all’MIT il primo grande calcolatore analogico moderno. Questo tipo di macchine, però, si diffonde poco: alcuni anni più tardi compaiono i calcolatori digitali; e il governo degli Stati Uniti, attraverso le sue forze armate, e le ditte cointeressate alla ricerca decidono di gettare tutte le loro risorse sulla seconda impostazione.

Questa scelta fondamentale, che ha avuto un’influenza determinante sulla successiva storia dell’umanità, non è riportabile al giudizio popolare o a quello dei politici del momento: i necessari passi chiave, infatti, furono compiuti dai vertici delle forze armate e da alcune ditte statunitensi.

Gli strumenti di elaborazione precedenti a questa grande rivoluzione erano essenzialmente supporti capaci di memorizzare in vario modo le fasi dell’attività di calcolo, e di facilitarne i diversi aspetti; l’operatore rimaneva comunque colui che determinava la sequenza delle operazioni.

Le macchine matematiche successive, che sono la maggiore richiesta di potere di elaborazione, sono passate, all’inizio, per una fase che le vedeva in grado di eseguire autonomamente calcoli, anche complessi, e ora si affacciano a un livello di “capacità” superiore. Stanno per essere meccanizzate delle sequenze programmabili di calcoli.


6. La programmabilità

Il periodo cruciale per la nostra storia è la seconda guerra mondiale, quando i contendenti danno il massimo per realizzare strumenti che eseguano in maniera rapida ed efficace i calcoli richiesti dallo sforzo bellico: calcolo delle traiettorie di proiettili di vario tipo, [p. 226 modifica] massiccia ricerca scientifica e tecnologica tesa a realizzare armi sempre più potenti, attività di decrittazione dei messaggi del nemico, ecc.

In Germania un ingegnere, Konrad Zuse, realizzò tra gli anni 1935 e 1945 diverse versioni di un calcolatore programmabile a relais, ma il suo lavoro fu prima impedito e poi bloccato dalle vicende della guerra, tanto che non ebbe sviluppi di rilievo.

Nel campo avverso, invece, i risultati principali furono raggiunti negli Stati Uniti, ma la ricerca che portò al risultato finale ebbe inizio qualche anno prima. Nel 1927 Ben Wood, professore di psicologia alla Columbia University, attese alla preparazione di una macchina che raccogliesse ed elaborasse automaticamente i risultati dei test. Da questi studi nacque il “TEST SCORER 805”, una macchina capace di eseguire una certa sequenza di operazioni. Proseguendo lungo questa direzione di studi, verso la metà degli anni trenta un gruppo di scienziati coordinati da Wallace Eckert, dell’Astronomical Computing Bureau “Thomas Watson”, si servì di macchine tabulatrici per eseguire i calcoli necessari agli studi astronomici. Queste macchine, tuttavia, erano incapaci di risolvere più di un problema per volta.

È di questi anni la massima diffusione nelle varie ditte di uffici meccanografici, nei quali “plotoni” di impiegati compiono i calcoli necessari alla conoscenza dello stato della produzione, dell’andamento delle vendite, ecc.

Nel 1944 Howard H. Aiken, dell’Università di Harvard, produce il primo calcolatore aritmetico universale, collegando in serie tra di loro 78 calcolatrici a relais: nel complesso, la macchina contiene 3300 relais: il suo nome è MARK 1.

Prima della guerra, il professor John Atanassoff, dello Iowa State College, aveva progettato un calcolatore basato sull’uso di valvole termoioniche, ma non aveva avuto i mezzi per realizzare le sue idee. John [p. 227 modifica]Mauchly, ex collaboratore di Eckert, impiegato presso la Moore School, venuto a conoscenza del progetto, lo realizzò con i fondi dell’esercito, così nel 1946 entrò in opera “ENIAC” (Electronic Numerical Integrator And Calculator).

A dire il vero, la programmabilità di “ENIAC” era alquanto limitata, e così pure le sue capacità di memoria, ma comunque si trattava di uno strumento funzionante. Esso operò in un primo tempo presso la scuola di ingegneria elettronica dell’Università di Pennsylvania, e poi fu trasferito al Centro Studi Balistici dell’esercito ad Aberdeen. Occupava una superficie di centottanta metri quadrati, e pesava circa trenta tonnellate.

Nel 1945, lo scienziato di origine ungherese John von Neumann, che operava presso l’MIT nell’ambito to degli studi relativi alla realizzazione di bombe atomiche, inizia a progettare un nuovo calcolatore: la macchina di von Neumann riceveva il programma come serie di istruzioni che memorizzava in un settore “libero” della sua memoria, quindi una “unità di governo” leggeva sequenzialmente la serie e procedeva all’esecuzione dei vari passi, prelevando i dati da altre zone opportune della memoria stessa.

Il fatto che il programma fosse memorizzato sotto forma di numeri permetteva che la sequenza variasse in base ai risultati intermedi dell’elaborazione in corso, e questa è una possibilità fondamentale che segna il passaggio dal calcolatore all’elaboratore.

Il calcolatore realizzato sulla base delle idee di von Neumann, lo “EDVAC”, entra in funzione nel 1951 al Centro Studi Avanzati dell’Università di Princeton, e dispone di una quantità di memoria dell’ordine di grandezza del centinaio di locazioni.

Le idee su cui era basato l’“EDVAC” si sono affermate e hanno segnato tutto lo sviluppo della tecnologia dei calcolatori fino ai giorni nostri. È infatti solo negli ultimi anni che nei supercalcolatori si sta [p. 228 modifica]mettendo a punto un’architettura differente, basata non più sulla unicità della sequenza da eseguire, ma piuttosto su un parallelismo di azione tra diverse unità logiche.

Il primo grosso passo avanti fu la nascita delle memorie a nuclei magnetici, che sostituirono le valvole termoioniche. Divenne così possibile dotare le macchine di quantità di memoria molto più alte, intorno alle migliaia di locazioni.

Il secondo passo fu la comparsa dei transistor che, verso la fine degli anni sessanta, hanno sostituito le valvole termoioniche nella funzione di organi di elaborazione e calcolo; anche questi componenti sono molto più piccoli, affidabili ed economici, per cui hanno permesso un ulteriore passo in avanti.

La sostituzione delle valvole era un’esigenza fondamentale perché queste offrivano sì prestazioni buone, ma a costi altissimi e con una frequenza di guasti assolutamente insostenibile.

Dai transistor si passò naturalmente ai circuiti integrati, fino a che nel 1974 il fisico italiano Faggin, che operava in America per la Intel, mise a punto un circuito integrato che conteneva tutta la struttura di un elaboratore in un unico chip, portando quindi le dimensioni, il costo e l’affidabilità della macchina ad un livello tale da permetterne la produzione in serie con costi molto bassi.

Già cinquemila anni fa la strada della tecnologia matematica si era incrociata con il silicio. L’argilla, di cui erano costituiti i calculi dei Sumeri, ha come elemento principale proprio il silicio, e i nostri antenati la trattavano mantenendola in forma amorfa. Oggi, la costruzione dei circuiti integrati consiste proprio nell’ottenere opportune cristallizzazioni di silicio.

I circuiti integrati hanno permesso anche la costruzione di memorie dell’ordine prima delle decine di migliaia, poi delle centinaia e attualmente dei milioni di locazioni, a costi trascurabili. [p. 229 modifica]Dobbiamo ricordare che gli anni sessanta videro la diffusione generalizzata della televisione in bianco e nero e la nascita di quella a colori; comparve la registrazione magnetica; le automobili si imposero come mezzo di trasporto a livello di massa; gli elettrodomestici (lavatrici e frigoriferi) divennero un bene indispensabile; in quegli anni si ebbe poi la corsa allo spazio con il programma “Apollo”. Furono insomma anni di grande espansione economica. La popolazione mondiale passò dai tre ai quattro miliardi di individui.

Questi sviluppi della tecnica hanno rivoluzionato la possibilità di far entrare i dati nelle macchine e di ottenerne risultati. Sono state create unità stampanti capaci di scrivere i risultati direttamente in forma decimale su carta, senza passare attraverso la fase delle schede perforate; si è potuta utilizzare una tastiera dattilografica come unità per l’immissione diretta di dati e istruzioni, è diventato reale ed economico l’uso del tubo a raggi catodici, come strumento per indirizzare messaggi all’utente, ma soprattutto si sono potuti impiegare nastri e dischi magnetici.

Le unità magnetiche permettono di immagazzinare dati e programmi in forma molto stabile, economica, facilmente e rapidamente accessibile al calcolatore. La validità di tale forma di ingresso-uscita di informazioni è così accentuata da consentire addirittura lo sviluppo di queste unità come memorie accessorie per la macchina durante la fase di elaborazione. Si inizia a parlare di memorie “di massa”.

Oggi, la diminuzione dei costi e delle dimensioni degli elaboratori e l’aumento di potenza ottenuti in questi quarant’anni di sviluppo esprimono un tasso di perfezione inconfrontabile con alcun’altra tecnologia nella storia dell’umanità. Si pensi, ad esempio, che attualmente si trovano in commercio, a un prezzo che può arrivare alle centomila lire, macchine di gran lunga più potenti di “ENIAC”, costato a suo tempo alcuni milioni di dollari. [p. 230 modifica]Analogamente, si è passati dai centottanta metri quadrati di “ENIAC” a pochi decimetri quadrati, raggiungendo una riduzione valutabile intorno ai cinque ordini di grandezza.

Per la potenza, se ci limitiamo alla velocità di calcolo, l’incremento è “solo” di tre o quattro ordini di grandezza, a seconda delle macchine, ma l’incremento reale è molto maggiore per la migliorata possibilità di colloquio tra utente e computer, per la superiore complessità delle macchine e per la grande facilità di accesso ai dati necessari alle elaborazioni.

I fantastici miglioramenti ottenuti sono legati al fatto che in questo settore è stata investita, in ricercabase e applicativa, una quantità di capitali che non ha paragoni nella storia dell’umanità intera.

Infatti, l’enorme vastità di applicazioni di queste macchine ha fatto sì che sostanziose quote degli investimenti destinati, per esempio, alla conquista dello spazio o alla ricerca nucleare o ad altri settori ancora fossero in pratica rivolte alla produzione di calcolatori e programmi sempre più perfezionati. Il fatto che tale tecnologia fosse già in fase di avanzata espansione, ha funto poi da agente catalizzatore di tutti gli sforzi ed energie disponibili.

Oggi, la tecnologia digitale di elaborazione sequenziale ha invaso anche campi nei quali si erano affermate impostazioni differenti, come il settore della riproduzione musicale, della misurazione, ecc., fino a pochi anni fa appannaggio esclusivo di una tecnologia analogica.

Bisogna comunque ricordare che il prevalere di un certo orientamento cognitivo e organizzativo presenta anche dei limiti, oltre ad innegabili vantaggi: viene cioè inibito lo sviluppo di altri approcci ugualmente possibili.

In senso più ampio, il tutto si potrebbe configurare come una perdita globale di potenzialità, più consistente dell’effettivo guadagno ottenuto. [p. 231 modifica]tuttavia, come vedremo in seguito, gli ultimissimi anni hanno decretato il rilancio su solide basi dell’architettura parallela.


7. Il soft-ware

Per quanto riguarda i programmi, abbiamo, nei primi anni cinquanta, la comparsa dei linguaggi di programmazione simbolica, che consentono al programmatore di utilizzare dei simboli per indicare le diverse operazioni, e non più dei numeri. Questo è il primo passo della lunga marcia verso la chiarezza nella scrittura dei programmi. Questi ultimi cominciano ad assumere una veste nella quale si distinguono gli ordini dagli indirizzi e dai dati. Per chiarire quello di cui stiamo parlando, bisogna dare alcune nozioni sulla struttura di un elaboratore: esso è composto da una unità di governo che legge un programma residente in memoria, dalla memoria recupera i dati su cui operare, e nella memoria scrive i risultati che ottiene.

La memoria è quindi una specie di agenda, all’interno della quale le singole pagine, dette “locazioni”, sono indirizzate: gli indirizzi delle varie locazioni sono dei numeri, perciò avremo la locazione 1, 2, ecc.

L’unità di governo saprà allora che il programma è memorizzato, ad esempio, nelle locazioni da 0 a 123, che i dati si trovano da 124 a 200, e che i risultati possono essere scritti da 201 in poi.

Il programma, nella forma iniziale, era costituito da un gruppo di numeri che indicavano le operazioni da svolgere, un altro gruppo di numeri che indicavano gli indirizzi da utilizzare e un terzo gruppo di numeri che svolgevano il ruolo di dati da elaborare e fornivano un quarto gruppo di numeri in qualità di risultati. Ovviamente, una struttura del genere è assolutamente impenetrabile alla maggioranza delle persone. Era inoltre praticamente impossibile, a una persona [p. 232 modifica]diversa dall’autore, interpretare il significato della serie di numeri, che, dulcis in fundo, andavano scritti in notazione binaria.

La possibilità di sostituire questi numeri con segni convenzionali ha costituito una vera panacea. È aumentato cosi il numero di persone in grado di programmare un elaboratore.

Questo passo avanti è stato possibile perché si sono realizzati programmi che trasformavano i simboli ricevuti nei corrispettivi numerici. Nel 1966, comparve sul mercato il primo elaboratore che poteva trovare posto su una scrivania, il “PROGRAMMA 101”: questa macchina, che oggi giudicheremmo molto semplice e limitata, ma che ha dominato il mercato per diversi anni, poteva essere programmata in linguaggio SYMBOL o ASSEMBLER. I compratori imparavano il linguaggio con corsi di tre o quattro giorni.

Nove anni prima, nel 1957, era comparso il linguaggio FORTRAN, il primo linguaggio di “alto livello” che permette di scrivere programmi utilizzando una simbologia molto simile a quella algebrica. Questa sequenza di istruzioni formali viene poi “tradotta” in ASSEMBLER da un programma “compilatore”, il che segna il secondo passo importante nella storia della capacità di colloquiare tra utenti ed elaboratori.

La comparsa di FORTRAN, di cui si sono viste parecchie versioni fino a quella diffusa attualmente, FORTRAN 77, apre la strada alla nascita di una serie numerosissima di linguaggi di programmazione destinati a vari utilizzi. Oggi se ne contano intorno ai 1500 solo negli USA, mentre anche in Europa ne sono stati messi a punto varie decine.

All’inizio degli anni sessanta sono stati elaborati e si sono imposti linguaggi che riportavano allo schema logico della macchina, linguaggi che privilegiavano la programmazione sequenziale, cioè un’impostazione basata sulla frammentazione del problema da risolvere in una serie di operazioni elementari, la cui esecuzione [p. 233 modifica]in sequenza porta alla soluzione; oltre al FORTRAN, appartengono a questa stessa categoria il BASIC, un linguaggio destinato ai principianti di cui avremo modo di riparlare, il COBOL, un linguaggio destinato ad applicazioni commerciali, e moltissimi altri.

In collegamento con la pratica di programmazione di questi linguaggi, raggiunse il massimo livello di formalizzazione l’uso dei diagrammi di flusso, un modo di analizzare in maniera schematica la traccia di ciò che si vuole realizzare. Si arrivava così alla stesura vera e propria del programma avendo già risolto tutti i problemi logici e dovendosi occupare essenzialmente della traduzione formale; alla realizzazione di questi schemi è legata la nascita della figura professionale dell’analista.

Dalle dita al calcolatore fig 106.jpg
Diagramma di flusso

[p. 234 modifica]

La crescente complessità dei problemi che si stavano affrontando e la necessità di migliorare la comprensibilità dei listati portarono alla nascita della programmazione strutturata, un nuovo modo di concepire i programmi. In sostituzione dell’impostazione sequenziale, viene ora privilegiata un’analisi ramificata, che permette notevoli semplificazioni logiche del lavoro, ma soprattutto fornisce uno strumento di analisi molto più versatile e adattabile alle diverse esigenze.

Dalle dita al calcolatore fig 107.jpg
Diagramma ad albero.

Questa nuova impostazione portò allo sviluppo di diagrammi ad albero, ma anche alla creazione di una serie di linguaggi di programmazione pensati proprio in vista dell’utilizzo di questo metodo. Tra di essi ricordiamo il PASCAL, scritto nel 1971 dallo svizzero Nicolaus Wirt e da cui si sviluppò il LOGO, un linguaggio destinato a usi didattici, ma anche molto valido in applicazioni di intelligenza artificiale. LOGO fu scritto intorno al 1980 dal gruppo dell’MIT guidato da Seymour Papert. Questo linguaggio mette a disposizione dell’utente anche un ambiente grafico nel quale si può operare con la cosiddetta “geometria della tartaruga”, di cui parleremo più avanti.

È interessante notare come attualmente anche l’hard-ware delle macchine stia avviandosi a superare la concezione seriale impostasi con von Neumann, per [p. 235 modifica]iniziare lo sviluppo di architetture cosiddette parallele. Queste sono basate sulla disponibilità di più unità di elaborazione, capaci di intervenire contemporaneamente su parti diverse del problema, con notevole guadagno di tempo.

È significativo che tra le antesignane di questa impostazione abbiano un posto importante le macchine per videogiochi: esse debbono gestire contemporaneamente l’evolversi delle situazioni di gioco, le immagini e le musiche, e hanno quindi esigenze di elaborazione abbastanza sofisticate. Nella stessa direzione vanno, con molta più autorevolezza, gli studi sull’intelligenza artificiale, nei quali si cerca di disporre di strutture parallele per simulare quelle della mente umana.

Già nell’agosto 1987 la rivista Le scienze descrive, in un articolo a firma di W.O. Hillis, un modello di calcolatore parallelo, la “CONNECTION MACHINE”, costituita da 65.536 unità di elaborazione. Questa macchina potrà essere impiegata in compiti che prevedono il controllo di molti eventi simultanei, interagenti tra di loro ma essenzialmente individuali.


8. I personal e il soft-ware applicativo

La disponibilità di un intero elaboratore su un solo circuito integrato, raggiunta come abbiamo detto nel 1974, consente nello stesso anno la pubblicazione su una rivista dell’idea di un appassionato per la costruzione di un computer casalingo; l’anno successivo viene presentato, su un’altra rivista, un computer da costruire in kit, l’“ALTAIR 2000”, che costava solo 650 dollari. Finalmente nel 1976 due giovani, S. Wozniac e S. Jobs, mettono in commercio il primo calcolatore della categoria personal della storia. La seconda versione della stessa macchina raggiunge, negli anni successivi, una diffusione di massa misurabile in milioni di esemplari in tutto il mondo. [p. 236 modifica]

Fin dall’inizio, i personal computer hanno basato la loro forza sull’esistenza di un linguaggio di programmazione, il BASIC, destinato ai principianti e particolarmente facile da apprendersi. Questo linguaggio era comparso nel 1965 in una versione molto povera, ma fu ripreso e sviluppato successivamente da molte case di soft-ware, tanto che attualmente esistono decine di “dialetti” dalle potenzialità molto varie. Comunque il BASIC, nelle sue differenti versioni, ha condiviso e sostenuto il successo dei personal computer, perché fornisce uno strumento facile per scrivere programmi anche di un certo impegno.

In ogni modo la situazione si è evoluta in maniera tale da rendere abbastanza ininfluente la diffusione di un linguaggio piuttosto di un altro. All’inizio degli anni ottanta, comincia ad apparire una serie di programmi capaci di risolvere non più un certo problema, ma tutta una categoria di problemi. Ci riferiamo a programmi del tipo office automation.

Tra questi vi sono:

— i word-processor, programmi che si occupano dei problemi di scrittura, dalla realizzazione di una stampa perfetta sul piano formale, alla correzione ortografica dei testi, ecc.;

— i data-base, programmi che gestiscono in maniera molto valida tutte le attività di archiviazione: dagli indirizzari, alla contabilità, ai cataloghi del magazzino, ecc.;

— i fogli elettronici, capaci di gestire tutte le situazioni rappresentabili con relazioni matematiche, come i bilanci consuntivi e preventivi o il calcolo degli interessi;

— infine i programmi di business-grafic, che realizzano rappresentazioni grafiche sotto forma di istogrammi, diagrammi a torta, ecc., da insiemi di dati.

I programmi di office automation risolvono quasi tutte le necessità di un operatore e lo sollevano dal [p. 237 modifica]bisogno di scriversi i propri programmi: gli basta personalizzare questi prodotti generali, adattandoli alle sue esigenze. Dato che i vari programmi finiscono per equivalersi sul piano della funzionalità, le successive versioni spostano la concorrenza sul piano della sempre maggiore facilità di apprendimento.

Un passo ulteriore è stato realizzato dalla comparsa di prodotti che integrano le varie funzionalità, descritte in precedenza, in un pacchetto unico. Questo permette all’operatore di accedere, dopo aver steso il testo di una lettera, all’archivio dati per recuperare informazioni quantitative; successivamente è possibile passare al foglio elettronico per elaborare i dati e mettere a punto tabelle illustrative, quindi utilizzare la parte grafica per denotare meglio il contenuto delle tabelle, e infine accedere all’archivio indirizzi per far scrivere copie personalizzate del tutto.

Oltre che per il lavoro di ufficio, sono stati realizzati programmi analoghi per l’utilizzo dell’elaboratore in campo musicale, in campo grafico e nel settore hobbistico.

Un settore particolarmente interessante sviluppatosi di recente è quello della telematica: sono stati cioè messi a punto e diffusi programmi e circuiti aggiuntivi che permettono al calcolatore di colloquiare, via cavo telefonico, con banche-dati esterne, anche lontane, e in generale con altri calcolatori dotati di strumentazione analoga.

Mentre i costi delle macchine sono andati decrescendo, per i programmi si è avuto il fenomeno inverso: il loro costo e le loro dimensioni sono cresciuti continuamente, insieme al perfezionamento tecnologico.


9. I sistemi operativi

Questo aumento di costi ha posto rapidamente il problema della compatibilità; diventava cioè [p. 238 modifica]importante che un certo programma, scritto per una certa macchina, fosse trasferibile senza problemi su altre macchine o sulle successive versioni più potenti della stessa.

Ciò ha richiesto la standardizzazione nel campo dei personal, che si è avuta negli anni ottanta con il diffondersi e affermarsi di calcolatori che utilizzavano il sistema operativo MS-DOS.

Il sistema operativo è un programma che guida l’unità di governo dell’elaboratore nella sua attività di gestione della memoria, di colloquio con le unità periferiche, unità magnetiche, stampanti, tastiere, ecc., che quindi presiede all’organizzazione delle attività della macchina.

Ovviamente all’inizio sono comparsi molti sistemi operativi diversi, ma dopo alcuni anni di diffusione di massa degli elaboratori si sono affermati, nel campo dei personal, il già citato MS-DOS, e nel campo degli elaboratori “grandi” l’UNIX, di cui esistono numerose versioni successive sempre più potenti ma che tendono a conservare al massimo la compatibilità.

Specifiche realizzazioni nel campo dei sistemi operativi sono legate all’utilizzo di figure dette icone, che simbolizzano le diverse funzioni e che l’utente può selezionare con l’uso di un Mouse senza dover così memorizzare i diversi comandi. Sistemi di questo tipo sono ormai comparsi per tutte le macchine presenti sul mercato.

A questo punto, è forse bene fare una ricapitolazione sul rapporto tra la macchina e l’utente.

Al centro abbiamo il calcolatore vero e proprio, con i suoi circuiti integrati, i collegamenti, ecc.; questo insieme di oggetti è controllato e gestito da un programma, il sistema operativo, che permette alle varie parti di funzionare coordinatamente. Le operazioni di questo insieme organizzato possono essere programmate mediante l’utilizzo di un altro soft-ware, il linguaggio, che riceve le istruzioni in una forma opportuna e le [p. 239 modifica]traduce per la macchina; l’utente per operare utilizza un terzo programma, detto appunto programma-utente, che predispone la macchina a rispondere alle esigenze date.

Come si vede, il ruolo del soft-ware è divenuto con il passare del tempo assolutamente preponderante, e ciò giustifica la sempre maggiore attenzione che si pone a questo settore.


10. Applicazioni al settore educativo

Una delle prime aree ad essere investita dal nuovo ciclone è stata quella della formazione: fin dalla seconda guerra mondiale, alle forze armate si era posto il problema di addestrare rapidamente e a basso costo i numerosi operatori che dovevano prestare servizio su apparati tecnologicamente avanzati, come radar, sonar, ecc.; anche i serventi dell’artiglieria contraerea dovevano imparare metodi di tiro piuttosto complessi e sofisticati.

Per l’addestramento di tutto questo personale erano state messe a punto teaching-machines derivate dalle tabulatrici e basate sulla impostazione pedagogica behavioristica. Con la comparsa degli elaboratori, di macchine capaci cioè di modificare il proprio comportamento in base alle risposte ottenute, sembrò essere arrivato il trionfo della impostazione pedagogica che le aveva sostenute, e vari gruppi di ricerca si misero a realizzare programmi di “apprendimento” con questo indirizzo.

Tra i numerosi prodotti che comparvero fin dagli anni cinquanta ricorderemo i simulatori di volo, calcolatori utilizzati per simulare il comportamento di un aereo in volo attraverso la proiezione di opportune immagini su alcuni schermi, e il movimento della “cabina di pilotaggio” mediante stantuffi comandati dall’elaboratore. Il primo simulatore di volo risalente al [p. 240 modifica]periodo bellico era gestito da una tabulatrice. Nel 1951, con la costruzione di “Wirlwind”, si ebbe la realizzazione del primo simulatore di volo completamente controllato da un calcolatore. I simulatori di volo computerizzati si sono imposti come mezzi di addestramento, e ancora oggi vengono gestiti con computer molto sofisticati. Da alcuni anni è anche comparsa una serie di programmi per personal che simulano in maniera abbastanza realistica il comportamento di un aereo da turismo in volo su alcune regioni reali.

Altro programma di questa categoria, approntato negli anni cinquanta e nei primi anni sessanta, è PLATO, un blocco di unità che dovrebbero insegnare all’utente tutto lo scibile umano.

Lo schema concettuale su cui si fonda PLATO consiste nel premiare le risposte giuste e nel disincentivare le risposte sbagliate ad una serie di quesiti su un argomento assegnato. Programmi simili furono utilizzati ampiamente nelle università americane degli anni sessanta, ma a causa degli scarsi risultati che si conseguirono furono abbandonati dal settore della formazione, ma conservano invece la loro validità nel campo dell’addestramento.

A dire il vero, gli studi pedagogici, specie in Europa, avevano superato l’impostazione behavioristica già da alcune decine di anni, ma i programmi venivano realizzati da specialisti di informatica le cui conoscenze pedagogiche erano abbastanza approssimative. Questo stato di cose conobbe negli anni settanta una trasformazione radicale dovuta a due fatti: da un canto la comparsa dei nuovi linguaggi di programmazione e di macchine sempre più economiche permetteva anche a specialisti in pedagogia di avvicinarsi ai calcolatori; dall’altro, si constatò la possibilità di ottenere risultati molto validi mettendo a disposizione di alcuni ragazzi dei terminali. I ragazzi così coinvolti si interessavano attivamente al nuovo “gioco”, arrivando a [p. 241 modifica]sviluppare nuovi programmi. Questa esperienza, condotta in alcuni college statunitensi, convinse vari pedagogisti di quel paese, della validità dell’approccio “non direttivo” nell’attività educativa.

Una frase di Seymour Papert, allora direttore del dipartimento di educazione dell’M.I.T., riassume questa inversione di rotta: “In molte scuole oggi l’espressione — istruzione con l’ausilio dell’elaboratore — significa che l’elaboratore è usato per insegnare al bambino. Si potrebbe dire che l’elaboratore è usato per programmare il bambino. Nella mia visione delle cose il bambino programma l’elaboratore, e così facendo acquista nello stesso tempo, il senso di padroneggiare un elemento della più moderna e potente tecnologia, e stabilisce un contatto intimo con alcune delle più profonde idee della scienza, della matematica e dell’arte di costruire modelli intellettuali” (25a).

Viene cioè recepito quanto ormai era stato scoperto dalla pedagogia da parecchio tempo: non l’ascoltare enunciazioni ma il realizzare prodotti validi è la base di una corretta e valida formazione. Bisogna anche dire che la straordinaria diffusione dei calcolatori porta a supporre che il processo iniziato con la comparsa di LOGO sia destinato ad avere effetti assolutamente imprevedibili proprio sullo sviluppo delle capacità di comprensione della realtà, nelle persone che vi saranno maggiormente coinvolte.

LOGO è un linguaggio di programmazione destinato ai bambini, e permette la realizzazione di programmi semplici e spettacolari, ma anche notevolmente complessi, essendo organizzato per sostenere una struttura logica ad albero, propria dei linguaggi di programmazione più avanzati.

Altra caratteristica di LOGO è la “geometria della tartaruga”, uno strumento concettuale che permette a bambini molto piccoli e quindi privi di conoscenze matematiche sofisticate di gestire la costruzione di figure sullo schermo. [p. 242 modifica]11. Applicazioni ludiche

Altro settore che ha subìto, in maniera molto importante, l’impatto della comparsa dei calcolatori è quello dei giochi: fin dagli anni sessanta, nelle varie università, si utilizzavano i calcolatori per programmi che erano simulazioni molto vicine ai giochi, ma la diffusione a livello di massa inizia nel 1972, quando Norman Bushnel, un ingegnere licenziato dalla NASA, brevetta PONG, il primo videogioco: è uno strumento che utilizza un computer, un televisore e una manopola per simulare una specie di partita a ping-pong.

Il gioco ebbe un successo commerciale immediato e Bushnel fondò una delle ditte di videogiochi più importanti nel mondo; da quel momento essi si sono moltiplicati e hanno invaso i bar e i luoghi di ritrovo fino a portare alla nascita di apposite sale.

I giochi dei bar sono quelli che, in una classificazione introdotta recentemente, rientrano nella categoria degli arcade; all’interno di essa possiamo ulteriormente distinguere i programmi che gestiscono situazioni organizzate unicamente in vista dell’aggressione per l’aggressione, come Space Invaders, e tutta la pletora di battaglie più o meno spaziali, e quelli che invece privilegiano una situazione nella quale viene premiata l’abilità, come ad esempio Pac-Man, Muro, Stix, ecc.

Va sottolineato il fatto che alcuni giochi del tipo “spara-spara” si trovano al confine tra i programmi di gioco e quelli di addestramento. Programmi di questo tipo sono utilizzati dall’aviazione militare degli Stati Uniti, e un impianto grafico-simbolico simile serve per la gestione reale di molte delle moderne armi computerizzate.

Nel 1977 due studenti dell’Università di Stanford creano il primo gioco di adventure, e nello stesso anno viene immesso in commercio un gioco di questo tipo: Dungeon. I giochi di avventura differiscono da quelli [p. 243 modifica]di arcade perché sono spesso privi di grafica e colloquiano con il giocatore visualizzando messaggi sullo schermo, ricevendo le risposte mediante parole scritte alla tastiera; in genere si tratta di labirinti da cui si deve uscire, o di situazioni complicate nelle quali affermarsi raggiungendo un certo obiettivo. Questi giochi richiedono al giocatore una velocità di riflessi molto inferiore, ma una dose di ragionamento cosciente molto superiore.

Intorno al 1974, compaiono gli home-computer, elaboratori dal costo di poche centinaia di migliaia di lire che si diffondono nelle famiglie. Solo in Italia ne sono stati venduti più di due milioni di esemplari.

Uno strumento che, anche se viene utilizzato quasi esclusivamente per il gioco, è comunque in grado di eseguire elaborazioni matematiche e gestionali piuttosto sofisticate. Questo libro, ad esempio, è stato scritto utilizzando un programma di videoscrittura (Word-processor) su un home-computer. Tali macchine, anche se non brillano certo per la loro capacità di calcolo, sono però dotate di facoltà grafiche e sonore piuttosto evolute, ed è proprio per ottenere questi risultati che compaiono le prime forme di parallelismo nell’architettura degli elaboratori. Vengono realizzati coprocessori che si occupano di compiti specifici, come la generazione di suoni, di immagini e così via. Certamente, questo non è ancora la moltiplicazione dell’unità centrale, ma è già un parziale abbandono della concezione seriale di von Neumann.

La nuova architettura si diffonde talmente che si arriva alla realizzazione, per i personal, di coprocessori matematici a cui affidare i calcoli richiesti dalla gestione delle formule del programma.

Altra categoria di giochi che si diffonde verso la fine degli anni Settanta, è quella delle simulazioni. Oltre ai simulatori di volo, di cui abbiamo già parlato, abbiamo anche simulatori di guida automobilistica e di attività sportive; e ancora, simulazioni economiche, [p. 244 modifica]biologiche e così via; è stato anche realizzato un programma che simula il funzionamento di una centrale nucleare: il giocatore deve “condurla” attraverso una serie di eventi come terremoti, guasti, ecc., evitando la fusione del nocciolo.

Come si può vedere, il confine tra i programmi di gioco e quelli di addestramento è estremamente labile, tanto che si potrebbe parlare di un’unica area di programmi con caratterizzazioni d’uso diverse.

A.K. Dewdney, che tiene la rubrica (Ri)Creazioni al calcolatore sulla rivista Le scienze, parla dei rapporti tra programmi di gioco ed educativi con una immagine molto bella, quella di due galassie che stanno entrando in collisione.

Comunque, se si vogliono dedicare due parole alla diffusione esplosiva dei videogiochi, io credo che si debba sottolineare l’aspetto di fiaba che è insito in ognuno di essi; il bisogno, spesso non soddisfatto, di immaginario e di magico, assieme al desiderio di affermazioni, relativamente facili, ottenibili mediante transfert negli eroi dei games, può servire a spiegare il loro imporsi fulmineo, anche se un discorso di tale importanza meriterebbe molto più spazio di quanto sia disponibile qui.

Viene per ultima la categoria dei giochi da tavolo, che si situa al limite con un altro settore molto interessante, quello dell’intelligenza artificiale.

Appena sono stati disponibili gli elaboratori, si è iniziato a produrre programmi per metterli in grado di giocare a scacchi; dopo gli scacchi è stata la volta della dama, del Backgammon, ecc.


12. Intelligenza Artificiale e sistemi esperti

Questi programmi, pur facendo parte del campo dei giochi, rientrano a pieno titolo nell’ambito della Intelligenza Artificiale. Il termine, abbreviato normalmente [p. 245 modifica]in IA o AI, all’inglese, era stato usato per la prima volta da John McCarty dell’MIT nel 1956 per indicare il settore dell’informatica che si occupa di simulazione “intelligente” del comportamento umano.

Le ricerche sono focalizzate in alcune aree: in quella linguistica si tenta di costruire testi sensati su alcuni argomenti, oppure si mira alla sintesi vocale, alla comprensione del linguaggio parlato, alla capacità di effettuare automaticamente traduzioni da una lingua a un’altra; per l’attività visiva si punta al riconoscimento di oggetti posti in diverse posizioni; nel campo delle abilità manuali si sta tentando di realizzare programmi che guidino la manipolazione di oggetti diversi posti in luoghi vari e in posizioni differenti; infine si cerca di ottenere la capacità di individuare le strategie operative più vantaggiose in certe condizioni, con gli studi sui giochi e con la messa a punto dei sistemi esperti.

I sistemi esperti sono programmi che, utilizzando una serie di conoscenze fornite da un esperto e immagazzinate inizialmente, decidono una linea di comportamento per risolvere problemi di un certo tipo. Alcune versioni di questi programmi sono anche capaci di trarre informazioni dai risultati delle scelte effettuate. Programmi di questo tipo sono usati per aiutare i medici nella diagnosi di un male o nella scelta della terapia, o anche nella pratica della ricerca geologica, legata al reperimento di petrolio o altri minerali: in sostanza il programma si occupa di escludere tutta una serie di casi porgendo all’attenzione dell’esperto umano solo una ristretta rosa di soluzioni accettabili con indicazioni precise sulle caratteristiche di ognuna delle possibilità.

Si è anche cercato di costruire delle macchine capaci di dimostrare teoremi matematici, ma fino ad ora esse hanno fallito il loro compito per l’incapacità di scegliere, tra le numerosissime alternative possibili, quelle che sono più interessanti per il tema affrontato. [p. 246 modifica]13. La grafica e la musica

Anche nella grafica sono stati messi a punto programmi che rendono possibile la sintesi di figure e successivamente la loro animazione mediante spostamenti sia all’interno che all’esterno del campo visivo. Come abbiamo detto nel precedente capitolo, gran parte del lavoro viene effettuato sfruttando le leggi di trasformazione della geometria cartesiana.

Lo sviluppo dei programmi di elaborazione grafica comprende anche la facoltà di trattare le immagini in modo da renderle realistiche, dando loro colori, opacità e tutte le altre caratteristiche richieste, tanto che ormai è frequente vedere in televisione sequenze, realizzate al calcolatore, che presentano aspetti di verosomiglianza impressionante.

Un altro campo di applicazione della grafica è quello del disegno tecnico per la progettazione: utilizzando elaboratori con caratteristiche adatte è possibile, una volta effettuato il disegno, ottenerne la rotazione in modo da poter esaminare l’oggetto da diversi punti di vista, oppure ottenere l’ingrandimento dei particolari in modo da poter definire alcune parti con una precisione maggiore.

È anche possibile simulare l’effetto di urti, sforzi di compressione, torsione, ecc.

Anche la musica ha subito pesantemente l’influenza dei calcolatori: la comparsa, già ricordata, della radio, dei fonografi e infine dei registratori magnetici aveva, da decenni, creato una situazione tale per cui ormai la quasi totalità della musica consumata non era più prodotta da strumenti musicali, ma riprodotta da strumenti elettronici analogici.

L’apparizione dei calcolatori, con la possibilità di generare, manipolare e trasformare segnali elettronici digitali di ogni tipo, ha messo a disposizione dei ricercatori impegnati sul fronte dell’espressione sonora uno strumento molto versatile e potente. Fin dalla [p. 247 modifica]prima metà degli anni settanta, vari gruppi di ricercatori operavano utilizzando calcolatori di grandi dimensioni. La diffusione dei personal e la comparsa di un notevole quantitativo di programmi capaci di sintetizzare, modificare ed elaborare segnali elettronici da utilizzare in circuiti sonori, ha dato un impulso grandissimo al settore. Sono stati messi a punto processori dedicati (adattati a questo compito specifico), capaci di emettere segnali elettronici trasformabili in suoni particolari, come risate, parlottìi confusi, ecc., che vengono utilizzati nei videogiochi.

Ormai moltissima musica viene elaborata in vario modo prima di essere registrata, e sono addirittura stati scritti concerti nei quali l’elaboratore, da solo, sintetizza tutti i suoni necessari.

Infine, vale la pena di ricordare che in questi ultimi anni, proprio in contemporanea con la diffusione massiccia dei calcolatori, è comparsa e si è affermata la tecnologia digitale anche per la registrazione e la riproduzione sonora, nonostante esistesse già un’affermatissima presenza di tecnologia analogica.

Questo passaggio, nel settore della riproduzione sonora, dall’analogico al digitale, consente di avvalersi di componenti molto più economici e di ottenere una qualità senz’altro superiore. Di conseguenza, il peso reale della tecnologia analogica si sta a mano a mano riducendo, in misura direttamente proporzionale alla crescente fortuna commerciale dell’altro sistema.

Bisogna ricordare ancora l’ambito delle telecomunicazioni. Fin dalla fine degli anni sessanta la NASA, per le esigenze di calcolo collegate con il programma spaziale, aveva messo a punto le metodologie, gli standard ed il soft-ware che permettevano a diversi elaboratori, posti in località differenti, di lavorare in comunicazione. Si voleva cioè che i dati elaborati da un calcolatore fossero disponibili anche per gli altri.

Queste conoscenze hanno incrementato, quando si [p. 248 modifica]sono diffusi i personal e gli home-computer, una metodologia di comunicazione molto versatile e potente. Oggi qualsiasi ditta, utilizzando il proprio calcolatore e un modem, può collegarsi via cavo telefonico con gli elaboratori di clienti e fornitori, con quelli pubblici, ecc., per ottenere e fornire informazioni in tempo brevissimo e già in forma elettronica (quindi rapidamente e facilmente elaborabile).

È superfluo sottolineare che questo ulteriore incremento nella diffusione delle informazioni ha una rilevanza tale da assurgere al rango di vero e proprio salto qualitativo. Nei precedenti paragrafi abbiamo ricordato l’effetto dell’introduzione di prodotti tecnologici quali il telegrafo, il telefono, ecc.: il fenomeno di cui ci siamo ora occupati ha indubbiamente un’importanza analoga.

Se per un istante tiriamo le fila del discorso sin qui fatto, potremo capire come i calcolatori abbiano avuto un influsso preciso e diretto sui più disparati ambiti culturali. Sul piano economico, sociale, biologico, ecc., i metodi e le strategie cognitive legate all’uso di queste macchine hanno svolto un ruolo primario, sia per quanto concerne l’acquisizione di nuovi dati che per l’elaborazione di quelli preesistenti. Se poi allarghiamo la nostra visuale e la estendiamo alla casistica degli influssi indiretti, il quadro finale assumerà contorni di una vastità impressionante.

Possiamo ora analizzare le conseguenze che la comparsa dei calcolatori ha avuto, in diversi settori specifici, sulla stessa struttura logica del pensiero: cominceremo dalla matematica.


14. La matematica

Questa disciplina può essere considerata la “madre” dei calcolatori, in quanto questi sono nati come evoluzione naturale delle calcolatrici, ma è certo che [p. 249 modifica]ne è anche diventata la “figlia”, in quanto è stata modificata profondamente dal nuovo strumento.

L’uso corretto e completo delle possibilità offerte dagli elaboratori ha dato un impulso importantissimo allo sviluppo di alcune parti della disciplina che erano state trascurate, come la teoria dei grafi, lo studio della notazione numerica espressa in basi diverse da dieci, gli studi sulla decidibilità e sulla computabilità dei problemi, le tecniche di calcolo numerico, gli studi sulla formalizzazione a vari livelli, ecc.

Rispetto alla decidibilità e alla computabilità dei problemi, studi molto importanti furono condotti, tra il 1930 e il 1940, dal matematico inglese A. Turing, sulla scia di Gödel. Egli sviluppò le idee precedenti, ipotizzando “macchine programmabili” non meglio definite, che non si curò di costruire ma intorno alle quali svolse le sue riflessioni. È interessante notare come i suoi studi abbiano preceduto di pochi decenni la costruzione delle macchine reali, i calcolatori, che avrebbero dato sostanza materiale al suo pensiero. Dopo la seconda guerra mondiale, Turing iniziò a interessarsi alla realizzazione pratica degli elaboratori, collaborando alla costruzione di “EDSAC” e di altre macchine analoghe. Purtroppo morì giovane nel 1953.

La disponibilità di macchine capaci di gestire modelli matematici complessi, come quelli utilizzati dai calcolatori, richiese una specifica struttura teorica. Nacque così verso la fine degli anni settanta la teoria dei sistemi. Questo strumento ha permesso di elaborare modelli di eventi economici, biologici, fisici, ecc., di una potenza assolutamente inimmaginabile.

Fino alla comparsa dei computer, i matematici si erano occupati essenzialmente di due tipi di problemi: quelli inerenti ai numeri piccoli e quelli inerenti all’infinito. Le ragioni sono abbastanza chiare: i numeri piccoli sono analizzabili con attività di calcolo semplici, mentre l’infinito è analizzabile logicamente, non essendo sottoponibile a calcolo. I calcolatori hanno [p. 250 modifica]invece permesso di affrontare il settore dei numeri finiti grandi.

Nella teoria dei numeri il calcolatore ha prodotto un fenomeno paragonabile a quello che in astronomia si è avuto con la comparsa del telescopio. Analizziamo alcuni eventi significativi: il primo si ebbe quando L.J. Lander e T.R. Parking dimostrarono l’esistenza di una soluzione per l’equazione a5 + b5 + c5 + d5 = e5. Tale equazione era stata data per irresolubile da Eulero; successivamente, J. Dieudonné aveva dimostrato che l’affermazione di Eulero conteneva alcune imprecisioni. La scoperta della soluzione, data dai numeri 27, 84, 110, 133, 144, fece sensazione, anche perché fu ottenuta con diverse ore di calcolo effettuato per tentativi.

Si può osservare come il metodo di esplorazione dei numeri “per tentativi” offra uno strumento capace di estendere molte proprietà, definite come valide oltre un certo N per N opportunamente grande, assegnando loro una validità generale. Se il calcolatore si occupa di esaminare i casi più piccoli di N è possibile risolvere il problema, ma un lavoro di questo tipo prevede l’esame di molte migliaia se non milioni di casi, ed è affrontabile solo con l’uso del calcolo automatico, che lo risolve con un intervento di potenza e non certo di ragionamento.

Questa scelta apre però vari problemi; infatti si definisce dimostrata un’asserzione se un ragionamento costituito da un numero finito di passaggi permette di arrivare alla sua dimostrazione. Fino alla comparsa dei calcolatori, la cosa era apparsa ragionevolmente chiara, ma ora si pone il problema di quale sia il numero limite di tentativi accettabile, o in altre parole di quale sia il numero oltre il quale smettere perché ci si è “avvicinati” abbastanza all’infinito.

Un altro caso di dimostrazione eseguita al calcolatore che destò scalpore fu la soluzione dell’annoso problema dei “quattro colori”: l’esperienza insegna che è [p. 251 modifica]possibile colorare una carta geografica utilizzando solo quattro tinte ed evitando di assegnare a due regioni contigue lo stesso colore; il problema se questa proprietà fosse universale e dimostrabile era stato sollevato nel 1852, ma da allora aveva resistito ad anni di ricerche e di tentativi di soluzione.

Sul piano teorico questa proprietà era stata dimostrata valida per cinque colori, ma nessuno era stato capace di dimostrare che quattro colori fossero sufficienti; i numerosi matematici che avevano affrontato il problema erano riusciti solamente a individuare alcune caratteristiche generali e alcune classificazioni che riducevano i casi possibili da infiniti a molte migliaia, ma a questo punto avevano dovuto fermarsi.

Nel 1976 K. Appel e W. Haken ottennero una “dimostrazione” attraverso l’impiego di 1200 ore di tempo- macchina di un elaboratore ad alta velocità; questo esaminò tutti i casi possibili e fornì la risposta richiesta. Il dipartimento di matematica dell’Università dell’Illinois, sede dell’impresa, emise un timbro postale, “four colors suffice”, per ricordare l’avvenimento, ma alcuni matematici non furono altrettanto entusiasti.

Un’elaborazione effettuata con 1200 ore di calcolo ad alta velocità assomiglia molto da vicino a una serie infinita, o comunque di dimensioni tali da essere completamente fuori dal nostro controllo di esseri umani. Un’altra caratteristica delle dimostrazioni, oltre alla finitezza del numero dei passaggi, deve essere la possibilità, per chiunque^ di controllare la validità della dimostrazione stessa. E ben chiaro che solo un altro calcolatore può ripercorrere tutti i passaggi della “dimostrazione” in questione, per cui alcuni sostengono che non è stato dimostrato nulla, essendo in gioco solo un problema di “fede”.

Ma è avvenuto un terzo fatto, ancora più “scandaloso” dei precedenti: il matematico francese Fermat aveva individuato nel 1640 un test che permetteva di escludere la primalità di alcuni numeri. Il teorema [p. 252 modifica]dice che se un numero N è primo e B è un altro numero intero, allora bn − b è multiplo di N; da questa affermazione si può trarre un test che ci dice se B sia primo o no.

I numeri che superano questo tipo di test vengono detti pseudoprimi, perché, al loro interno, esistono ancora i numeri cosiddetti di Carmichael, che pur superando il test non sono primi. Questi numeri sono molto pochi. I numeri primi inferiori a 20 miliardi sono esattamente 882.206.716: se si eseguisse il test di Fermat in base 2 su tutti i numeri compresi tra 1 e 20 miliardi, la percentuale di errori, e cioè di numeri pseudoprimi, sarebbe di circa uno su un milione.

Negli anni settanta due studiosi dell’Università di Berkeley misero a punto una variante del test di Fermat per dimostrare la primalità di un numero, e dimostrarono che se un numero passava il loro test la probabilità che si trattasse di uno pseudoprimo era inferiore o uguale a uno diviso 10 30, una probabilità tale da essere molto superiore al livello di “sicurezza” di molte “dimostrazioni”. Alcuni hanno osservato che un livello tale di “incertezza” (ma sarebbe più corretto definirla “certezza”) potrebbe essere accettato come dimostrazione matematica della primalità del numero che passi il test.

Questo risultato pone ovviamente una serie di problemi che riguardano il concetto stesso di certezza matematica e di dimostrazione: il livello di certezza raggiunto mediante il test proposto è tale da imporre una distinzione tra i concetti di dimostrazione e di certezza, separandoli. In questo modo però si mette in discussione una parte consistente dell’intelaiatura stessa del pensiero matematico, abituato a collegare la certezza solo alla dimostrazione, e a separare nettamente le affermazioni probabili da quelle dimostrate e perciò considerate certe.

Si può dire tranquillamente che risultati di questo genere impongono un ripensamento dalle fondamenta [p. 253 modifica]dei concetti stessi di certezza e di dimostrazione di una proprietà per un certo ente matematico.

Oltre a tutto ciò, la comparsa dei calcolatori ha permesso di allargare lo studio delle serie matematiche. In precedenza, questo studio si limitava all’esplorazione di quelle serie il cui sviluppo fosse regolare: si poteva infatti ragionare sul valore del termine ennesimo in base alle linee di tendenza mostrate dalla serie nei suoi primi elementi. Ora invece l’esplorazione si è allargata a quelle serie che, pur non essendo definibili mediante formule, possono essere analizzate mediante il loro algoritmo di sviluppo. Esse possono avere andamenti molto strani, e a volte l’unico modo di conoscere il termine ennesimo consiste nel percorrere tutta la serie fino a quel termine: una cosa del genere è possibile, ovviamente, solo per un calcolatore, se N è abbastanza grande.

Queste nuove serie si chiamano attrattori strani proprio per il loro andamento imprevedibile.

Un altro gruppo di enti esplorabili unicamente mediante la definizione del loro algoritmo e lo sviluppo dello stesso sono gli automi cellulari, enti che “vivono” in uno spazio reticolato riproducendosi o morendo in base alle condizioni delle celle circostanti. Se vogliamo esprimerci in un linguaggio più matematico possiamo dire che, ad ogni ciclo di calcolo, ogni elemento di una certa matrice assume un valore, scelto in un insieme finito in base ai valori degli elementi contigui.

Questi nuovi strumenti matematici, gli attrattori strani e gli automi cellulari, sono applicabili alla modellizzazione di fenomeni fisici che fino ad ora erano sfuggiti a una rappresentazione matematica proprio per il loro andamento irregolare.

La novità introdotta da questi studi consiste nel fatto che l’ente viene definito non mediante una formula, ma attraverso l’esplicitazione dell’algoritmo che lo genera; tale impostazione logica richiede, a [p. 254 modifica]differenza della precedente, la disponibilità di una potenza di calcolo che percorra materialmente tutti i passi che separano la condizione iniziale dall’elemento da considerare. Questi enti, in altre parole, sono inconoscibili se non si dispone di una potenza che trascenda di molti ordini di grandezza quella degli esseri umani in se stessi.

Di peso apparentemente inferiore è un’altra serie di fenomeni inquadrabili nel contesto delle abitudini operative: per esempio, quella di risolvere problemi, anche semplici, sfruttando la potenza di calcolo dell’elaboratore e non più gli algoritmi – eleganti ma lenti – che erano di uso corrente alcuni anni fa e che tuttora sono materia di insegnamento nelle scuole. Tali algoritmi avevano il difetto di essere applicabili solo al calcolo manuale, richiedendo ogni problema un ragionamento a sé, come nel caso delle equazioni differenziali. Queste ultime vengono oggi affrontate con tecniche di calcolo numerico messe a punto negli ultimi decenni, mentre una volta esse esigevano un lavoro molto complesso, ma, per l’appunto, più “elegante”.

Come abbiamo già detto e come emerge ampiamente dalle analisi appena fatte, la matematica sta vivendo una fase di profonda trasformazione della sua stessa struttura logica e delle sue possibilità di comprendere il reale e di costruire e gestire con dinamismo modelli nuovi, più complessi e dotati di maggiore aderenza alle cose. È una trasformazione grandiosa, i cui effetti non siamo ancora in grado di prevedere e apprezzare nella loro totalità.


15. Il vivere quotidiano

Anche gli altri settori della conoscenza umana stanno attraversando un periodo di sviluppo intenso e multiforme di cui non è facile individuare gli sbocchi più significativi. [p. 255 modifica] Sia per gli individui che per i gruppi diventa sempre più difficile avere un quadro complessivo di ciò che sta avvenendo, soprattutto perché la produzione di informazioni ha oramai assunto caratteristiche di vera e propria industria, dove la quantità prevale spesso sulla qualità.

La automatizzazione della gestione delle informazioni produce, come è facile immaginare, un profondo mutamento sulle modalità del processo produttivo in generale, ed in particolare su alcuni aspetti specifici.

Diventa ora possibile gestire in maniera intelligente processi che avvengono in ambienti nocivi o addirittura letali per gli esseri umani: ricordiamo la robotizzazione dei reparti di verniciatura delle auto, e la effettuazione della manutenzione delle centrali nucleari, nelle zone cosiddette “calde”, ovvero a tasso di radiazioni proibitivo.

Comunque l’impatto più violento è quello che si è avuto nel settore del lavóro di concetto.

Questo è stato in larga parte meccanizzato: è diventato possibile che i terminali di cassa dei supermercati, registrando la merce in uscita per la preparazione del conto al cliente, aggiornino automaticamente la registrazione della consistenza del magazzino in modo da fornire, istante per istante, la situazione della giacenza delle diverse merci.

Questo servizio una volta veniva svolto periodicamente dal magazziniere, ma ovviamente forniva una informazione limitata appunto per la sua periodicità, ora invece è diventata possibile una programmazione degli acquisti tale da minimizzare il costo del magazzino stesso.

Ancora nelle banche è scomparsa la vecchia divisione del lavoro e si è affermata la figura del cassiere terminalista, figura tuttofare, che, via terminale, provvede alla effettuazione della operazione richiesta, alla sua registrazione ed all’aggiornamento dei conti interessati. [p. 256 modifica] Negli studi di progettazione il disegno delle parti che vanno ripetute più volte, come ad esempio i bulloni in un pezzo meccanico, o gli infissi in un progetto di stabile, sono memorizzati dal calcolatore e vengono riprodotti automaticamente nei punti in cui l’operatore li richiede.

È avvenuto cioè che tutti i lavori ripetitivi e che non richiedono particolari doti di adattabilità sono stati meccanizzati.

Si è prodotta da un lato una precisa dequalificazione del lavoro delle persone che devono solo “accudire” ai calcolatori, e dall’altro una qualificazione di coloro che, utilizzando queste macchine, possono potenziare la propria creatività.

In generale, si hanno una contrazione della quantità di manodopera richiesta e condizioni di lavoro che, se migliorano sul piano direttamente fisico, diventano però sicuramente più stressanti.

Per quanto riguarda le applicazioni militari, bisogna ricordare come i computer siano nati in un centro-studi dell’esercito, e questa loro “vocazione” è rimasta molto esplicita. Ormai la grandissima maggioranza delle armi comprende livelli vari di intelligenza meccanizzata. Si va dall’attività di traduzione che rende comprensibili su uno schermo televisivo i segnali captati da un radar, all’interpretazione di segnali di ogni tipo, all’attività spionistica gestita mediante intercettazione e decifrazione di messaggi scritti in codice e sui canali più diversi, fino ai proiettili inseguitori o autopuntanti, che individuano il bersaglio e lo seguono fino a centrarlo con una precisione incredibile.

Ancora una considerazione: l’attuale tendenza è di contrapporre le armi “intelligenti” seppur tradizionali, e le armi atomiche. Non c’è un’alternativa secca, ma a voler percorrere questa strada fino in fondo si avrebbe forse la possibilità di ridurre la prospettiva di quell’orrore assoluto che è la catastrofe atomica. Non [p. 257 modifica]si vuole certo sostenere con ciò che le armi tradizionali “intelligenti” siano migliori, ma soltanto che esse sarebbero comunque preferibili ad un eventuale e indiscriminato utilizzo militare dell’energia atomica.

L'ipotesi di gran lunga preferibile sarebbe comunque il disarmo totale. [p. 258 modifica] [p. 259 modifica]

CONCLUSIONI





1. Informazione per tutti

Abbiamo visto che, nel corso della storia, è esistito un rapporto continuo di interdipendenza tra la complessità del mondo e della società, le capacità di pensiero logico, astratto, formale, ecc. di cui disponiamo, e infine la potenza e le caratteristiche degli strumenti e delle macchine usate per raccogliere ed elaborare informazioni.

Una rapida, ma non troppo superficiale, analisi di quanto ci sta succedendo intorno mostra che negli anni dal cinquanta ad oggi si è avuta una brusca impennata, quantitativa e qualitativa, nella crescita della complessità: sono aumentate sia la popolazione sia la produzione, ma è anche cresciuta la sperequazione nella distribuzione del benessere, sia tra i diversi stati sia all’interno di ciascuno di essi. È aumentata la ricchezza totale disponibile, ma la denutrizione affligge masse crescenti di persone.

Tra il sessanta e l’ottanta si è avuta una larga disponibilità di strumenti elettronici di comunicazione: telefono, radio, TV ed HI-FI; dall’ottanta ad oggi si è aggiunta la diffusione di strumenti di calcolo e di elaborazione di informazioni di una potenza incredibile e in un numero inimmaginabile. In Italia, nel 1987, ci siamo trovati vicini al valore di un [p. 260 modifica]computer ogni trenta abitanti. Oggi si può considerare diffusa a livello di massa la disponibilità di una potenza di ricezione di informazioni e di elaborazione che, solo pochi decenni fa, era negata ai più avanzati centri di ricerca.


2. Il problema

A questo punto, si pone il problema se sia ipotizzabile un salto di qualità nelle capacità logiche degli esseri umani. Se la risposta è sì, allora bisogna chiedersi quale sia la direzione di questo mutamento e quali le sue caratteristiche.

Questa è la domanda a cui tenteremo di dare una risposta, sia pure parziale.

Cominciamo a considerare le caratteristiche delle macchine da calcolo che ci circondano. Queste, come la maggior parte degli strumenti della nostra epoca, tendono a sostituire l’essere umano in una serie di operazioni, piuttosto che aiutarlo a svolgerle con minor fatica.

Tale sostituzione, portata a livelli massicci, che effetto può avere? Può liberare tempo ed energie che una volta venivano spese in attività ripetitive “non intelligenti”.

Questa liberazione può essere un passo in avanti? Nel caso di lavori manuali creativi, la sostituzione si è dimostrata in definitiva un grosso passo indietro, in quanto ha relegato l’uomo a funzioni ancora più meccaniche e ripetitive, privandolo anche del piacere della produzione diretta. Discorso diverso meritano i lavori manuali privi di una componente creativa, come ad esempio la lavatura dei panni. Per il lavoro di calcolo sembra di poter dire la stessa cosa: è stato senza dubbio positivo l’aver ottenuto la liberazione di migliaia di persone dalla inumana fatica di effettuare manualmente massicce quantità di calcoli. [p. 261 modifica] Ovviamente, però, il valore del discorso dipende da come il tempo così liberato viene utilizzato. L’individuo può impiegarlo per sviluppare un uso più intelligente e creativo delle proprie capacità personali. È però anche possibile che si arrivi solo a una dilatazione della necessità di “ammazzare il tempo”, quello liberato, che già affligge la nostra società. Le passate esperienze in questa direzione non sono molto entusiasmanti.

È pensabile che l’effetto sia una situazione nella quale un gruppo di individui abbia la possibilità di sviluppare le proprie capacità in maniera notevolissima, mentre la maggioranza regredisce; oppure che le potenzialità liberate portino a un ulteriore aumento delle capacità produttive, mantenendo invariato l’impegno richiesto a ogni individuo, o ancora che si sviluppi una situazione che comprenda parzialmente tutte le ipotesi citate e altre ancora; è comunque molto difficile azzardare previsioni, perché le variabili in questione sono troppe.

I problemi che abbiamo sollevato richiedono, per essere affrontati correttamente, un amalgama di riflessioni generali e specifiche. Dobbiamo considerare che, accanto all’incredibile aumento della potenza di calcolo e di comprensione, abbiamo avuto negli anni che vanno dall’Ottocento ad oggi anche un incremento notevolissimo della disponibilità di energia, della capacità di usare questa energia per intervenire sull’ambiente, e della capacità produttiva in generale. Tutto ciò fornisce ulteriori elementi per comporre il quadro globale della realtà in cui ci muoviamo.

La trasformazione in atto può avere valenze individuali e sociali molto diverse. Come abbiamo visto, alcuni traggono dalle nuove tecnologie innumerevoli vantaggi e occasioni favorevoli per consolidare il proprio potere e influenzare con maggior forza la realtà circostante. Altri invece (ed è probabile che siano in maggioranza) non sapranno o non vorranno volgere a [p. 262 modifica]loro vantaggio le occasioni date, o più semplicemente non riusciranno a scorgere vantaggi di sorta. Le condizioni di vita di diverse persone, perciò, peggioreranno sensibilmente secondo un indice assoluto o relativo, in conformità ai vari casi. E a decretare tale regresso è la perdita di potere, imputabile all’esclusione da tutti quei luoghi che consentono l’accesso alle informazioni.


3. Dilemmi nella società tecnologica

Per capire meglio ciò che sta accadendo, dobbiamo immaginarci i gruppi di individui come entità che agiscono, pensano, perseguono fini determinati e competono tra di loro. Dobbiamo anche tener presente che noi siamo passati da una situazione nella quale le forze della natura ponevano un preciso limite alle attività della specie, ad una in cui l’unico limite è invece costituito dall’uomo stesso (da gruppi di uomini) nei confronti di altri uomini e gruppi. Di questi gruppi, alcuni hanno un rapporto privilegiato con il potere, nel senso che lo posseggono e ne corroborano il possesso grazie alla padronanza delle nuove macchine.

Quando parliamo di gruppi intendiamo riferirci ad organizzazioni economiche, sociali e politiche quali le imprese industriali o finanziarie, i partiti, i sindacati, gli organismi culturali, la burocrazia, l’esercito, la polizia, ed infine gli stati stessi e le entità sovrannazionali. È a questo livello che agisce la complessa meccanica dei vantaggi resi possibili dai nuovi e sofisticati strumenti di informazione. Inoltre, la diffusione massiccia negli anni ottanta dell’informatica individuale (personal e home-computer) ha favorito la nascita di un’altra figura: quella del fruitore “per diletto” di tecnologie avanzate.

Diciamo che fino ad oggi gli elaboratori sono stati uno strumento che ha sostenuto il potere di chi ha [p. 263 modifica]potuto permettersi il loro uso; recentemente, però, sono cambiate alcune condizioni di base: la potenza di calcolo non è più riservata a pochi. Lo stesso non si può dire per le capacità culturali di utilizzare questa potenza, ma comunque anche in questo settore si assiste a un’evoluzione.

Se consideriamo la cosa da un punto di vista ancora più generale, vediamo che, a livello di specie, l’esistenza di gruppi dotati di un potere di governo così esteso non è solo un vantaggio.

Attualmente la nostra specie si trova a dominare il pianeta senza alcuna contrapposizione: possiamo permetterci di essere di gran lunga la specie più aggressiva e sterminatrice tra quelle viventi. Ogni anno gli esseri umani uccidono molti più animali cosiddetti feroci di quanti uomini vengano uccisi da tutte le altre specie messe insieme. Se un uomo, solo e senza armi, incontra una tigre, ovviamente è quasi sicuro di venire ucciso, ma in realtà sappiamo tutti benissimo che sono molte di più le tigri uccise dai cacciatori che gli uomini uccisi dalle tigri. Alcune specie di pescecani, animali che sono quasi un simbolo della ferocia, si stanno estinguendo per la pesca troppo intensiva di cui sono vittime.

L’uso di questa grande capacità di comprensione e di governo degli eventi, finalizzata al prevalere di gruppi o individui gli uni sugli altri, e all’asservimento indiscriminato dell’ambiente, è arrivato a un livello tale da mettere a repentaglio la sopravvivenza della nostra stessa specie. Questo perché noi stessi portiamo attacchi, con tutta la distruttiva potenza di cui disponiamo, ai nostri “nemici” contingenti, o direttamente all’ambiente, arrivando così molto vicino alla distruzione dell’equilibrio globale. [p. 264 modifica]4. Gestire la realtà

Il problema sta nel fatto che la capacità di governare la realtà non si accompagna alla capacità di governarla “bene”.

Noi sappiamo ormai raggiungere la larga maggioranza degli obiettivi che ci poniamo, ma ci comportiamo ancora secondo gli schemi di una cultura adatta a un mondo passato nel quale la nostra potenza era enormemente inferiore; perciò abbiamo difficoltà a selezionare i modi di intervento e gli obiettivi congruenti con la nuova situazione in cui ci troviamo immersi.

L’immagine dell’homo faber che si impone sulla natura o sui “nemici” utilizzando al massimo tutti i mezzi di cui dispone è un modello invecchiato.

Facciamo un esempio: se è necessario collegare tra di loro due località, si ricorre praticamente sempre alla costruzione di un’arteria stradale, sulla quale correranno automobili e veicoli industriali. Le rilevanti risorse di calcolo di cui oggi disponiamo saranno così utilizzate per risolvere “di prepotenza” sia il problema della costruzione della strada sia quello della gestione del trasporto. Il più delle volte non verranno nemmeno esplorate le eventuali altre possibilità, come ad esempio la costruzione di una ferrovia, di una teleferica, e simili, che in alcuni casi permetterebbero soluzioni altrettanto se non più soddisfacenti, con costi di gestione e di impatto ambientale molto inferiori.

Insomma, la potenza di calcolo spesso viene impiegata non per comprendere meglio quello che si deve fare, ma per risolvere le difficoltà contingenti. Si rinuncia così a priori alle possibilità offerte dalle nuove forme di conoscenza.

Questo modello culturale è molto forte e si sta continuamente sviluppando: attualmente si diffonde in una versione sofisticata detta problem solving. Si tratta di individuare problemi e quindi di occuparsi [p. 265 modifica]unicamente, ma con la massima efficacia possibile, della loro soluzione.

In sé non vi è nulla di male in questo modo di affrontare la realtà, se non il fatto che, ignorando il contesto generale in cui il problema si pone, si corre il rischio di generare, con la “efficace” soluzione proposta, difficoltà spesso anche più gravi del problema iniziale.

Riprendendo l’esempio già proposto: la strada che verrà costruita sarà qualcosa di molto diverso dalle strade medievali o romane; infatti sarà realizzata non già adattandosi all’ambiente esistente, ma stravolgendo l’assetto del territorio: si perforeranno le montagne con gallerie e si creeranno viadotti sulle valli, si realizzerà cioè un manufatto che si imporrà sull’ambiente invece di integrarsi in esso.

Questa discrepanza non è dovuta al fatto che i Romani o gli uomini del medioevo fossero buoni e noi invece cattivi, ma solo alle differenti condizioni tecniche e operative, e anche al fatto che noi adoperiamo le risorse di cui disponiamo con lo stesso spirito con cui gli uomini del passato adoperavano le loro. Insomma: l’idea di poter risolvere un problema attraverso la semplice disamina dei suoi aspetti interni, pur essendo accettata e difesa dagli stessi appassionati di computer come valido metodo di lavoro e indice di un’impostazione culturale avanzata, è invece vecchia e profondamente negativa.

Chiaramente, come in tutte le cose, anche nelle attività impostate secondo questo schema culturale esistono casi nei quali gli operatori hanno agito correttamente e altri nei quali sono stati fatti scempi orrendi, ma questo è abbastanza marginale rispetto al giudizio sull’impostazione culturale in sé.

È vero che, proprio grazie ai computer e agli altri mezzi di cui disponiamo, è possibile progettare, realizzare e gestire un’autostrada con costi che sono solo una piccola frazione di quanto avrebbero [p. 266 modifica]dovuto spendere gli antichi Romani o la società del Seicento, ma l’ambiente continua a pagare prezzi enormi in termini di rottura degli equilibri biologici, di degrado idrogeologico e così via.

Purtroppo, gioca contro un approccio più adatto alla realtà attuale anche la tendenza degli esseri viventi a mantenere modelli culturali e di comportamento al di fuori del loro ambito di validità, modificandoli il meno possibile.

Il modello culturale dell’approccio “efficiente” è il frutto di millenni di relativa impotenza della nostra specie nei confronti della natura.

In passato, ogni individuo o gruppo doveva lottare, con massimo dispendio di energie e di strumenti, per il conseguimento di ogni singolo obiettivo. Oggi, invece, la straordinaria crescita tecnologica che si è verificata esige da noi l’abbandono di quell’inutile e ormai ingiustificato approccio hard alla realtà, a favore di un avvicinamento soft alla medesima, secondo contenuti e modalità che sono ancora tutti da giocare e decidere.


5. Quali obiettivi?

Esiste anche la difficoltà di saper valutare con attenzione non solo l’obiettivo che ci poniamo, ma anche il costo, in termini generali, del suo conseguimento; dobbiamo cioè imparare a valutare se quello che ci proponiamo sia un “buon” obiettivo. La definizione di buon obiettivo è un nodo cruciale, e si presta a moltissime discussioni: sarebbe forse più semplice sostituire il concetto di “buono” con quello, meno ambiguo anche se più prosaico, di “vantaggioso”. Fatto questo, rimane da verificare per chi deve essere vantaggioso un buon obiettivo... Ormai la natura ha sempre più raramente la possibilità di impedire le realizzazioni che supponiamo [p. 267 modifica]dannose. L’unica forza che può opporsi al danno nell’interesse generale è un gruppo di pressione che, utilizzando gli stessi sofisticati strumenti di conoscenza e di comunicazione, sappia promuovere una campagna per ottenere il rispetto dell’ambiente.

Questo gruppo dovrà avvalersi, con altrettanta o forse maggiore intelligenza creativa, degli stessi mezzi di informazione. Sarà utile stabilire alleanze (per tornare al nostro esempio) con i costruttori di ferrovie, con i proprietari dei terreni da espropriare e così via, ma soprattutto sarà necessario che il più alto numero possibile di persone capisca che sta subendo un furto, e solo l’accesso alle fonti delle conoscenze e delle informazioni può consentire lo sviluppo di tale capacità di comprensione.

In sostanza, bisogna ricordare che le macchine servono quelli che ne sanno utilizzare le potenzialità: è chiaro che le ha costruite e pensate il potere, è anche chiaro che, fino ad ora, le ha utilizzate sempre il potere, ma non è detto che sia sempre solo così; inoltre, il potere non è una struttura monolitica perfettamente oliata e accentrata. Nelle nostre società ne esistono parti, più o meno grandi, in ogni gruppo, e queste parti possono essere usate più o meno bene, in varie direzioni, o non essere usate del tutto.

La questione ha ovviamente uno spessore etico e politico, ma anche, una valenza culturale. In fin dei conti, noi non ci troviamo in una situazione molto diversa da quella in cui si trovarono i Sumeri: l’arricchimento tecnico, progressivo e inarrestabile (fino a che punto?), ci pone di fronte al bisogno di fondare una nuova cultura che faccia tesoro delle strutture logiche messe a punto in questi anni di ricerca e predisponga già un apposito spazio per le future acquisizioni.

Un esempio di cosa sia possibile fare, lavorando con un approccio valido, è dato dallo studio e dal dibattito sul cosiddetto “inverno nucleare”.

La capacità di calcolo di alcuni elaboratori, [p. 268 modifica]nemmeno troppo sofisticati, ha permesso a un gruppo di ricercatori di evidenziare elementi del probabile scenario che conseguirebbe a una guerra nucleare tra le superpotenze. Il risultato, ottenuto utilizzando modelli matematici messi a punto per effettuare previsioni meteorologiche, ha provocato un dibattito in tutto il mondo, che ha implicato importanti prese di posizione sia morali sia politiche.

Un altro esempio è dato dall’attività di alcune classi di scuola media, che hanno utilizzato un semplice programma di simulazione, elaborato dal professore di scienze assieme ai ragazzi, per capire cosa sarebbe successo dopo il disastro di Cernobyl. I ragazzi hanno previsto in primavera che in autunno ci sarebbe stato un aumento di concentrazione di radioattività nelle verdure. Questo si è realmente verificato.

Il problema è di capire perché alcune persone decidono di usare il calcolatore in un modo e altre in maniera diversa...

Prima di proseguire, vorremmo sottolineare che, in ogni caso, chi non dispone di questi mezzi non può decidere né di utilizzarli bene, né di utilizzarli male: è semplicemente tagliato fuori dalla possibilità di conoscere, di elaborare e di comprendere ciò che sta succedendo. È cioè un “povero” o, con altra espressione, uno “schiavo”, in quanto è privato del potere di agire sulla realtà. Potrà soltanto reagire sul piano emotivo, e quindi in modo superficiale, a eventi che non riesce affatto a padroneggiare, neppure a grandi linee. Un esempio di reazioni di questo tipo si è avuto nel caso del disastro di Cernobyl: moltissime persone si sono lasciate afferrare dal panico invece di assumere un atteggiamento razionale e consapevole.

Non è certo una novità che i poveri subiscano tale privazione; basti pensare che solo a partire dal secolo scorso si è avuta una pressoché capillare diffusione in Europa della scrittura, che è una tecnica nota da varie migliaia di anni. E si pensi infine che, se tale [p. 269 modifica]esclusione dal potere della conoscenza e dell’informazione è l’aspetto più grave dello stato di povertà nei nostri paesi, in quelli sottosviluppati, invece, essa è la causa primaria di un’umiliante miseria materiale.


6. Quale futuro?

A questo punto, il problema che si pone è riassumibile in questi termini: è necessario che gli esseri umani, nel futuro prossimo, imparino a usare correttamente la potenza di cui dispongono, cercando di governare la realtà verso una riduzione delle tensioni.

L’obiettivo può essere conseguito solo attraverso un intervento che sia nel contempo culturale e pedagogico: è necessario elaborare in tempi brevissimi, non più di alcuni decenni, una nuova cultura, che si adatti alle nuove condizioni, e diffonderla attraverso un’opera educativa immane.

Se i Sumeri hanno saputo svincolarsi dal contingente per arrivare alla nozione astratta di quantità, indipendente dagli oggetti che la compongono, noi oggi possiamo sviluppare un ragionamento che non sia più vincolato al singolo problema, ma consideri categorie di problemi raggruppabili in un unico algoritmo risolutivo. Per fare un esempio banale, possiamo dire che non ci interessa più sapere che tre più due fa cinque, ma che due numeri qualsiasi, sommati tra di loro, danno un risultato che non cambia invertendo l’ordine degli addendi.

Bisogna ricordare che furono proprio i Sumeri, alle prese con un problema abbastanza simile al nostro, a istituire le prime scuole di cui si abbia notizia certa, e questa è un’indicazione preziosa.

Inoltre, i Sumeri ebbero a disposizione per la loro opera un periodo di tempo valutabile intorno al millennio, mentre a noi sono concessi solo alcuni [p. 270 modifica]decenni, se vogliamo ridurre al minimo le tensioni violente che stanno generandosi.

Il compito da assolvere è arduo: l’algebra, per esempio, ha alcuni secoli di vita, ma non è ancora entrata a far parte del comune bagaglio culturale; anche le persone che ne conoscono le regole difficilmente l’assumono come forma mentis.

Mentre ormai chiunque sa che è possibile risolvere un problema concreto ragionando sul suo modello numerico, solo pochi sanno operativamente, e non sul mero piano teorico, che è pure possibile una forma di ragionamento che concentri l’attenzione non sui numeri ma sui rapporti tra i dati di partenza; ciò accade perché nella vita quotidiana tale forma di pensiero non fornisce vantaggi rispetto al modo corrente di ragionare. La diffusione degli home-computer ha messo a disposizione uno strumento che permette di premiare la capacità di manipolare modelli algebrici della realtà. Ciò potrebbe essere la base materiale per una diffusione dei nuovi modelli cognitivi, la cui importanza sociale è pari a quella del saper leggere e scrivere.

Le capacità di astrazione richiedono tempo per potersi sviluppare, come hanno mostrato molti studi, principalmente quelli di Piaget. Il bambino, se stimolato troppo precocemente, riesce a simulare un apprendimento perché dispone di capacità mnemoniche fantastiche, ma esse verranno sviluppate a detrimento delle possibilità future.

Il secondo aspetto negativo di una stimolazione troppo precoce dei bambini all’apprendimento è dato dal fatto che, passata la prima fase, per così dire “produttivistica”, il bambino che ha imparato a tre anni a leggere e scrivere e che dall’età di due recita i numeri e le tabelline verrà immesso in una scuola che è rimasta praticamente a un’era precedente all’invenzione della pascalina.

Inoltre nella scansione dell’attività scolastica [p. 271 modifica]avviene un fenomeno di ribaltamento di modi e tempi: molti bambini arrivano alle elementari avendo “imparato” a scrivere alle materne, oppure quando entrano alle medie hanno già sentito spiegare le principali formule di geometria piana, compresa la dimostrazione della formula della superficie del trapezio.

Purtroppo, però, pochissimi di loro sanno cosa sia un numero, quale sia la differenza tra la misurazione e il calcolo di un’area, mentre nei casi più gravi possono addirittura mancare di alcune fondamentali capacità logiche, come la comprensione di alcune proprietà topologiche dello spazio, a causa della deprivazione che hanno subito sul piano motorio stando fermi per ore davanti al televisore.

Lungi dal capire realmente i temi di cui peraltro discutono, essi accumulano nozioni sterili e slegate fra di loro, non comprendendole in profondità ma aggiungendole a quelle che ricevono, in modo del tutto acritico, dalla TV.

Non vogliamo, dicendo questo, dar l’impressione di unirci a quanti lanciano vecchi anatemi contro la televisione: si tratta senz’altro di un importante mezzo di comunicazione, ma è appunto la sua essenziale funzione pedagogica a dover essere evidenziata più di quanto non sia attualmente.

Oggi i ragazzi, più che di ricevere informazioni, hanno bisogno di realizzare esperienze formative. Nella situazione attuale, si formano persone che, invece di disporre di nuove capacità logiche e di pensiero, non dispongono appieno nemmeno di quelle usuali.

La formazione delle capacità di pensiero va affrontata ricercando e costruendo itinerari formativi che da un canto riassumano tutte le tappe dello sviluppo del pensiero dell’uomo, senza “bruciarle”, e dall’altro permettano precocemente approcci produttivi alle tecnologie avanzate, in settori limitati e controllabili.

Ad esempio, se una scuola materna facesse [p. 272 modifica]utilizzare ai bambini una certa quantità di videogiochi, opportunamente selezionati, ciò sarebbe molto utile. Lo stesso si potrebbe dire di una scuola elementare che usasse i calcolatori come strumenti di scrittura nella fase in cui i bambini debbono accostarsi a questa attività; che inoltre, invece di insegnare le formule astrattamente, utilizzasse programmi adatti per mostrare graficamente come si comportano alcuni enti matematici, guidando i ragazzi nella riflessione su ciò che hanno visto; o che infine, con il LOGO, li abituasse a riflettere realmente sui problemi generali.

Sarebbe anche importante che i bambini fossero guidati, con particolare cura, ad apprendere quelle forme di ragionamento che non sono supportate dalle nuove macchine, come il ragionamento continuo o analogico.

Si potrebbe continuare così per tutti i livelli di scuola, e scrivere un nuovo libro, ma non è questo il luogo nel quale affrontare una trattazione approfondita del tema; basti aver chiarito che sia le famiglie sia le strutture pubbliche sono, in questo momento, poco attrezzate al difficile e importantissimo compito dell’educazione dei ragazzi, e questo è un problema che coinvolge tutti i paesi: è un problema mondiale.

Forse, nonostante tutto, è possibile ottenere che il lento adeguarsi delle strutture culturali, della sensibilità umana e dell’equilibrio emotivo possano concludersi con il raggiungimento di un livello più avanzato, come è successo ai Sumeri. Ma non possiamo nasconderci che sono anche possibili soluzioni completamente

diverse... [p. 273 modifica]

CRONOLOGIA






4000 a.C. calculi dei Sumeri.

2000 a.C. comparsa dello ieratico egiziano.

900 a.C. si sviluppano le idee sul valore di posizione.

800 a.C. gli Etruschi usano l'abaco.

542 a.C. in Cina si usano i bastoncini per calcolare.

250 a.C. compaiono i pallottolieri. Ctesibio inventa un orologio ad acqua nel quale il flusso di liquido è regolato da un meccanismo di retroazione. Euclide sviluppa la geometria dal punto di vista logico.

50 d.C. Erone di Alessandria disegna un distributore automatico di vino, ed un meccanismo per aprire e chiudere le porte di un tempio comandato da un fuoco che scalda l'acqua in una caldaia.

300 d.C. in India compaiono le cifre posizionali con lo zero.

650 d.C. primo esempio di uso fuori dall'India, in Mesopotamia, delle cifre indiane.

870 d.C. Gerberto d’Aurillac introduce l'abaco che porta il suo nome.

[p. 274 modifica]

1200 Al-Jazari descrive il cilindro a schegge per comandare il movimento di automi; fornisce pure la descrizione di un “orologio elefante” animato da numerosi automi.

1300 compaiono le prime clessidre ed i primi orologi a scappamento.

1400 Dondi costruisce un orologio a scappamento a verga che calcola i movimenti di tutti i pianeti noti.

1470 compare la stampa a caratteri mobili.

1500/1550 Nicolò Tartaglia costruisce l’Archipendolo per calcolare l’alzo dei mortai, ed il triangolo di Tartaglia per calcolare la dispersione dei colpi intorno all’obiettivo.

1598 Guidobaldo del Monte costruisce un compasso per calcolare il lato dei poligoni inscritti in un cerchio, da cui Galileo deriverà il suo compasso geometrico-militare.

1614 John Napier inventa i logaritmi.

1617 John Napier presenta i bastoncini numerati o regoli per eseguire le moltiplicazioni.

1620 Edmund Gunter costruisce il primo regolo logaritmico.

1623 Wilhelm Schickjard all’Università di Tubinga progetta la prima sommatrice meccanica, progetto riscoperto nel 1930 tra le carte di Keplero.

1624 Henry Briggs pubblica la prima ampia tavola di logaritmi.

1630 in quegli anni Descartes inventa il piano cartesiano, uno strumento concettuale che permette di collegare l’algebra alla geometria.

1642 Blaise Pascal costruisce la Pascalina, la prima macchina funzionante capace di sottrarre e sommare numeri.

[p. 275 modifica]

1650 Leibniz e Newton mettono a punto separatamente i concetti fondamentali del calcolo differenziale.

1671 Leibniz progetta e costruisce la prima macchina calcolatrice capace di effettuare moltiplicazioni.

1731-38 Vaucanson costruisce i più famosi tra i suoi automi.

1741 Vaucanson viene nominato ispettore generale delle manifatture francesi, con l’incarico di sovrintendere al rilancio della industria della seta: dopo attenti studi introduce un sistema di cilindri forati per comandare i telai; questo sistema è derivato direttamente dai cilindri dentati usati per gli automi.

1745 viene brevettato il regolatore di direzione dei mulini.

1783 viene progettato il primo termostato.

1787 viene impiegato il pendolo centrifugo nei mulini a vento.

1790 Watt installa il pendolo centrifugo sul primo motore rotativo a vapore.

1800 Una commissione presieduta da Laplace mette a punto il sistema metrico decimale che si diffonderà nell’Europa continentale con le invasioni napoleoniche.

1804 Joseph Marie Jacquard costruisce un telaio comandato automaticamente mediante schede di cartone perforate, introduce cioè sulla idea di Vaucanson la possibilità di organizzare modularmente la sequenza dei comandi.

1820 Thomas de Colmar costruisce l’aritmometro, la prima calcolatrice costruita in serie.

1822 Charles Babbage realizza la «macchina differenziale» in grado di svolgere autonomamente calcoli scientifici ed astronomici.

[p. 276 modifica]

1832 Charles Babbage presenta il progetto di una macchina analitica, mai realizzata, che contiene in maniera estremamente anticipatrice molte delle idee che poi porteranno alla realizzazione dei calcolatori. Tra le altre va ricordata l’applicazione delle schede perforate, recentemente introdotte da Jacquard sui telai, a macchine matematiche. Negli anni immediatamente successivi Lady Ada Byron scrive il primo programma per la macchina di Babbage: il programma avrebbe dovuto ricercare i numeri primi.

1847 George Boole pubblica “L’analisi matematica della logica” una teoria dei sistemi binari nota come “algebra booleana”.

1850 Taverier-Gravet aggiunge il cursore al regolo logaritmico. Viene brevettata la prima addizionatrice a tastiera.

1872 Lord Kelvin costruisce il suo analizzatore delle maree, basato sul calcolo analogico.

1876 viene costruita la prima addizionatrice a nastro.

1883 viene costruito il primo registratore di cassa.

1887 Bollée inventa il modo per eseguire le moltiplicazioni senza ricorrere alle somme ripetute.

1889 Dorr Felt realizza la Comptograph, macchina calcolatrice con stampante incorporata.

1890 Hermann Hollerith brevetta la tabulatrice elettrica per il censimento della popolazione degli USA; questa sommatrice impiega schede perforate a quarantacinque colonne.

1919 viene costruito il primo circuito a flip-flop adatto a macchine calcolatrici numeriche.

1921 lo scrittore ceco Karel Capek impiega per la prima volta la parola ROBOT per indicare un lavoratore meccanico automatizzato.

[p. 277 modifica]

1926 prima comparsa di un robot al cinema in METROPOLIS

di Fritz Lang.

1928 la capacità delle schede perforate viene portata a ottanta colonne.

1931 Vanevar Bush costruisce il primo calcolatore analogico moderno.

1936 Alan Turing enuncia il modello teorico del calcolatore.

1937 John V. Atanassof formula le idee base del calcolatore elettronico: calcolo seriale, codice binario, memoria rigenerativa.

1938 Konrad Zuse costruisce lo Z1 il primo calcolatore elettromeccanico.

1941 Konrad Zuse costruisce lo Z3 a controllo programmato mediante nastro perforato.

1944 Howard H. Aiken costruisce Mark, il calcolatore aritmetico universale elettromeccanico come gli Z di Zuse.

1945 John von Neumann progetta E.D.V.A.C., dotato di programma memorizzato.

1946 progettato e realizzato da J.P. Eckert, J.W. Mauchly ed H.H. Goldstine, entra in funzione ENIAC, il primo calcolatore elettronico. 1947 vengono costruiti i primi transistor. 1948 SSEC è il primo calcolatore ad impiegare il programma memorizzato proposto da von Neumann. 1951 compare il FERRANTI MARK1 il primo calcolatore costruito in serie. Viene realizzato WIRL-Wind un calcolatore capace di reagire in tempo reale per gestire un simulatore di volo. [p. 278 modifica]

1953 viene sperimentata la prima memoria a disco magnetico.

1956 John Mac Carty, studioso dell’MIT, conia il termine di intelligenza artificiale.

1957 John Backus inventa il primo linguaggio di programmazione, il FORTRAN.

1958 primo esemplare di circuito integrato; diventa operativo il primo sistema di difesa aerea SAGE: una rete di radar collegati ad un enorme elaboratore.

1959 compaiono i calcolatori della seconda generazione a transistor.

1961 primo calcolatore a circuiti integrati; viene installato un robot per il controllo delle presse in una carrozzeria della General Motors.

1964 si diffonde la terza generazione di computer basata sull’impiego dei circuiti integrati.

1965 viene creato il Basic, linguaggio di programmazione destinato a principianti.

1966 viene presentato il Programma 101, primo calcolatore da tavolo.

1968 viene costruita la prima Ram da 1 K (1024 bit di informazioni).

1971 F. Faggin costruisce il primo microprocessore, che caratterizzerà i computer della quarta generazione, quella attualmente sul mercato. Nicolaus Wirt presenta Pascal, il primo linguaggio di programmazione strutturato.

1972 nasce il primo gioco gestito da un calcolatore PONG, costruito da Norman Bushnel.

1975 viene presentato dalla rivista POPULAR

[p. 279 modifica]

ELETTRONICS un computer personale da assemblare in casa

l’ALTAIR 8800 che costa solo 650 dollari.

1976 K. Appel e W. Haken dimostrano il teorema dei quattro colori con 1200 ore di elaborazione.

1977 Stephen Wozniac e Steven Jobs costruiscono l’APPLE 2, basato su un microprocessore ad otto bit, il primo calcolatore personale a diffusione di massa; nascono i primi videogiochi di avventura: ADVENTURE e DUNGEON.

1978 viene posto in commercio VISICALC, il primo foglio elettronico. Compare CP/M, quello che sarà il più diffuso sistema operativo per personal computers ad otto bit.

1980 compare LOGO, un linguaggio di programmazione destinato ad usi pedagogici.

1981 viene commercializzato negli USA il PC IBM, un personal basato su un microprocessore a sedici bit, che diventa leader del mercato in pochi anni. Viene presentato il sistema operativo MS-DOS.

1982 il governo giapponese lancia il «Progetto per i sistemi informatici della quinta generazione».

1984 viene realizzata la prima memoria RAM da un milione di bit.

1986 viene presentata la Connection Machine, un calcolatore parallelo di grande potenza.

[p. 280 modifica]

BIBLIOGRAFIA






GEORGES IFRAH, Storia universale dei numeri, Mondadori-CDE 1985

L’autore vi espone con molta competenza e con ricchissima documentazione l’origine, l’evoluzione, i principi ed i problemi dei sistemi di numerazione di tutto il mondo. L’ultimo capitolo è dedicato all’origine delle cifre che usiamo attualmente. L’apparato iconografico è eccezionale. È un’opera accessibile a tutti.


ETTORE PICUTTI, Sul numero e la sua storia, Feltrinelli 1977

Dopo aver presentato l’origine dei numeri, l’autore illustra ampiamente i sistemi numerici non decimali, le antiche operazioni aritmetiche ed il calcolo sull’abaco; quindi passa in rassegna le questioni relative alla natura del numero ed ai problemi che fin dall’antichità hanno impegnato i matematici: terne pitagoriche, radici, potenze, teoremi vari. Moltissime illustrazioni.


CARL B. BOYER, Storia della matematica, Mondadori-CDE 1986

È una rassegna completa della matematica e dei suoi problemi dalle origini fino al XX secolo. Molto spazio è dedicato alla descrizione delle opere dei più importanti matematici. L’autore mette “in chiara luce le idee che ‘stanno sotto’ agli sviluppi tecnici, esponendole in modo accessibile a chi abbia una cultura di livello liceale; a tale [p. 281 modifica]scopo impiega in modo brillante, descrizioni semplici per illustrare concetti difficili” (dalla Prefazione). Moltissime illustrazioni.


RUDOLF ARNHEIM, II pensiero visivo, Einaudi, paperbacks 47, 1974

In questo libro viene presentata una ipotesi di correlazione tra le capacità visive della nostra specie e le sue capacità di pensiero astratto; il libro è scritto in maniera abbastanza piana e può essere letto anche da non specialisti, che siano interessati a queste problematiche.


G.P. CESERANI, I falsi adami, Feltrinelli, u.e., 1969

Libro facile e piacevole che presenta la storia degli automi, correlando la loro utilizzazione con le condizioni socio-ambientali delle diverse epoche. Anche se risale al 1969, è interessante per le idee e gli spunti che presenta.


SEYMOUR PAPERT, Mindstorms, Emme 1984

Questo libro costituisce il “manifesto” del movimento LOGO in tutto il mondo; l’autore vi presenta la sua proposta corredandola di ampie riflessioni pedagogiche e socio-culturali. È importantissimo per i lettori interessati ai temi della pedagogia.


H. ABELSON - A. DI SESSA, La geometria della tartaruga, Muzzio 1986

Testo specialistico nel quale vengono presentati gli sviluppi della geometria della tartaruga. Richiede il possesso di notevoli conoscenze matematiche.


W.H. GLENN - D.H. JOHNSON, Strumenti per calcolare, Zanichelli 1965

Semplice manualetto dedicato alle scuole dell’obbligo, redatto in maniera molto chiara e ricco di notizie ed informazioni precise. Se ne consiglia la lettura a chiunque voglia conoscere da vicino alcuni dei più importanti metodi di calcolo citati nel nostro lavoro.


AA.VV., Dalla selce all’elettronica, Le Scienze (letture da), 1978

È una raccolta di articoli pubblicati dalla rivista LE [p. 282 modifica]SCIENZE. Presenta un notevole interesse per la documentazione e per la ampiezza degli argomenti trattati. Il tema unificante è la storia della tecnologia in generale.


LE SCIENZE: numeri di nov. 1984, ott. 1985, sett. 1986.


LE SCIENZE QUADERNI: numeri 14 del 3/84, 18 dell’11/84 e 25 del 9/85.

Contengono articoli sugli argomenti affrontati nel libro.


Altri testi consultati


Claude Lévi-Strauss, La vita familiare e sociale degli Indiani Nambikwara, Einaudi 1982


Claude Lévi-Strauss, Razza e storia, Einaudi 1967


Lucien Lévy-Bruhl, La mentalità primitiva, Einaudi 1981


Tobias Dantzig, Il Numero. Linguaggio della scienza, La Nuova Italia 1985


Helmut Uhlig, I Sumeri, Garzanti 1982


Storia Universale Illustrata, Fabbri 1970


Tullio De Mauro, Guida all’uso delle parole, Editori Riuniti 1980


Plutarco, Vite parallele, 2° vol., Mondadori 1981


Tito Lucrezio Caro, La Natura, BUR 1986


Stanley Wolpert, La civiltà indiana, Bompiani-CDE 1985


Francesco Ricci, Tesoro Aritmetico, Urbino 1667


Fra Bartolomé de Las Casas, La leggenda nera (Apologetica Historia), Feltrinelli 1972 [p. 283 modifica]


L.S. Vygotskij - A.R. Lurija, La scimmia, l’uomo primitivo, il bambino, Giunti 1987


Giacomo Devoto, Il linguaggio d’Italia, BUR 1977


Federico Arborio Mella, La civiltà araba, Mursia-CDE 1986


Claudio Tolomeo, Tetrabiblos, Arktos 1979


Charles Singer, Breve storia del pensiero scientifico, Einaudi 1982


Laura Conti - Cesare Lamera, Tecnologia dalle origini al 2000, Mondadori 1982


Franco Agostini, Giochi logici e matematici, Mondadori-CDE 1984


Atlante storico, Garzanti 1975


Enciclopedia storica, Zanichelli 1975


Rosalie David, L’Egitto dei faraoni, Newton Compton 1984


AA.VV., Alla scoperta della matematica, Teti 1980


Ugo Enrico Paoli, Vita romana, Mondadori 1980


AA.VV., Dizionario di linguistica, Zanichelli 1979


C.W. Ceram, Civiltà sepolte, Einaudi 1978


C.W. Ceram, Civiltà al sole, Mondadori 1969


Platone, Opere complete, Laterza 1984


Georges Radet, Alessandro il Grande, Mondadori 1974


Luciano Canfora, La biblioteca scomparsa, Sellerio 1987 [p. 284 modifica] [p. 285 modifica]

NOTE






1. Claude Lévi-Strauss, La vita familiare e sociale degli Indiani Nambikwara, Einaudi 1982
1a, pag. 14
1b, pag. 25
1c, pag. 25
1d, pag. 156


2. Lucien Lévy-Bruhl, La mentalità primitiva, Einaudi 1981
2a, pag. 13
2b, pagg. 12-13
2c, pag. 13
2d, pag. 16


3. Tobias Dantzig, Il Numero. Linguaggio della scienza, La Nuova Italia 1985
3a, pag. 7
3b, pag. 29


4. Georges Ifrah, Storia universale dei numeri, Mondadori- CDE 1985
4a, pag. 28
4b, pag. 491


5. Helmut Uhlig, I Sumeri, Garzanti 1982
5a, pag. 83
5b, pag. 70 [p. 286 modifica]


6. Storia Universale Illustrata, Fabbri 1970
6a, 1. vol., pag. 45
6b, 6. vol., pag. 63
6c, 1. vol., pag. 57


7. L’Europeo, Rizzoli
7a, 17.1.85, pag. 85


8. Carl B. Boyer, Storia della matematica, Mondadori-CDE 1986
8a, pag. 15
8b, pag. 17
8c, pag. 20
8d, pag. 196
8e, pag. 268
8f, pagg. 62-63


9. A.D. Aleksandrov - A.N. Kolmogorov - M.A. Lavrentiev, Le matematiche, Boringhieri 1977
9a, pagg. 24-25
9b, pag. 338


10. Tullio De Mauro, Guida all’uso delle parole, Editori Riuniti 1980
10a, pagg. 63-64


11. Ettore Picutti, Sul numero e la sua storia, Feltrinelli 1977
11a, pag. 44


12. Plutarco, Vite Parallele, 2° vol., Mondadori 1981
12a, pag. 335
12b, pag. 336
12c, pag. 335
12d, pag. 332


13. Tito Lucrezio Caro, La Natura, BUR 1986
13a, pag. 109


14. Stanley Wolpert, La civiltà indiana, Bompiani-CDE 1985
14a, pag. 71 [p. 287 modifica]


15. Francesco Ricci, Tesoro Aritmetico, Urbino 1667
15a, pag. 5
15b, pag. 100
15c, pag. 3


16. Le scienze, quaderno n. 18/84
16a, pag. 36


17. Fra Bartolomé de Las Casas, La leggenda nera (Apologetica Historia), Feltrinelli 1972
17a, pag. 214
17b, pagg. 219-220


18. L.S. Vygotskij - A.R. Lurija, La scimmia, l’uomo primitivo, il bambino, Giunti 1987
18a, pag. 89
18b, pag. 97


19. Giacomo Devoto, Il linguaggio d’Italia, BUR 1977
19a, pag. 79


20. Federico Arborio Mella, La civiltà araba, Mursia-CDE 1986
20a, pag. 84


21. Corriere Unesco, Giunti, n. 8/9 1977
21a, pag. 44


22. Dalla selce all’elettronica, Le scienze 1978
22a, pag. 127


23. Claudio Tolomeo, Tetrabiblos, Arktos 1979
23a, pagg. 27-28
23b, pag. 30
23c, pag. 35


24. Domenica del Corriere, 1967
24a, Storia degli aviatori, 1a p.


25. Seymour Papert, Mindstorms, Emme 1984
25a, pagg. 11-12