Nel 1960 J. C. R. Licklider, psicologo sperimentale, pubblicò un saggio intitolato “La simbiosi uomo-computer”, che ha avuto moltissima influenza sugli studi successivi nel campo dell’informatica e della psicologia. Nel documento affermava che:  «Tra non molti anni la mente umana e i calcolatori saranno interconnessi molto strettamente, e questa alleanza uomo-macchina sarà in grado di pensare così come nessun essere umano ha mai fatto finora, elaborando dati con prestazioni che sono ancora irraggiungibili per le macchine con cui effettuiamo attualmente il trattamento delle informazioni.»

Nei primi anni ‘60 gli studi sull’interfaccia utente seguirono due percorsi differenti, uno aveva come obiettivo il raggiungimento dell’interattività e l’altro la ricchezza sensoriale. Era emersa l’esigenza di estendere l’utilizzo del computer ad un utenza sempre più vasta, ma l’alto costo delle macchine era un grosso impedimento. L’interattività entrava così in gioco, facendo in modo che più utenti potessero condividere uno stesso computer.

Grazie al time sharing (partizione del tempo), ad un elaboratore centrale potevano essere collegati più terminali, i quali fornivano le loro istruzioni alla macchina e la stessa aveva il compito di dividere il suo tempo nell’esecuzioni di tutti i programmi.

In termini di ricchezza sensoriale, gli studi si orientarono verso lo sviluppo della grafica, ma ci vollero moltissimi anni prima di giungere agli schermi che conosciamo ora, di piccole dimensioni, a costi accessibili e ad altissima qualità. Un grande salto di qualità nell’interattività si ebbe negli anni ‘70 con l’introduzione del video terminale (VDU), che garantiva maggiore velocità di trasmissione dei dati e una buona qualità nella visualizzazione del testo. Per consentire agli utenti di muovere il cursore sullo schermo, vennero aggiunte le frecce direzionali sulla tastiera: iniziò ad introdursi una rappresentazione spaziale dell’informazione. Queste interfacce, definite command line interface (a linea di comando), erano  ancora piuttosto povere e non così facili da capire e utilizzare. La prima vera possibilità di far usare il computer a persone non esperte, si ebbe con l’introduzione della maschera dati, che aveva l’aspetto di un modulo con una serie campi vuoti, in cui l’utente doveva inserire i dati richiesti (come nella compilazione della classica fattura cartacea).

Grazie all’invenzione del microprocessore (il primo chip fu sviluppato nel 1971), nei primi anni ‘80 nacquero i primi personal computer da scrivania. Si iniziò a prediligere l’idea di un’unità di calcolo completamente autonoma, rispetto ai vari terminali collegati ad una stessa unità centrale. Scaturì l’esigenza di estendere l’uso del computer a persone non altamente specializzate. Di conseguenza, il problema di semplificare l’interazione uomo-macchina si fece più marcato.

Facendo un passo indietro e tornando ai primi anni ‘70, presso la Xerox Palo Alto Research Center (PARC) e al Massachusetts Institute of Technology, si stavano effettuando ricerche nel settore dell’interfacciamento. Qui fu creato il primo modello di metafora grafica e di sistema a icone. Ma il personal computer prodotto, lo Star System, era ancora troppo costoso perché potesse ottenere un successo commerciale.

Nel 1979 il fondatore della Apple, Steve Jobs, fu invitato nei laboratori della Xerox Parc, dove gli vennero illustrati gli ultimi progetti sulla GUI (Graphical User Interface), uno stile di presentazione dei programmi che utilizzava elementi grafici piuttosto che le normali stringhe di testo. La Apple portò avanti le ricerche e modificò il progetto del nuovo PC, il Lisa, che uscì sul mercato nel 1984 e che non riscosse un grande successo sempre a causa del costo troppo elevato.

Il desktop del Lisa

Il desktop del Lisa

Nel 1984 la Apple lanciò il nuovo Macintosh, che si basava anch’esso sulla metafora della scrivania, in cui le applicazioni e i documenti erano rappresentati da icone ed i documenti erano organizzati in cartelle. Per copiare o spostare un file non occorreva fare altro che trascinarla nella cartella di destinazione, mentre per eliminarla bastava spostarla nel cestino.

Lo stesso concetto è stato ripreso con maggior successo dalla Microsoft, che decise di dare un’interfaccia grafica ad MS-DOS e la chiamò Windows. Con l’introduzione di Windows, la metafora della scrivania è diventata lo standard universale delle interfacce grafiche. In pratica gli oggetti di uso comune nel mondo reale, in particolare i tipici oggetti che si possono trovare nell’ambiente di un ufficio, sono ricreati in un mondo bidimensionale. Lavorando con il proprio PC oggi si ha a che fare con cartelle, forbici, gomme e cestino.