Con l’apparizione della prima interfaccia grafica, è stata riservata un’attenzione sempre maggiore verso la realizzazione di interfacce che tenessero in primo piano le caratteristiche specifiche dell’utente come persona. Dagli anni ‘80 in poi, l’utente è stato man mano messo al centro del processo di progettazione, giungendo a quello che oggi è definito l’User Centered Design: il fruitore viene coinvolto sin dai primi passi del processo di sviluppo, in modo da realizzare sistemi facili da apprendere e utilizzare. Questo approccio tiene conto delle abitudini cognitive e dei modelli mentali degli utenti ai quali il prodotto è destinato.
Quasi tutte le GUI per personal computer, oggigiorno sono basate sul principio della “WIMP” (windows, icons, mouse, pointer), dove le finestre rendono possibile l’utilizzo contemporaneo di diverse parti dello schermo ed il mouse consente una modalità di interazione non più solo da tastiera.
Le case produttrici hanno cercato di imporre dei propri standard nel settore delle interfacce, ma dato che si corre il rischio di creare inutile confusione, le modifiche si sono successivamente concentrati solo su piccoli dettagli, come le dimensioni, i colori, i caratteri o le forme degli angoli delle finestre, senza cercare di violare troppo le convenzioni.
C’è da aggiungere che la metafora della scrivania ha subito un’evoluzione con l’introduzione del concetto di “bottone”, passando quindi alla metafora del “pannello di controllo”. L’area dello schermo vuole apparire come un oggetto con cui interagire direttamente, attraverso interruttori e pulsanti che possono essere azionati con un click del mouse.
Dalle ricerche sui possibili sviluppi delle GUI sono partiti altri due filoni, uno relativo all’interazione in linguaggio naturale (Natural Language Processing o NLP), l’altro verso la manipolazione diretta (Direct Manipulation, DM).
Gli studi sul NLP puntano alla creazione di un’interfaccia che metta in grado l’utente di comunicare col computer attraverso il linguaggio naturale, così come si fa con gli altri esseri umani. Non si parla certamente di una sfida facile da vincere, considerando due caratteristiche fondamentali del linguaggio naturale: l’ambiguità e la ridondanza. Sappiamo che una parola, a seconda delle circostanze in cui viene utilizzata, può avere significati differenti. Per ora si è riusciti a realizzare interfacce in grado di comprendere un numero limitato di istruzioni (un esempio sono i telefoni cellulari, che identificano il nominativo da chiamare grazie al riconoscimento vocale del nome).
La metafora della scrivania si basa sul concetto di manipolazione diretta, ovvero attraverso il movimento del mouse è possibile muoversi, esplorare ed interagire con i dati del computer. Ma per il futuro si intravede la possibilità di passare dalle GUI alle cosiddette TUI (Tangible User Interface), in cui le informazioni elettroniche siano effettivamente palpabili e manipolabili, dando loro una forma fisica, mentre ora ci limitiamo a visualizzarle e ad intervenire sulla loro rappresentazione. Soprattutto nel settore della realtà virtuale si stanno concentrando questo tipo di esperimenti. I risultati ottenuti finora sono il guanto ed il casco virtuale, ma gli studi di una sezione del MIT, il Tangible Media Group, si stanno spingendo verso la creazione dei cosiddetti “bit tangibili”.