Comunicazione multimediale

 

 

 

Comunicazione multimediale

 

I riassunti, le citazioni e i testi contenuti in questa pagina sono utilizzati per sole finalità illustrative didattiche e scientifiche e vengono forniti gratuitamente agli utenti.

 

SEMIOTICA DEI NUOVI MEDIA di Cosenza

  1. SEMIOTICA DEI NUOVI MEDIA: TEORIE, METODI E OGGETTI

 

  • Che cos’è la semiotica dei nuovi media

La semiotica dei nuovi media è un campo disciplinare nuovo, per 2 ordini di ragioni:

    • alcune empiriche " legate al fatto che i corsi universitari che portano questo titolo ci sono solo da pochi anni, e che né in Italia né all’estero sono stati ancora pubblicati lavori sistematici, ma esistono solo tanti saggi sparsi e poco connessi fra loro
    • una di principio " che si annida nel nome stesso della disciplina: in quanto relativa ai nuovi media, questa semiotica sarà destinata sempre a rincorrere il nuovo, e a proporsi come nuova, anche quando le ragioni empiriche della sua novità saranno venute meno

Scrivere un manuale di semiotica dei nuovi media sarà quindi sempre difficile (come qualunque lavoro sui nuovi media); scrivere un manuale di questo tipo comporta anche tracciare in anticipo alcune strade per eventuali ed auspicabili riflessioni future, il che è rischioso. Nel suo significato più generico il termine semiotica indica una riflessione in qualche modo sistematica sui segni, le leggi che li regolano, i loro usi nella comunicazione, e può essere generale o specifica:

  • una semiotica generale è una riflessione di carattere filosofico, che pone concetti e costrutti teorici per rendere ragione di fenomeni di significazione e comunicazione apparentemente disparati. È quindi una forma di filosofia del linguaggio, ma se ne distingue perché
    • non ha carattere aprioristico ma empirico, in quanto si nutre dell’esperienza di semiotiche specifiche
    • generalizza i propri concetti in modo da definire non solo le lingue naturali e i linguaggi formalizzati, ma anche le forme espressive non verbali, quelle non del tutto codificate, alcuni processi cognitivi fondamentali, i segni non prodotti intenzionalmente per comunicare ma interpretati come tali da qualcuno a qualche scopo
  • una semiotica specifica fornisce la grammatica di un particolare sistema di segni, cioè fa ipotesi sul sistema di regole che lo governa, ne descrive l’organizzazione, e su questa base spiega e cerca di prevedere i comportamenti di coloro che usano quel sistema di segni. Sono semiotiche specifiche la linguistica (che studia le lingue naturali), le semiotiche del testo (che applicano a diversi mezzi di comunicazione, considerati come testi, concetti e metodi della semiotica generale, o elaborano concetti e metodi nuovi, contribuendo così alla teoria generale), la semiotica della pittura, della musica, del cinema, della pubblicità, .. che hanno contribuito tutte a definire interi ambiti della semiotica generale

La semiotica dei nuovi media è una semiotica specifica che studia i nuovi media come testi. La molteplicità di teorie che caratterizza la semiotica è tale che essa va pensata come un campo disciplinare, più che come una disciplina. Non tutte le teorie e i concetti semiotici, ovviamente, si applicano a tutti gli oggetti di analisi: è compito di ogni semiotica specifica scegliere di volta in volta gli strumenti teorici e concettuali che più le si addicono e, se non li trova, contribuire a costruirne di nuovi. La situazione si complica ulteriormente quando i testi con cui ha a che fare una semiotica specifica sono la combinazione di molte forme di comunicazione diverse, come accade con i nuovi media, che sono quasi sempre multimediali.

  • L’analisi semiotica

Anche se le teorie che compongono il campo semiotico sono molte e disparate, la semiotica di ispirazione strutturalista ha elaborato una metodologia unitaria. Alcuni concetti generali di questa metodologia permettono di comprendere in via preliminare cosa vuol dire fare analisi semiotica di un testo e trattare un nuovo medium come testo.

  • Che cos’è un testo.                Nella seconda metà del 900 la linguistica e la semiotica hanno spostato l’attenzione sulla nozione di testo: ne nacquero la linguistica testuale e la semiotica del testo. "Spostare l’attenzione verso il testo" vuol dire spostare l’attenzione verso unità di analisi superiori non solo alla singole parole, ma superiori anche alle frasi e agli enunciati. La vocazione generale della semiotica ha ampliato questo concetto fino a renderlo quasi onnicomprensivo. In prospettiva semiotica, infatti, sono testi
    • i miti e racconti di folclore
    • i testi scritti (racconti, romanzi, poesie, articoli, sceneggiature)
    • i testi visivi (dipinti, stampe, pubblicità a stampa, foto, manifesti)
    • i testi audio (brani musicali, canzoni, trasmissioni radiofoniche)
    • gli audiovisivi (lungometraggi, cortometraggi, spot, trasmissioni televisive, videoclip)
    • i testi multimediali (Cd e Dvd multimediali, siti web)
    • gli ambiti istituzionali
    • i rituali
    • le pratiche sociali
    • le interazioni fra individui

Dal punto di vista semiotico, un testo è dunque qualunque porzione di realtà

  • che sia dotata di significato per qualcuno
  • di cui si possano definire chiaramente i limiti, per cui si riesce a distinguere il testo da ciò che ne sta fuori
  • che si possa scomporre in unità discrete, secondo più livelli gerarchici di analisi, dal più concreto e superficiale al più astratto e profondo
  • e secondo criteri oggettivabili
  • La descrizione e i suoi livelli.           L’analisi semiotica dei testi non ha nulla a che vedere con indagini sociologiche volte ad ottenere percentuali e statistiche, né mira a definire le condizioni che i testi dovrebbero rispettare per essere, a seconda dei casi e del tipo di analisi, più o meno comprensibili, pragmaticamente efficaci, esteticamente validi, .. Il metodo analitico della semiotica, come quello della filosofia del linguaggio, non è quantitativo ma qualitativo, non è normativo ma descrittivo. A differenza della filosofia analitica del linguaggio, però, il metodo semiotico non è aprioristico. Infatti, mentre il filosofo analitico parte spesso dall’analisi dell’uso ordinario di espressioni linguistiche, supponendo che corrisponda a quello della maggior parte delle persone, e si muove all’interno di questa supposizione, il semiotico considera sempre il testo o la pluralità di testi che analizza come un banco di prova empirico che può confermare o confutare dall’esterno le sue teorie e ipotesi. L’analisi semiotica è un’operazione di smontaggio, di scomposizione di un testo in elementi pertinenti più piccoli e più generali, cioè ricorrenti sia in quel testo che in altri. L’analisi procede aumentando progressivamente il grado di generalità e astrazione dei suoi concetti o, come si dice in semiotica, scendendo via via dalla superficie alla profondità del testo: si passa cioè dalla superficie discorsiva particolare e concreta, in cui il testo manifesta la sua unicità, a livelli di analisi sempre più generali e astratti che costituiscono la sua profondità semantica. L’individuazione di più livelli gerarchici di significato, dalla superficie di un testo a gradi sempre più profondi di astrazione e generalizzazione, è una della caratteristiche fondamentali che distinguono il metodo semiotico da quello filosofico-analitico, linguistico, sociologico.

 

  • Il sistema e l’enciclopedia.               In questa operazione di smontaggio analitico e stratificato, la semiotica cerca le regole e i significati generali profondi che governano un testo, e li confronta con quelli reperibili in altri testi e nella cultura (storicamente e socialmente determinata) in cui il testo è immerso. Lo strutturalismo ha insegnato alla semiotica che i significati e le regole non stanno mai da soli, ma sono sempre inseriti in un sistema di relazioni, che queste relazioni sono di opposizione, contrarietà o contraddizione, e che come tali possono essere organizzate in forma di quadrato, come ha fatto Greimas.

       

L’analisi semiotica cerca innanzi tutto le relazioni di opposizione che sono esplicite o implicite in un testo, ma le confronta continuamente anche con ciò che sta fuori dal testo, ovvero con l’intertestualità di cui il testo è intessuto (citazioni, allusioni ad altri testi, regole di genere) e con quella che Eco chiama enciclopedia o Lotman chiama semiosfera, cioè col patrimonio di conoscenza e credenze condivise nella cultura, nella società, nel momento storico in cui il testo vive. Quindi l’analisi semiotica si configura sempre come analisi sistematica di ciò che si sa, del patrimonio comune e condiviso di saperi che circonda un testo in un certo contesto culturale, sociale, storico e ne permette la significazione, circolazione e comprensione. Qualunque nuovo medium, proprio in quanto nuovo, ha bisogno, per essere compreso e usato, di appoggiarsi alle regole che governano i media che l’hanno preceduto, trasformandole e ricombinandole in modo più o meno originale e trasparente, ma comunque sempre attingendo abbondantemente al passato. È questo che Bolter e Grusin chiamano il processo di ri-mediazione (remediation) che continuamente i media applicano in modo stratificato su quelli che li hanno preceduti nel tempo, o anche gli uni sugli altri nella contemporaneità. L’analisi semiotica di ciò che si sa su come comunicano e funzionano i vecchi media sarà dunque utile per l’analisi dei nuovi media.

  • Media e nuovi media.

Quando si parla di media o mezzi di comunicazione si è sempre costretti a fare molte distinzioni; le parole che li designano, infatti, sono tutte molto ambigue. Compito dell’analisi semiotica è sciogliere questa ambiguità intrinseca, definendo confini, somiglianze e differenze. Fra le tante distinzioni possibili quando si parla di media, ne riprendiamo solo una, che li riguarda tutti, che si è ormai assestata negli studi di sociologia dei media e ci aiuta ad individuare subito un ambito d’indagine pertinente anche per la semiotica. Si tratta della distinzione fra media intesi come tecnologie e media intesi come forme di comunicazione, cioè come insiemi di regole, convenzioni e forme organizzative (culturalmente, socialmente e storicamente determinate) che le persone seguono quando comunicano usando le tecnologie. Il punto è che a nessuno dei media contemporanei corrisponde una sola forma di comunicazione, ma tutti, vecchi e nuovi, ne permettono una molteplicità, con regole anche molto diverse. Non sono quindi mezzi di comunicazione dal punto di vista semiotico la televisione o la radio come tecnologie di ricezione e trasmissione (cavi, apparati fisici), né come agglomerati indistinti di persone, ambienti e mezzi, MA i diversi generi e formati dei programmi televisivi e radiofonici (TG, talk show, fiction, giornale radio) e l’organizzazione dell’ambiente comunicativo che rende possibile ciascun genere e formato. Per quanto riguarda Internet non sono media, dal punto di vista semiotico, le reti di calcolatori (tecnologie hardware) né i protocolli Tcp/Ip che regolano la trasmissione di dati sulle reti (tecnologie software),

 

[software = tutto ciò che può essere codificato in una memoria elettronica, come sequenze di istruzioni per un computer, cioè programmi, o come dati - hardware = insieme di tutti i dispositivi fisico-elettronici che servono a memorizzare, elaborare e rendere accessibile il software]
ma non lo sono neanche i vari applicativi software che permettono la comunicazione interpersonale su Internet (e-mail, chat, forum, ..), né tanto meno il Web come tale. Quest’ultimo punto è meno ovvio, come mostrano le numerose discussioni che trattano queste tecnologie come se ognuna fosse una forma comunicativa: si parla, ad esempio, della comunicazione via mail o chat e del Web, come se la mail, la chat e il Web fossero ciascuna una cosa sola dal punto di vista comunicativo, mentre queste tecnologie permettono ognuna una varietà di usi e pratiche sociali che andrebbero indagate separatamente. L’informatica ha moltiplicato a dismisura le forme di comunicazione che ciascuna tecnologia permette di realizzare. Con la digitalizzazione si convertono in formato numerico (digitale), si memorizzano e si rendono elaborabili e fruibili sullo stesso supporto fisico informazioni e grandezze che, in formato analogico, sono registrate, trattate e fruibili su supporti fisici diversi: per questo il computer è la tecnologia in assoluto più versatile. È la digitalizzazione che rende possibile, dal punto di vista tecnico, i fenomeni contemporanei della multimedialità e della convergenza dei media, che è l’integrazione di media diversi riguardanti le telecomunicazioni, le comunicazioni di dati e le comunicazioni di massa. In generale, è nuovo tutto ciò a cui non siamo ancora abituati, che non controlliamo bene e non riusciamo ad inquadrare, del tutto o in parte, nelle regole che conosciamo e seguiamo. Dunque il significato del nuovo cambia innanzi tutto in funzione del tempo: man mano che ci abituiamo a qualcosa, questo cessa di essere nuovo per noi e diventa prima noto, conosciuto, poi, via via che passa il tempo, sempre più scontato e vecchio. La percezione del nuovo dipende anche da variabili soggettive (ciò che è nuovo per me può essere vecchio e scontato per altri), che però alla semiotica non interessano: il nuovo semioticamente rilevante è quello condiviso dai più in un certo ambiente culturale e sociale e in un certo momento storico, è quello cioè registrato dal senso comune, dall’enciclopedia di una certa cultura. Negli ultimi anni, nei paesi ricchi dell’occidente e nord del mondo, i media che l’enciclopedia comune registra come nuovi cambiano con grande rapidità, molto più che in passato. Dal punto di vista delle tecnologie, dagli anni 60 in poi l’informatica ha registrato cambiamenti rapidissimi. L’innovazione delle tecnologie informatiche è inoltre enfatizzata dalle strategie congiunte delle multinazionali del settore informatico: le aziende che producono microprocessori, come Intel, quelle che producono hardware (Ibm, Compaq, Sun, ..), quelle che producono software (Microsoft, Macromedia, ..), corrono su binari paralleli, per cui sviluppano versioni sempre più complesse di software, che richiedono sistemi hardware con capacità di memoria sempre maggiore e processori sempre più veloci. I cambiamenti imposti dall’informatica e dalle sue strategie di marketing ci hanno messi quindi nelle condizioni di non poterci abituare quasi a nulla in questo campo, perché i tempi di sostituzione delle tecnologie informatiche sono talmente rapidi che non riusciamo a sentirci mai abbastanza a nostro agio da percepirle come vecchie. Per questo, l’unica cosa oggi chiara dei nuovi media è che si basano su tecnologie informatiche, che in quanto tali sono condannate ad una condizione di novità permanente. Questa considerazione non aiuta certo a delimitare il campo dei nuovi media. In una situazione in cui il nuovo sta ovunque e cambia sempre più rapidamente, si seleziona di cosa parlare e su cosa riflettere anche sulla base di mode. Ad esempio, fino alla fine degli anni 90 andava di moda parlare di ipertesti; oggi il dibattito sugli ipertesti si è quasi completamente spento; eppure non ci sarebbero ragioni per questo, visto che gli ipertesti sono più vivi di prima, sia come tecnologie che come forme comunicative. Dobbiamo forse pensare che siamo talmente abituati agli ipertesti che non li consideriamo più nuovi media?? No davvero, visto che l’enciclopedia comune registra ancora come nuove molte tecnologie a base ipertestuale (prodotti multimediali su Cd e Dvd, videogiochi, menu di selezione delle pay Tv); semplicemente, non va più di moda discutere in che misura e modo questi testi siano forme di ipertesti. Per fare esempi di tendenze del momento, oggi va di moda parlare di Web, anche se non se ne parla più in termini di

  • ipertesto
  • e-learning (apprendimento a distanza; che negli anni 90 si preferiva chiamare formazione a distanza o Fad)
  • intranet (reti di computer interne alle aziende e alle amministrazioni pubbliche, chiuse a utenti esterni e delimitate geograficamente)
  • e-government (insieme di relazioni che le amministrazioni pubbliche intrattengono su Internet con i cittadini, le imprese e altre amministrazioni)
  • web semantico (inclusione nei documenti web di informazioni sugli argomenti e i concetti di cui i documenti trattano, sulla loro categorizzazione, sulle relazioni con altri documenti web)
  • wi-fi (wireless fidelity; possibilità di connettersi a Internet senza cavi, da un computer portatile, un palmare, un cellulare)
  • Mms (Multimedia Message Service; tecnologia che permette di inviare e ricevere sul proprio cellulare file di immagini e audio)

Alcune di queste mode sono dettate dalle strategie commerciali delle grandi imprese informatiche, altre dai mezzi di comunicazione di massa, altre invece sono più giustificate dal punto di vista semiotico, perché nascono da saperi e pratiche effettivamente condivise in certi ambiti culturali e sociali. Sarà compito del semiotico, di volta in volta, prima distinguere i vari tipi di discorsi sui nuovi media, poi selezionare come propri oggetti di analisi solo quelli semioticamente fondati. Questo manuale introduttivo si propone di fornire strumenti concettuali e metodologici abbastanza generali per permettere e stimolare analisi testuali, discussioni e riflessioni semiotiche su questo o quel nuovo medium, anche seguendo le mode quando vale la pena di farlo. A questo scopo, sono stati selezionati alcuni concetti e ambiti tematici abbastanza generali e assestati da essere utili per affrontare, da qualche punto di vista semiotico, la maggior parte delle forme di comunicazione oggi legate alle tecnologie informatiche; la discussione su questo o quel mezzo verrà quindi inserita in esemplificazioni e approfondimenti locali.
+ vedi riassunti dei capitoli 2-6 a pagg. 16-17
L’insistenza sulle forme e i generi della comunicazione web è ricorrente in tutto il volume in quanto il web oggi domina un po’ tutta la letteratura sui nuovi media, semiotica e non. Inoltre, il Web non può essere considerato un medium, ma un sistema di media, un sistema multimediale di media. Cominciamo analizzando la nozione che più spesso è associata ai nuovi media, quella di multimedialità. È importante chiarire il significato di questo termine non tanto perché è uno dei più abusati, ma perché è connesso alla tecnologia fondamentale su cui si basa qualunque nuovo medium: la digitalizzazione.

  • Multimedialità e testi sincretici.

Il termine "multimedialità" ormai fa parte del linguaggio comune, ma è usato spesso in modo confuso o ambiguo. Questa confusione non è solo nel senso comune, ma anche nella riflessione teorica sui media. La nostra proposta è quella di chiarire la multimedialità con il concetto semiotico di testo sincretico. Un testo sincretico organizza linguaggi eterogenei in una strategia di comunicazione unitaria, cioè presenta marche sintattiche, semantiche e pragmatiche di coesione e coerenza che rimandano alla stessa istanza di enunciazione, o allo stesso autore empirico o ad un insieme di autori empirici che abbiano seguito le stesse regole di produzione testuale.
[sintassi = relazioni formali fra i segni, indipendentemente dal loro significato - semantica = il significato dei segni - pragmatica = modo in cui le persone usano i segni nei contesti concreti per comunicare]
Dunque, la somma di un testo verbale scritto e della registrazione audio della sua lettura ad alta voce non è un testo sincretico, mentre lo è la loro combinazione specificamente progettata per comunicare significati ulteriori rispetto a quelli espressi dal solo testo scritto o dalla sola registrazione audio (es: un testo digitale che combina la presentazione di un discorso politico scritto con un pulsante che permette di ascoltare la sua declamazione da parte dell’oratore, se è stato progettato per far cogliere i significati aggiuntivi che emergono dalla versione orale del discorso e dal contesto in cui è stata prodotta). Prima di mettere in rapporto la nozione semiotica di testo sincretico con la multimedialità, riprendiamo alcuni concetti base della semiotica hjelmsleviana. In ogni sistema semiotico, Hjelmslev distingue il piano dell’espressione (la componente sensibile e materiale della relazione segnica, il significante di Saussure) dal piano del contenuto (ciò che l’espressione significa, il significato di Saussure) e, su ciascun piano, la forma e sostanza dell’espressione dalla forma e sostanza del contenuto. La sostanza dell’espressione delle lingue parlate è l’insieme di suoni che l’apparato fonatorio umano è in grado di produrre e l’orecchio umano di percepire. Queste possibilità sonore, dette anche fonico-acustiche o vocali-uditive, sono studiate dalla fonetica. Per quanto riguarda le lingue scritte, nel caso dei testi a stampa sono sostanze dell’espressione le configurazioni tipografiche con i loro contrasti di bianco e nero, mentre, nel caso dei testi digitali, lo sono le configurazioni di pixel sullo schermo del computer.
[pixel = i singoli punti, così vicini gli uni agli altri che appaiono uniti, in cui sono suddivisi gli schermi grafici dei computer; sono organizzati in righe e colonne; quanto maggiore è il numero di righe e colonne, tanto maggiore è la "risoluzione" dello schermo]
Per quanto riguarda i sistemi semiotici non verbali, sono sostanze dell’espressione, ad esempio, i pigmenti di colore organizzati sulla tela di un quadro, la configurazione dei punti luminosi di uno schermo televisivo. Come esempi di forma dell’espressione, abbiamo innanzi tutto i sistemi di suoni (fonemi) che le varie lingue parlate individuano e sistematizzano (ogni lingua ha il suo), selezionandoli dalla sostanza dell’espressione, cioè da tutti i suoni che l’apparato vocale umano può produrre. Ai sistemi di fonemi delle lingue parlate, studiati dalla fonologia, corrispondono nelle scritture alfabetiche sistemi di grafemi (le lettere dell’alfabeto scritto). Nelle lingue naturali sono forme dell’espressione anche quelle individuate dalla morfologia e dalla sintassi, che si applicano a unità di analisi del piano dell’espressione più ampie dei singoli suoni: morfemi, parole, frasi. Sul piano del contenuto, è sostanza qualunque pensiero, oggetto, evento, relazione del mondo, che possa essere espresso da qualche lingua e/o da qualche sistema semiotico. La forma del contenuto è invece la forma che ogni lingua o sistema semiotico ritaglia e seleziona (ognuno a modo suo) nella materia indifferenziata del mondo, trasformandola in sostanza del contenuto per quella lingua o sistema semiotico. Sono testi sincretici, ad esempio, i fumetti, le riviste, gli annunci pubblicitari a stampa, che applicano alla stessa sostanza dell’espressione (la pagina in bianco e nero o a colori del giornale o della rivista), da un lato, le forme dell’espressione e del contenuto di diversi linguaggi visivi (l’illustrazione, la fotografia di reportage o di moda, l’immagine pubblicitaria), dall’altro, le regole sintattiche, semantiche e pragmatiche delle lingue verbali scritte affiancate alle immagini. Sono testi sincretici di complessità ulteriore gli audiovisivi (film, programmi televisivi, spot pubblicitari), che combinano linguaggi basati su sostanze dell’espressione visive con linguaggi basati su sostanze dell’espressione sonore: musica (sigle, basi musicali, colonne sonore), effetti audio, e tutto ciò che le lingue verbali possono comunicare sul canale fonico-acustico, sia dal punto di vista linguistico (perché il parlato ha stili e modalità espressive diverse dallo scritto), sia dal punto di vista prosodico (pause, durata e quantità di vocali, consonanti, parole) e paralinguistico (variazioni di tono, energia e sonorità nella pronuncia). Sono testi sincretici ancora più complessi i testi multimediali contemporanei, nei diversi significati che oggi si attribuiscono a questo termine. La parola "multimedialità" è usata spesso in un’accezione ristretta, riferendosi al fatto che i computer sono dotati di casse acustiche da cui ascoltare musica e audio, e di uno schermo su cui vedere animazioni e filmati. Così facendo, si riduce la multimedialità a multisensorialità, o a multisostanzialità, perché si sottolinea solo il fatto che un testo sia basato su molte sostanze dell’espressione e coinvolga molti canali sensoriali. Per quanto a volte riduttivo, il riferimento alla multisensorialità è molto importante per comprendere la multimedialità, perché rende conto di tanti usi di questo termine: quando infatti si parla di eventi, effetti, performances multimediali, si intendono esperienze in cui molti sensi, idealmente tutti, sono coinvolti. Inoltre, le mani e il tatto sono fondamentali nell’uso di qualunque Pc, specie per la manipolazione diretta delle interfacce grafiche. E il tatto è cruciale per creare la sensazione di immersione nello spazio dello schermo, enfatizzata da quei videogiochi (multimediali, appunto) che, all’iperrealismo dell’interfaccia tridimensionale, aggiungono vibrazioni del joypad concomitanti ad eventi del gioco o movimenti del personaggio controllato dal giocatore. La multisensorialità non esaurisce però i significati della multimedialità, com’è dimostrato dal fatto che gli audiovisivi sono multisensoriali, e tuttavia non li diciamo multimediali. Questo non tanto perché coinvolgono solo 2 canali sensoriali (vista e udito) invece di molti, ma perché ogni audiovisivo è percepito come un solo medium, non come molti. La multimedialità mette in gioco infatti non solo una pluralità di canali percettivi, ma una pluralità di media (multi-media, appunto), laddove il concetto di medium non riguarda né la sostanza dell’espressione né la tecnologia, ma è una forma di comunicazione, storicamente, culturalmente e socialmente determinata. Neanche il concetto di medium basta però a spiegare tutti i significati della parola "multimedialità": un libro illustrato è multimediale nel senso appena visto (combina la forma comunicativa delle immagini con quella dei testi verbali), ma non è un esempio di multimedialità, innanzi tutto perché coinvolge solo la vista e non molti sensi, ma anche per un altro motivo. Il punto è che la multimedialità porta con sé anche la novità: non a caso l’espressione tecnologie multimediali è usata anche come sinonimo di nuove tecnologie. Sono dunque multimediali in senso pieno i testi che mettono insieme:

  • una pluralità di media intesi come forme di comunicazione
  • attraverso una strategia di comunicazione unitaria
  • in una combinazione che non siamo ancora abituati a pensare assieme, che cioè ci pare nuova
  • e che fruiamo attraverso più di un canale sensoriale

Sono multimediali in senso pieno certi portali web perché combinano fra loro i linguaggi del quotidiano (impaginazione della homepage, stile di scrittura degli articoli), di certi periodici (organizzazione delle sezioni interne, alternanza di testi verbali e immagini, stile dei servizi di approfondimento), del TG (interviste video, brani documentari), della radio (stacchi audio), dello spot pubblicitario (animazioni, inserti video), del cinema (sigle di apertura e chiusura), delle chat e dei newsgroup negli spazi dedicati alla comunicazione interpersonale. La combinazione di linguaggi e sistemi semiotici che si giocano in un portale web è multimediale nel senso più pieno di questa parola. Analogamente, fuori da Internet, sono multimediali in senso pieno alcune enciclopedie su Cd-Rom. Il concetto di testo sincretico è più ampio di quello di multimedialità, perché comprende sia la semplice multisensorialità, sia la multimedialità vecchia, sia quella nuova: dipende da quali sono i linguaggi coinvolti nella pluralità cui fa riferimento la definizione greimasiana. Si va quindi dal sincretismo monosensoriale di un annuncio pubblicitario a stampa, che accosta un’immagine fotografica (visual) ad uno slogan (headline), al sincretismo multisensoriale "vecchio" di un film, al sincretismo multisensoriale, multimediale e nuovo di un portale web.

 

  • INTERFACCIA, INTERAZIONE, INTERATTIVITÀ.
  • Le interfacce informatiche.

Il concetto di interfaccia nasce in informatica, anche se oggi viene applicato spesso, per estensione, anche a oggetti che non sono artefatti informatici. In informatica si distinguono innanzi tutto le interfacce hardware o fisiche dalle interfacce software. Sono interfacce hardware o fisiche i dispositivi di interconnessione che servono a rendere compatibili a far lavorare assieme sistemi fisico-elettronici che hanno caratteristiche diverse a livelli diversi di complessità (es: la porta seriale, la porta parallela e la porta Usb di un personal computer, che servono a collegare al computer altri dispositivi hardware, come stampanti, scanner, mouse, cellulari, ..). Le interfacce software sono invece linguaggi e codici che programmi software con caratteristiche diverse usano per comunicare fra loro e con l’hardware della macchina su cui risiedono. La maggior parte dei sistemi operativi, come ad esempio Microsoft Windows, forniscono ai programmatori un’interfaccia per i programmi applicativi (Api), che è un insieme di routine, protocolli e strumenti che servono a sviluppare programmi coerenti con quel sistema operativo. Per estensione, il termine "interfaccia" designa le componenti sia hardware che software di un elaboratore elettronico che permettono alle persone di comunicare e lavorare con il sistema. Spesso ci si riferisce con più precisione a questo senso del termine con l’espressione interfaccia utente (user interface o UI) " in un comune Pc (dal punto di vista hardware) lo sono: lo schermo, la tastiera e il dispositivo di puntamento (che spesso è il mouse, ma può anche essere una trackball o un touchpad, come in molti computer portatili) - sulle console per videogiochi lo sono, oltre lo schermo, la tastiera e il mouse, il joystick (ormai un po’ fuori moda) e il joypad (caratterizzato dal fatto che si tiene con 2 mani e ha un maggior numero di comandi e combinazioni rispetto al joystick)
Dal punto di vista software, l’interfaccia utente di un programma è l’insieme di comandi del programma che sono direttamente percepibili e manipolabili dall’utente; è ciò che un programma fa apparire dentro lo schermo, per cui una persona, combinando le azioni sugli elementi dell’interfaccia fisica (dispositivo di puntamento e tastiera) con azioni su ciò che vede nello schermo, può impartire comandi alla macchina e fare cose con la macchina. L’utente può accedere a questi comandi in modi diversi a seconda del programma:

  • digitando sulla tastiera parole speciali che il programma comprende
  • schiacciando con le dita un tasto funzione (che ha esiti diversi a seconda del programma)
  • scegliendo col dispositivo di puntamento un comando da un menu, cioè da una lista di comandi possibili che appare a schermo
  • selezionando col dispositivo di puntamento un comando bottoni o altri oggetti grafici nello schermo

Se intesa come insieme di comandi visibili nello schermo, l’interfaccia può essere quindi a caratteri, a menu, oppure grafica. Posto che i tasti funzione (caso 2) sono operativi in tutti e 3 i tipi di interfaccia, un programma ha un’interfaccia a caratteri (o a linea di comando) nel caso (1), cioè quando l’utente può impartire comandi digitando sulla tastiera sequenze di carattere Ascii che il programma comprende come parole-chiave. Questo tipo di interfaccia è stato il primo, storicamente, ad apparire e ha caratterizzato per anni i Pc dotati di sistema operativo Ms-Dos. Un programma ha un’interfaccia a menu (caso 3) quando esprime i comandi come liste (menu) di parole, sintagmi o frasi fra cui l’utente può scegliere usando la tastiera o il dispositivo di puntamento. I menu si trovano sia nelle interfacce a caratteri che in quelle grafiche. Un programma ha un’interfaccia grafica (Graphical User Interface o Gui) (caso 4) se mostra i comandi sotto forma di bottoni e altri oggetti grafici (icone) che l’utente può scegliere usando la tastiera o il dispositivo di puntamento (ma anche sotto forma di menu, a loro volta presentati come oggetti grafici). La prima interfaccia grafica fu progettata negli anni 70, che introdusse il sistema delle icone sul desktop (cioè sul piano della scrivania). Nel 1979 Steve Jobs, fondatore di Apple, riprese questi risultati per i Pc che il suo gruppo stava progettando. Dopo il fallimento nel 1983 di Lisa, il primo Pc di Apple, nel 1984 Apple introdusse il Macintosh, che fu un successo: da quel momento le interfacce grafiche si sono diffuse a tal punto che oggi sono le interfacce per antonomasia. Quando Apple presentò il computer Macintosh, lo accompagnò con le Macintosh Human Interface Guidelines che enunciavano le regole generali che gli sviluppatori di software per Macintosh avrebbero dovuto seguire. Le Guidelines hanno orientato tutta la produzione successiva di software con interfaccia grafica, non solo per i computer Apple, ma per molte piattaforme diverse, a partire da Microsoft Windows, che uscì un anno dopo, nel 1985, con la prima versione della sua interfaccia grafica ricalcata su quella di Apple. Per questo le Guidelines sono un classico sia per gli studi sulle interfacce utente, sia per quelli sull’usabilità. Per questo l’analisi semiotica dell’interfaccia e dei concetti di interazione e interattività che le sono connessi parte da qui.

  • Le "Guidelines" di Apple per l’interfaccia grafica.

Il primo capitolo delle Guidelines "Human Interface Principles" è il più importante dal nostro punto di vista perché è indipendente dai dettagli tecnici rivolti ai programmatori e riassume "la filosofia e la psicologia che stanno dietro all’interfaccia Macintosh". Questa filosofia generale viene enunciata in 13 principi: (1) metafore, (2) manipolazione diretta, (3) vedi-e-punta, (4) coerenza, (5) WYSIWYG, (6) controllo da parte dell’utente, (8) feedback e dialogo, (8) clemenza, (9) percezione di stabilità, (10) integrità estetica, (11) mancanza di modalità, (12) conoscenza del proprio destinatario, (13) accessibilità. Questi principi verranno riorganizzati e approfonditi in chiave semiotica, anche andando oltre quanto esplicitamente detto nelle Guidelines.

  • Metafore.                 Le Guidelines sostengono l’importanza delle metafore nelle interfacce grafiche: grazie alle metafore le persone, usando un artefatto informatico che non conoscono o conoscono poco, possono trarre vantaggio da conoscenze più consolidate su oggetti, azioni e situazioni della vita quotidiana. La principale metafora introdotta da Apple per l’interfaccia del sistema operativo è quella della scrivania di un ufficio: lo spazio dello schermo va immaginato come fosse un desktop, cioè il piano di una scrivania, mentre le icone sono oggetti che stanno sul piano della scrivania e rappresentano collegamenti a programmi o dati. I programmi e i dati sono contenuti in files, cioè cartelle di schede, schedari, contenitori. Gli oggetti sul desktop possono essere aperti, chiusi, spostati, archiviati, gettati nel cestino, e tutte queste azioni avviano processi che la macchina esegue sui programmi o dati a cui le icone sono collegate (accesso, salvataggio, cancellazione di dati, ..). Un’altra metafora è quella delle finestre: l’interfaccia del sistema operativo suddivide lo schermo in finestre, cioè in aree rettangolari che mostrano ciascuna un programma o un file di dati, e che possono essere aperte o chiuse, allargate o ristrette, spostate o sovrapposte azionando il dispositivo di puntamento. Un’altra metafora è quella della pulsantiera: ad esempio, la pulsantiera principale di Windows (dalla versione 95 in poi) compare a salita verticale, adiacente al lato sinistro della cornice di plastica del monitor, quando si schiaccia il bottone "Start"/"Avvio". Altri bottoni della pulsantiera principale stanno sulla cosiddetta "barra di avvio veloce" o "barra delle applicazioni", sul lato orizzontale inferiore dello schermo, subito a destra di "Start". La pulsantiera principale degli applicativi è invece di solito orizzontale in alto, adiacente al bordo superiore della finestra che incornicia il file su cui si lavora. Sia nei sistemi operativi che nelle applicazioni, ci troviamo sempre di fronte a pulsanti o bottoni da schiacciare per attivare i diversi comandi. Questo schiacciamento è duplice:
    • letterale, con le dita della mano                            e
    • metaforico, perché rappresentato visivamente da pulsanti disegnati, che hanno icone o parole soprascritte che descrivono le loro funzioni, e hanno ombre e sfumature che, con effetti tridimensionali, distinguono lo stato in cui i pulsanti si trovano

Applicando, come ha fatto Zinna, i modi di esistenza semiotica, possiamo distinguere i diversi stati dei pulsanti in:

  • stato potenziale: il pulsante è più chiaro degli altri o "sporge" meno degli altri, cioè è disabilitato nella situazione in cui ci troviamo (ma è potenzialmente attivo in altre)
  • stato virtuale: il pulsante ha le scritte scure su fondo più chiaro, cioè è attivo se vogliamo o dobbiamo schiacciarlo
  • stato attuale: il pulsante ha i colori invertiti (scritte chiare su fondo scuro) o sporge più degli altri quando ci passiamo sopra con il mouse, il che vuol dire che possiamo effettivamente schiacciarlo e, sapendo cosa comporta il fatto di farlo, stiamo per farlo
  • stato realizzato: il pulsante viene schiacciato e il comando si avvia

Uno dei modi di scegliere un comando sul desktop o in un programma è quello di selezionare la voce di un menu. Un menu può essere:

  • principale: è la pulsantiera principale dei programmi
  • a tendina: è la lista di comandi che compare a discesa quando si seleziona una voce della pulsantiera principale, e presenta ulteriori opzioni relative alla scelta principale
  • a scelta rapida o contestuale: (introdotto da Windows 95) è il menu a tendina che compare quando si fa clic in certi punti dello schermo col tasto destro del mouse, e presenta scelte specifiche per l’elemento posizionato sotto il puntatore
    • Manipolazione diretta, vedi-e-punta, controllo da parte dell’utente, clemenza, mancanza di modalità.

Secondo le Guidelines l’interfaccia grafica deve dare all’utente l’illusione di agire direttamente con le mani sugli oggetti rappresentati nello schermo (manipolazione diretta). Il meccanismo fondamentale con cui un’interfaccia grafica dà agli utenti questa sensazione di manipolazione diretta è quello del vedi-e-punta, che funziona così: si usa il dispositivo di puntamento, con cui prima si seleziona nello schermo l’oggetto grafico su cui si vuole agire, poi si sceglie l’azione che si vuole compiere sull’oggetto, in uno di questi modi:

  • si fa doppio clic sull’icona di un programma o di un file di dati, come quando si apre un testo o si fa partire un programma dal desktop
  • si fa un solo clic sulla rappresentazione grafica di un pulsante, come quando in un word processor (= elaboratore di testi) si avvia una ricerca, la stampa di un testo o il suo salvataggio
  • prima si seleziona la voce (parola o frase) di un menu, poi si agisce su di essa con un solo clic, come fosse un pulsante
  • si trascina un’icona su un altro oggetto grafico (drag and drop = trascina e rilascia), come quando si eliminano documenti trascinandoli sull’icona del cestino o si sposta un file da una cartella all’altra

Per dare agli utenti la sensazione di manipolare direttamente gli oggetti sullo schermo sono necessari, in fase di progettazione, alcuni accorgimenti di base, fra cui il fatto che gli oggetti restino sempre visibili durante la manipolazione e che i risultati delle azioni degli utenti appaiano immediatamente, istantaneamente. Alcuni studi e ricerche degli anni 70/80 calcolarono i tempi esatti di questa percezione di immediatezza, che non furono ripresi esplicitamente dalle Guidelines di Apple, ma che hanno assunto grande rilievo nella letteratura successiva sulla web usability. Questi sono i tempi della percezione di immediatezza:

  • per avere la sensazione che il sistema risponda istantaneamente al nostro comando, il tempo che trascorre fra il clic del mouse (la pressione di un tasto, ..) e l’esecuzione del comando dev’essere di circa 1/10 di secondo
  • il limite massimo perché il nostro flusso di pensieri non si interrompa quando agiamo su un comando è di circa 1secondo. Quindi, oltre 1/10 di secondo fra il clic e l’esecuzione del comando, anche se abbiamo la sensazione di non avere più il controllo immediato del sistema, il ritardo non sembra eccessivo se il comando risponde comunque entro 1secondo. Per ritardi superiori al secondo, è opportuno che il sistema spieghi con un messaggio le ragioni e la durata del ritardo
  • il limite perché non distogliamo l’attenzione dai comandi che stiamo manipolando è di circa 10secondi. Nel caso di ritardi superiori, perderemo la pazienza e nell’attesa faremo altre cose

Tutte le azioni sugli oggetti nello schermo devono essere iniziate e controllate dall’utente, non dal sistema: è ciò che le Guidelines chiamano il controllo da parte dell’utente. Per dare agli utenti questa sensazione di controllo, l’interfaccia deve, dicono le Guidelines, trovare "un equilibrio fra dare agli utenti la possibilità di svolgere il loro lavoro e impedirgli di distruggere i dati". Se un utente si trova in una situazione in cui rischia di distruggere involontariamente i suoi dati, è opportuno che il sistema lo avverta con un messaggio che chiede conferma dell’azione che sta per fare (es: "eliminare xy dal cestino?"). Poi però, una volta ricevuta conferma, il sistema deve permettere all’utente di procedere. È questa una componente importante della clemenza che i programmi informatici devono dimostrare nei confronti degli utenti. In generale, un’applicazione software è clemente se prevede che le azioni degli utenti siano il più possibile reversibili (il tasto "Undo" = sopprimere l'effetto di una modifica o "Annulla" è l’esempio più esplicito di questa clemenza). Quanto più un programma è clemente, tanto più incoraggerà gli utenti ad imparare come funziona senza l’aiuto di esperti e di manuali, ma sperimentandone le funzioni per prove ed errori mentre le eseguono. A rafforzare l’idea che sia l’utente a controllare un programma, vi è la regola sulla mancanza di modalità. Una modalità è un particolare stato del software che blocca l’utente, perché lascia disponibili solo alcuni comandi mentre tutti gli altri non lo sono, oppure mantiene costante, una volta selezionata la modalità, la funzione di un comando se questo può avere più funzioni. Sono modalità, ad esempio, le richieste da parte del software di scegliere certi parametri o fornire dettagli indispensabili per procedere, l’uso della matita in alternativa a quello del pennello o cancellino in un programma di grafica, il tasto di "blocco maiuscole" nelle tastiere dei Pc. Le Guidelines non vietano le modalità, che in alcuni casi sono utili o necessarie, ma stabiliscono che siano ridotte al minimo e siano sempre comunicate con chiarezza all’utente. Alla manipolazione fisica letterale (il vedi-e-punta) corrisponde quindi, metaforicamente, una manipolazione nel senso della semiotica narrativa di Greimas, per cui ci poniamo nei confronti della macchina come se fossimo un destinante che le fa fare qualcosa. E il nostro ruolo di destinanti è rafforzato dal fatto che, sulle barre dei comandi, nei menu, sulle etichette che compaiono quando il mouse passa su pulsanti e icone, troviamo spesso verbi al modo imperativo, che simulano atti linguistici rivolti alla macchina.

  • Feedback e dialogo.                          Le Guidelines stabiliscono che i programmi debbano informare il più possibile gli utenti su ciò che accade nella macchina mentre vi agiscono. Il sistema deve quindi fornire sempre un’adeguata retroazione o feedback su:
    • l’azione che l’utente ha compiuto: all’utente dev’essere sempre chiaro che il sistema ha ricevuto il suo input
    • lo stato in cui il sistema si trova in generale
    • lo stato in cui il sistema si trova immediatamente dopo l’azione dell’utente e in conseguenza di questa, il che è un feedback anche sull’azione che l’utente ha appena compiuto

Ad esempio, il sistema deve emettere un suono e/o un segnale visivo quando riceve un input dall’utente, deve dare informazioni su quanto tempo occorre per terminare un certo processo, deve informare se una certa azione non è possibile perché il sistema è impegnato in qualche altro compito, deve infine dare sempre informazioni sufficienti a far uscire l’utente dalla situazione in cui si trova. Inoltre, i messaggi di feedback devono essere concepiti, sia nei contenuti che nel linguaggio, per chi usa la macchina, in modo da dare l’impressione che la macchina dialoghi con gli utenti (per questo si parla di "finestre di dialogo"). Di conseguenza, messaggi come "errore di codice 194" sono sbagliati, perché assegnare codici agli errori non è utile per gli utenti che, non comprendendo il messaggio, possono solo ricavarne che non sono in grado di risolvere il problema da soli. Il feedback è una componente essenziale dell’impressione che gli utenti hanno di interagire con un artefatto informatico, della definizione di sistema interattivo e quindi di quella di interfaccia.

  • Coerenza, percezione di stabilità, integrità estetica.                               Le Guidelines sostengono che un’interfaccia grafica dev’essere coerente sia nella rappresentazione grafica che nel suo funzionamento, e caratterizzano la coerenza in questi termini: oltre ad essere uguali dal punto di vista visivo, gli stessi oggetti grafici devono anche funzionare allo stesso modo, sia nello stesso programma che nel passaggio da un programma all’altro. La coerenza visiva dell’interfaccia aiuta le persone ad imparare e riconoscere facilmente il linguaggio grafico dell’interfaccia. La coerenza delle funzioni che gli oggetti grafici hanno nell’interfaccia fa sì che le persone debbano imparare una sola volta quali azioni della macchina seguono al clic di un’icona o un pulsante, e possano quindi esplorare nuove applicazioni, o nuove funzioni di un’applicazione, facendo affidamento sulle competenze acquisite. La coerenza, a questo duplice livello, serve a rendere l’interfaccia il più possibile comprensibile, familiare e prevedibile, offrendo spunti di riferimento stabili e una complessiva percezione di stabilità. In termini semiotici, la coerenza di cui parlano le Guidelines riguarda sia il piano dell’espressione che quello del contenuto dell’interfaccia grafica. Questa coerenza è volta a costruire un linguaggio visivo molto semplice, formato, sul piano dell’espressione, da un numero limitato di oggetti grafici chiari e riconoscibili dal punto di vista percettivo e, sul piano del contenuto, da un significato univoco per ogni oggetto grafico, significato che consiste nelle sequenze organizzate di gesti e azioni che l’utente deve fare sull’oggetto grafico per attivare il relativo software o agire sui dati collegati. Più specificamente, il linguaggio visivo dell’interfaccia grafica è costruito come un sistema monoplanare. Per Hjelmslev sono monoplanari o conformi i sistemi di significazione in cui il piano dell’espressione è organizzato parallelamente al piano del contenuto, ovvero con una corrispondenza uno a uno fra unità minime del piano dell’espressione e unità minime del piano del contenuto. Alla coerenza dell’interfaccia, le Guidelines aggiungono integrità estetica, che significa che sul piano dell’espressione gli elementi grafici devono essere anche "piacevoli da guardare". Si ottiene integrità estetica, oltre che con la piacevolezza, anche con la semplicità, che è una componente importante della coerenza dell’interfaccia. Per le Guidelines, semplicità significa che il numero degli elementi grafici e delle loro funzioni dev’essere limitato, che non si devono usare immagini grafiche arbitrarie, ma sempre simboli standard e, se ciò non è possibile, immagini grafiche che comunicano il loro significato per convenzione, analogia o metafora.

 

  • WYSIWYG.                          
  • Nelle Guidelines del 1984 il principio WYSIWYG (acronimo per What You See Is What You Get = ciò che vedi è ciò che ottieni) significava 2 cose:
  • gli utenti di un’interfaccia grafica devono poter vedere sullo schermo tutti i comandi che un programma mette a disposizione. Se ciò non è possibile perché i comandi sono molto numerosi, dev’essere immediatamente chiaro dove si possono trovare altri comandi oltre a quelli che si vedono
  • nelle applicazioni che permettono di predisporre i dati per la stampa (es: i programmi di elaborazione testuale), non ci devono essere differenze rilevanti fra ciò che si vede a schermo quando si predispone un documento per la stampa e ciò che si ottiene stampandolo

In seguito, il principio WYSIWYG è stato identificato solo con il secondo di questi 2 punti, ed è stato generalizzato: ad esempio, in un programma di elaborazione grafica, quello che il progettista vede sullo schermo corrisponde esattamente a ciò che comparirà sullo schermo di chiunque userà il prodotto grafico seguendo le specifiche tecniche per cui è stato ottimizzato. È in quest’ultimo senso che il WYSIWYG non funziona nella progettazione dei siti web, ed è per questo che Jakob Nielsen ha potuto decretare la morte di questo principio. Chi progetta una pagina web, infatti, non può mai essere sicuro che quello che vede sul proprio schermo corrisponda a ciò che apparirà a tutti gli utenti, perché le tecnologie con cui nel mondo si accede al Web sono diverse. Le persone infatti vedono le pagine web con schermi di grandezza diversa (dai display piccolissimi di cellulari e palmari agli schermi dei Pc), usano versioni diverse di browser grafici (Explorer, Netscape) o testuali (come Lynx), lavorano su piattaforme hardware diverse (Ibm, Apple, Sun, ..), con diversi sistemi operativi e diverse velocità di connessione ad Internet. La progettazione delle pagine web deve quindi tenere conto di tutte queste differenze.

  • Conoscenza del proprio destinatario, accessibilità.                   Per creare un’interfaccia che le persone possano usare efficacemente, occorre identificare in modo preciso i destinatari che ne costituiscono il target. Per questo, dicono le Guidelines, quando si progetta l’interfaccia di un programma è utile:
    • descrivere una giornata tipica nella vita delle persone che si suppone useranno quel programma, immaginando il loro ambiente di lavoro quotidiano, gli strumenti che hanno a disposizione, i limiti fisici con cui hanno a che fare
    • quando possibile, visitare i luoghi di lavoro per integrare l’analisi con uno studio empirico su cosa fanno davvero le persone quando lavorano
    • durante la progettazione di un prodotto, coinvolgere i futuri utenti, ascoltare i loro commenti e far loro testare il prototipo del prodotto nelle diverse fasi della sua progettazione

"Sviluppa il tuo prodotto pensando alle persone e alle loro capacità, non ai computer e alle loro capacità", concludono le Guidelines, introducendo quello che diverrà uno slogan negli studi sull’interazione persona-macchina (Human Computer Interaction) orientata all’utente e all’usabilità dell’interfaccia (user-centered). Inoltre, una progettazione orientata all’utente non deve mai dimenticare che fra i destinatari di un prodotto informatico ci possono essere persone che si discostano dalla media del target perché hanno limiti o disabilità sensoriali, motorie o cognitive di diverso tipo e gravità. Pensare agli utenti disabili significa progettare l’accessibilità dell’interfaccia di un programma informatico, il che comporta adottare numerosi accorgimenti, che oggi sono standard nelle interfacce grafiche del software commerciale più diffuso, ma purtroppo non lo sono ancora sul Web. Ad esempio:

  • poiché molte persone hanno difficoltà a distinguere certi colori, non si può basare solo sul colore la comunicazione a schermo di informazioni di sistema, funzioni e comandi, ma l’uso del colore dev’essere sempre accompagnato da altri codici visivi (es: la forma e la posizione reciproca degli elementi grafici), da codici sonori e verbali
  • poiché fra gli utenti ci possono essere persone con diversi gradi di disabilità acustiche, non si può basare solo su suoni la comunicazione di informazioni di sistema, funzioni e comandi, ma occorre sempre affiancare codici visivi
  • poiché alcune persone possono soffrire di disabilità motorie che impediscono loro di usare le interfacce fisiche del computer, occorre progettare il sistema in modo che la tastiera possa assolvere, se necessario, a tutte le funzioni del mouse, che si possa rallentare la velocità con cui il computer risponde ai tasti, che l’utente non debba necessariamente schiacciare assieme più tasti per ottenere una funzione, ..

In termini semiotici, le Guidelines stabiliscono di fare ipotesti accurate su quello che, riprendendo la nozione di lettore modello di Eco, possiamo chiamare l’utente modello di un’interfaccia grafica. L’utente modello di un’interfaccia non è l’utente empirico, non è cioè chi nella realtà empirica usa davvero l’interfaccia di un programma per fare cose, ma è l’insieme di previsioni sugli utenti empirici che l’autore empirico dell’interfaccia (il progettista o il gruppo di progettazione) fa quando progetta l’interfaccia. La differenza fra la nozione di lettore e quella di utente modello sta nel fatto che, mentre nel caso del lettore modello queste previsioni riguardano azioni e stati mentali dei lettori empirici (competenze, inferenze, atti di comprensione o fraintendimento), nel caso dell’utente modello di un’interfaccia riguardano anche azioni e stati materiali del corpo degli utenti empirici: dai movimenti degli occhi e delle mani coordinati in "programmi gestuali" alle sequenze di azioni orientate a scopi della vita quotidiana. Le Guidelines invitano i progettisti a fare ipotesi il più possibile raffinate e precise, basate anche su tecniche di indagine empirica, sulle competenze, mosse interpretative e azioni concrete delle persone che useranno l’interfaccia di un programma: cose ne faranno, a quali altri strumenti affiancheranno l’uso del programma, in quali contesti e in che modo lo inseriranno nella loro vita quotidiana e professionale. Il lavoro che i progettisti devono fare per prevedere l’utente modello dovrebbe somigliare il più possibile a quello che fanno i pubblicitari quando studiano il target di un prodotto. L’attenzione delle Guidelines riguarda la previsione, nella progettazione dell’interfaccia, di caratteristiche percettive, cognitive e motorie (incluse eventuali disabilità) di utenti il più possibile generici: poiché in linea di principio l’interfaccia grafica di un sistema operativo e quella di un programma dovrebbero andar bene a tutti, le Guidelines non prendono in considerazione differenze culturali, sociali, di professione, genere, età, interessi (per questo si parla di interfacce generiche). Inoltre, poiché la Guidelines sono state scritte in un momento in cui le regole dell’interfaccia grafica non erano ancora stabilizzate, la loro intenzione era quella di spingere i progettisti verso le definizione di regole standard. Questo sforzo è analogo a quello che i sostenitori della web usability stanno facendo oggi per le interfacce dei siti web, dove gli standard sono ancora incerti. Tuttavia, a differenza di ciò che si fa nel progettare interfacce utente il più possibile generiche, nel progettare l’usabilità di siti web si dovrebbe applicare un’attenzione differenziata per tipi di utente (sociali, culturali, professionali, ..), tipi di azioni che si fanno nel sito web, tipi di situazioni in cui quelle azioni si inseriscono. L’utente modello di un’interfaccia è l’utente-tipo che l’interfaccia non solo prevede, facendo ipotesi sulle sue competenze e azioni, ma cerca anche di creare, costruendo nuove competenze e orientando le azioni che gli utenti vorranno o dovranno compiere con l’interfaccia.

  • Comunicare e interagire con la macchina.

Nella nozione informatica di interfaccia utente è sempre implicita, e spesso esplicita, l’idea che gli utenti comunichino con la macchina. Il concetto informatico di comunicazione trae origine dal celebre modello matematico della comunicazione di Shannon e Weaver. Essi volevano:

    • descrivere dal punto di vista fisico-matematico gli apparati meccanici per la trasmissione a distanza dell’informazione
    • studiare come dovessero essere fatti i segnali per rendere il più possibile efficiente la comunicazione, riducendo i danni provocati dal rumore, cioè dalle interferenze sul canale di trasmissione

Nel modello di Shannon e Weaver, la comunicazione è un passaggio di informazione da una fonte, o emittente, ad un ricevente, o destinatario: l’emittente produce un messaggio che, codificato in un segnale, viaggia lungo un canale fisico (su cui può essere disturbato da qualche interferenza o rumore) fino a raggiungere un apparato ricevente che, dotato di un dispositivo di decodifica, lo rende disponibile e comprensibile per qualche destinatario:

 

         messaggio $                   segnale $                  $ segnale ricevuto             $ messaggio ricevuto


emittente (macchina) "

codificatore "

canale "

decodificatore "

destinatario (utente)

                                                                                              rumore

Shannon e Weaver formularono anche una misurazione in bit dell’informazione contenuta in un messaggio. Questa misurazione conta le scelte binarie che sono necessarie per individuare un messaggio fra più alternative possibili: se le alternative possibili sono 2, per definire quale si dà di esse è necessaria 1scelta, dunque il messaggio vale 1bit, se le alternative sono 4, si devono fare 2scelte e il messaggio vale 2bit, se sono 8 il messaggio vale 3bit, e così via con le potenze di 2. Il modello della comunicazione come trasmissione di informazione misurata in bit è stato criticato ripetutamente dalla semiotica perché inadeguato a rendere conto della comunicazione fra esseri umani, per svariate ragioni. In sintesi, i limiti che sono stati individuati in questo modello, applicato alla comunicazione umana, sono questi:

  • il modello rappresenta la comunicazione umana come trasferimento di un contenuto fisso e predeterminato (come fosse un oggetto) fra i 2 poli, altrettanto fissi e predeterminati, dell’emittente e del destinatario: non c’è nessuna riflessione né sul messaggio (sulla molteplicità dei suoi significati e valori, sulle trasformazioni che subisce e crea nella comunicazione), né sulla soggettività insita nei poli di emissione e ricezione
  • la codifica e decodifica sono considerate operazioni inverse non problematiche, perché si suppone che emittente e ricevente condividano lo stesso codice: l’identità e univocità del codice sono date per scontate, il che non accade quasi mai nelle comunicazioni reali, in cui le persone si basano spesso su codici, conoscenze, aspettative reciproche molto diverse
  • il modello è statico e non tiene conto degli aspetti dinamici della comunicazione, per cui emittente e destinatario negoziano e rinegoziano di continuo ruoli, punti di vista, significati, valori, e le stesse regole dello scambio comunicativo
  • il modello rappresenta solo il fare informativo e trascura la vasta gamma di azioni che si possono fare quando si comunica sulla base di regole convenzionali, ma anche di scelte individuali e contestuali: comandare, richiedere, convincere, promettere, ..
  • il modello dimentica che una parte molto rilevante (spesso la più rilevante) della comunicazione umana riguarda impliciti (presupposizioni, implicazioni, implicature conversazionali, allusioni, insinuazioni), che non possono essere misurati in bit perché non sono trasmessi esplicitamente dal messaggio, e hanno margini a volte molto ampi di vaghezza e indeterminatezza

Anche se gran parte delle critiche al modello di Shannon e Weaver applicato alla comunicazione umana sono ormai scontate in semiotica, esso riguadagna importanza se si considera la comunicazione fra persone e computer, perché la trasmissione di informazioni è cruciale in informatica e nelle telecomunicazioni. Quando si comunica con una macchina, infatti, tutto ciò che si fa dev’essere tradotto in bit, cioè in sequenze di 0 e 1, altrimenti la macchina non lo comprende: il codice binario, cioè l’insieme organizzato di sequenze di 0 e 1, è il modo più diretto di descrivere in termini che non siano fisico-elettronici cosa succede materialmente nei circuiti elettronici della macchina. Nei termini del modello di Shannon e Weaver, dunque, l’interfaccia utente è la somma del canale fisico-elettronico (l’hardware) e dei diversi codificatori e decodificatori costituiti, a strati, dal software di livello alto delle interfacce grafiche, scendendo progressivamente verso il software di livello basso che traduce tutto nelle sequenze di bit del linguaggio macchina: è questa somma che in un sistema di calcolo permette il trasferimento di informazioni dall’utente al sistema e viceversa. Il fatto che ci sia un viceversa, introduce un altro concetto importante quando si parla di interfacce: quello di interazione. Di solito l’interazione fra l’utente e la macchina è pensata semplicemente come uno scambio di ruoli fra emittente e destinatario, il che amplia il modello della comunicazione come trasmissione di informazioni, ma non ne cambia la sostanza perché si limita a renderlo bidirezionale, reversibile sullo stesso canale:

messaggio ricevuto $   segnale ricevuto $       $ segnale                  $ messaggio


destinatario (macchina) !

decodificatore !

canale !

decodificatore !

emittente (utente)

                                                                                                              rumore

Lo schema bidirezionale del trasferimento di informazioni fonda, oltre all’idea di interazione fra macchina e utenti, anche il concetto informatico di interattività. Il termine interattività nasce in informatica negli anni 60 per distinguere il real time processing (= elaborazione di dati che un sistema di calcolo compie in tempo reale, cioè mentre il programmatore inserisce i dati) dal batch processing (= elaborazione da parte del sistema di dati che sono già nel codice e possono essere cambiati dal programmatore solo intervenendo nel codice stesso. Negli anni 60 erano dunque interattivi i programmi a cui il programmatore forniva i dati mentre il programma girava, e non erano interattivi i programmi che avevano i dati nel codice e che il programmatore non poteva modificare senza cambiare il codice stesso. Mentre allora l’interattività sottolineava, nello scambio di informazioni fra sistema e utente, il ruolo dell’utente, perché la novità stava da quella parte, oggi che il real time processing è scontato, quando si parla di interattività si pensa piuttosto al fatto che è il sistema a reagire, a rispondere in tempo reale, cioè immediatamente, agli input dell’utente. L’attenzione per l’uno o l’altro polo dello scambio informativo varia a seconda di cosa è scontato o cosa non lo è nel contesto in cui si parla di interattività. Poiché normalmente gli oggetti non compiono azioni ma le subiscono, a differenza dei soggetti che invece agiscono, la prima cosa che ci viene in mente quando pensiamo ad un oggetto interattivo è che l’oggetto sia capace di rispondere, di reagire con azioni conseguenti (come fosse un soggetto) agli input di un essere umano. Solo in un secondo momento ci viene in mente che, per avere interazione, cioè azione reciproca fra 2 soggetti, alla reazione del sistema debba seguire un’azione ulteriore dell’utente. Se invece parliamo di TV interattiva, pensiamo subito alla possibilità che siano gli spettatori a svolgere un ruolo in qualche modo attivo, intervenendo nei programmi, scegliendoli da un insieme di offerte, .. L’attenzione sta dalla parte dell’utente perché normalmente la televisione è un mezzo di comunicazione monodirezionale. Analogamente, quando si parla di testi e ipertesti interattivi (guide interattive, corsi interattivi, narrativa interattiva), ci si riferisce alla possibilità che i lettori intervengano attivamente e materialmente sul piano dell’espressione dei testi, facendo clic sui link, aggiungendo testi propri, proponendo esiti alternativi di una storia, rispondendo a domande, .. Normalmente infatti, nei testi tradizionali su carta, i lettori intervengono solo sul piano del contenuto.

  • L’interattività come dialogo.

Nel concetto di interattività vi è anche l’idea che lo scambio di informazioni bidirezionale fra macchina e utente sia per certi aspetti simile a ciò che accade quando le persone si parlano, dialogano fra loro. È implicito un concetto di dialogo in qualche modo paradigmatico (= che funge da modello, da esempio), prototipico (= prototipo come insieme sfumato di proprietà o tratti distintivi): quello della comunicazione faccia a faccia fra 2 persone (un parlante e un ascoltatore) che usano il canale fonico-acustico di qualche lingua per parlarsi. Il dialogo prototipico è caratterizzato da questi 5 insiemi di caratteristiche essenziali:

  • sono coinvolte 2 persone, un parlante e un ascoltatore. Essi hanno in comune la lingua in cui parlano e un insieme di conoscenze e credenze generali, cioè condivise ampiamente dalla media delle persone che vivono nella loro cultura e nel loro tempo (porzioni dell’enciclopedia di Eco), conoscenze e credenze particolari, cioè condivise dal gruppo sociale, etnico, familiare cui appartengono, conoscenze e credenze idiosincratiche, cioè condivise solo da loro 2. Sulla base di queste conoscenze e credenze condivise, parlante e ascoltatore si attribuiscono reciprocamente e implicitamente stati cognitivi e passionali (intenzioni, giudizi, emozioni, desideri, ..). Inoltre, presuppongono di aver accesso reciproco solo ad una piccola parte di questo insieme ampio e variegato di stati interiori, la maggior parte dei quali resta inaccessibile quando dialogano, e può sempre riservare sorprese. In altre parole, parlante e ascoltatore presuppongono reciprocamente di essere sistemi complessi e opachi, "scatole nere" accessibili e prevedibili dall’esterno in misure diverse, ma sempre solo in parte
  • parlante e ascoltatore condividono lo spazio in cui si trovano quando dialogano
  • parlante e ascoltatore condividono il tempo in cui dialogano: si tratta di comunicazione sincrona. Per questo parlante e ascoltatore possono inviarsi messaggi (su più canali) anche contemporaneamente, sovrapponendoli l’uno all’altro. Di qui le interruzioni e sovrapposizioni di voce frequenti nel dialogo faccia a faccia
  • la condivisione dello spazio-tempo comporta che parlante e ascoltatore abbiano entrambi accesso percettivo al corpo e al contesto dell’altro. Questo accesso percettivo può essere analizzato secondo i diversi canali sensoriali coinvolti. Mentre il canale fonico-acustico è condiviso necessariamente in tutte le comunicazioni orali, gli altri canali hanno rilevanze diverse a seconda della relazione fra parlante e ascoltatore e del contesto: di solito il canale visivo gioca il ruolo preponderante, ma nelle relazioni interpersonali ravvicinate o intime possono svolgere un ruolo importante anche i canali tattile e olfattivo
  • la relazione fra parlante e ascoltatore è paritaria, cioè sia il parlante che l’ascoltatore pensano di avere pari diritto di parola. Questa caratteristica ne comporta altre 2:
  • c’è un alto grado di interscambiabilità fra il ruolo del parlante e quello dell’ascoltatore, e questo produce l’alternanza di "botta e risposta" a coppie adiacenti (= immediatamente conseguenti nel tempo), che sono tipiche della conversazione faccia a faccia e seguono regole, con relative eccezioni (interruzioni, sovrapposizioni, ..), che in parte dipendono dal contesto e in parte sono generali

ciascun soggetto adatta continuamente la propria comunicazione alle azioni e reazioni dell’altro, e in ogni momento ha la possibilità di rinegoziare le regole che presiedono alla scambio comunicativo

 

Questi insiemi di proprietà non esauriscono, presi assieme, la descrizione di cosa succede quando 2 persone comunicano faccia a faccia, ma sono essenziali al dialogo prototipico in un senso sfumato di essenzialità: se manca qualcuna di queste caratteristiche, il dialogo è percepito, in modi e gradi diversi, come anomalo o comunque meno tipico, meno vero, meno "dialogo in senso letterale". Se la comunicazione non è fra 2 persone (ce n’è solo una o ce ne sono più di 2) non si parla propriamente di dialogo (il "dialogare con sé stessi" è un senso non letterale del dialogo). D’altra parte, non si dice neppure, di chi parla in pubblico, che sta "dialogando" con il suo uditorio. Se manca la condivisione dello spazio, abbiamo le comunicazioni a distanza, o telecomunicazioni, che possono essere sia orali che scritte. Le comunicazioni a distanza orali usano il telefono e, più recentemente, i sistemi di trasmissione vocale su Internet. Poiché in questi casi le persone non condividono lo spazio ma mantengono la sincronia e condividono il canale acustico, queste comunicazioni sono abbastanza simili alla situazione prototipica del faccia a faccia da sembrarci dialoghi a tutti gli effetti. Mancano invece della condivisione sia spaziale che temporale le comunicazioni a distanza mediate dalla scrittura: tutte le comunicazioni scritte si caratterizzano per uno scarto temporale più o meno ampio fra il momento della produzione e quello della ricezione del messaggio. Rientrano in questa categoria le comunicazioni con la posta tradizionale, quelle con l’e-mail, i newsgroup, i forum, le mailing list su Internet, quelle con la tecnologia Sms sul cellulare.
[newsgroup (= gruppi di discussione): bacheche pubbliche, ciascuna dedicata ad un argomento specifico; si può spedire un messaggio al newsgroup di argomento attinente, dove tutti possono leggerlo e rispondere - forum: spazio on-line in cui si ritrovano gruppi di persone con interessi simili, per fare domande e partecipare attivamente alle discussioni che ne nascono - mailing list: metodo di comunicazione in cui un messaggio e-mail inviato ad un sistema viene inoltrato automaticamente ad una lista di destinatari interessati ad un dato argomento]
Le comunicazioni a distanza scritte sembrano tanto più dialogiche quanto più sono rapide e brevi, e imitano per iscritto il "botta e risposta" del parlato. Per quanto riguarda infine la necessità che il dialogo sia paritetico, basta pensare che non chiamiamo "dialoghi" comunicazioni orali asimmetriche per ruoli e competenze come lezioni, conferenze, discorsi pubblici, e neanche conversazioni a 2 in cui il parlante domina nettamente l’interlocutore che, per svariati motivi, interviene poco o nulla: diciamo che sono monologhi o, appunto, mancano di interattività. Il dialogo prototipico è un modello implicito non solo quando si pensa alla comunicazione fra persone (mediata o meno da tecnologie), ma anche quando si pensa all’interazione fra persone e computer o, per dirla con un’etichetta che oggi designa un intero campo disciplinare, alla Human Computer Interaction (Hci). Le caratteristiche del dialogo prototipico ci possono aiutare a definire il concetto informatico di interattività e a comprendere su quale base diciamo che oggetti e sistemi sono interattivi oppure no. Un sistema è interattivo se stabilisce con il suo utente una relazione simile a quella del dialogo prototipico. L’interattività non è un concetto assoluto, ma una questione di gradi. Questo corrisponde alle nostre intuizioni ordinarie sull’interattività (es: un computer è sicuramente interattivo, un videoregistratore lo è meno, un cacciavite non lo è affatto). Un sistema è interattivo al massimo grado se possiede 5 insiemi di caratteristiche che ricordano quelli del dialogo prototipico, se cioè si danno queste condizioni:

  • sono coinvolti 2 soggetti: il sistema e l’utente. L’utente presuppone di avere a che fare con un sistema più o meno complesso di stati e processi interni, una scatola nera che può essere più o meno accessibile e controllabile dall’esterno, ma non è mai del tutto trasparente. Quanto più alto è il grado di complessità che l’utente presuppone nel sistema, tanto più il sistema è interattivo, perché ricorda la complessità umana
  • l’utente e il sistema condividono uno spazio, quello dell’interfaccia
  • l’utente e il sistema interagiscono in sincronia, il che comporta che possano interrompersi l’un l’altro e che il loro tempo sia scandito da azioni e reazioni reciproche. Il sistema agisce e reagisce sempre in modo pertinente rispetto alle azioni e reazioni dell’utente e in ogni caso emette un segnale di feedback o retroazione, che informa l’utente sullo stato del sistema, su quale azione ha compiuto e con quali conseguenze sul sistema. Il sistema reagisce così rapidamente da simulare l’immediatezza del dialogo prototipico fra esseri umani. Se il tempo di reazione non è immediato, è comunque adeguato a quello che l’utente si aspetta, oppure il sistema dà un segnale di feedback che spiega perché gli occorre un tempo superiore alle aspettative, o perché non può rispondere
  • nell’interazione persona-macchina l’utente percepisce l’interfaccia hardware e software della macchina sui canali sensoriali che essa prevede: visivo (sullo schermo), uditivo (quando il sistema o i programmi emettono suoni o, più sistematicamente, nelle interfacce vocali),

[interfacce vocali = tecnologie adattive per non vedenti che trasformano tutto ciò che le interfacce grafiche fanno apparire nello schermo in stimoli uditivi, grazie ai cosiddetti sintetizzatori vocali o lettori dello schermo]
tattile (sul mouse, la tastiera o lo schermo nei sistemi touch screen). Anche la macchina percepisce, per così dire, l’utente attraverso i suoi "punti di intervento", che sono, da un lato, i dispositivi software che ricevono input dalla tastiera, dall’altro, i luoghi dello schermo in cui il puntatore è attivo: pulsanti, icone, righe di menu, link, punti per inserire caratteri alfanumerici

  • la relazione fra sistema e utente non è mai paritaria, ma presenta gradi diversi di asimmetria a favore dell’utente a seconda del sistema e della sua interfaccia. Più la relazione fra sistema e utente è paritaria, più il sistema è interattivo

La presenza congiunta di questi 5 insiemi di proprietà definisce un grado molto alto di interattività, quella dei sistemi informatici; ma anche nei sistemi informatici si possono tuttavia distinguere gradi diversi di interattività. Tutti gli esperimenti di intelligenza artificiale simulano al massimo grado la pariteticità del dialogo fra persone: l’intelligenza artificiale cerca infatti di costruire sistemi che non si limitano a rispondere all’utente, ma prendono iniziative, lo sorprendono con risposte inattese ma adeguate, risolvono i suoi problemi, fanno cose al posto suo in modi nuovi e migliori di come l’utente potrebbe fare. Seppure in minor grado, anche gli agenti intelligenti si pongono in relazione complessa e paritaria con l’utente, perché rilevano i suoi comportamenti e ne ricavano un profilo personale che serve loro per proporre percorsi, azioni, oggetti presumibilmente adatti alle esigenze dell’utente. Ad esempio, l’agente intelligente che sta dietro un sito come Amazon.com prende l’iniziativa di proporre agli utenti registrati liste di libri che presumibilmente corrispondono ai loro interessi, individuati sulla base delle consultazioni precedenti del sito e di eventuali acquisti già fatti on-line dall’utente. L’interazione fra utente e sistema è molto sbilanciata a favore dell’utente: l’utente ordina e il sistema obbedisce e non ci sono dialoghi alla pari, ma interazioni che ricordano piuttosto la comunicazione fra un padrone ed un servo molto passivo. Inoltre, è l’utente a decidere i tempi di interazione con il sistema, con questa scansione:

  • l’utente agisce per primo, avviando l’interazione
  • il sistema reagisce in modo consequenziale e pertinente
  • l’utente ri-reagisce alla reazione del sistema
  • il botta e risposta fra utente e sistema avviene n volte
  • l’utente chiude la relazione con il sistema

Tuttavia, ritmi e durate dell’interazione sono controllati dall’utente solo in parte, perché dipendono, oltre che dal tempo che questi impiega a fare le sue richieste e dalla complessità dei suoi obiettivi, anche dai tempi di reazione del sistema, cioè dal tipo e numero di processi che sono necessari alla scatola nera per realizzare quegli obiettivi. I limiti del controllo da parte dell’utente sono evidenti nel caso di malfunzionamenti: quando il sistema interrompe le azioni dell’utente perché va in tilt, non risponde o risponde in modo non pertinente, e quando l’utente non comprende o tarda a comprendere come agire sull’interfaccia per ottenere ciò che vuole, il dialogo sembra tornare alla pari, o addirittura sbilanciato a favore della macchina. L’interattività che attribuiamo agli oggetti diminuisce progressivamente man mano che vengono meno le somiglianze con il dialogo. Una lavatrice ci sembra più o meno interattiva, a seconda di quante e quanto complesse sono le sue funzioni: un modello base non elettronico sembra poco interattivo, mentre non abbiamo dubbi sull’interattività delle lavatrici elettroniche di ultima generazione. Perché?? Una lavatrice elettronica con molte funzioni ci sembra un sistema complesso, una scatola nera che dall’esterno riusciamo a controllare poco, e in questo senso ci ricorda un soggetto umano (punto 1). Con la lavatrice interagiamo nello spazio dell’interfaccia (punto 2), sui canali sensoriali che prevede (punto 4). Con la lavatrice siamo in sincronia (punto 3), con un ritmo di azioni e reazioni reciproche che somiglia a quello che abbiamo con un Pc (punto 5). Possiamo svolgere analisi analoghe dell’interattività di moltissimi altri oggetti: poiché il funzionamento di un numero sempre maggiore di oggetti d’uso quotidiano è gestito da microprocessori e software, un numero sempre maggiore di oggetti simulano l’interattività dialogica dei sistemi informatici. Oggi è sempre più difficile trovare esempi di interattività non gestiti da un processore elettronico. Tuttavia, qualunque macchina automatica non elettronica (es: una lavatrice elementare) è una macchina interattiva, con gradi di interattività certo inferiori a quelli degli oggetti informatizzati, ma comunque analizzabili con il nostro schema.

  • Quali oggetti hanno un’interfaccia e quali no.

Oggi il concetto informatico di interfaccia è applicato, fuori dall’informatica, anche ad oggetti di uso comune. Questo fenomeno è connesso in parte all’informatizzazione della società contemporanea. Si assiste tuttavia ad un’estensione eccessiva del concetto di interfaccia, un’estensione inadeguata per l’analisi semiotica. In questa prospettiva, sarebbero dotati di interfaccia utente non solo i sistemi informatici e gli oggetti informatizzati, ma tutti gli oggetti d’uso. Gli oggetti d’uso sono artefatti che sono stati progettati per permettere alle persone di compiere certe azioni e perseguire certi scopi, o nel senso che sono loro necessari per portare a termine le azioni e raggiungere gli scopi, o nel senso che assolvono ad una funzione di aiuto o facilitazione. Si distinguono dagli oggetti da contemplare, che sono "oggetti estetici, opere d’arte, gadget, soprammobili, oggetti da collezione, oggetti da museo". In realtà la definizione di oggetto d’uso è più ampia ed è relativa alla pertinenza di una funzione. È chiaro infatti che possono svolgere una funzione di strumento necessario o aiutante anche oggetti che non sono stati progettati a questo scopo (posso piantare un chiodo con il tacco di una scarpa), oppure non sono artefatti ma oggetti naturali (posso piantare un chiodo con un sasso). Si potrebbe a questo punto osservare che non vi è mai un oggetto che sia inutile. Tuttavia, nel caso di artefatti non progettati per una certa funzione o di oggetti naturali, non si pone il problema di decidere se l’oggetto abbia un’interfaccia utente o meno. Applicando, invece, la nozione di interfaccia a tutti gli artefatti progettati per un certo uso, la semiotica riprende alcune ricerche sul design industriale tese a conciliare l’opposizione fra estetica e funzione, svincolando il design dalla sua concezione puramente estetica. L’interfaccia non è un oggetto, ma uno spazio in cui si articola l’interazione fra corpo umano, utensile (artefatto, intesto sia come artefatto oggettuale sia come artefatto comunicativo) e scopo dell’azione. L’interfaccia rende accessibile il carattere strumentale degli oggetti e il contenuto comunicativo delle informazioni. Questa definizione però non precisa affatto cos’è l’interazione con l’oggetto. È evidente che un ampliamento eccessivo del concetto di interfaccia e di quello correlato di interazione (è interazione qualunque contatto fra esseri umani e oggetti che facilita o permette di eseguire qualche azione " es: forbici, coltello, palla, ..) portano a inutili forzature. Per questo è preferibile mantenere la definizione di interfaccia legata al concetto di interattività come simulazione del dialogo prototipico: hanno un’interfaccia utente solo gli oggetti che presentano almeno un grado minimo di interattività dialogica, e l’interfaccia utente è lo spazio in cui si esercita questa interattività.

  • Gli spazi delle interfacce grafiche.

L’interfaccia utente di un sistema operativo o di un programma è quindi lo spazio materiale e percepibile che il sistema e l’utente condividono per interagire. Possiamo chiamare questo spazio, lo spazio di azione dell’interfaccia. Le azioni dell’utente sull’interfaccia sono ciò che Greimas chiama "programmi gestuali", cioè sequenze coordinate di movimenti del corpo (in questo caso degli occhi e delle mani), che sono orientate a scopi e seguono una certa organizzazione. Nel caso dell’interfaccia grafica, scopi e organizzazione dei programmi gestuali dipendono da ciò che bisogna fare su ciascun elemento dell’interfaccia (icona, pulsante, espressione linguistica, riga di menu) per far funzionare il rispettivo comando e dalla sequenza in cui si devono digitare più comandi per raggiungere un certo scopo. Una volta realizzati i programmi gestuali di un comando (o di una sequenza di comandi), possiamo realizzare gli ulteriori programmi di azione che il software rende possibili, che non riguardano solo gesti delle mani e movimenti degli occhi, ma sono più complessi e si intrecciano con attività e scopi della nostra vita quotidiana e professionale (scrivere una lettera, stamparla, elaborare una fotografia digitale, gestire un archivio, ..). L’interazione materiale fra utente e sistema nello spazio dell’interfaccia avviene fra il puntatore che appare a schermo e il "punto di intervento" su cui il puntatore agisce (pulsante, icona, opzione di menu, posizione per inserire un testo alfanumerico, ..). È chiaro che il puntatore e i punti di intervento sono simulacri, rispettivamente, dell’utente e del sistema, sono cioè tracce che simulano nel testo costituito dall’interfaccia la presenza dei soggetti empirici che stanno fuori dal testo. Tuttavia, nello spazio dell’interfaccia questi simulacri sono essi stessi entità empiriche che interagiscono materialmente: l’embrayage creato dall’interfaccia, cioè il suo aggancio con i soggetti empirici esterni al testo (sistema e utente) è molto forte. Il puntatore agisce, cioè seleziona il punto di intervento e, così facendo, lo fa passare dallo stato di comando virtuale (espresso dalla combinazione di nero su grigio nei colori standard di Windows) a quello di comando attuale (segnalato dall’inversione di colore) se il comando permette questa fase intermedia, oppure lo fa passare direttamente, se il comando non prevede la fase di attualizzazione, allo stato di comando realizzato che avvia l’azione prevista (come quando si schiacciano i pulsanti o si inseriscono caratteri alfanumerici). Subito dopo, il sistema reagisce, eseguendo l’azione prevista dal comando o dando comunque un segnale di feedback (un suono o un messaggio di errore se l’utente ha sbagliato qualcosa, un avviso di impossibilità o ritardo a procedere, ..). Quindi il puntatore seleziona un altro punto di intervento, questo reagisce, e così via. È proprio il fatto che, da un lato, l’utente agisca materialmente sull’interfaccia e che, dall’altro, il sistema reagisca, che costituisce l’interfaccia come spazio: il fatto che un’azione compiuta per via gestuale produca effetti visibili realizza un’integrazione importante dei campi percettivi che produce a sua volta un effetto di realtà sul suo soggetto. Di qui la forte sensazione di "immersione" nello spazio di azione dell’interfaccia che tutti sperimentiamo usando un comune Pc e che le interfacce tridimensionali enfatizzano al massimo, mettendo personaggi con sembianze umane al posto del puntatore e inserendo i punti di intervento in rappresentazioni tridimensionali molto realistiche. Per questo si è proposta la metafora del teatro per descrivere l’interfaccia come luogo di interazione fra persone e computer, sottolineando come l’interazione avvenga in un ambiente unico che coinvolge attori (il sistema) e spettatori (gli utenti). Per questo altri preferiscono chiamare ambiente lo spazio di azione dell’interfaccia. Forse potremmo chiamare questo livello di spazialità immersiva spazio di percezione-azione, più che soltanto spazio di azione, proprio per ricordare anche nel nome la complessa integrazione percettivo-gestuale di cui è fatto. Nello spazio di azione possiamo distinguere lo spazio esplicito (= solo lo spazio di percezione-azione), che si vede nello schermo nel momento in cui vi agiamo, da quello implicito (= uno spazio di azione possibile), che non si vede quando guardiamo lo schermo, ma può diventare visibile se facciamo certe azioni nello spazio esplicito. Nelle interfacce dei word processor e dei siti web, il modo più comune per aver accesso allo spazio implicito (e dunque cambiare spazio esplicito) è fare scrolling con la barra di scorrimento. Una parte dello spazio di percezione-azione esplicito è destinata ai contenuti che il programma permette di visualizzare ed elaborare (parole e frasi in qualche lingua, righe di codice in qualche linguaggio di programmazione, immagini, video, animazioni): questo è lo spazio dei contenuti. In Microsoft Word, Excel, Powerpoint, ad esempio, lo spazio dei contenuti è la superficie bianca che simula una pagina di carta su cui scrivere, mentre sul Web è la parte di pagina web che esclude gli strumenti di navigazione. È chiaro che lo spazio dei contenuti fa parte dello spazio di percezione-azione perché vi possiamo agire, scrivendo testi e programmi, elaborando immagini, seguendo i link associativi delle pagine web (le parole sottolineate), .. : i contenuti digitali presentati sullo schermo da qualunque interfaccia grafica sono detti interattivi proprio perché gli utenti vi possono agire materialmente. Ma lo spazio di azione (esplicito e implicito) non è l’unico livello di spazialità delle interfacce grafiche, anche se è sicuramente il più importante. Nell’interfaccia grafica di Windows e Mac lo spazio di percezione-azione è delimitato come minimo da 2 cornici: quella della finestra del programma aperto e quella del bordo di plastica del monitor. Se teniamo aperti più programmi e manteniamo visibile la barra delle applicazioni di Windows, le cornici sono di più, le une dentro le altre; queste cornici danno l’impressione che lo spazio di percezione-azione dell’interfaccia di ciascun programma stia dietro una superficie trasparente bidimensionale: possiamo chiamare questo livello di spazialità interspazio, perché sta fra noi e lo spazio di azione.

 

  1. USABILITÀ.
  • Che cos’è l’usabilità.

Il concetto di usabilità, nel suo senso più ampio, nasce dagli studi di ergonomia. L’ergonomia classica è una disciplina che, all’incrocio fra medicina, fisica e ingegneria, studia gli aspetti fisiomotori della relazione fra il corpo umano e gli artefatti. L’ergonomia cognitiva studia invece gli aspetti psicologici dell’interazione con gli artefatti, legati alle dinamiche di percezione, apprendimento, memoria, risoluzione dei problemi. È una disciplina più recente, che si è sviluppata rapidamente dopo la diffusione degli elaboratori elettronici e dei sistemi di calcolo interattivi, tanto che oggi la sua branca più importante ed estesa è la Human Computer Interaction (Hci), cioè lo studio dell’interazione persona-computer. Anche se la Human Computer Interaction è solo un settore dell’ergonomia cognitiva, la crescente informatizzazione della società le ha conferito un ruolo sempre più rilevante. Oggi le ricerche sull’interazione persona-macchina costituiscono un campo di studi molto vasto, che si nutre dell’apporto di numerose discipline. È a partire dagli anni 80, quando i Pc entrarono nella vita quotidiana di masse crescenti di persone, che la nozione di usabilità iniziò ad essere riferita ai prodotti informatici, in particolare software, e il tema dell’usabilità cominciò ad essere uno dei più discussi della Hci. Fu con la diffusione dei Pc che i prodotti informatici entrarono nei luoghi di lavoro e nelle case della gente comune, di persone cioè che non li volevano usare per progettare e scrivere software, ma per essere aiutate nella professione e nella vita quotidiana, e dunque pretendevano prodotti facili e piacevoli, che non costringessero tutti a diventare esperti di informatica. Da allora, quando si parla di usabilità, si pensa soprattutto ai prodotti informatici e, più precisamente, all’usabilità della loro interfaccia utente. Inoltre, si parla dell’usabilità delle interfacce di telefonini, palmari, videoregistratori, lavatrici, .. perché il funzionamento di questi oggetti è gestito da programmi informatici. Anche se non tutti gli oggetti d’uso possiedono un’interfaccia, tutte le interfacce informatiche sono oggetti d’uso, perché sono progettate come strumenti che permettono alle persone di compiere certe azioni o le aiutano nel compierne altre. Vediamo una definizione di usabilità ufficiale e autorevole: quella della norma Iso 9241 del 1992. Questa norma definisce l’usabilità di un programma come "il grado in cui può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d’uso". Per l’Iso, dunque, l’usabilità è relativa a 3 variabili fondamentali (utenti, obiettivi, contesti d’uso) ed è caratterizzata in termini di efficacia, efficienza e soddisfazione, spiegati in questo modo:

  • l’efficacia è l’accuratezza e completezza con cui gli utenti raggiungono i loro obiettivi con il prodotto
  • l’efficienza si misura nei termini del rapporto fra le risorse spese e l’accuratezza e completezza con cui si raggiungono gli obiettivi
  • la soddisfazione è una generale tendenza positiva degli utenti verso il prodotto, legata all’assenza di disagi nell’usarlo

Come vedremo, la definizione Iso acquista maggiore chiarezza se leggiamo l’utente come utente modello e descriviamo in termini narrativi gli obiettivi e i contesti d’uso di cui parla. Dalla metà degli anni 90, è soprattutto al Web che si riferisce l’usabilità, o meglio, l’ingegneria dell’usabilità. L’inventore dell’ingegneria dell’usabilità è Jakob Nielsen, universalmente riconosciuto come il maggior esperto di usabilità nel mondo. L’ingegneria dell’usabilità può essere vista come il tentativo di introdurre nel Web i modelli di standardizzazione Iso. Come vedremo, entro certi limiti questo tentativo ha ragion d’essere, ma la ricchezza del Web pone problemi che non possono essere affrontati solo puntando alla standardizzazione. Lo spostamento dell’usabilità sul Web non dipende solo dallo straordinario sviluppo della rete negli ultimi anni, ma dal fatto che Internet ha capovolto il rapporto tradizionale fra la scelta (e l’acquisto) di un prodotto o servizio e il suo uso:

    • nel progetto di beni materiali e di software, i clienti prima pagano e poi hanno a che fare con l’usabilità
    • sul Web, gli utenti hanno prima a che fare con l’usabilità e poi pagano

È dunque verso l’ingegneria dell’usabilità di Nielsen che procederà la nostra analisi, perché la web usability è sicuramente l’ambito più interessante e problematico, dal punto di vista semiotico. Prima di arrivarci, è utile esaminare alcune posizioni teoriche da cui, nell’ambito della Hci, è emersa quella di Nielsen.

 

  • Le teorie dei modelli mentali.

Alcune ricerche contemporanee di ambito psicologico e cognitivo hanno elaborato definizioni dell’usabilità di oggetti d’uso e artefatti informatici basate sulla nozione di modello mentale. Le teorie psicologiche che fanno riferimento ai modelli mentali partono dall’assunto che, quanto più le situazioni sono nuove o complesse, tanto più le persone hanno bisogno di produrre anticipazioni su cosa fare e aspettarsi in quelle situazioni. Per questo i modelli mentali giocano un ruolo importante nell’uso di mezzi di comunicazione informatici, che sono sia nuovi che complessi da usare. Selezioniamo i punti di vista più interessanti per una rilettura semiotica:

  • la posizione più rilevante è quella di Donald Norman. Ingegnere e psicologo, è socio di un importante gruppo di ricerca e consulenza sull’usabilità. Norman si è occupato in generale di oggetti d’uso quotidiano (non solo di artefatti informatici), e ha articolato in 7 fasi i processi psicologici che concorrono alla comprensione degli oggetti. La progettazione di un oggetto d’uso deve fare attenzione in particolare a 2 di queste fasi:
    • quella del "golfo dell’esecuzione", creato dal tempo e dallo sforzo necessari per capire quali azioni l’oggetto rende possibili e per tradurre questa comprensione in una sequenza orientata di azioni " si può colmare questo golfo progettando oggetti che rendano visibile e comunichino al meglio la loro funzione
    • quella del "golfo della valutazione", creato dalla difficoltà di stabilire lo stato dell’oggetto dopo che l’utente vi ha agito " si può colmare questo golfo massimizzando il feed-back, cioè l’informazione che arriva all’utente sull’azione che ha compiuto e sul conseguente stato dell’oggetto

La teoria dei modelli mentali di Norman si basa sull’idea che nell’uso di un oggetto (che Norman chiama sistema, per sottolinearne la complessità) siano in gioco 3 modelli fondamentali:

  • il modello dell’utente, che è il modello concettuale che l’utente elabora dell’oggetto interagendo con esso
  • il modello progettuale, che è il modello concettuale di colui o coloro che hanno progettato l’oggetto, e aderisce a come l’oggetto è in realtà, a come funziona davvero
  • il modello o immagine del sistema, che è l’immagine complessiva che l’oggetto dà di sé all’utente con la sua apparenza fisica, il suo funzionamento e un ulteriore insieme di testi costituito da manuali e istruzioni d’uso, documenti di garanzia, etichette

Idealmente dunque, un utente sa usare correttamente un oggetto quando il suo modello concettuale corrisponde a quello progettuale; dal lato dell’oggetto, la sua usabilità è ben progettata se il progettista anticipa così bene il modello dell’utente, e lo comunica all’utente con un’immagine del sistema così adeguata, che il modello progettuale finisce per coincidere col modello dell’utente. Questa concezione dell’usabilità è troppo astratta. Non è necessario infatti che l’immagine del sistema debba esprimere il modello progettuale: più spesso i programmi forniscono un’immagine del sistema volutamente inesatta, diversa dal modello progettuale, proprio per facilitare l’uso del programma. Si pensi inoltre a certi videogiochi, che spiegano abbondantemente il sistema di comandi del personaggio controllato dal giocatore, ma non fanno altrettanto con i principi di funzionamento dei nemici, perché saperne troppo farebbe perdere al giocatore l’effetto sorpresa. Infine, non si può valutare la giustezza o meno del modello dell’utente riferendola al funzionamento reale del sistema, ma bisogna valutarla in relazione al contesto in cui l’utente applica il suo modello mentale e al modo in cui il modello mentale lo guida nell’interazione col sistema, perché un modello per certi versi carente può tuttavia orientare l’utilizzatore in modo valido, se l’aspetto di esso che viene chiamato in causa dalla persona riesce a guidarla efficacemente nell’interazione.

  • una posizione meno idealizzata è quella espressa da Alan Cooper (inventore dell’ambiente di programmazione Visual Basic), che ha svolto per Microsoft un ruolo paragonabile a quello delle Guidelines per Apple. Anche per Cooper chi progetta l’interfaccia di un programma informatico deve cercare di prevedere il modello mentale dell’utente; tuttavia, poiché non è possibile, durante la progettazione, prevedere esattamente come sarà il modello mentale dell’utente, il progettista può solo cercare di avvicinarsi il più possibile ad una previsione esatta, anche se paga il prezzo di allontanarsi dal funzionamento reale della macchina (modello manifesto del programma). Un’altra considerazione interessante per il tema dell’usabilità riguarda la classificazione degli utenti delle interfacce informatiche. Per Cooper una buona progettazione deve distinguere gli utenti in funzione della loro diversa esperienza in campo informatico, suddividendoli in classi ritagliate su un continuum che va dal principiante assoluto all’utente esperto, prendendo atto anche del fatto che la maggior parte degli utenti si accontenta di una conoscenza del programma appena sufficiente ai propri scopi immediati. Un’interfaccia usabile è dunque un’interfaccia che non obbliga tutti gli utenti a passare alla categoria di esperti.

ð        è possibile rileggere in chiave semiotica le posizioni di Norman e Cooper:

  • il modello manifesto di Cooper (insieme delle previsioni che il progettista si crea sull’utente finale) È (in termini semiotici) l’utente modello del sistema
  • l’immagine del sistema di Norman (immagine complessiva che il sistema dà di sé) È l’autore modello del sistema
  • restano fuori dalla prospettiva semiotica sia il funzionamento reale del sistema (il modello progettuale di Norman), sia il modello concettuale che gli utenti empirici si fanno del sistema quando lo usano (il modello dell’utente di Norman), equiparabili, il primo, alle intenzioni dell’autore empirico del sistema, il secondo, all’insieme di stati mentali dell’utente empirico quando interpreta e usa il sistema

Autore empirico e lettore empirico restano fuori dalle dinamiche di comprensione di un testo; per questo, autore e lettore modello sono entrambi mosse interne al testo, strategie testuali. Un testo è un prodotto la cui sorte interpretativa deve far parte del proprio meccanismo generativo: generare un testo significa attuare una strategia di cui fan parte le previsioni delle mosse altrui. Nella progettazione dell’usabilità di un sistema, la strategia testuale mira non solo a far vincere l’utente, ma a farlo vincere facilmente, "con efficacia, efficienza e soddisfazione". Per comprendere e analizzare questa strategia testuale non occorre prendere in considerazione né il modello progettuale né il modello dell’utente empirico.

 

  • La dimensione narrativa dell’usabilità.

Le interfacce informatiche sono strumenti necessari, non semplici facilitatori: in loro assenza, infatti, le persone comuni non riuscirebbero ad interagire, fare cose e raggiungere scopi con la macchina, ma questa possibilità sarebbe riservata solo ai programmatori e agli esperti di informatica. Tuttavia, le interfacce grafiche si propongono, più morbidamente, come user friendly (= amichevoli per l’utente), e cioè suoi alleati, collaboratori. Come tutti gli oggetti d’uso, le interfacce informatiche possono essere inserite in una dimensione narrativa, nel senso elementare di narrazione che sta alla base di tutte le storie, dalle più semplici alle più complesse: la forma minima della narrazione (ciò che Greimas chiama programma di azione o programma narrativo [PN] ) è infatti l’azione orientata ad uno scopo di un soggetto che vuole un certo oggetto dotato per lui di valore, che dunque è il suo scopo o obiettivo. Oltre a soggetto e oggetto, ogni programma d’azione comporta altri 4 ruoli attanziali:

    • un aiutante (qualcuno o qualcosa che collabora col soggetto nel raggiungere lo scopo)
    • un oppositore (un nemico esterno o interno, un ostacolo, ..)
    • un destinante (qualcuno o qualcosa, anche una motivazione psicologica, che all’inizio induce il soggetto a volere o dovere raggiungere lo scopo e alla fine certifica il suo successo)
    • un destinatario (il soggetto stesso, in quanto indotto a perseguire lo scopo)

Ogni programma d’azione comporta:

  • uno stato iniziale virtuale, in cui un destinante induce il soggetto a volere o dovere fare qualcosa (manipolazione)
  • una fase attuale in cui il soggetto si procura i mezzi materiali e/o concettuali necessari per conseguire il suo scopo (si procura cioè il sapere e potere necessari, che assieme formano la competenza)
  • un momento in cui il soggetto realizza lo scopo (performanza)
  • uno stato finale in cui il destinante sancisce che lo scopo è stato raggiunto (sanzione)

Questo è il cosiddetto schema narrativo canonico che, secondo Greimas, soggiace ad ogni narrazione. Inoltre, i programmi d’azione spesso non stanno da soli, ma il soggetto, per arrivare all’obiettivo principale, deve raggiungere alcuni scopi intermedi: in questi casi, il programma di base si avvale di programmi secondari, che la semiotica narrativa chiama programmi d’uso, i quali a loro volta possono avvalersi di ulteriori programmi d’uso, in una gerarchia di programmi inscatolati gli uni negli altri e dipendenti dal programma di base. L’insieme di programmi d’azione che convergono verso lo stesso obiettivo principale è detto percorso narrativo. Nei termini della semiotica narrativa, l’interfaccia utente svolge dunque il ruolo attanziale di aiutante con cui le persone manipolano la macchina, cioè le fanno fare cose per realizzare percorsi narrativi diversi a seconda degli applicativi (scrivere testi, disegnare, navigare sul Web, ..). In altre parole, alla manipolazione nel senso ordinario del termine, che consiste nell’usare le mani per muovere le interfacce hardware della macchina e intervenire nello spazio di percezione-azione delle interfacce utente, corrispondono atti di manipolazione nel senso della semiotica narrativa, per cui gli utenti fanno fare cose alla macchina per raggiungere vari obiettivi. Si arriva così ad una prima caratterizzazione narrativa dell’usabilità: un’interfaccia informatica è usabile se riesce a svolgere il ruolo attanziale di aiutante nei confronti di un soggetto che voglia o debba far fare certe cose alla macchina. Con questo però abbiamo individuato a posteriori il ruolo narrativo che spetta ad un’interfaccia già progettata, ma non abbiamo detto nulla di ciò che bisogna fare prima, cioè durante la progettazione, per far sì che l’interfaccia svolga proprio questo ruolo. Sono gli studi del cosiddetto scenario-based design che considerano fondamentale, nel progettare l’usabilità del software, immaginare fin dai primi passi del processo di progettazione un insieme di possibili scenari di interazione fra il software e gli utenti, e descriverli come storie, perché le narrazioni sono particolarmente efficaci per far emergere l’articolazione complessa delle azioni e interazioni quotidiane. Posizioni analoghe emergono dalle scienze sociali, e in particolare dai Social Studies (of Science and Technology); le affinità di questi studi con la semiotica narrativa sono molte. Ad esempio, Latour parla di copioni che gli oggetti d’uso proiettano intorno a loro, attribuendo alle persone ruoli e azioni nelle storie a cui prendono parte. Anche Akrich sostiene che si comprendono i dispositivi tecnici solo se si coglie il modo in cui riorganizzano il tessuto di azioni e relazioni umane in cui sono usati. Quando si progetta un dispositivo tecnico, dunque, è necessario tener conto di questa rete di relazioni e azioni: Akrich parla di script o sceneggiature che servono a prevedere e descrivere, quando si progetta un dispositivo tecnico, il modo in cui gli utenti lo useranno, quali azioni vi compieranno, in quali relazioni lo inseriranno. Il progettista iscrive queste sceneggiature sia nel dispositivo tecnico, costruendolo in un certo modo piuttosto che un altro, sia nelle istruzioni, nei manuali, nel contratto di acquisto, nella garanzia, .. L’analogia con il concetto di sceneggiatura di Eco è evidente. Una sceneggiatura comune per Eco è la descrizione di una situazione tipica, standard, comunque appunto (andare al cinema, fare la spesa, ..); di una situazione ordinaria, stereotipata che possiamo immaginare condivisa dalla maggior parte di persone che vivono in una certa cultura, in un certo momento storico, e appartengono ad un ceto sociale medio. Dal punto di vista progettuale, quindi, inserire il problema dell’usabilità in una dimensione narrativa significa prevedere le sceneggiature comuni delle interazioni degli utenti col sistema e descriverle analiticamente come storie. Le strutture semio-narrative di Greimas possono infatti essere utili a esplicitare e descrivere in modo organizzato e consequenziale i ruoli e le relazioni di persone, cose, azioni, scopi, mezzi nelle sceneggiature comuni. Nella vita comune, le storie standard di cui è composta una situazione tipica si danno per scontate, costituiscono cioè insiemi di assunzioni implicite che guidano i comportamenti e le aspettative reciproche delle persone. Nel progettare un oggetto che deve svolgere il ruolo di aiutante in queste storie implicite, occorre invece esplicitare il più possibile i dettagli. La progettazione dell’usabilità di un’interfaccia informatica ha tante più probabilità di essere efficace quanto più è accurata e analitica l’esplicitazione delle storie comuni in cui dovrà essere inserita, esplicitazione che va fatta prima che il prodotto sia sviluppato ed effettivamente usato. Non esiste limite di principio per fermare la descrizione di ciò che può accadere in una situazione tipica, sia perché le variabili sono molte e complesse, sia perché le assunzioni implicite hanno contenuti spesso vaghi e il loro numero complessivo è indefinito. La precisione e il dettaglio del lavoro preliminare di esplicitazione dipenderanno dalla potenza e accuratezza degli strumenti di previsione che si adottano, e questi dipenderanno a loro volta da variabili empiriche e contestuali (budget economico a disposizione, numero di persone di cui è composto il team di progettazione, ..). Nel 1984 le Guidelines suggerivano di adottare strumenti di indagine empirica per ottimizzare le previsioni sull’utente modello di un’interfaccia grafica (osservazione delle situazioni in cui le persone useranno il prodotto, distribuzione di questionari per verificare aspettative, esigenze e difficoltà, ..). In 20 anni queste tecniche d’indagine sono state raffinate e oggi sono standard di progettazione per aziende del calibro di Microsoft, Ibm, .. che hanno a disposizione budget milionari per sviluppare software da distribuire in tutto il mondo. Nonostante questo, i margini per migliorare l’usabilità delle interfacce grafiche sono ancora molto ampi, come testimonia la crescita di corsi di formazione sugli applicativi più diffusi, che mostra quanto per molti sia ancora difficile o indesiderabile imparare ad usarli da soli. L’analisi semiotica può apportare notevoli contributi in questo campo. Si tratta di valutare a posteriori l’usabilità di un’interfaccia software, analizzandola come testo sincretico sul modello di quanto faremo per i siti web, quindi integrandola con la descrizione analitica dell’utente modello e delle storie tipiche in cui l’utente modello interagisce con l’interfaccia. La semiotica può poi convertire i risultati dell’analisi in linee guida per migliorare l’usabilità di un’interfaccia specifica o progettare altre interfacce dello stesso genere, convertendo cioè la propria vocazione descrittiva a posteriori (che si applica al testo fatto e finito) in un approccio normativo a priori (utile prima che il testo sia finito, e strettamente riferito al singolo testo o genere testuale). Questa conversione normativa è più efficace, ovviamente, se si conduce l’analisi semiotica non alla fine del processo di produzione, ma durante la progettazione di un’interfaccia. Occorre quindi che il lavoro analitico preliminare sia il più possibile accurato e dettagliato, e che soprattutto non trascuri nessuna di queste 3 variabili fondamentali:

    • l’utente modello che userà il programma " per chi??
    • gli obiettivi che l’utente vorrà o dovrà raggiungere con il programma " per cosa??
    • le sceneggiature comuni in cui il programma sarà inserito " per quale contesto??

Se queste domande sono scontate nella progettazione delle interfacce software più diffuse, non lo sono ancora nella progettazione di siti web. Con le interfacce grafiche, abbiamo goduto i frutti di una lunga fase iniziale solo di ricerca e sviluppo, ristretta alle aziende principali nelle quali operavano veri esperti di interfacce utente. Come risultato, le idee scadenti sono state scartate e quelle buone sono state codificate in linee guida precise, prima che anche una sola interfaccia utente venisse inflitta all’utente comune. Al contrario, il Web si evolve mentre stiamo parlando e gli esperimenti vengono compiuti direttamente su Internet con ciascuno di noi nella parte della cavia.

  • L’usabilità dei siti web.

Jakob Nielsen si occupa di usabilità dai primi anni 90, ma la sua popolarità si è ampliata soprattutto quando ha cominciato a pubblicare Alertbox, una rubrica sull’usabilità dei siti web, e quando ha presentato il suo libro Web Usability e il suo seguito, Homepage Usability. La fama di Nielsen è dovuta, oltre che alla sua competenza in questo campo, anche allo stile con cui comunica, sempre provocatorio, aggressivo, radicale. È a causa di questo stile che intorno a Nielsen i pareri non sono mai sfumati: di solito, o lo si ama molto oppure lo si detesta.

  • Arte contro progettazione. Subito dopo la pubblicazione di Web Usability, il dibattito sull’usabilità del Web si radicalizzò in 2 posizioni antagoniste: ingegneri contro grafici, usabilisti contro creativi:
    • da un lato, gli usabilisti sottolineavano (con Nielsen) la necessità di progettare le pagine web seguendo regole standard, quando c’erano, e di contribuire a definirle quando mancavano o erano incerte, invitavano a prediligere la semplicità e la funzionalità del sito agli effetti speciali, e si dichiaravano contrari alla grafica invasiva, alla presenza eccessiva di immagini e, peggio ancora, di animazioni e multimedialità
    • dall’altro lato, i creativi (soprattutto art director e grafici professionisti) accusavano la standardizzazione di mortificare ogni slancio innovativo e prendevano a riferimento, contro Nielsen, un altro libro-simbolo, Creating Killer Web Sites di David Siegel, che al contrario considerava immagini, animazioni e multimedialità strumenti imprescindibili di un web design creativo

Ciascuna delle 2 parti semplificava la posizione dell’altra e la rappresentava più estrema di quanto non fosse, per dare più rilievo e conferire maggiore efficacia alle proprie tesi. All’inizio di Web Usability Nielsen così si schierava: "anche se riconosco che sul Web c’è anche bisogno di arte e di svago, credo che l’obiettivo principale della maggioranza dei progetti web dovrebbe essere il rendere semplice per le persone lo svolgimento di attività che hanno un qualche fine pratico". Vista in questi termini, la polemica era sterile. Il Web pone infatti un problema serio alla riflessione sull’usabilità, meno grave nel campo del software. L’interfaccia di un sito, infatti (a differenza di quella di un programma software, in cui le esigenze di funzionalità possono, entro certi limiti, prevalere su quelle di estetica), ha spesso anche compiti importanti di comunicazione d’immagine e, nel caso di siti aziendali, di comunicazione dell’identità del marchio (brand identity). È inevitabile quindi che molti siti web debbano fare i conti col design grafico, componente fondamentale della comunicazione d’immagine, e che i siti aziendali in particolare debbano essere coerenti con l’immagine coordinata dell’azienda, che è l’insieme complesso di regole che governa tutte le sue comunicazioni con clienti e fornitori (es: il catalogo dei prodotti, l’allestimento di uno stand in fiera, il modo in cui le segretarie rispondono al telefono, ..). Il radicalismo di Nielsen non dipendeva però solo dal suo stile di comunicazione. Infatti Web Usability fu pubblicato dopo un biennio in cui la grafica per il Web aveva conosciuto una vera e proprio esplosione, legata alla diffusione di Flash (il celebre programma di Macromedia nato per creare e visualizzare animazioni sul Web). Grafici alle prime armi, informatici, neolaureati trovarono nel software di Macromedia uno strumento abbastanza facile per improvvisarsi web designer. Persino professionisti con molta esperienza grafica sulla carta stampata, ma poca o nessuna sul Web, cedettero alla tentazione di usare il Web come laboratorio di sperimentazione. Per questo, alla fine degli anni 90 proliferavano siti coloratissimi, pieni di effetti grafici e sonori, di immagini e animazioni, pesanti e lentissimi da scaricare, poco intuitivi da usare, che tuttavia avevano successo solo perché seguivano l’ultima moda in ricchezza grafica e multisensorialità. Gli eccessi di Nielsen vanno quindi letti come reazioni esasperate a queste esasperazioni. Tuttavia, qualche pagina più avanti Nielsen elenca almeno 7 casi in cui può essere utile ed efficace inserire animazioni in un sito. Con la pubblicazione di Homepage Usability, Nielsen ha attenuato i termini della polemica. D’altra parte le cose sul Web sono cambiate, e stanno cambiando ancora proprio nella direzione auspicata da Nielsen, che è quella della standardizzazione. Così, Nielsen ha potuto passare da una fase negativa, critica verso il cattivo design, ad una fase positiva, in cui definisce costruttivamente come dev’essere il buon design. In Homepage Usability Nielsen si concentra sul design delle homepage aziendali e commerciali, che sono il "volto pubblico del marchio nei confronti del mondo intero", e definisce 113 linee guida per il buon design di una homepage aziendale. In realtà non è vero che Web Usability contenga solo la pars destruens della riflessione di Nielsen, perché in realtà è pieno di suggerimenti costruttivi e linee guida, né che Homepage Usability esprima solo la pars costruens, perché gran parte del libro è dedicata ad un’analisi di 50 homepage aziendali, viste soprattutto in ciò che non funziona. Inoltre, la maggior parte delle tesi di Nielsen sono molto meno eccessive e più condivisibili di come lui stesso le ha presentate. Vediamo quali sono.

  • Ergonomia della leggibilità.                            Esistono requisiti minimi di usabilità delle pagine web che hanno a che fare con la fisiologia dell’apparato percettivo umano, specie della vista. Rispettare questi requisiti ergonomici è scontato nelle interfacce grafiche del software commerciale più diffuso, ma non lo è ancora sul Web, dove ci si preoccupa ancora troppo poco di rendere i testi leggibili a persone dotate di vista normale, e ancora meno di renderli accessibili a persone con disabilità visive. In Web Usability Nielsen elenca le regole fondamentali della leggibilità sul Web, rispettando le quali si gettano le basi per rendere un sito non solo usabile, ma accessibile a tutti, anche disabili:
  • occorre scegliere i colori dello sfondo e del testo in modo che creino un forte contrasto. La migliore leggibilità si ottiene con un testo nero su sfondo bianco. Il testo bianco su sfondo nero è quasi equivalente, ma disorienta lievemente gli utenti e rallenta un po’ la lettura. La leggibilità peggiora molto quando il testo è più chiaro del nero, specie se lo sfondo è meno luminoso del bianco. Mai fare abbinamenti come rosa su sfondo verde: il testo sarà invisibile a utenti con forme anche lievi di daltonismo rosso-verde
  • gli sfondi grafici interferiscono con il riconoscimento visivo dei caratteri e delle parole
  • il testo dev’essere di dimensioni abbastanza grandi da poter essere letto anche da chi porta gli occhiali. Dimensioni molto ridotte dovrebbero essere riservate alla note a piè di pagina e alle clausole legali, che solo pochissime persone leggono
  • è meglio usare solo testi statici: il testo che si muove, lampeggia o cambia continuamente è molto più difficile da leggere
  • è meglio allineare il testo a sinistra: se le righe iniziano tutte sullo stesso asse verticale, la lettura è più veloce e facile
  •  
  • per la bassa risoluzione degli schermi oggi più diffusi, i testi piccoli sono più leggibili se presentati in caratteri a bastone (o sans-serif), come Verdana o Arial. Alla dimensione di 10 punti ad esempio, i pixel sono troppo pochi per riprodurre i dettagli di un carattere aggraziato (o serif) come Times o Times New Roman
  • è meglio evitare il maiuscolo, perché la sua lettura è più lenta circa del 10% rispetto alla lettura dello stesso testo in maiuscolo/minuscolo: l’aspetto più uniforme e squadrato del maiuscolo rende più difficile riconoscere le parole

Un’altra importante regola per la leggibilità riguarda non solo il piano dell’espressione, ma anche quello del contenuto: è la necessità di scrivere testi brevi perché, per la bassa risoluzione degli schermi, la lettura a schermo è circa del 25% più lenta rispetto alla lettura sulla carta, e, perciò dovrete scrivere il 50% di testo in meno (non basta il 25%) perché il problema non è solo la velocità, ma anche il benessere. È chiaro che violare qualcuna di queste regole non vuol dire esprimere la propria creatività, ma rendere più difficile o compromettere la leggibilità dei testi che si mettono sul Web. La normatività insita in queste regole ha gradi diversi di coerenza:

    • alcune devono essere rispettate per non impedire l’accesso a tutti o a certi utenti
    • altre dovrebbero essere rispettate
    • altre ancora possono essere rispettate per migliorare l’usabilità del sito
  • La critica delle metafore.                 In generale si pensa che Nielsen sia nettamente contrario all’uso di metafore sul Web, troppo "artistiche" per i suoi gusti. In realtà la posizione di Nielsen sulle metafore è molto meno drastica di quanto comunemente si riconosca. Nielsen sostiene: "spesso nella progettazione web si abusa delle metafore. Di solito è meglio esprimersi in senso letterale e descrivere ciascun elemento dell’interfaccia per ciò che fa, piuttosto che cercare di far rientrare tutto quanto dentro una metafora. Detto questo, ci sono 2 motivi per cui una metafora può essere utile:
  • può fornire una cornice unificante che induca a percepire il progetto come un tutto unico anziché come una raccolta di elementi distinti
  • una metafora può facilitare l’apprendimento, permettendo agli utenti di riutilizzare ciò che sanno del sistema reale a cui la metafora si riferisce"

La posizione di Nielsen è equilibrata anche quando valuta i vantaggi e svantaggi della standardizzazione delle metafore: "i carrelli della spesa sono ormai talmente comuni nei siti di e-commerce che da metafora sono diventati uno standard di interfaccia. I vantaggi derivano dalla coerenza, che è anche più forte della metafora come strumento di apprendimento. In effetti, gli utenti non devono imparare niente finché un elemento dell’interfaccia si comporta nel modo a cui sono abituati. Nello stesso tempo, il carrello della spesa è un’interfaccia inadeguata a molti tipi di applicazioni, ma i progettisti sono obbligati ad usarlo perché gli utenti ormai si aspettano di trovarlo". La posizione di Nielsen sulle metafore è dunque molto simile a quella di Apple nel 1984: le metafore vanno usate quando si introduce un nuovo mezzo, perché servono a familiarizzare gli utenti con un ambiente non ancora noto, ma possono essere contraddette, se serve, e vanno al più presto trasformate in standard, perché la maggiore usabilità si ottiene quando gli utenti sono talmente abituati ad un’icona o un’espressione linguistica da comprenderne immediatamente la funzione, dimenticando la sua origine metaforica. La maggior parte delle metafore che si usano sul Web sono tratte dalla nostra esperienza dello spazio e del movimento nello spazio:

  • sul Web troviamo infatti siti, cioè luoghi in cui stare e da visitare, da cui partire e verso cui andare seguendo percorsi
  • il primo ambiente di un sito web è la sua homepage, cioè una pagina-casa
  • molti siti forniscono una mappa del sito per meglio orientarci
  • un certo genere di siti si chiamano portali, perché dovrebbero fungere da ingresso principale nel Web
  • il nostro movimento da una pagina web all’altra è in genere una navigazione (da cui Netscape Navigator, la barra di navigazione, la bussola di alcuni siti), ma quando non abbiamo mete precise e andiamo in giro per il Web curiosando qua e là, facciamo esplorazione (da cui Explorer)

Altre metafore sono tratte dai libri: i siti hanno indici e pagine che possiamo navigare, ma anche sfogliare (browser = "sfogliatore"; to browse = "scartabellare, scorrere le pagine"), hanno segnalibri (bookmarks), titoli e sottotitoli, come ce li hanno anche i link (il titolo del link è la scritta che, da Explorer 4.0 in poi, compare quando passiamo col mouse su un link). Altre metafore, infine, provengono dal mondo della televisione: nei siti web possiamo infatti trovare canali tematici (arte, musica, spettacolo, ..), mentre i portali, come le televisioni, sono generalisti (o orizzontali) quando offrono contenuti, servizi, strumenti di ricerca, .. sui temi più disparati, dall’informazione al meteo, dalla finanza agli oroscopi (es: Kataweb.it), oppure sono tematici (o verticali, di nicchia) quando si occupano di temi specifici (es: tecnologie e comunicazione Internet [Html.it], scuola [Webscuola.it], libri [Alice.it], ..)

  • Gli standard del Web.                       Dal 1997 ad oggi si sono assestati il maggior numero di standard che regolano il modo in cui appaiono e sono organizzati gran parte dei siti web. Cerchiamo di capire fino a che punto la ricerca di standard non è solo legittima ma auspicabile, e oltre quale soglia diventa invece un limite, non tanto per la creatività degli art director, quanto per l’usabilità dei siti web e la riflessione su questo tema. Le ragioni più importanti per sostenere la standardizzazione sul Web sono ergonomiche (abbiamo già visto quelle relative ai testi verbali). È sempre su basi ergonomiche che si è assestato il modo in cui i siti web organizzano il rapporto fra lo spazio dei contenuti e i cosiddetti link strutturali o strumenti di navigazione, che sono i pulsanti che permettono di sfogliare le pagine del sito e che definiscono la struttura dei contenuti (= architettura del sito). Poiché l’occhio, nel guardare lo schermo, segue un percorso che va dall’alto verso il basso e da sinistra verso destra (almeno nelle culture in cui si legge da sinistra a destra), ci sono 2 aree privilegiate per inserire gli strumenti di navigazione di un sito:
  • la fascia orizzontale in alto, adiacente alla barra di comandi del browser (che sta lì per la stessa ragione ergonomica)
  • la fascia verticale a sinistra, adiacente alla cornice di plastica del monitor

Inoltre, 2 aree molto importanti dello schermo sono quella in alto nell’angolo a sinistra e quella centrale in alto, perché entrambe sono sempre visibili a colpo d’occhio, senza scorrimento e indipendentemente dalla grandezza del monitor o della finestra del browser. Di qui la posizione che hanno assunto gli strumenti di navigazione e i contenuti in moltissime homepage, di cui Nielsen fornisce le statistiche di frequenza:

  • sul lato orizzontale in alto si trovano spesso gli strumenti di navigazione fissi: il motore di ricerca, la mappa del sito, eventuali help, e soprattutto i link alle aree di contenuti principali, che restano visibili in tutte le pagine del sito per non costringere gli utenti a tornare alla homepage ogni volta che vogliono cambiare area di contenuti
  • a sinistra in verticale stanno di solito o i link alle aree di contenuto principali, se non sono nella barra orizzontale in alto, oppure i link di navigazione variabili contestualmente, che cambiano cioè in ogni area di contenuti del sito per permettere la navigazione locale
  • il pulsante per tornare alla homepage c’è in ogni pagina, si trova in alto a sinistra e normalmente è il marchio o il logo dell’azienda o ente cui appartiene il sito
  • a destra in verticale può stare un’ulteriore barra di navigazione, su aree di contenuto speciali, approfondimenti, novità
  • i contenuti più rilevanti stanno subito sotto gli strumenti i navigazione fissi, nell’area centrale più alta della pagina, sempre visibile, e l’importanza dei contenuti decresce man mano che ci si sposta verso il basso

Al di là delle ragioni ergonomiche, altri standard di navigazione provengono dai testi empirici di usabilità, dagli standard già assestati nelle interfacce grafiche dei programmi, o semplicemente dal fatto che, quando una convenzione si è stabilita, buona o cattiva che sia, gli utenti se l’aspettano e dunque romperla crea disagio e disorientamento. Ad esempio:

  • nonostante l’occhio umano abbia meno ricettori per i toni dell’azzurro e il testo azzurro sia quindi un po’ più difficile da leggere del nero o rosso, i link a pagine non ancora visitate che partono da parole sottolineate (link associativi) sono spesso di colore azzurro/blu, mentre i link a pagine già visitate sono rosso/violetto

[La regola per cui si devono sottolineare le parole linkate non vale se le parole compaiono nei menu di navigazione (link strutturali) perché sottolineature ripetute nella stessa lista o sommate ad eventuali elementi divisori della lista ne appesantiscono la lettura. Quindi per i link strutturali si usano spesso colori opportuni e compatibili con lo sfondo. Inoltre, si può disattendere la convenzione azzurro vs rosso per i link associativi, purché i colori delle parole linkate siano coerenti, compatibili con lo sfondo, e si distinguano nettamente da quelli di altre parole marcate (espressioni in grassetto, titoli, ..)]

  • in ogni pagina web devono esserci un numero sufficiente di "uscite", sotto forma di link associativi (parole sottolineate o altre aree sensibili), che permettono di cambiare area di contenuti ed esplorare altre zone del sito, anche in modo trasversale rispetto alla navigazione principale
  • qualunque sia la struttura logica su cui si basa il sito, occorre che il sistema di navigazione segnali sempre chiaramente all’utente la posizione in cui si trova nella struttura e i contenuti che riguarda, per evitare che si disorienti. Uno degli indicatori di posizione più diffusi è il "percorso a briciole di pane" o path (es: home>arte>scultura>Francia), di solito collocato nella barra orizzontale in alto

Gli attuali standard web sono descritti con abbondanza di dettagli su webstandards.org e si trovano tradotti in centinaia di regole di buona progettazione web, oltre che nei libri di Nielsen e sul suo sito Useit.com, nei numerosi manuali di web design e web usability che affollano gli scaffali della sezione informatica di qualunque libreria e biblioteca.

  • I limiti dell’ingegneria dell’usabilità.                            
  • Il problema principale dell’ingegneria dell’usabilità si riassume in un unico punto: gli usabilisti concepiscono il Web essenzialmente come un sistema informativo. Quest’idea ha radici profonde:
  • innanzi tutto Tim Bernes-Lee, l’inventore del Web, lo concepì come un sistema che permettesse a scienziati fisici di tutto il mondo di scambiarsi informazioni e documenti, e la sua ambizione era quella di farne un sistema informativo universale
  • inoltre, il modello dello scambio di informazioni è dominante nelle scienze informatiche
  • infine, l’utopia del sistema informativo universale, la biblioteca delle biblioteche, nasce con il concetto di ipertesto, e il Web è una rete di ipertesti interconnessi on-line

Il problema è che da tempo il Web è molto più di un sistema informativo e il suo distacco dal modello dello scambio di informazioni è destinato ad aumentare. Al Web originariamente concepito da Barnes-Lee, infatti, è stata aggiunta sempre più multimedialità, sia nel senso della multisensorialità (da Flash in poi), sia nel senso dei molti media che il Web intreccia fra loro. Al Web originario, inoltre, sono state integrate sempre più applicazioni software (grazie a Java), che hanno aumentato a dismisura le funzioni che può avere una pagina web (es: può servire a mandare una mail, consultare un database, riempire un modulo, fare un pagamento).
[Messo a punto a metà degli anni 90 da Sun Microsystems, Java è un linguaggio di programmazione che affianca l’Htlm (che non è un linguaggio di programmazione vero e proprio) e permette di sviluppare applicativi che stanno in una pagina web]
Continuare a concepire il Web come un sistema informativo è una riduzione ormai inaccettabile, visto che offrire e cercare informazioni sono solo due delle innumerevoli cose che il Web permette di fare. Non stiamo dicendo, ovviamente, che gli usabilisti non sono consapevoli della varietà di azioni possibili sul Web (si tratta infatti, nella maggioranza dei casi, di professionisti che lavorano col Web da quando è nato); diciamo invece che il modello informativo resiste ancora nella loro riflessione teorica, limitandola molto. Non a caso Visciola, uno dei principali sostenitori dell’ingegneria dell’usabilità in Italia, pur basandosi su questo paradigma, ne percepisce evidentemente i limiti, perché integra l’ingegneria dell’usabilità con concetti e tecniche tratte dal marketing e dagli studi di comunicazione strategica aziendale, e quindi esce da un orizzonte meramente usabilista. Visciola parla infatti dei 4 protagonisti dell’evoluzione di Internet centrata sull’utente finale:

  • tecnologie
  • marketing
  • comunicazione
  • usabilità

dove l’usabilità è l’ingegneria dell’usabilità, ed è solo uno dei 4 punti di vista adottati.

  • Il Web come spazio d’azione.                         Un modello più adeguato per il Web è sicuramente quello di uno spazio di azione. È un modello analogo a quello che abbiamo applicato alle interfacce software, con la differenza che le azioni a cui ci riferivamo erano programmi gestuali, mentre le azioni che intendiamo qui sono percorsi narrativi tipici, che partono sì, dai programmi gestuali, ma se ne allontanano per entrare nella vita quotidiana delle persone. In termini di programmi narrativi, il Web è uno spazio molto più vasto di qualunque interfaccia software, perché le cose che si possono fare "dentro" e con il Web sono molto più numerose e varie di quelle che si possono fare con un applicativo software qualsiasi. La molteplicità di azioni che il Web rende possibili è paragonabile, casomai, a quella di un sistema operativo: non a caso la metafora dell’esplorazione accomuna sia il sistema operativo sia il browser di Microsoft, da Windows 98 in poi. Tuttavia, i sistemi operativi sono ambienti unici progettati e sviluppati da un’istanza di enunciazione unitaria, mentre i siti web sono ambienti diversi, progettati e sviluppati da una miriade di enunciatori diversi. Per questo, la definizione di standard trasversali rispetto a tutti gli enunciatori sparsi nel mondo è impellente e nello stesso tempo più problematica sul Web che nella progettazione di programmi e sistemi operativi. Concepire il Web come spazio di azione vuol dire che, per cominciare a progettare un sito, bisogna porsi come minimo le 3 domande fondamentali: per chi?? per cosa?? per quale contesto?? Le risposte che possiamo dare qui alle 3 domande sono, come per le interfacce software, inevitabilmente molto generali, perché i dettagli possono emergere solo dalla progettazione del singolo sito web e dal contributo che l’analisi semiotica può recarvi, inserendosi in qualche fase della progettazione come uno degli strumenti analitici ed empirici che concorrono alla costruzione di un sito usabile, da affiancare alla simulazione di scenari. Daremo qualche dettagli in più non tanto sulle risposte che queste 3 domande possono ricevere, quando sul modo in cui le domande possono essere articolare ulteriormente, quando proporremo alcune linee guida per l’analisi semiotica dei siti web. Il punto cruciale è che, nella progettazione della maggior parte di siti web, occorre dar conto in generale della maggiore complessità di questi rispetto alle interfacce software. La ragione di principio di questa differenza sta nel fatto che i siti web, oltre ad essere interfacce software (con comandi, bottoni, ..), sono anche ipertesti, e cioè hanno, fra i loro obiettivi principali, quello di presentare contenuti e renderli leggibili (percorribili, sfogliabili, fruibili): testi verbali, ma anche, e sempre più, multimediali. La molteplicità di azioni possibili nei siti web parte inevitabilmente da questi contenuti e s’intreccia con essi, nel senso che ne è guidata, accompagnata, stimolata, ma può anche esserne impedita e scoraggiata. L’utente modello di un sito web, a differenza di quello di un’interfaccia software, torna ad essere anche un lettore modello, e questo ruolo lo deve aiutare a diventare un acquirente modello, un cittadino-che-usa-la-modulistica-on-line modello, un videogiocatore modello, .. Una volta riconosciuta la molteplicità insita nel ruolo di utente web modello, la domanda per chi?? (cioè per quale utente modello??) avvia un processo che nel marketing si chiama "definizione dei profili di un utente" e in semiotica significa analizzare in dettaglio le caratteristiche dell’utente modello o, come accade in molti siti web, dei molteplici utenti modello che il sito prevede (si pensi ai target molteplici dei portali generalisti e dei siti della pubblica amministrazione). Il che, anche rimanendo su un piano generale, porta ad una concezione dell’utente web molto più raffinata e articolata di quella degli usabilisti, che appiattiscono tutti gli utenti in una medietà comune per soddisfare la quale basterebbero sempre, stando alle loro analisi, pochi contenuti, credibili, pertinenti, semplici ed ordinati. Invece, anche su un piano molto generale si possono individuare diversi tipi di utenti web, come ha fatto Guido Ferraro, che ha ripreso, applicandolo al Web, il quadrato semiotico con cui Floch aveva individuato 4 utenti-tipo della metropolitana:
  • gli esploratori della rete sono navigatori esperti e curiosi, che non si muovono lungo percorsi precisi perché hanno molti interessi in rete e sono attratti in generale da tutte le novità del Web
  • i sonnambuli sono coloro che si muovono in rete in modo automatico, seguendo percorsi ripetitivi che alla prima difficoltà abbandonano
  • i bighelloni non seguono mai percorsi fissi, non perché hanno molti interessi come gli esploratori, ma perché fanno un uso ludico della rete
  • i professionisti sono i navigatori esperti che raccolgono e organizzano molti bookmark, e che in rete non si muovono mai a caso, ma sanno sempre cosa cercano

È ad utenti-tipo un po’ esploratori e un po’ bighelloni che si rivolgono siti come Yugop.com e Notwist.com: questi siti contraddicono smaccatamente i precetti usabilisti di semplicità, pertinenza, chiarezza, velocità di consultazione, perché hanno interfacce grafiche ermetiche, pulsanti nascosti, percorsi non chiari, e fanno perdere molto tempo, ma attraggono proprio coloro che cercano il piacere metatestuale che proviene dal risolvere gli enigmi dell’interfaccia. La domanda per cosa?? (cioè per compiere quali azioni e con quali obiettivi??) può ottenere più risposte anche in un sito che mira ad un unico utente modello omogeneo. Poiché molte possono essere le azioni che un sito o una singola pagina prevedono, molti saranno gli obiettivi cui bisogna pensare progettando il sito. È importante inoltre definire una tipologia di azioni possibili nel sito, basata sui loro obiettivi, e organizzare i diversi tipi di azioni in una gerarchia che rispetti il più possibile le priorità e i valori che l’analisi degli utenti modello ha fatto emergere: l’organizzazione in tipi e la gerarchia delle azioni possibili sono cruciali per definire l’architettura del sito, cioè l’organizzazione dei suoi contenuti. La domanda per quale contesto?? (cioè in quali storie tipiche e sceneggiature si inseriscono le azioni che il sito prevede??) è strettamente legata alla domanda per cosa?? e quindi avrà, come questa, più risposte, che consisteranno nell’analisi dettagliata delle storie e sceneggiature previste da ciascuna delle azioni che il sito rende possibili, partendo dai programmi gestuali sull’interfaccia per finire nei percorsi narrativi della vita ordinaria. Data la multimedialità del Web, è cruciale nella progettazione web non solo l’analisi delle sceneggiature comuni, ma anche quella delle sceneggiature intertestuali. Queste sceneggiature comportano competenze intertestuali, nel senso che riguardano le regole che governano ambiti e generi testuali (es: le regole che distinguono in letteratura romanzi rosa, gialli, racconti brevi, al cinema film sentimentali, drammatici, horror, a teatro tragedie, commedie, ..). Nella progettazione di un sito web ciò significa individuare e definire l’insieme di regole che collocano il sito in un certo genere di siti web, e l’insieme di regole che il sito trae da altri generi di siti o da altri generi di media (televisivi, radiofonici, giornalistici, ..).

  • I generi web.                      Abbiamo visto finora che non ha senso parlare di Web in generale, ma bisogna rendere qualunque affermazione sul Web relativa al genere di sito di cui stiamo parlando. Useremo ora le 3 domande per chi?? per cosa?? per quale contesto??, oltre che come linee guida per impostare la progettazione di un sito, anche come criteri per individuare e caratterizzare i diversi generi di siti web. Il concetto di genere nasce in teoria della letteratura, dove è molto problematico, poiché i criteri per individuare e classificare i generi sono sempre stati molto controversi. Nella molteplicità di criteri possibili, distinguiamo le definizioni analitico-deduttive (che individuano un genere sulla base della presenza o assenza di certi tratti distintivi) e quelle empirico-induttive (che registrano come genere ciò che è comunemente riconosciuto come tale in un certo contesto storico-culturale). Nella mutevolezza che oggi caratterizza le tecnologie web e il riconoscimento delle forme di comunicazione sul Web, definire i generi web sulla base di criteri empirico-induttivi implica un’incertezza che equivale ad evitare qualunque definizione. D’altra parte, optare per criteri analitico-deduttivi significa decidere tratti definitori che qualche cambiamento delle tecnologie o dei loro usi potrebbe costringerci ad abbandonarle immediatamente dopo averli decisi. Più che come un criterio per definire e classificare i generi web, le nostre domande vanno quindi prese come una griglia orientativa per organizzare ciò che di volta in volta i media tradizionali, le analisi di mercato, le strategie di comunicazione delle grandi imprese informatiche, le mode e la nostra consapevolezza comune di utenti web ci propongono come generi. Le nostre 3 domande ci autorizzano, ad esempio, a considerare un genere i portali web generalisti o orizzontali, perché questi portali
  • si rivolgono ad un utente modello della stessa genericità media
  • permettono una molteplicità di azioni descrivibili e organizzabili secondo gli stessi tipi e le stesse gerarchie (approfondire certi argomenti, creare informazioni, stabilire relazioni interpersonali, fare acquisti on-line, connettersi ad Internet)
  • inseriscono i tipi di azioni nelle stesse sceneggiature comuni (consultazione domestica, professionale, da portali mobili) e intertestuali (ri-mediazione della forma-quotidiano, dei canali televisivi, ..)

Però le nostre 3 domande non ci autorizzano, ad esempio, ad usare solo criteri grafico-visivi per distinguere un genere dall’altro, opponendo ad esempio siti che usano una grafica tridimensionale a siti bidimensionali, siti che introducono la homepage con un’animazione Flash a siti che non lo fanno: le distinzioni plastico-figurative possono esprimere diverse strategie di enunciazione, ma non bastano certo a definire un genere. Né le 3 domande ci autorizzano ad usare come criteri di definizione e classificazione gli autori empirici dei siti web, distinguendo ad esempio, come si trattasse di 4 generi web, i siti delle imprese private, quelli delle pubbliche amministrazioni, quelli delle organizzazioni senza scopi di lucro, e i siti personali, costruiti da singoli individui (come i blog). Le relazioni di somiglianza reciproca che le risposte alle 3 domande possono intrattenere fra loro permettono anche di organizzare i diversi generi in strutture gerarchiche di maggiore o minore astrazione, o in insiemi che si intersecano parzialmente.

 

  • IPERTESTI.

 

  • Le prime definizioni di ipertesto.

(" "Il testo multimediale" di Perissinotto: cap. 1 e aggiungi ..)
Nelson ha sempre cercato di contrastare con grande vigore l’idea che il progetto Xanadu fosse il precursore del Web, anche se le somiglianze sono evidenti. Nelson al contrario sostiene che il Web ha una serie di difetti gravi che Xanadu mira a superare:

    • la maggior parte dei link sul Web sono unidirezionali e non sono garantiti nel tempo (fenomeno dei link interrotti)
    • gli utenti non possono inserire commenti e note nelle pagine che leggono
    • le tecnologie web non permettono di gestire versioni successive di una pagina o un sito, né di risolvere il problema dei diritti d’autore sui contenuti on-line

Oggi il progetto Xanadu non è affatto morto, ma solo ridefinito e adattato alla realtà tecnologica contemporanea. Dopo Nelson, la riflessione sull’ipertesto ha conosciuto il massimo fulgore fra il 1987 (anno della prima conferenza internazionale sugli ipertesti negli USA) e la fine degli anni 90. In quel decennio, innanzi tutto c’è stata la riflessione "tecnica" dei programmatori di ipertesti, di coloro cioè che sviluppavano software per costruire e consultare ipertesti off-line (Storyspce, Hypercard, Toolbook) e on-line (gli applicativi per costruire siti web i browser). In parallelo, c’è stata la riflessione di studiosi di estrazione umanistica, teorici della letteratura, sociologi dei media, che confrontavano le nuove possibilità di scrittura, lettura e organizzazione dei testi digitali offerte dalle tecnologie ipertestuali con la cultura del libro e dei testi a stampa. Questi autori hanno ripreso la definizione di Nelson e ne hanno proposto riformulazioni personali, delle quali, le più rappresentative sono unite da una caratteristica comune: quella di considerare cruciale per l’ipertesto il fatto di essere o una forma di scrittura non sequenziale (o multisequenziale), o una forma di lettura non sequenziale, o entrambe le cose, in contrapposizione alla scrittura e alla lettura tradizionali, che sarebbero invece sequenziali.

  • Sequenzialità e non sequenzialità.

Occorre innanzi tutto capire a che tipo di testo tradizionale si oppone l’ipertesto. Per Nelson la sequenzialità della scrittura tradizione si fonda sulla sequenzialità del linguaggio e su quella della stampa e della rilegatura. Per Landow il testo tradizionale è sicuramente un prodotto della tipografia, cioè è un testo stampato, il cui modello ideale è il libro rilegato.

  • è connesso ad una caratteristica intrinseca del linguaggio, che Saussure chiama linearità del significante: linearità nel tempo (perché quando parliamo produciamo un’emissione fonico-acustica che si svolge nel tempo), linearità nello spazio (perché quando scriviamo sostituiamo la linea spaziale dei segni grafici alla successione nel tempo). Un testo verbale scritto, quindi, mette in sequenza nello spazio, sul piano del significante, grafemi, parole, locuzioni, frasi, periodi
  • è legato alla tecnologia della stampa e alla particolare organizzazione del testo a stampa che è il libro rilegato. La forma del libro sostituì progressivamente il rotolo di papiro come supporto per la scrittura. In particolare, dall’organizzazione che il libro prese durante il Medioevo abbiamo ereditato alcune componenti di quello che Genette chiama il paratesto del libro (copertina con titolo e nome dell’autore, frontespizio, indici, suddivisione in paragrafi e capitoli, numerazione delle pagine, sommari)

La "sequenzialità della rilegatura" a cui si riferisce Nelson riguarda una parte dell’organizzazione paratestuale del libro: sempre sul piano del significante, quando un autore scrive un libro, mette in sequenza non solo grafemi, parole, locuzioni, frasi, periodi, ma anche paragrafi, sezioni, sottocapitoli, capitoli (questa sequenzialità dipende dal fatto che sta scrivendo per la forma-libro). A queste sequenze prodotte dall’autore, l’editore aggiunge la sequenzialità della numerazione delle pagine. Sul piano del contenuto, la scrittura destinata alla forma-libro comporta ulteriori livelli di sequenzialità: in un romanzo o racconto il testo segue una linea ora narrativa, ora descrittiva, ora logica, ora cronologica, in un trattato o articolo il testo segue essenzialmente una linea logica ed una retorico-argomentativa (che comprende un’introduzione, una serie di argomentazioni, alcune conclusioni). C’è poi un senso ovvio e fondamentale in cui qualunque atto di scrittura è sequenziale, ed è quello legato al fatto che la scrittura è un processo che si sviluppa nel tempo, che segue la linea del tempo; il che è vero anche della lettura, ovviamente. Non può essere questo, dunque, il senso in cui la scrittura o la lettura di un ipertesto sarebbero non sequenziali, perché la scrittura e la lettura di un ipertesto si danno inevitabilmente nel tempo, e dunque in questo senso sono sequenziali. Guardiamo ora alla lettura. Se scomponiamo la sequenzialità della lettura come abbiamo fatto con la scrittura, una lettura sequenziale è quella che segue il testo lettera per lettera. È chiaro che una lettura così pedissequa è molto rara (si saltano frasi, .. interi capitoli). A volte leggere in modo non sequenziale significa trasgredire il modo in cui un testo dovrebbe essere letto (quando ad esempio leggiamo un romanzo), a volte invece leggere in modo non sequenziale significa leggere proprio come il testo ammette o prevede si debba fare. Infatti, molti testi scritti in modo non sequenziale (a qualche livello) prevedono anche atti di lettura non sequenziali (es: note a piè di pagina, giornali, dizionari, elenchi telefonici, ..). Dunque, molti atti di scrittura e lettura tradizionali non sono sequenziali, nel senso che rompono uno o più livelli di sequenzialità. Dobbiamo dire per questo che si tratta di forme di ipertestualità cartacea?? In effetti, le prime teoria dell’ipertesto erano inclini a considerare ipertestuali tutte le forme di scrittura e lettura non sequenziali. La stessa intertestualità era pensata come una sorta di ipertesto implicito, una rete di rimandi e allusioni testuali che sta nella mente degli autori empirici, dei critici letterari e dei "lettori colti", e che la tecnologia digitale rende esplicita e accessibile a tutti. In seguito, il discorso sugli ipertesti si è spostato definitivamente sui testi digitali, e gli ipertesti cartacei sono stati relegati fra gli usi metaforici e a volte imprecisi della parola "ipertesto": l’ipertesto non è, come diceva Nelson, un testo che si fruisce al meglio davanti ad uno schermo interattivo, ma un testo che si fruisce solo grazie ad uno schermo interattivo.

  • L’ipertesto come forma dell’espressione.

Dato che la non sequenzialità della scrittura e della lettura si articolano a più livelli, a quale di questi si oppone la non sequenzialità o multisequenzialità dell’ipertesto?? Il punto è che la non sequenzialità dell’ipertesto non va riferito né alla scrittura né alla lettura dell’ipertesto intese come processi o risultati di processi, ma occorre spostare completamente il piano d’analisi. Aarseth spiega che l’opposizione fra linearità e non linearità va attribuita alle strutture formali che governano il modo in cui, sul piano dell’espressione di un testo, è organizzata la sua accessibilità materiale per i lettori, il modo cioè in cui i lettori possono manipolarlo, sfogliarlo, consultarlo come oggetto fisico. Una caratteristica fondamentale che distingue tutti i testi digitali da quelli a stampa è che, mentre lo spazio fisico su cui risiede una testo a stampa (la carta) è lo stesso su cui lo percepiamo e manipoliamo, un testo digitale sta fisicamente in uno spazio che non possiamo percepire, né quando lo scriviamo/produciamo né quando lo leggiamo/consultiamo: è lo spazio della porzione di memoria (elettronica, magnetica, ottica) in cui il testo è immagazzinato come sequenze di 0 e 1 (disco rigido, floppy, Cd, ..). Per avere accesso percettivo ai testi digitali, occorrono numerosi strati di software, dal linguaggio macchina che capisce e parla le sequenze di 0 e 1 a livelli di software sempre più alti, fino a quello che ci permette di percepire/leggere/sfogliare/consultare/navigare il testo, creando per noi lo spazio di percezione-azione dell’interfaccia utente. Ora, le sequenze di 0 e 1 immagazzinate in qualche porzione di memoria fisica non codificano solo i dati del testo digitale (caratteri alfanumerici, immagini, animazioni, ..), ma codificano anche, da un lato, le istruzioni che servono al computer per manifestare questi dati come sostanze dell’espressione percepibili (pixel visibili sullo schermo, emissioni sonore dalle casse acustiche, vibrazioni del joypad), dall’altro, le istruzioni che servono al computer per organizzare la varie sostanze dell’espressione in certe forme dell’espressione (forme linguistiche per i testi verbali, configurazioni visive, tattili, ..). La differenza fra un testo digitale e un ipertesto digitale è che quest’ultimo codifica una forma dell’espressione in più rispetto a quelle codificate in un testo digitale privo di link: sono gli insiemi di istruzioni che si tradurranno, in superficie, nel modo in cui l’ipertesto può essere sfogliato e consultato o navigato ed esplorato dai suoi lettori/utenti/navigatori/esploratori.
[In Word, i link strutturali sono quelli che si ottengono quando si costruisce un indice o una struttura; i link associativi sono le parole sottolineate che rimandano a dati off-line o a siti web pertinenti]
In un libro a stampa, l’ordine di sfogliamento delle pagine cartacee, la quantità e il tipo di gesti necessari per sfogliarlo sono prescritti dal formato del libro, dalla sua rilegatura e dalle convenzioni per cui un libro si sfoglia in una certa direzione. In un ipertesto digitale, invece, né un’organizzazione materiale preliminare né un insieme di convenzioni storicamente consolidate stabiliscono come l’ipertesto vada consultato. È l’autore empirico a farsi carico, oltre che dei contenuti dell’ipertesto, anche delle azioni di sfogliamento dei contenuti da parte di coloro che lo leggeranno/consulteranno, prevedendole tutte, una per una, e progettando come organizzarle. L’autore di un ipertesto deve farsi carico di progettare il tipo, il numero e l’ordine delle possibili azioni di sfogliamento dell’ipertesto da parte dei suoi lettori empirici, possibili azioni che l’interfaccia utente dell’ipertesto visualizzerà a schermo come:

  • link strutturali organizzati in un certo modo (secondo una certa architettura)
  • link associativi sparsi nello spazio dei contenuti dell’ipertesto (parole sottolineate o aree sensibili di immagini, tabelle, diagrammi, ..)
  • linkografie, cioè liste organizzate e commentate di link a testi ulteriori o alternativi sullo stesso argomento

Questo insieme organizzato di link è la parte dell’interfaccia utente di un ipertesto che costituisce il suo paratesto, perché serve, come diceva Genette, a "far meglio accogliere il testo", sulla base di un progetto preciso da parte degli autori dell’ipertesto e dei loro "alleati", che sono, nel caso del libro tradizionale, l’editore, quello multimediale e/o la software house nel caso di titoli multimediali su Cd-Rom o altri supporti, e infine il team di progettazione e sviluppo web nel caso di siti web complessi.

  • Le forme dello spazio logico.

Lo spazio logico è l’insieme di strutture formali che governano le possibili azioni di sfogliamento/consultazione/navigazione di un ipertesto digitale e il modo in cui queste possibilità sono organizzazione sul piano dell’espressione. Questo spazio logico è astratto e concettuale, ma si materializza in diversi luoghi fisici:

  • dal punto di vista degli autori empirici, nella loro mente e nel "progetto esecutivo" dell’architettura dell’ipertesto, che è il documento scritto che serve ai programmatori per sviluppare il software della struttura di navigazione dell’ipertesto
  • dal punto di vista del computer, nelle sequenze di 0 e 1 che gli danno istruzioni su come organizzare gli 0 e 1 dei contenuti dell’ipertesto
  • dal punto di vista dei lettori empirici, nella struttura di navigazione visibile sull’interfaccia utente dell’ipertesto

È pensando alle diverse forme o strutture che lo spazio logico può assumere che si capisce finalmente l’opposizione fra sequenzialità e non sequenzialità: la struttura sequenziale è solo una delle possibili forme che può assumere lo spazio logico di un ipertesto, tutte le altre sono non sequenziali.

  • La struttura lineare o sequenziale è il modo più semplice di organizzare un insieme di informazioni, e significa disporle in modo che non si possa (o non si debba) accedere all’unità di informazione o nodo n+1 se prima non si è passati dall’unità di informazione n.

 

È questa la struttura che regge la forma-libro: i nodi sono le pagine e i collegamenti sono la rilegatura che le tiene assieme (colla e cuciture). Hanno questa struttura anche i passi di una ricetta, le istruzioni per il montaggio di un mobile e tutti gli ipertesti o le parti di ipertesto in cui occorre assicurarsi che l’utente modello segua un percorso di consultazione predeterminato, come i titoli multimediali a carattere educativo e le applicazioni e-learning (= apprendimento elettronico), destinate a reti locali o a Internet.

  • La struttura a griglia è una combinazione di n strutture sequenziali, in cui ogni nodo n di ogni sequenza è definito dalla sua posizione "all’incrocio" fra 2 sequenze.

 

La struttura a griglia è utile per mettere in relazione variabili che possono essere ordinate in sequenza (come informazioni cronologiche o storiche), con altre a loro volta ordinabili in sequenza perché ad esempio non stanno in relazione gerarchica fra loro (come "eventi", "tecnologie", "cultura"). Ipertesti digitali che ad esempio contengono manuali procedurali, elenchi di corsi scolastici o universitari, descrizioni di casi medici sono organizzati spesso a griglia. Gli ipertesti a griglia presuppongono una conoscenza da parte dell’utente modello delle relazioni fra le variabili di questa struttura, e sono quindi più adatti a destinatari che conoscono bene l’organizzazione del campo semantico o disciplinare su cui si basano le sequenze della griglia e le loro relazioni.

  • La struttura ad albero è formata da nodi connessi in modo che, procedendo di nodo in nodo senza tornare sui propri passi, non si possa passare 2 volte sullo stesso nodo (per questo viene chiamato anche grafo aciclico).

 

La struttura ad albero regge ad esempio l’organizzazione di un libro in capitoli, quella delle cartelle di file nei sistemi operativi Mac e Windows, e tutti gli ipertesti in cui è utile organizzare le informazioni in modo gerarchico, per livelli: dal generale al particolare, dall’astratto al concreto, dal più importante al meno importante, .. Dal punto di vista della consultazione da parte dell’utente modello, questa struttura permette di individuare univocamente un singolo punto di partenza (come la homepage di un sito) e può essere percorsa solo seguendo le direzioni che coincidono con i rami dell’albero, avanti dall’alto verso il basso o indietro dal basso verso l’alto, senza poter passare a nodi che appartengono ad altri rami, se non tornando indietro sequenzialmente verso i nodi più alti del proprio ramo e poi ridiscendendo su un altro ramo. Oggi la maggior parte di siti web ha una struttura ad albero, con diversi livelli di profondità. Standard di navigazione web ormai consolidati hanno rimediato al difetto principale di questa struttura, che è quello di costringere gli utenti a risalire i rami per potersi spostare a nodi di rami diversi, mantenendo sempre visibile su tutte le pagine del sito il menu di navigazione principale. Inoltre, sempre per evitare questo problema dell’albero, molti portali web e siti che li imitano tendono ad usare alberi con meno livelli possibile, affollando di link la homepage.

 

 

 

  • La struttura a rete è qualunque struttura di nodi anche ciclica, tale cioè che, se la si percorre senza mai tornare indietro, può capitare che si passi di nuovo anche su nodi in cui si è già stati.

 

Questa struttura permette la massima libertà sia nella costruzione che nella fruizione di un ipertesto: qualunque nodo può essere collegato a qualunque altro, e ogni navigatore può seguire il percorso che gli è più congeniale. Il Web nel suo complesso ha una struttura reticolare: è una rete di ipertesti, che sono i singoli siti web, e NON un unico grande ipertesto distribuito, come a volte è stato definito. Per quanto riguarda i singoli siti web, essi sono prevalentemente organizzati ad albero (con eventuali parti a griglia e/o sequenza), e contengono componenti reticolari nella misura in cui presentano link associativi interni che legano, in modo trasversale rispetto all’albero, i nodi di un ramo con i nodi di un altro ramo pertinenti per qualche ragione (argomenti correlati, approfondimenti, spiegazioni, ..). Inoltre, ogni sito web è connesso reticolarmene ad un certo numero di altri siti dai suoi link esterni (associativi o linkografici). Negli anni 90 gli studiosi hanno riservato alla struttura a rete un’attenzione e un’enfasi esagerate:

 

  • si magnificava la libertà di espressione e di lettura che la rete stimolerebbe
  • si rilevava la somiglianza della rete col funzionamento associativo della mente umana
  • si considerava la rete come la struttura più adatta per ipertesti con fini artistici, creativi, educativi

Invece, il rischio della rete è sempre quello di creare smarrimento e confusione negli utenti, al punto di sfavorire qualunque scopo, da quelli più piattamente informativi a quelli più creativi. Nei casi migliori, la struttura a rete può essere funzionale a scopi ludici (negli ipertesti di entertainment e in quelli di edutainment = intrattenimento a scopi educativi). Anche se la struttura a rete è stata spesso trattata, dagli autori che ne evidenziavano i vantaggi, come fosse la struttura logica per eccellenza dell’ipertesto digitale, opposta alla struttura sequenziale della forma-libro, è ormai chiaro che nessun ipertesto complesso è solo reticolare, come nessuno è solo sequenziale, a griglia o albero: la maggior parte degli ipertesti digitali si regge infatti su una combinazione più o meno equilibrata delle 4 strutture logiche, come qualunque sito web ben esemplifica.

  • Una definizione di ipertesto e i suoi limiti.

Invece che parlare di ipertesto in generale, occorre piuttosto distinguere tipi diversi di ipertesto (ipertesti off- e on-line, siti web, sistemi touch screen, ..), secondo criteri da definire, e occorre distinguere ciascuno di questi tipi in generi diversi (ipertesti narrativi, educativi, di intrattenimento, videogiochi, ..), secondo criteri simili a quelli che abbiamo proposto per i siti web. Prima di cedere il campo ad analisi specifiche che tengano contro della varietà di generi ipertestuali, si può tentare una definizione generale dell’ipertesto, a conclusione delle osservazioni fatte (Aarseth):

  • un ipertesto è un testo digitale, e oggi nella maggior parte dei casi è un testo sincretico (dal sincretismo più semplice alla multimedialità piena)
  • un ipertesto è composto da più parti (nodi), a loro volta testi digitali, a loro volta testi sincretici oppure no (un nodo può ad esempio contenere solo testo verbale o solo un’immagine)
  • le parti dell’ipertesto sono organizzate e connesse fra loro da link elettronici, secondo una struttura che può essere non sequenziale (a griglia e/o albero e/o rete) e/o sequenziale
  • questa struttura determina il modo in cui l’ipertesto può essere sfogliato/navigato sullo schermo di un computer dai suoi lettori/utenti empirici
  • la struttura dell’ipertesto è progettata dalla stessa istanza di enunciazione, cioè dallo stesso autore o gruppo di autori empirici (e dai loro "alleati": team di progettazione, editori multimediali, software house, ..) che hanno scritto/prodotto i contenuti delle parti dell’ipertesto, o li hanno assemblati e adattati da altre fonti
  • Il limite più evidente di questa definizione sta nell’idea di sfogliamento o navigazione, che confronta l’ipertesto troppo strettamente con la forma-libro. Infatti, per rispecchiare una tendenza molto diffusa negli anni 90, abbiamo volutamente preso in considerazione solo i link di navigazione (strutturali, associativi e linkografie), che permettono agli utenti di spostarsi nell’ipertesto seguendo la forma del suo spazio logico. Invece, i link di navigazione sono solo alcuni dei link che compaiono nei testi digitali, sia off- che on-line. Moltissimi link, infatti, sono collegati ad applicazioni informatiche che avviano programmi (es: il testo di un documento Word può contenere link a fogli di calcolo, database, programmi di posta elettronica, sequenze video, animazioni, ..). Possiamo chiamare link di attivazione questo secondo tipo di link, che sono diversi da quelli di navigazione perché attivano applicazioni informatiche autonome, anche quando a schermo non si distinguono dai link di navigazione.
  • Un altro limite della nostra definizione sta nel modo in cui concepisce le parti (nodi, unità di informazione) di cui è fatto l’ipertesto digitale e la navigazione fra le parti, presupponendo una corrispondenza diretta fra la forma dell’espressione, su cui avviene la navigazione dell’ipertesto, e la forma logica che la determina: le parti sono blocchi discreti di informazioni e la navigazione fra le parti è una navigazione discontinua. È sempre l’analogia con la forma-libro ad ispirare questa concezione: come sfogliare le pagine di un libro significa passare da una pagina all’altra, e ogni pagina è un’unità di informazione discreta, separata dalle altre sia sul piano dell’espressione che dal punto di vista della forma logica soggiacente, così navigare un ipertesto significa passare da un nodo all’altro, e ogni nodo è un’unità di informazione discreta, separata dagli altri nodi sia a livello percettivo che logico. Effettivamente la navigazione di molti ipertesti a interfaccia bidimensionale, come la maggior parte dei siti web, avviene così. Tuttavia, in molti ipertesti a interfaccia tridimensionale (es: nelle applicazioni QuickTime VR e in tanti videogiochi) la navigazione è molto diversa, perché passa da un nodo all’altro in maniera graduale e continua. Negli ipertesti a interfaccia tridimensionale,gli spostamenti e le azioni che il simulacro dell’utente (il puntatore, una figura con sembianze umane o antropomorfe) fa sul piano dell’espressione dell’interfaccia accadono in uno spazio-tempo continuo, per cui ad esempio uno stesso oggetto può essere visto da molti punti di vista, fra i quali non c’è soluzione di continuità, e ogni azione può avere una gamma continua di conseguenze possibili, non definite da singole opzioni discrete. Inoltre, molti videogiochi non mettono in corrispondenza diretta e semplice la navigazione e le azioni che il giocatore può fare sul piano dell’espressione con la forma logica soggiacente che le determina, per diversi motivi. In certi videogiochi alcuni personaggi (es: gli antagonisti dell’eroe) possono compiere azioni che variano in ogni sessione di gioco, in altri ancora interi ambienti, mondi, situazioni possono variare nelle diverse sessioni di gioco, e tutte queste variazioni non sono state previste univocamente ed esaustivamente dagli autori empirici del videogioco (progettisti e team di sviluppo), ma sono gestite probabilisticamente dal computer attraverso routine di intelligenza artificiale. Questi ipertesti presentano dunque margini più o meno ampi di indeterminatezza, e progettarlo non significa certo prevedere tutti i possibili percorsi di navigazione/azione da parte dei giocatori (come si fa con un sito web), ma vuol dire definire le regole generali che stanno alla base della loro indeterminatezza, che non sono certo rappresentabili in grafi a rete, albero, griglia e sequenza. Per questi e altri motivi, è evidente che oggi i videogiochi mettono a dura prova la concezione classica dell’ipertesto. Questo ci induce

da un lato             ad ampliarla e complicarla per continuare a pensarli come ipertesti
dall’altro                a ritenere ormai imprescindibile e urgente una riflessione che usi concetti e metodi anche diversi, se e quando serve, tipo per tipo e genere per genere di ipertesto, senza preoccuparsi eccessivamente di star dentro alle maglie di una definizione unica e generale, se sono troppo strette

  • LE NUOVE FORME DI COMUNICAZIONE INTERPERSONALE.

 

  • Prima la comunicazione, poi le tecnologie.

Dalla metà degli anni 90 il Web si è imposto all’attenzione di tutti come il mezzo di comunicazione più importante di Internet, portando con sé una visuale limitata della comunicazione in rete, fondata su 2 modelli elementari:

  • il paradigma informativo " (è lo stesso che domina le discussioni degli usabilisti) è quello per cui il Web ci fa pensare ad Internet come fosse soltanto un mezzo per cercare e offrire informazioni
  • il paradigma del broadcasting " è quello per cui tendiamo a pensare che sul Web, come in televisione, i flussi di informazioni vadano sempre da uno a molti, cioè da centri di emissione unici e attivi (i siti web) a riceventi molteplici e passivi (gli utenti internet che navigano i siti), la cui massima attività è fare zapping col mouse come fosse un telecomando

Con questo, spesso dimentichiamo non solo che, prima degli anni 90, il Web non esisteva (fu inventano nel 1989/90 da Tim Berners-Lee, e il primo browser grafico, Mosaic, è del 1993), ma soprattutto che, quando il Web non esisteva, Internet era quasi esclusivamente un mezzo di comunicazione fra individui, che lo usavano per i più svariati scopi e in tutte le forme: da uno a uno, da uno a molti, da molti a molti, da molti a uno. Negli anni 70 e 80, infatti, gli utenti internet erano quasi tutti accademici, ricercatori e studiosi afferenti a qualche università, e le loro attività principali in rete erano queste:

    • o si scambiavano mail personali (la tecnologia dell’e-mail risale al 1971)
    • o erano iscritti a qualche Bbs (Bulletin Board System), reti ad accesso gratuito gestite su computer casalinghi da volontari, che offrivano servizi di posta elettronica, forum di discussione, chat, aree per il download di file (il primo Bbs è del 1976)
    • oppure erano iscritti a qualche newsgroup tematico della rete Usenet (nata alla fine del 1979), che era simile ai Bbs nelle funzioni, anche se non era ospitata da semplici Pc, ma da calcolatori più grandi

Anche se tendiamo a dimenticarlo, oggi Internet non è solo il Web ma, come e più di ieri, è un potente mezzo di comunicazione fra individui, tanto che il Web ha ormai integrato tutte le tecnologie della comunicazione interpersonale, anche quelle che fino a poco tempo fa si usavano in ambienti e con programmi diversi: mail, mailing list, newsgroup, forum di discussione, chat verbali e multimediali in ambienti 3D, servizi di instant messaging, weblog (o blog), Sms.
[newsgroup = gruppi di discussione tematici che riguardano la rete Usenet. Quest’ultima è formata da server che si scambiano periodicamente una copia completa o parziale dell’archivio di tutti i messaggi inviati ai vari newsgroup. Oggi quasi tutti gli internet provider mettono a disposizione un news server, con cui permettono ai loro utenti di accedere a Usenet. In tutto il mondo esistono migliaia di newsgroup, organizzati in gerarchie di rami che ne razionalizzano i contenuti e permettono di identificarne più facilmente l’argomento (es: it.arti.musica è una gerarchia italiana sulla musica, e it.arti.musica.jazz è un suo ramo che riguarda il jazz)
forum (o message boards o bacheche elettroniche) = sono l’eredità più diretta dei newsgroup sul Web. Sono pagine web in cui è possibile inviare messaggi che tutti gli altri utenti possono leggere ed eventualmente commentare, dando vita a discussioni di ogni genere e lunghezza sugli argomenti più disparati, organizzati in gerarchie. I forum sono gli strumenti usati più spesso dai grossi siti web aziendali (es: i portali) per creare e mantenere comunità di utenti che frequentino abitualmente il sito
chat = sistema di comunicazione in cui 2 o più utenti connessi ad Internet nello stesso momento possono scambiarsi messaggi scritti in tempo reale. Il primo sistema di chat multiutente, tuttora fra i più usati, è Irc (Internet Relay Chat), nato nel 1988
istant messaging (servizi di messaggeria istantanea) = ambienti integrati (messenger) che affiancano alla chat tradizionale la possibilità di essere avvisati quando utenti di una lista selezionata si connettono, nonché strumenti di telefonia e video-comunicazione, giochi, lavagne su cui più utenti possono disegnare in tempo reale, strumenti per inviare e ricevere foto e file. Il capostipite degli istant messenger è Icq (da leggere "I seek you" = io ti cerco); molto usati sono anche i messenger di Yahoo! e Microsoft
weblog (o blog) = siti web che tengono tracce (log); sono programmi (e per estensione siti) che permettono, anche a persone poco esperte, di pubblicare in tempo reale sul Web testi, immagini, link. Un blog è quindi un sito web personale, in cui qualcuno pubblica in modo disinteressato e amatoriale notizie, storie, link e riflessioni di vario tipo. Questi strumenti sono in parte simili ai forum perché i testi possono ospitare commenti e dar vita a vere e proprie discussioni pubbliche. A differenza dei forum però, in cui i commenti e le risposte sono connessi visivamente fra loro, ogni nuovo testo pubblicato su un blog va in cima all’elenco, dove rimane fino a quando non se ne pubblica uno nuovo. Gli usi principali dei blog sono 2: il diario personale e le notizie. Il fenomeno dei blog è iniziato nel 1997 sul Web statunitense e intorno al 2000 sono nati i primi blog in Italia. Fra quelli più frequentati in Italia: //bloggando.splinder.it ; nel panorama internazionale il capostipite è www.blogger.com
Sms (Short Message Service) = servizio che permette di inviare e ricevere brevi messaggi di testo alfanumerico fino a 160 caratteri da un telefono cellulare Gsm ad un altro. Gli Sms sono nati nel 1992 come sistema di comunicazione di servizio per gli operatori di telefonia mobile. Oggi anche alcuni siti web permettono di inviare Sms a telefoni cellulari]
Con queste tecnologie oggi le persone comunicano fra loro, stabiliscono rapporti personali, li mantengono, li cambiano, li rompono e in questi rapporti gioiscono, si annoiano, soffrono, si innamorano, con tutta la gamma di passioni che animano la vita quotidiana. Non possiamo analizzare qui l’enorme varietà di forme e usi comunicativi che, nei diversi contesti sociali e culturali, ognuna di queste tecnologie permette: ogni singolo uso meriterebbe un’analisi semiotica a sé stante, e ognuna di queste analisi potrebbe occupare uno o più volumi. La letteratura sulle forme di comunicazione interpersonale mediate da Internet che si è accumulata negli ultimi anni è già molto vasta: un difetto comune a molti lavori è quello di riuscire difficilmente a prescindere dall’analisi della tecnologia, come si trattasse di un comune denominatore, una costante nei contesti sociali più disparati. Questo
da un lato             è inevitabile quando le tecnologie sono ancora troppo recenti per non rubare l’attenzione degli studiosi
dall’altro               ha inquinato di determinismo tecnologico implicito anche riflessioni per altri versi più esperte
Se inoltre ricordiamo che i cambiamenti delle tecnologie informatiche sono continui ed è continua la sensazione di novità che li accompagna, nelle pratiche come nelle teorie, è facile prevedere che questa tendenza sia destinata a durare e che occorra forzare le cose per contrastarla. Visto che il lavoro semiotico in questo campo è ancora molto da fare, si spera possa essere la semiotica, nei prossimi anni, a forzare questa cambiamento di prospettiva: non più la tecnologia come costante e le diverse forme di comunicazione come variabili, ma ciascuna forma di comunicazione come costante (da analizzare nel suo macro- e micro-contesto sociale e culturale) e le diverse tecnologie come variabili.

  • non approfondiremo il funzionamento di nessuna delle tecnologie menzionate e presupporremo un po’ di familiarità con ciascuna di esse
  • eviteremo qualunque classificazione basata su presunte caratteristiche tecniche, come quella, tanto astratta quanto usurata, fra comunicazione sincrona (propria delle chat e degli instant messenger) e asincrona (propria di mail e tecnologie derivate: newsgroup, mailing list, ..): come vedremo, è la percezione di immediatezza di una risposta a creare la sincronia, più che il fatto che 2 persone siano collegate in rete nello stesso momento, e questa percezione cambia molto a seconda del contesto, per cui anche uno scambio di mail, "tecnicamente" asincrono, può risultare sincrono, e uno di chat asincrono

Analizzeremo quindi i tempi e gli spazi delle nuove forme di comunicazione interpersonale, in modo trasversale rispetto alle varie tecnologie. La vera novità che l’informatica ha introdotto nella comunicazione fra individui, infatti, non è tanto tecnologica quanto strutturale, cioè riguarda cambiamenti fondamentali nelle coordinate di spazio e di tempo, poiché segna la fine della distinzione fra i media che sono fissi nello spazio e nel tempo e quelli che scavalcano queste dimensioni.  In altre parole, le stesse tecnologie che servono ad annullare le distanze nello spazio fisico (le telecomunicazioni) oggi sono usate per comunicare anche fra persone che si trovano nello stesso spazio, e le stesse tecnologie che servono a superare le distanze nel tempo (le tecnologie della scrittura) sono usate da persone che comunicano in sincronia.

  • Le distanze nella comunicazione mediata dalle tecnologie.

Il dialogo prototipico, con i suoi tratti caratteristici, è un paradigma sempre implicito quando si pensa alla comunicazione fra persone mediata da tecnologie. Rispetto a questo paradigma, tutte le tecnologie della comunicazione interpersonale basate sulla scrittura, vecchie e nuove, dall’epistolario cartaceo a mail, chat, blog, Sms, sono accomunate dalla distanza nello spazio fisico e della mancanza di accesso percettivo reciproco fra le persone che scrivono. Il telefono invece è una forma di comunicazione orale in cui le persone, pur essendo distanti fisicamente, condividono però il canale audio, cioè possono sentire reciprocamente la loro voce. Poiché questa condivisione avvicina la comunicazione telefonica alla situazione prototipica del faccia a faccia, succede che, a parità di distanza fisica, ci si senta meno distanti se ci si può parlare al telefono invece di scriversi. Occorre quindi distinguere la reale distanza nello spazio fisico, che si misura in metri e chilometri, dall’effetto di distanza o vicinanza creato da una tecnologia, che si valuta con altri criteri. Le distanze nello spazio fisico fra le persone che comunicano sono molto variabili e abbastanza indipendenti dalla tecnologia usata: si scrivono lettere, cartoline e biglietti cartacei (ancora oggi, seppure meno di ieri) sia a persone molto lontane che a persone molto vicine; vale lo stesso per il telefono. A dispetto di quanto si dice sulle caratteristiche specifiche che la scrittura dell’e-mail avrebbe in generale (come fossero legate alla tecnologia piuttosto che ai contenuti e scopi di ciò che si scrive), oggi molte mail destinate a persone lontane ricordano le lettere cartacee che si mandavano un tempo, oppure sostituiscono (o integrano) biglietti di auguri o cartoline; però si mandano mail anche a persone fisicamente molto vicine (in questi casi possono essere comparate a bigliettini, messaggi vocali in segreteria telefonica, post-it). Analogamente, si chatta sia con persone lontane sia con persone vicine, e lo stesso discorso vale per le pagine di blog o le immagini mandate con qualche messenger. Nella comunicazione su Sms la distanza fra emittente e destinatario è variabile come nei mezzi appena visti, tuttavia, nel caso dell’Sms le distanze fisiche incidono ancora meno: i messaggi Sms si somigliano un po’ tutti, che siano inviati a chilometri di distanza o ad una persona che ci sta di fronte mentre scriviamo. La moltiplicazione delle tecnologie della scrittura ci ha resi dunque molto più indipendenti di una volta dalle reali distanze fisiche, nel senso che possiamo accorciarle o allungarle a nostro piacimento, giocando sui diversi mezzi oltre che sui contenuti e lo stile della nostra scrittura. Una tecnologia della comunicazione è tanto più indipendente dalla distanza fisica delle persone quanto più è economica, in termini non solo di denaro, ma di impegno fisico, mentale ed emotivo. Gli effetti di distanza delle tecnologie della comunicazione scritta si misurano quindi con questo criterio di economia: minori sono i costi, da tutti i punti di vista, minore è l’effetto di distanza prodotto dalla tecnologia. Diverso è il caso della telefonata, perché è in gioco l’oralità, che ricorda più da vicino il contesto prototipico del faccia a faccia. Una telefonata è meno economica di un Sms, perché costa gli scatti telefonici del tempo che dura e comporta far sentire la propria voce e sentire quella dell’altra persona, il che è sicuramente più impegnativo in termini mentali ed emotivi. Per analoghe ragioni cognitive ed emotive, una telefonata può essere più o meno economica, a seconda del contesto, dei contenuti e della relazione fra le persone, di una lettera, una mail, una sessione di chat, un commento sul blog. In ogni caso, l’effetto di distanza creato dalla telefonata è sempre inferiore a quello di qualunque forma di comunicazione scritta, perché la condivisione del canale audio accomuna la telefonata con un tratto importante del faccia a faccia prototipico. Tornando all’economia delle forme di scrittura, dal punto di vista fisico e tecnico, mandare una mail, chattare, scrivere un blog comportano l’uso di un Pc, mentre mandare un Sms è decisamente più economico (è meno costoso, più rapido da avviare, più facile da usare e ci accompagna ovunque andiamo). Dal punto di vista mentale ed emotivo, mandare una lettera tradizionale, una mail o chattare possono essere più o meno impegnativi a seconda delle circostanze, mentre scrivere un Sms ci impegna a progettare al massimo 160 caratteri. Dal punto di vista linguistico, gli Sms sono ancora una volta il mezzo più economico: si tollerano errori ortografici, abbreviazioni, spazi mancanti, pasticci di vario tipo, sono ammesse e anzi apprezzate forme di sintesi e comunicazioni così concise che in altri contesti sarebbero ai limiti della scortesia. Tutto ciò costituisce per molti una vera e propria liberazione linguistica e comunicativa e un potente incentivo a moltiplicare i propri contatti. È dunque l’economia di questa forma di scrittura e il gusto di leggerezza e facilità che la accompagnano, ad aiutarci forse a comprendere la sua enorme diffusione.

  • I tempi della comunicazione a distanza.

Il criterio per valutare l’economia delle tecnologie della comunicazione coinvolge anche il fattore tempo: una tecnologia è tanto più economica quanto più rapide sono le comunicazioni che permette. La comunicazione al telefono riproduce la sincronia del faccia a faccia, il che rafforza l’effetto di vicinanza creato dalla condivisione audio: anche se ci troviamo a molti chilometri di distanza, sentiamo la voce della persona con cui comunichiamo nello stesso momento in cui sta parlando. Al telefono possiamo quindi interrompere il parlato dell’altro o sovrapporre la nostra voce alla sua, quasi come faremmo se gli fossimo di fronte, ma con qualche rischio in più: nel faccia a faccia, infatti, le sovrapposizioni di voce e le interruzioni reciproche sono spesso guidate e corrette da indizi visivi, che mancano nella telefonata. La comunicazione scritta, invece, è inevitabilmente più distanziante rispetto a qualunque forma di comunicazione orale, perché comporta una scarto temporale fra il momento della produzione e quello della ricezione del messaggio. Tuttavia, nell’ambito di questa asincronia, le tecnologie della comunicazione scritta possono essere più o meno veloci e dunque possono ricordare in misura maggiore o minore la sincronia della comunicazione faccia a faccia. Considerando la velocità di trasmissione dei messaggi solo dal punto di vista tecnico, la posta tradizionale è incomparabilmente più lenta dell’e-mail; l’e-mail è a sua volta più lenta della chat (lo scarto temporale è quasi azzerato). Per quanto riguarda l’Sms, se il cellulare ricevente è acceso e non ci sono disguidi tecnici, un Sms è recapitato più o meno in 6 secondi: si crea dunque un’illusione di condivisione temporale fra emittente e ricevente comparabile a quella della chat o di un instant message. Tuttavia, la rapidità con cui, da un lato, si progettano, scrivono e inviano messaggi, dall’altro si ricevono e leggono i messaggi degli altri (e a nostra volta si risponde) dipendo solo in parte da questioni tecniche e molto più dalle funzioni interpersonali e sociali che si attribuiscono agli scambi (es: si può rispondere immediatamente ad una mail appena arrivata, come fossimo in chat, o ci si può impiegare una settimana: in entrambi i casi, a seconda del contesto, i nostri tempi possono essere perfettamente adeguati o creare un problema). Indipendentemente da questioni tecniche, l’Sms è il mezzo di comunicazione scritta che gli utenti considerano in genere come il più rapido, perché alla velocità del tempo di invio e risposta si aggiungono gli altri aspetti di economia di cui si è detto. Per questo, una risposta su Sms che vada oltre la reazione immediata è percepita spesso come un distacco dal mondo normale, giusto con cui gli utenti esperti usano gli Sms, ed è vissuta con disagio, è indesiderata. Dal punto di vista passionale, la rapidità di scambi consentita da queste tecnologie produce non solo piacere, ma una vera e propria ebbrezza, una sorta di perenne stato euforico in chi la vive, sia per le ragioni generali analizzate da Gleik
[secondo Gleik, nelle società evolute contemporanee (l’Occidente e il Nord del mondo) l’accelerazione dei tempi e la necessità di fare più cose assieme danno in generale piacere e soddisfazione, anche se ce ne lamentiamo. Inoltre, la rapidità è associata a ruoli sociali elevati, perché di solito sono i dirigenti, i professionisti affermati, le persone importanti insomma, a non avere mai tempo e a dover fare tutto in fretta]
sia, più specificamente, perché la velocità dà l’illusione di annullare le distanze fisiche: il migliore antidoto contro la lontananza nello spazio è la vicinanza nel tempo, cioè la rapidità degli scambi di messaggi. Per questo oggi le comunicazioni veloci attraggono molte persone: siamo veloci, sempre più veloci e concitati (a volte esagerati, nevrotici) nei botta e risposta, nello scrivere e rispondere, per contrastare il fatto che l’altro sta in uno spazio fisicamente lontano dal nostro e dunque non è con noi, non lo possiamo né vedere né toccare.

 

  • Velocemente, quasi continuamente.

Scambi di messaggi veloci e frequenti sono possibili solo se il canale di comunicazione fra noi e gli altri è sempre aperto. Dal bisogno di rapidità a quello di continuità il passo è breve. La comunicazione dal Pc permette la continuità fino ad un certo punto: connettersi ad Internet via modem è un atto saltuario, la cui frequenza dipende dalle abitudini e dal ruolo che Internet ha nella nostra vita. Il cellulare, invece, risponde bene all’esigenza di comunicazione continua: basta lasciarlo sempre acceso. Negli ultimi anni, diversi studi hanno sottolineato gli aspetti negativi e ossessivi di questo bisogno di contatto continuo con gli altri, mettendoli in relazione soprattutto agli usi adolescenziali del cellulare. Certo, in alcuni casi il bisogno che l’altro sia sempre "in linea" è così impellente da scatenare ansie e comportamenti nevrotici. In genere, però, questo accade quando interrompere la continuità ha un significato relazionale molto forte, come nell’innamoramento, in cui la comunicazione scritta è un surrogato della presenza fisica della persona amata, o come nelle situazioni di tensione e conflitto, in cui "chiudere la linea" significa chiaramente "con te non voglio parlare". Credo però che il bisogno di continuità comunicativa sia molto più diffuso, meno legato ad usi compulsivi del telefonino e più trasversale dal punto di vista generazionale, culturale e sociale di quanto emerge da molti studi sui media. Infatti, alcune categorie di persone, privilegiate nell’accesso alle tecnologie della comunicazione, si abituano a mantenere una rete di contatti interpersonali continui anche con Internet. Spesso le persone fanno un uso misto degli strumenti di mail, chat, messaging, Sms, e si scambiano messaggi mentre stanno lavorando o studiando, sia per ragioni legate alla loro attività, sia (più o meno di nascosto) per rimanere in contatto permanente con la loro rete di affetti personali, malgrado il luogo in cui si trovano e ciò che stanno facendo. Spesso le comunicazioni personali sono talmente fitte da costituire un flusso di attività parallelo al lavoro o studio. In questo flusso, a volte le varie tecnologie sono impiegate con modalità e scopi diversi, a volte invece sono usate in modo interscambiabile. Che siano mail o Sms, righe di chat o messaggi istantanei, si tratta sempre di messaggi brevissimi, di rapidi botta e risposta, e la scrittura adottata presenta caratteristiche ricorrenti: prevalgono espressioni gergali, dialettali, idiolettali, si usano le faccine, si adotta uno stile di scrittura colloquiale, che imita il parlato con abbondanza di puntini di sospensione, punti esclamativi, interrogativi, con tante espressioni onomatopeiche tratte dai fumetti, .. Questi contesti sono particolarmente interessanti perché realizzano la prospettiva più promettente, dal punto di vista sociale e dunque socio-semiotico, delle nuove tecnologie della comunicazione interpersonale: non la sostituzione della comunicazione faccia a faccia, come alcuni temono, ma l’interazione e l’integrazione fruttuosa, nelle più varie combinazioni e con le più svariate funzioni, della comunicazione faccia a faccia con molte e diverse forme di comunicazione tecnologicamente mediate, basate su Internet oppure no.

  • LINEE GUIDA PER L’ANALISI DI SITI WEB.

 

Ecco qui di seguito alcuni spunti per organizzare l’analisi semiotica di un sito web. Non tutti gli spunti avranno la stessa rilevanza per tutti i siti web (es: nell’analisi di alcuni siti sarà più proficuo concentrarsi sugli aspetti visivi, in altri casi potrà essere interessante approfondire la relazione enunciatore-enunciato, ..). Quanto diremo va quindi preso come uno schema, una check list (= elenco di controllo) da tenere come promemoria mentre si analizza un sito web, perché:

    • all’inizio aiuta a decidere come e dove cominciare
    • durante l’analisi serve a controllare se non stiamo trascurando qualcosa che potrebbe essere rilevante
    • alla fine serve a verificare ciò che abbiamo fatto, e a trarre ispirazione su come potremmo proseguire se avessimo più tempo, sullo stesso sito e su altri

È quindi una lista di ciò che non si può non prendere in considerazione, dal punto di vista semiotico, quando si analizza un sito web, il che non esclude, ovviamente, che si possano prendere anche altre strade.

  • Lo spazio del paratesto e dei contenuti.

Innanzi tutto, nell’interfaccia grafica di un sito è necessario distinguere lo spazio del paratesto (il suo sistema di sfogliamento: barre di navigazione, link associativi, linkografie) dallo spazio dei contenuti, in cui stanno i testi verbali, le immagini, gli oggetti multimediali che il sito sottopone all’attenzione dei suoi lettori-utenti modello, e da cui vuol far partire un certo numero di azioni. È importante analizzare separatamente questi 2 spazi: solo alla fine potremmo valutare la loro coerenza reciproca, che andrà strettamente riferita agli obiettivi e agli utenti modello del sito. Individuare e separare questi spazi può essere più o meno facile, a seconda di quanto e come il sito segue gli standard web. Nei siti con interfacce innovative bi- o tridimensionali, che puntano molto sulla grafica e sugli aspetti visivi, spesso i 2 spazi sono appositamente fusi e confusi fra loro. Per aiutarci a distinguere i 2 spazi, ricordiamo che il paratesto di un sito web comprende tutte le parti che rispondono alle domande: dove sono?? da dove vengo?? dove vado??, mentre lo spazio dei contenuti risponde alla domanda di cosa si tratta??

  • Il sito come testo sincretico.

Ogni sito web è un testo sincretico, perché coinvolge una pluralità di linguaggi costituita da

  • sistemi semiotici articolati su 2 sostanze dell’espressione, visiva e sonora
  • la simulazione di altri media, più o meno "vecchi" e tradizionali

Si tratta di individuare i vari sistemi semiotici e i media che il sito mette in gioco e di indagare in che modo (e se) il sito li integra in un progetto unitario coerente. Di solito, il paratesto di un sito web combina questi sistemi semiotici:

  • il sistema della lingua (inglese, italiano, francese, ..) in cui sono scritte le parole e le frasi sulle barre di navigazione, nei menù, sui pulsanti del sito
  • il sistema di convenzioni visive che sul piano dell’espressione permette di individuare dove si trovano i punti di intervento, e di riconoscere lo stato in cui si trovano: potenziale, virtuale, attuale, realizzato
  • i sistemi di convenzioni visive che permettono di riconoscere, sul piano dell’espressione, icone e pulsanti e di attribuire loro, sul piano del contenuto, i programmi gestuali cui sono associati
  • i sistemi di convenzioni acustiche che permettono, sul piano dell’espressione, di riconoscere e, sul piano del contenuto, di attribuire una funzione ai suoni che compaiono automaticamente nel paratesto (sigle, sottofondi musicali) o seguono azioni dell’utente (schiacciamenti di pulsanti, sfogliamento di pagine, ..)

Vanno quindi analizzati i mezzi di comunicazione che il paratesto del sito ri-media con le sue metafore visive: dalle metafore standardizzate, riprese dalle interfacce grafiche dei programmi (cartelle, cestini, ..) o specifiche del Web (carrelli della spesa, lenti d’ingrandimento per le funzioni di ricerca, ..), a simulazioni bidimensionali e tridimensionali, più o meno originali, di ambienti e esperienze quotidiane (la prima pagina di una rivista cartacea in un magazine on-line, un’architettura museale nel sito web di un museo, ..). Nello spazio dei contenuti, oltre alla lingua verbale, i sistemi semiotici usati e i media simulati possono coinvolgere regole e codici visivi, sonori, multimediali anche molto complessi, per analizzare i quali possono essere utili, a seconda dei casi, strumenti di semiotica visiva, del cinema e degli audiovisivi, della televisione, della musica, della pubblicità. Particolare attenzione va sempre riservata alla lingua che il sito usa, sia nel paratesto che nello spazio dei contenuti. Se il sito è in italiano, tutti i testi scritti vanno attentamente analizzati e valutati secondo i criteri di chiarezza ed efficacia individuati per la lingua italiana dalle scuole linguistiche e da altri studiosi e professionisti che hanno lavorato alla semplificazione della scrittura burocratica, aziendale e professionale, con particolare riguardo alla scrittura per il Web.

  • Analizzare ciò che si sa.

Uno dei tratti caratteristici del metodo semiotico è quello di indagare i testi nei sistemi di relazioni intertestuali e nell’enciclopedia di cui sono intessuti. Il che significa analizzare ciò che intorno ad un testo già si sa: tutti i saperi e le competenze che un testo, in un certo contesto culturale, presuppone per poter essere compreso dai suoi lettori, quanto a regole sintattiche, semantiche, pragmatiche, repertori stilistici, sceneggiature enciclopediche (comuni e intertestuali). Nel caso di un sito web, questo significa innanzi tutto verificare se, come e in che misura il sito segue gli standard web di navigazione, organizzazione e presentazione dei contenuti. Abbiamo descritto a grandi linee le convenzioni web già assestate, ma per analizzare un sito web occorre padroneggiare ulteriori dettagli, per i quali rinvio al sito www.webstandars.org. In secondo luogo, occorre conoscere le consuetudini e le convenzioni testuali, paratestuali e intertestuali che caratterizzano il genere web cui appartiene il sito. Si raggiunge questa conoscenza in modo empirico: usando più di un motore di ricerca (es: Google.com, Google.it e Virgilio.it), si fa un’indagine sistematica su un numero rilevante di siti che, nel panorama web internazionale, appartengono allo stesso genere del nostro sito, che cioè si rivolgono agli stessi utenti modello, con gli stessi obiettivi, per fargli fare cose analoghe, in contesti analoghi.

  • I lettori-utenti modello.

A questo punto abbiamo a disposizione buona parte delle informazioni che ci servono per individuare i lettori-utenti modello del nostro sito, rispondendo così alla prima domanda fondamentale a cui la stessa progettazione del sito, se ben condotta, avrebbe dovuto rispondere: per chi?? cioè a quali lettori-utenti modello si rivolge il sito?? Come sappiamo, il lettore-utente modello di un sito è l’insieme di competenze, mosse interpretative e azioni che il sito presuppone e/o costruisce e induce nei propri lettori-utenti empirici, per poter essere compreso, interpretato, agito secondo quanto previsto dal progetto del sito. L’analisi che abbiamo già fatto sui sistemi semiotici, i media, le convenzioni di navigazione, le competenze enciclopediche e di genere su cui si basa il nostro sito individua l’insieme di competenze di base che il sito presuppone e/o costruisce nei propri lettori-modello e dunque ci serve a capire, ad un primo livello, come sono fatti questi lettori-utenti modello: quali competenze linguistiche, visive, multimediali, di genere devono avere per muoversi a loro agio nel sito, comprendere ciò che vi trovano scritto e ciò che vi accade, eseguire le azioni che il sito permette, apprezzarlo positivamente e volerci tornare. Dovremo dunque rileggere e approfondire quanto emerso nei paragrafi II e III per cogliere il maggior numero possibile delle seguenti caratteristiche dell’utente (o utenti) modello:

    • genere sessuale
    • razza
    • età media
    • stato matrimoniale
    • grado di istruzione
    • provenienza geografica
    • lingue straniere conosciute
    • professione
    • ceto sociale
    • competenza nell’uso del computer
    • abitudini di navigazione (anche applicando la tipologia di Ferraro)
    • familiarità con quali generi web e quali altri media
    • disponibilità alle transazioni on-line (acquisti, compilazioni di moduli, interrogazioni di database, ..)

Non tutte queste caratteristiche saranno pertinenti in tutti i siti, ma alcune che sembreranno insolite per un sito saranno invece cruciali per un altro: ci sono siti per single, per anziani, donne, teenager, animalisti, cultori di bonsai, ..

  • Azioni, storie, desideri.

Arriviamo ad analizzare l’insieme, i tipi e le gerarchie di azioni che il sito prevede. Può essere utile organizzare la descrizione di tutte queste azioni con le strutture semio-narrative di Greimas, trattando cioè come storie le risposte che il sito dà alle altre 2 domande cruciali della progettazione web: per cosa?? per quale contesto?? Domandiamoci quindi: per far compiere quali azioni ai propri utenti modello, con quali obiettivi e per quali contesti tipici è stato progettato il sito?? Applicando le strutture semio-narrative greimasiane, individuiamo innanzi tutto i ruoli attanziali della situazione tipica prevista da ogni azione: per quale incarico o dovere o rispondendo a quale gerarchia di valori (destinante), l’utente (soggetto) vuole o deve compiere l’azione, a quale obiettivo (oggetto) è rivolta l’azione, quali sono le difficoltà più comuni (oppositore) che l’utente incontra, sul Web e nel mondo esterno, quali competenze (saperi e poteri) l’utente ha bisogno di acquisire per raggiungere l’obiettivo, quale aiuto il sito web gli può dare (aiutante), con quali altri aiutanti, fra quelli che l’utente trova nel mondo (persone, strumenti fisici, risorse), il sito può entrare in sinergia. Quindi, per ogni programma narrativo previsto dal sito, si individueranno le gerarchie di programmi d’uso che gli sono funzionali, e le si organizzeranno in un percorso narrativo unico. Non si tratta di inventare una favoletta banale per ogni azione quotidiana ed ogni movimento delle persone davanti al computer: le strutture semio-narrative vanno pensate e usate solo come una griglia organizzativa, uno strumento che ci può aiutare a fare emergere rapidamente i valori profondi e i desideri che muovono l’utente verso certe azioni e movimenti nel sito. È qui che si deve mettere in atto quel processo di progressiva astrazione per livelli, dalla superficie del testo ai concetti generali soggiacenti. Le domande che dobbiamo porci al livello più profondo di analisi sono dunque: quali valori il sito presuppone nel suo utente modello?? Quali desideri dà per scontati, quali vuole suscitare nell’utente modello?? Dopo di che, ci domanderemo: quali sono i valori e i desideri che gli utenti hanno in realtà?? È solo presupponendo, da un lato, e cercando di suscitare, dall’altro, alcuni desideri negli utenti modello, ed è solo puntando a realizzarli che un sito web, come qualunque soggetto di comunicazione persuasiva, può sperare di creare negli utenti quella "soddisfazione" e quella "attitudine positiva" che sono fondamentali per l’usabilità. Ed è solo confrontando, azione per azione, obiettivo per obiettivo, storia per storia, i valori e desideri presupposti e costruiti dal sito con i valori e desideri reali degli utenti che si può cominciare a capire se il sito è davvero usabile oppure no.

  • Le strategie enunciative.

Come sappiamo dalla teoria semiotica dell’enunciazione, l’enunciatore empirico di un testo lascia sulla superficie del testo che produce un insieme organizzato di tracce o marche che simulano l’enunciatore stesso, il tempo e luogo dell’enunciazione, l’enunciatario: sono i simulacri dell’enunciatore, dell’enunciazione e dell’enunciatario. Nei termini di Eco, il simulacro dell’enunciatore è l’autore modello del testo, il simulacro dell’enunciatario è il suo lettore modello. L’analisi di questo insieme organizzato di tracce è importante in un sito web per diversi motivi:

  • serve a ricostruire l’autore modello del sito, cioè l’immagine che l’autore empirico dà di sé attraverso il sito, e a confrontarla con la sua immagine coordinata, cioè con l’immagine dell’autore empirico che emerge dalla costellazione di testi che compongono la sua comunicazione esterna. Quest’analisi è particolarmente rilevante per i siti delle aziende private, che spesso possiedono un’immagine perfettamente coordinata su tutti i media, tranne che sul loro sito. Ma risultati molto interessanti si ottengono anche analizzando l’autore modello dei siti delle amministrazioni pubbliche (locali e centrali) che, per nulla abituate a progettare la loro comunicazione esterna in termini di immagine coordinata, oggi cercano sempre più spesso di usare il Web per gestire le relazioni con i cittadini e offrire loro diversi servizi, incorrendo in errori più o meno gravi
  • individua il modo in cui l’autore modello del sito stabilisce la sua relazione con il lettore-utente modello, e dunque contribuisce ulteriormente a caratterizzare quest’ultima figura, assolutamente centrale per qualunque progettazione web sensata (e relativa analisi). Si tratta dunque di studiare il contratto enunciazionale fra l’autore e il lettore modello del sito, cioè "lo stabilirsi di un contatto, di un rapporto di attenzione, di cooperazione, di fiducia con l’enunciatario", indagando le varie strategie di complicità o distanza che l’autore modello può mettere in atto, con mezzi linguistici e/o con altri sistemi semiotici

Fra le varie distanze possibili fra enunciatore ed enunciatario, si possono individuare 2 estremi: dalla massima distanza di un enunciatore che fa affermazioni impersonali e discorsi in terza persona (distanza non pedagogica) oppure spiega, consiglia, suggerisce ad un enunciatario rappresentato in ascolto e ricezione (distanza pedagogica), si va alla complicità di un enunciatore che interpella direttamente l’enunciatario (discorsi in seconda persona, verbi all’imperativo, sguardi in camera, ..), oppure lo coinvolge con un "noi" inclusivo, o ancora si rappresenta nell’atto di dialogare con lui.

  • Il sito come spazio visivo.

Ho tenuto alla fine l’analisi del sito come spazio visivo per contrastare una tendenza piuttosto diffusa quando si fa analisi di siti web: quella di parlare innanzi tutto della grafica e delle immagini che l’interfaccia di un sito presenta. Questa tendenza deriva

    • in parte dalla polemica "arte contro progettazione" fomentata da Nielsen, che ha indotto quasi tutti a concentrarsi sugli aspetti visivi del Web per potersi schierare velocemente pro o contro la creatività dei web designer
    • in parte dal fatto che sulla grafica di un sito chiunque si sente in grado e in diritto di dire qualcosa: mi piace, non mi piace, quel colore mi rasserena, quell’altro mi agita, non avrei messo quella foto proprio lì, ..

Suggerisco di analizzare un sito web come spazio visivo solo alla fine dei passaggi che ho proposto, per ridurre al minimo le valutazioni soggettive e di gusto che inevitabilmente siamo tentati di introdurvi e per cercare, al contrario, di comprendere le scelte grafiche e visive del sito nel quadro complessivo e complesso in cui il sito è stato progettato. Forti di questa maggiore consapevolezza, potremo usare con più tranquillità tutti gli strumenti della semiotica visiva, plastica e figurativa, e fare anche lo sforzo di prescindere completamente dal piano del contenuto che caratterizza l’analisi plastica di un testo visivo, in cui si tratta il testo come organizzazione di linee (livello eidetico), colori (livello cromatico), spazi (livello topologico), indipendentemente dal fatto che in queste linee, colori e spazi si possano riconoscere figure del mondo dotate di qualche significato.

  • La coerenza del sito.

Come in qualunque testo, l’analisi della coerenza di un sito web si fa individuando e confrontando le sue isotopie semantiche. Un’isotopia è la ricorrenza, la ridondanza in tutto il testo di certi significati, che possono essere unità semantiche singole o coppie di unità semantiche contrarie o contraddittorie. Un’isotopia è figurativa se i significati ricorrenti sono in qualche modo riconducibili ad oggetti, eventi e porzioni dell’esperienza sensibile, è invece tematica se si ripetono concetti astratti, che cioè non si riferiscono a oggetti che possiamo percepire con i 5 sensi. La ricerca delle isotopie in un sito web riguarda tutti i passaggi di analisi fin qui individuati.

 

http://www.scicom.altervista.org/comunicazione%20multimediale/SemioticaDeiNuoviMedia_Cosenza.doc

 


 

Comunicazione multimediale

 

 

Visita la nostra pagina principale

 

Comunicazione multimediale

 

Termini d' uso e privacy

 

 

 

Comunicazione multimediale