Torniamo a noi

[cml_media_alt id='1954']charlie[/cml_media_alt]Nei paragrafi precedenti abbiamo visto alcune soluzioni pratiche adottate nel campo della comunicazione e dell’archiviazione dell’informazione per evitarne il deterioramento a causa di errori nella trasmissione o nella conservazione dei sopporti.
Ovviamente il concetto di errore è qualcosa di molto più vasto e lo incontriamo pressochè in tutti gli ambiti in cui gli esseri umani possano avere delle percezioni sbagliate, fare dei ragionamenti sbagliati e prendere delle decisioni sbagliate. Inoltre, come ci ricordano simpaticamente le parole di Leo Longanesi in bocca a Charlie Brown nella vignetta a fianco, l’atteggiamento umano nei confronti degli errori, soprattutto i propri, è molto peculiare. Come vedremo.

Esempi di errori della percezione, in rete, ve ne sono a profusione. Basta una ricerca su Google per essere inondati da immagini di illusioni ottiche di ogni genere. Anche l’udito può essere ingannato da una opportuna manipolazione sonora. Non solo è possibile creare effetti come la Scala Shepard, che crea l’effetto di una scala infinitamente ascendente, ma la stessa compressione usata nel creare di files MP3 per la musica è in grado di creare dei brani audio che l’orecchio non è in grado di distinguere dagli originali, anche se gran parte dell’informazione acustitca è andata perduta.
Fin dall’inizio degli anni ’80, con la nascita delle nuove scienze cognitive, gli studiosi hanno imparato a riconoscere i sintomi di diversi processi mentali, che portano all’errore in maniera del tutto analoga a quello che accade alle percezioni sensoriali, ma relativamente ad un ambito più astratto come quello del ragionamento.
Si tratta di meccanismi psicologici che ci portano a sbagliare grossolanamente delle valutazioni, quando siamo chiamati a fare delle stime o valutare delle probabilità usando l’intuito anzichè il calcolo rigoroso, come nel caso del Problema di Monty Hall.
Uno dei tunnel mentali che condizionano per esempio il processo decisionale è il cosiddetto confirmation bias. Si tratta di un meccanismo mentale che ci porta a dare maggior peso agli elementi che confermano una nostra ipotesi iniziale e scartare i risultati contrari. Non si tratta solo di avere dei preconcetti, ma di un vero e proprio processo inconscio innato.
Per questo motivo è particolarmente importante per tanti siti internet posizionarsi nelle prime pagine dei motori di ricerca. Infatti non solo gran parte delle informazioni che risultano da una ricerca vengono scartate a causa di un altro fenomeno cognitivo detto Information Overload, ma, dopo aver letto i primi risultati della ricerca, il nostro cervello sarà ormai tarato su quelle informazioni e tenderà a ignorare, o dare meno peso, ai risultati successivi qualora questi fossero in disaccordo. Anche se fossero numericamente preponderanti.

[cml_media_alt id='1963']calvin-hobbes-new-years-resolutions[/cml_media_alt]Un altro tipico tunnel mentale che entra in gioco quando si prendono decisioni errate è stato definito dai cognitivisti Overconfidence, o in italiano Sicumèra.
Il grado di sicumera individuale è stato misurato nel 1977 da Fischhoff, Slovic e Lichtenstein, confrontando sicurezza individuale di aver risposto esattamente a una serie di domande e effettiva esattezza delle risposte. Si tratta in questo caso della tendenza, paradossale, a commettere gli errori più gravi, soprattutto nei campi in cui abbiamo maggiore esperienza. In tutte quelle situazioni in cui abbiamo una grande specializzazione e una consumata esperienza, abbiamo la tendenza a ricondurre tutte le situazioni a qualcosa di già vissuto. Diventiamo quindi vulnerabili alla novità, al caso particolare e, soprattutto, non prendiamo neanche in considerazione la possibilità che possa affatto esistere una situazione che non siamo in grado di gestire.

I nostri sensi si sono evoluti in modo da interpretare in un certo modo gli stimoli visivi e uditivi perchè in natura quel tipo di interpretazione risulta essere quello maggiormente rappresentativo della realtà. Le illusioni ottiche o acustiche di cui abbiam parlato sono in effetti delle costruzioni molto particolari che vanno a scovare ben precise vulnerabilità dei nostri sensi.

Nel caso della nostra mente, i tunnel mentali non sono meno subdoli e, generalmente, il fatto che ci siano ci aiuta non poco a prendere decisioni in maniera veloce ed efficiente.
La stessa propensione alla sicumera, a considerare le opinioni altrui sbagliate salvo prova contraria, ha una sua spiegazione psicologica in quanto ci permette di non fare la fine dell’asino di Buridano, rimanendo vittime della nostra indecisione.
La stessa sensazione di grande disturbo emotivo che si prova nel constatare di essere nel torto, è un meccanismo che stimola la memorizzazione dell’errore per evitare di commetterlo di nuovo.
Ovviamente vi sono situazioni in cui la sicumera genera dei danni, anche gravi.

Oggigiorno l’errore umano, le situazioni in cui può manifestarsi insieme ai modi per prevenirlo sono studiati nell’ambito più ampio della disciplina di Risk Management, gestione del rischio.
Si tratta di una disciplina che ha iniziato a svilupparsi soprattutto in ambito aeronautico e medico, in cui il rischio collegato all’errore umano può facilmente portare a esiti catastrofici.

Un pioniere nell’ambito di questi studi è James T. Reason che ha pubblicato diversi saggi sull’argomento e ha proposto il cosiddetto Modello del Formaggio Svizzero, per illustrare le modalità con cui un rischio può trasformarsi in danno all’interno di un sistema complesso.
Nell’immagine sotto ne vediamo sotto un esempio in cui ogni fetta rappresenta un’area di competenza all’interno di una grande azienda. A ciascun livello possono esserci dei “buchi” in cui il sistema è vulnerabile ad un particolare tipo di errore. Quando gli errori si allineano si crea una traiettoria delle opportunità che porta alla realizzazione del danno.

[cml_media_alt id='1966']Swiss-Cheese-500[/cml_media_alt]

Analizzando le cause che possono creare i “buchi” nelle “fette di formaggio” si individuano diverse situazioni dovute a errore umano, cioè situazioni in cui la mancanza del raggiungimento del risultato di una sequenza di azioni non è attibuibile al caso.

Fra i tipi di errore si distinguono i fallimenti dell’esecuzione:

  • Slip: Il piano d’azione della persona è corretto, ma una (o più) delle azioni che lo compongono è stata eseguita in modo sbagliato;
  • Lapses: Il piano d’azione della persona è corretto, ma una (o più) delle azioni che lo compongono è stata saltata;

e i fallimenti della pianificazione:

  • Mistakes: Le azioni della persona realizzano correttamente il suo piano, ma è il piano ad essere sbagliato.

Per ognuno di questi casi si cercano soluzioni che possono prevedere per esempio la creazione di Check List, cioè l’obbigo riportare su una lista di riscontro le operazioni eseguite durante l’esecuzione di una sequenza complessa, oppure l’utilizzo di strumenti che presentino il cosiddetto Poka-Yoke, esemplificato nella figura sotto.

poka-yokeSi tratta in questo caso di progettare a monte i componenti di un sistema complesso in modo che possano essere montati e/o utlizzati in maniera univoca e sia impossibile un montaggio errato.
Per quanto riguarda gli errori del tipo Mistake in cui è la procedura che viene eseguita ad essere intrinsecamente debole, si può agire preventivamente attraverso una FMEA, cioè un’analisi che cerchi le modalità di fallimento del sistema guidando al progettazione di un sistema più robusto.

Dopo questa lunga dissertazione sugli errori, le cause e i motivi che li generano, può essere divertente chiudere con il simpatico fatalismo della celebre Legge di Murphy:

Se qualcosa può andar male, lo farà!