Risk management: errori e incidenti nell`ambiente

Risk management: errori e incidenti nell'ambiente sanitario
Autore e responsabile scientifico: Dr Andrea Vettori, Esperto in management sanitario e clinical governance
Sanitanova è accreditato dalla Commissione Nazionale ECM (accreditamento n. 12 del 10/06/2010) a
fornire programmi di formazione continua per tutte le professioni.
Sanitanova si assume la responsabilità per i contenuti, la qualità e la correttezza etica di questa attività
ECM.
Inizio evento: 01/07/2012; ID evento: 12- 36451
MODULO 5. Metodi e strumenti del Risk management - L’analisi proattiva del
rischio: presupposti e strumenti
Obiettivi formativi
Al termine di questa monografia, il lettore dovrebbe essere in grado di:

conoscere gli aspetti concettuali e applicativi degli eventi sentinella

individuare e comprendere gli strumenti di analisi proattiva
Keyword
Analisi Proattiva, James Reason
Analisi Proattiva: i presupposti concettuali
“La fallibilità è una caratteristica dell’essere
umano. Noi non possiamo cambiare l’essere
umano, ma possiamo cambiare le condizioni in cui
gli esseri umani operano”
James Reason
Come già detto nei moduli precedenti, gli errori in medicina costituiscono un grave problema di salute
pubblica e una minaccia per la salute del paziente.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
1
Nel complesso occorre sempre tenere presente che solo una minima parte degli errori esitano in effettivi
danni per il paziente, in quanto spesso l’errore viene identificato in tempo e mitigato, il paziente non ha
comunque avuto danni o per semplice fortuna.
James Reason ha elaborato nel 1990 una teoria che è diventata il punto di riferimento e un modello
comunemente accettato per comprendere la causalità degli errori e come questa nozione si applichi al
mondo sanitario.
Secondo questo modello, detto anche modello dello Swiss Cheese (formaggio svizzero), tutte le
organizzazioni complesse e gli ambienti di lavoro presentano una serie di livelli di difesa, che offrono
protezione contro le conseguenze avverse di un errore; questi livelli di difesa sono rappresentabili
metaforicamente come singole fette di formaggio. Nonostante ciò, ogni livello di difesa presenta delle
imperfezioni, dei “buchi” nella fetta di formaggio svizzero. Il danno per il paziente si verifica quando le
circostanze consentono all’errore di attraversare tutte le barriere di difesa (passare in mezzo ai buchi di
tutte le fette di formaggio), in modo tale che la freccia rappresentante l’errore raggiunga il paziente.
Figura 1. Il modello dello swiss cheese di Reason
Diventa a questo punto fondamentale comprendere quali linee di difesa è possibile attuare per ridurre il
più possibile da un lato le dimensioni dei “buchi” e dall’altro per aumentare il numero di fette di formaggio,
rendendo meno probabile un incidente. Diventa a questo punto fondamentale l’analisi proattiva, che
consente di identificare a priori i possibili errori e di imparare dai possibili errori compiuti.
Mentre Reason nella comprensione di come quei comportamenti umani possano trasformarsi e
diventare errori, Rasmussen ci aiuta nella comprensione dei comportamenti umani.
Classificazione dei comportamenti umani
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
2
Secondo Rasmussen il comportamento umano, soprattutto nei luoghi di lavoro, lo si può classificare e
distinguere in tre tipologie:

Skill-based behaviour, ossia comportamenti automatici a una data situazione;

Ruled-based behaviour, ovvero comportamenti, prescritti da regole, che sono state definiti in
quanto ritenuti più idonei da applicare in una particolare circostanza;

Knowledge-based behaviour, ovvero comportamenti messi in atto quando ci si trova davanti a una
situazione sconosciuta e si deve attuare un piano per superarla.
I tre tipi di comportamento si acquisiscono in sequenza; non esistono comportamenti skill-based innati, ma
questi derivano dalla pratica in situazioni che all’inizio richiedevano impiego della conoscenza e capacità di
risolvere problemi.
Quindi, ogni comportamento basato sulla pratica è stato, prima di diventare automatico, di tipo ruledbased e prima ancora knowledge-based.
Un glossario per cominciare
Errori attivi
Si tratta degli errori individuali (legati alla persona), che provocano l’incidente.
Slip (letteralmente ‘scivolata’), ovvero errori d’esecuzione che si verificano a livello delle abilità. In questa
categoria vengono classificate tutte quelle azioni che vengono eseguite in modo diverso da come
pianificato; in altre parole il soggetto sa come dovrebbe eseguire un compito ma, più o meno
consapevolmente, decide di svolgerla in un altro modo, “alla sua maniera”. Di solito tale comportamento, si
sviluppa nei confronti di attività definite routinarie e/o ritenute nel tempo dalla persona stessa, di
“secondaria” importanza.
Gli slip possono essere sotto classificati in errori di cattura, perseveranze e errori di descrizione.
Errori di cattura: si verificano quando vogliamo deviare da una routine, ma non prestiamo
sufficiente attenzione. Il risultato è quello di venir “catturati” dal processo automatico e
impossibilitati a deviare dalla routine stessa. Compare quando due diverse sequenze d’azione
hanno in comune gli stadi iniziali.
Perseveranze: dopo che un’attività di routine è stata completata, uno o più passaggi della stessa
possono venir ripetuti. Un esempio banale è esemplificativo: capita che mentre chiamando
l’ascensore, contemporaneamente, veniamo distratti da qualcosa; l’ascensore magari è già
arrivato ma continuiamo a premere il pulsante.
Errori di descrizione: consistono nell’attuazione di uno schema comportamentale corretto
sull’oggetto sbagliato. Prendiamo ad esempio la collocazione dei farmaci: fiale per
somministrazione intramuscolare nello scaffale previsto per la somministrazione endovenosa.
L’azione che si intende fare ha molto in comune con altre che sono anch’esse possibile; quanto più
l’oggetto sbagliato e quello giusto hanno in comune, tanto più l’errore è probabile.
Lapse (letteralmente ‘lapsus, svista’), ovvero errori d’esecuzione provocati da un fallimento della memoria.
In questo caso l’azione ha un risultato diverso da quello atteso a causa di un fallimento della memoria. Non
si commettono lapse nelle cose che stiamo ancora imparando.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
3
Comportamenti che si trasformano in errori
James Reason riprende la teoria di Rasmussen e la elabora ulteriormente sotto il profilo cognitivocomportamentale, consentendone la comprensione e classificando i comportamenti in relazione alle varie
tipologie di errore.
L’autore individua e sintetizza gli errori in due tipologie: gli errori attivi e gli errori latenti.
Errori attivi
Si tratta degli errori individuali (legati alla persona), che provocano l’incidente.
Questi errori di solito sono attribuiti o attribuibili a uno specifico operatore, anche se non si ha certezza
(semmai probabilità) che un diverso operatore, nelle stesse condizioni, avrebbe commesso lo stesso
errore.
Vediamoli nel dettaglio:

Errori d'esecuzione che si verificano a livello d'abilità (slip).

Errori d'esecuzione provocati da un fallimento della memoria (lapse).

Errori non commessi durante l'esecuzione pratica dell'azione (mistake).
Errori latenti
Vengono collocati in questa categoria, gli errori che all’interno dell’organizzazione, anche se dannosi,
singolarmente non sono in grado di provocare un incidente o un errore, ma sicuramente lo facilitano.
Si sintetizzano nel termine “mistakes” e sono specificati come:

Ruled-based: quando si è scelto di applicare una regola o una procedura che non permette il
conseguimento di quel determinato obiettivo, di solito a causa di mancanza di pianificazione e di
programmazione.

Knowledge-based: sono errori che riguardano la conoscenza, a volte troppo scarsa (addestramento
o formazione inadeguata), che porta a ideare percorsi d’azione che non permettono di raggiungere
l’obiettivo prefissato.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
4
Figura 2
Teoria degli errori latenti
Il presupposto di base della teoria proposta da Reason risiede nella convinzione che gli incidenti siano solo
la punta di un iceberg e che, per un incidente che ha avuto luogo, ce ne siano stati molti altri che non sono
avvenuti solo perché l’operatore o un controllo hanno impedito che accadesse.
Su questi presupposti si impianta quindi il concetto di near miss, cioè la necessità di dover considerare
anche i “quasi eventi” come potenzialmente pericolosi per il sistema.
Per completare il quadro degli eventi dannosi o potenzialmente tali, l’autore ricorda anche omissioni e
violazioni. Relativamente a omissioni e violazioni, dai termini stessi si evince che si tratta di atti
deliberati e volontari.
Le omissioni, ovviamente, rappresentano la non applicazione volontaria di una procedura, mentre
le violazioni tutte quelle azioni che vengono eseguite anche se ciò è formalmente impedito da un
regolamento o da una direttiva.
Per questi due ultimi aspetti, la riflessione implicitamente include ambiti professionali di
pertinenza e natura etica, giuridica e deontologica.
Le difese dell’organizzazione
Un altro aspetto fondamentale della teoria di Reason riguarda le difese, ossia le barriere che
un’organizzazione mette in atto per prevenire incidenti/errori.
Questi sistemi di difesa possono essere costituiti da:

segnali di allarme,

da strumentazione,

da procedure

da protocolli.
L’autore sottolinea come le difese, pur non garantendo l’eliminazione degli incidenti, permettono di ridurre
la probabilità che si verifichino.
Ovviamente oltre all’errore umano (attivo e latente), si possono associare errori e violazioni, riconducibili di
volta in volta all’organizzazione e all’ambiente di lavoro. Poiché gli errori attivi non potranno mai essere
eliminati in modo definitivo, per aumentare la sicurezza del sistema risulterà necessario influire sulle
criticità latenti, sulle quali gli errori attivi s’innescano.
Riprendendo il modello di Reason, si può osservare come le difese dell’organizzazione possano
essere riconducibili a:

le condizioni predisponenti (aspetti legati alla progettazione stessa dell’organizzazione)

gli errori attivi (azioni)

le limitate opportunità di opzione (sistema difensivo carente)
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
5
Figura 1 – Il modello di Reason
Dallo schema di Figura 1 emerge molto significativamente il rapporto tra organizzazione, ambiente di
lavoro e persone.
Il punto di forza dell’analisi proattiva, si poggia proprio su questa consapevolezza: “Se la persona si trovasse
a operare in condizioni organizzative e ambiente di lavoro adeguati, commetterebbe meno errori”.
Dal momento che l’errore del singolo potrebbe essere “condizionato” dal sistema, attraverso l’approccio
proattivo si propongono interventi plurimi, simultanei, su più fronti e si elimina di fatto la tradizionale,
rassicurante e inutile “caccia alle streghe”.
Con la ricerca del “colpevole”, come si sottolineava nel Modulo 1, si effettua un’operazione “finta”, si crea
un’illusione ottica, si sposta altrove e si rimanda il problema, anziché analizzarlo nei suoi vari aspetti e
affrontarlo con gli strumenti appropriati.
Il modello originale di Reason è stato nel tempo rielaborato; la versione del 1995 (vedi figura 4), adattata
da Vincent, evidenzia rispetto al modello originale la differenza tra l’incidente e il danno al paziente, mentre
il modello del 1997 (vedio figura 5) segnala come il processo di generazione di un incidente non sia in realtà
rappresentabile in modo lineare.
È peraltro da evidenziare un dato significativo: uno studio condotto nel 2005 da Perneger ha sottoposto la
figura del modello di Reason nella sua versione originale (lo Swiss cheese) a un gruppo di circa 200
operatori sanitari che avevano dichiarato familiarità con il modello; veniva richiesto di comprendere nel
modello quale fosse la raprpesentazione del rischio e quale quella dell’errore. Da questo studio è emersa
una conoscenza non completa e errori di attribuzione anche significativi di questi termini, anche fra
persone che si erano dichiarate competenti.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
6
ERRORI LATENTI
Decisioni
Strategiche
Condizioni che
favoriscono
l’errore
Processi
organizzativi
Condizioni che
favoriscono
le violazioni
Organizzazione
ERRORI ATTIVI
Ambiente di
lavoro
Difese
Errori
Violazioni
Difese
Persone
Figura 3 Correlazioni tra organizzazione, ambiente e persone.
Figura 4 – Il modello di Reason pubblicato nel 1997.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
7
Reason J. Managing the Risks of Organizational Accidents. Aldershot, UK: Ashgate; 1997.
La metafora dell’iceberg
Man mano che le organizzazioni in generale, e quelle sanitarie in particolare, hanno fatto propria la
concettualizzazione, legata alla necessità di quantificare, classificare, intercettare gli errori, si è
gradualmente venuta a configurare la distribuzione degli errori secondo frequenza e visibilità.
Nella metafora dell’iceberg appare evidente che il riscontro degli incidenti che determinano danno clinico al
paziente risulti essere solo la punta del famigerato iceberg.
Per ogni incidente che ha avuto luogo, ce ne sono molti altri che non sono avvenuti perché, di volta in volta,
l’operatore o un controllo hanno impedito che ciò accadesse (near miss event).
L’aspetto particolarmente interessante, sul quale ruotano poi gli interventi di tipo proattivo, si ritrova
nell’asse frequenza/visibilità.
Un evento avverso più è frequente, meno è visibile e in genere è anche meno “grave”; di contro, un evento
meno è frequente, più è visibile e spesso, purtroppo, è anche più grave.
Dietro questo contorto giro di parole si possono però ritrovare anche gli estremi per poter disattivare la
catena gli eventi stessi e la modalità, pur nella sua complessità, sembra essere abbastanza intuitiva:
intervenire sulla base della piramide, ossia sugli eventi considerati meno dannosi (gli errori), meno visibili e
più frequenti, affinché si possano smascherare i near miss e ridurre sensibilmente gli incidenti.
Figura 5 - Metafora dell'iceberg
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
8
La proporzione di Heinrich (Heinrich William Herbert, 1886 - 1968 , Prevenzione degli incidenti industriali:
un approccio scientifico, NY: McGraw-Hill, 1950) ipotizza che per ogni denuncia vi siano le proporzioni
riportate in Figura 5.
Figura 6 Piramide di Heinrich
Non tutti gli errori determinano danni evidenti.
L’epidemiologia degli errori in medicina mostra come una piccola parte di errori abbia effetti gravi
(morte, disabilità, trattamenti aggiuntivi o prolungati) per la salute dei pazienti, ma si accetta
ancora oggi il rapporto, scoperto da Heinrich nei suoi studi di metà 1900, di 1 evento maggiore per
29 eventi minori e per 300 errori senza conseguenze.
L’utilizzo della FMEA/FMECA nella determinazione dell’indice di priorità del rischio
Il rischio è definibile anche da un punto di vista matematico, come la combinazione tra la
probabilità che un evento accada e le conseguenze dell’evento stesso. La probabilità, a sua volta,
può essere definita come una valutazione della probabilità (misura della probabilità che un evento
accada) e della rilevabilità dell’attività (valutazione delle possibilità dell’organizzazione di rilevare
l’evento e di evitarne le conseguenze).
L’indice di probabilità del rischio IPR può quindi essere espresso come segue:
IPR = P x G x R
È quindi necessario poter esprimere attraverso parametri numerici probabilità di insorgenza, gravità e
rilevabilità. Nelle tabelle seguenti sono riportati i valori comunemente accettati, derivati dalle scale JCHAO.
Tabella 1 - Probabilità di insorgenza (P)
Evento
Remoto
PUNTEGGIO
Un caso ogni 10.000
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
1
9
Bassa (possibile ma Un caso ogni 5.000
non esistono dati
noti)
2
Moderata
Un caso ogni 200
(documentata ma
infrequente)
3
Alta (documentata Un caso ogni 100
e frequente)
4
Molto alta
(documentata e
quasi certa)
5
Un caso ogni 20
Tabella 2 - Calcolo della severità/gravità (G)
Descrizione Note di valutazione
Punt
eggio
Nessun
L’evento non ha comportato alcun danno oppure ha comportato soltanto un 1
danno
maggior monitoraggio del paziente
2
Danno lieve L’evento ha causato un danno temporaneo al paziente e ha reso necessari
interventi o trattamenti supplementari o un prolungamento della degenza al
di sopra del valore medio del DRG specifico
Danno
L’evento ha causato un danno temporaneo (invalidità temporanea) e ha reso 3
medio
necessario un inizio o un prolungamento della degenza
Danno grave L’evento ha causato un danno temporaneo (invalidità permanente ) oppure
ha causato un evento prossimo alla morte
4
Morte
5
Decesso del paziente
Tabella 3 - Rilevabilità (R)
Rilevabilità dell’errore
Remota (rilevazione
praticamente impossibile)
Punteggio
Si rivela 0 volte su 10 che l’evento accada
5
Bassa (probabilità bassa di Si rivela 2 volte su 10 che l’evento accada
rilevazione dell’errore)
4
Media (probabilità
moderata di rilevazione
3
Si rivela 5 volte su 10 che l’evento accada
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
10
dell’errore)
Alta (errore probabilmente Si rivela 7 volte su 10 che l’evento accada
rilevato)
2
Altissima (errore sempre
rilevato)
1
Si rivela 9 volte su 10 che l’evento accada
Il risultato della moltiplicazione di IPR = P x G x R offre una valutazione numerica dell’indice di
probabilità del rischio. Occorre a questo punto però effettuare una seconda valutazione, relativa
non solo al valore assoluto dell’IPR, ma anche alla sua composizione.
Facciamo un esempio:
 l’attività X ha un IPR pari a 25, derivato da G = 5, P = 1 e R = 5.
 l’attività Y ha un IPR pari a 25, derivato da G = 1, P = 5 e R = 5.
Figura 7 – Esempi di mappatura del rischio
L’evento X nella matrice della mappatura del rischio appare in alto a sinistra, mentre l’evento Y in
basso a destra. Le priorità di’intervento riguardano, chiaramente, prima le attività ad alta
probabilità d’accadimento e alta gravità del danno, ma tra valori analoghi (come nell’esempio),
conviene intervenire prima delle aree dove il danno ha conseguenze più gravi, anche se meno
probabili, rispetto a eventi frequenti ma non gravi.
Esempi di Applicazione di FMEA/FMECA:
Schema classico
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
11
L’applicazione può avvenire secondo uno schema classico e tradizionale, rappresentato dal diagramma di
flusso rappresentato (vedi Figura 8).
Figura 8 - Diagramma di flusso dell’applicazione dello schema classico della FMEA
Questo schema permette:

la ricostruzione della catena di eventi che hanno provocato un incidente o una situazione di elevato
rischio di caduta del sistema;

l’identificazione dei punti, all’interno della sequenza, che rappresentano gli errori attivi e gli errori
latenti (errori di un sistema che non è stato in grado di impedire l’incidente);

l’impostazione delle azioni di miglioramento da intraprendere sul piano organizzativo, tecnologico e
umano per ogni criticità rilevata sulla sequenza di eventi.
Esempi di applicazione
Di seguito sono riportate due ipotesi di declinazione operativa della FMEA/FMECA.
Nel primo esempio (vedi Tabella 4) si evidenzia in maniera prioritaria la componente analitica; nel secondo
(vedi Tabella 5), oltre all’aspetto analitico, viene incluso l’indice IPR prima e dopo l’attivazione delle misure
correttive.
È proprio questo aspetto quantitativo e temporale che permette di assegnare al secondo modulo la
componente di proattività (FMECA).
Tabella 4 - Esempio di modulo FMEA/FMECA:
Incidente 1
Criticità
Sequenza di
Errori
Errori latenti Procedure
eventi
attivi
1)
2)
3)
4)
Raccomandazioni
Attrezzature
Training
Tabella 5 - Esempio di modulo FMEA/FMECA:
Descrizione del
processo
Descrizione
dell'errore
Effetti
dell'error
P
G
R
IPR
Misure
P
G
R
IPR
correttive
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
12
Process Attività
o
Errori
attivi
Errori
latenti
e
Alcuni consigli pratici per l’applicazione di FMEA/FMECA
Nell’applicazione della RCA conviene tenere presente quanto segue:

avere come riferimento una tassonomia degli errori umani da utilizzare come checklist per
l’identificazione delle criticità;

descrivere la sequenza degli eventi in maniera molto sintetica e precisa, limitandosi all’asciutta
descrizione dei fatti senza aggiungere commenti;

prima di applicare FMEA/FMECA, può essere utile costruire un diagramma di flusso per la
descrizione del processo di lavoro oggetto di analisi.
La tassonomia degli errori umani è visualizzata nella figura 9.
Figura 9 – Tassionomia degli errori umani
Grazie agli strumenti di analisi reattiva e in parte proattiva precedentemente considerati (incident
reporting, RCA e FMEA/FMECA), oggi si è in grado di effettuare all’interno delle organizzazioni, non solo
una mappatura delle aree a maggior concentrazione degli eventi: near miss, errori attivi e latenti ma,
anche, una stima delle cause e dei fattori e con, di conseguenza, delle modalità che si potrebbero
intraprendere per affrontare le specifiche situazioni.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
13
Le cause e i fattori si possono suddividere in:

cause e fattori generali

cause e fattori specifici.
Cause e fattori generali
Le cause e i fattori generali possono essere di diverso tipo e sono:

legati alla comunicazione;

umani;

ambientali;

legati a tecnologie sanitarie e farmaci.
Cause e fattori legati alla comunicazione
Le cause e i fattori legati alla comunicazione si suddividono in:

cause o fattori legati alla carenza/mancanza di informazione e comunicazione;

inadeguatezze nella documentazione analizzata ai fini del chiaro inquadramento;

cause e fattori legati al paziente, al piano di trattamento e alla risposta del paziente al trattamento;

inadeguatezze nella comunicazione tra gli operatori sanitari nella gestione del processo
assistenziale;

inadeguatezze nella comunicazione tra operatori sanitari e pazienti/familiari/accompagnatori nel
processo assistenziale.
Cause e fattori umani
Le cause e i fattori umani comprendono:

cause e fattori correlabili alla carente formazione/addestramento degli operatori;

inadeguatezze nelle competenze/conoscenze degli operatori;

inadeguatezze legate alla organizzazione del lavoro (ad esempio, organizzazione dei turni, fatica,
stress).
Cause e fattori ambientali
Sono incluse nelle cause e fattori ambientali:

cause o fattori correlabili all'ambiente fisico;

fattori strutturali;

fattori legati alla logistica;

fattori legati al microclima.
Cause e fattori legati a tecnologie sanitarie e farmaci
Le cause e i fattori legati a tecnologie sanitarie e farmaci sono correlati a:

scorretta gestione di dispositivi medici e apparecchiature elettromedicali;

assenza di linee guida e presenza di barriere
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
14

eventi avversi, scarsa conoscenza o scadente gestione dei farmaci.
Cause e fattori specifici
Con il crescere della cultura sulla gestione del rischio, attualmente si possono definire e stimare cause e
fattori di tipo specifico, come ad esempio quelli correlati a uno specifico luogo (reparto o ambiente).
Si possono altresì identificare le motivazioni di causa e le modalità con cui si manifestano.
Di seguito una sintesi dei: luoghi, motivi, modalità.
I luoghi
Incidenti ed errori si verificano con frequenza diversa per le diverse discipline mediche.
Sono qui riportate le specialità classificate come più a rischio:

Ortopedia (16,5%)

Oncologia (13%)

Ostetricia e ginecologia (10,8%)

Chirurgia generale (10,6%)
Nel complesso, queste quattro specialità raggruppano più del 50% del totale delle segnalazioni.
Trasversalmente alle discipline mediche, i diversi reparti hanno una classificazione del rischio diversa. A
ognuno di essi è associata una percentuale di errori o incidenti.

sala operatoria (32%)

dipartimento degenze (28%)

dipartimento urgenza (22%)

ambulatorio (18%)
I motivi di fondo
La motivazione di fondo degli errori (perché si sbaglia) è dovuta a:

carico di lavoro eccessivo;

supervisione inadeguata;

tecnologie e strutture edilizie inadeguate;

comunicazioni inadeguate tra operatori;

competenze o esperienze inadeguate;

ambiente di lavoro stressante;

recente e rapida modificazione dell’ambiente di lavoro;

obiettivi in conflitto (per es. limiti economici dell’assistenza e esigenze cliniche).
Le modalità
Le modalità degli errori (come si sbaglia?) sono diverse e si riportano di seguito i principali comportamenti e
situazioni a rischio:

omissione di un intervento necessario;

scarsa attenzione o negligenza;
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
15

violazione di un processo diagnostico, terapeutico o assistenziale;

inesperienza in procedure invasive;

difetto di conoscenza;

insufficiente competenza clinica;

insufficiente capacità di collegare i dati del paziente con le conoscenze;

errore di prescrizione, informazione, compilazione.
Le modalità appena descritte, nella quotidianità operativa, possono tradursi in ulteriori fattispecie di
situazioni o circostanze indicative di un “malfunzionamento”, come ad esempio:

cambio di turno e di consegne, sia per il medico sia per l’infermiere;

pazienti che ritornano per una visita non programmata;

pazienti trasferiti da un’altra struttura che si rivelano più gravi del previsto;

pazienti che, per vari motivi, lasciano l’ospedale contro il parere del medico;

pazienti che lasciano il pronto soccorso senza essere stati visitati;

prestazioni eseguite da medici e infermieri inesperti o in formazione, senza supervisione di un
responsabile;

consigli telefonici senza visitare il paziente
I pregi e vantaggi della FMEA/FMECA
La FMEA/FMECA presenta i seguenti pregi e vantaggi:

è uno strumento piuttosto semplice ed intuitivo;

può essere applicato a diversi livelli di analisi, dal singolo compito a un intero processo di lavoro;

aiuta a scomporre l’oggetto di analisi in fasi ordinate in sequenza temporale;

invita a prendere sempre in considerazione la parte attiva e quella latente di ogni errore.
È quindi uno schema di base per focalizzare le discussioni in gruppo sulle criticità e le relative
proposte di miglioramento del sistema.
Riflessione
Nel modulo 4 e in questo Modulo 5, sono stati descritte modalità e strumenti applicativi per
l’intercettazione, la valutazione e la gestione del rischio.
Benché sia doverosa una buona dose di ottimismo, gli indicatori appena elencati ci lasciano supporre che
probabilmente non stiamo facendo ancora abbastanza.
A tal proposito, proponiamo una riflessione di Spinsanti, che riteniamo utile e a supporto della costruzione
di un’appropriata consapevolezza.
“Sbagliano i medici? Si, certamente.
E gli infermieri, e gli altri professionisti sanitari? Anche loro: chi più, chi meno.
Chi per colpa, chi incolpevolmente.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
16
Chi come artefice dell’errore, chi come vittima di modi di organizzare il lavoro o di omissione nel rimuovere
le cause strutturali dell’errore.
E quindi l’incertezza è connaturata alla pratica stessa della medicina:
nessuno – ne chi eroga un intervento sanitario, ne chi lo riceve – può essere sicuro del buon esito di un
intervento terapeutico.
L’incertezza e l’errore, con gli spiacevoli strascichi psicologici che li accompagnano –pentimenti, accuse,
rammarichi– sono il lato d’ombra della medicina”.
Sandro Spinsanti
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
17
Glossario
Analisi di processo
Descrizione e valutazione sistematica della sequenza di attività di un processo, nella loro
successione logico-temporale, identificando eventuali scostamenti rispetto al modello di
riferimento.
Analisi proattiva
Approccio preventivo al sistema per evitare che si verifichino eventi avversi, attraverso
l’applicazione di metodi e strumenti per identificarne ed eliminarne le criticità.
Analisi reattiva
Studio a posteriori degli eventi avversi, mirato ad individuare le cause che hanno permesso il loro
verificarsi.
Cultura della sicurezza
Impegno per la sicurezza che coinvolge tutti i livelli di un’organizzazione, dalla direzione al
personale in prima linea.
Modello integrato di comportamenti individuali ed organizzativi basato su convinzioni e valori
condivisi volto a promuovere la sicurezza dei pazienti.
Errore
Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il
mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato.
Errori attivi
Azioni o decisioni pericolose commesse da coloro che sono in contatto diretto con il paziente.
Sono più facilmente individuabili, hanno conseguenze immediate
Errori latenti
Condizioni presenti nel sistema determinate da azioni o decisioni manageriali, da norme e
modalità organizzative e quindi correlate ad attività compiute in tempi e spazi lontani rispetto al
momento e al luogo reale dell'incidente.
Errore di esecuzione
Fallimento degli obiettivi prefissati a causa di una errata esecuzione di azioni, adeguatamente
pianificate.
Errore di omissione
Mancata esecuzione di un’azione che doveva essere eseguita
Evento avverso (Adverse event)
Evento inatteso correlato al processo assistenziale e che comporta un danno al paziente, non
intenzionale e indesiderabile.
Gli eventi avversi possono essere prevenibili o non prevenibili.
Un evento avverso attribuibile ad errore è “un evento avverso prevenibile”.
Fallimento delle difese/controllo (Failed control/defence)
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
18
Il venir meno della capacità dei dispositivi o delle procedure di controllo o delle barriere di
protezione.
FMEA/FMECA
Analisi delle modalità e degli effetti della vulnerabilità del sistema.
Modalità prevalentemente di tipo Reattivo; diventa Proattiva, nel momento in cui offre una forma
di monitoraggio temporale.
Gravità
Misura del danno conseguente ad un evento avverso effettuata sulla base di scale predefinite.
Heinrich
William Herbert Heinrich è un americano pioniere della sicurezza del lavoro dal 1930. Era un
sovrintendente Assistente della ingegneria e ispezione Divisione di Travelers Insurance Company
quando pubblicò il suo libro La prevenzione degli infortuni, un approccio scientifico nel 1931. Una
scoperta empirica del suo libro del 1931 divenne nota come la legge di Heinrich: in un luogo di
lavoro, per ogni incidente che provoca un pregiudizio rilevante, ci sono 29 incidenti che causano
lesioni non gravi e 330 incidenti che causano feriti. Dato che molti incidenti partiti da cause aventi
una radice comune, riguardano gli incidenti più banali che non provocano lesioni, intervenendo
sulle cause comuni si possono prevenire incidenti che causano lesioni.
Il lavoro di Heinrich è la base per la teoria della sicurezza Behavior-based, che sostiene che
addirittura il 95 per cento di tutti gli incidenti sul lavoro sono causati da atti non sicuri. Heinrich è
giunto a questa conclusione dopo aver esaminato migliaia dei rapporti di incidenti stilati dalle
autorità di vigilanza, che in genere incolpavano i lavoratori di essere la causa di incidenti, senza
effettuare indagini approfondite sulle reali cause alla radice.
Indice di priorità del rischio
Indice numerico, costruito attraverso scale di punteggio che considerano la probabilità di
accadimento dell’errore, la probabilità che venga rilevato e la gravità delle sue conseguenze.
Esso viene utilizzato nell’applicazione della FMECA e definisce il livello di criticità di un processo.
Il valore dell’indice di priorità del rischio aiuta ad assumere decisioni per l’attivazione di misure di
prevenzione
Probabilità
La probabilità di un evento rappresenta l'espressione quantitativa della frequenza con cui esso si
verifica ed è calcolata come rapporto tra il numero di casi favorevoli (quelli in cui l’evento si
verifica) ed il numero di casi possibili (il numero di volte che l’evento può verificarsi).
Rasmussen
Jens Rasmussen, ingegnere nucleare, esperto di sicurezza nelle centrali nucleari. Ha pubblicato nel
1979: “skill, ruled and knowledge model”, testo fondamentale per la comprensione dei fenomeni
legati ai comportamenti umani. Dalle teorie di Rasmussen, verranno successivamente elaborate
teorie, ritenute fondamentali nel risk management.
Reason
James Reason, psicologo, professore all’università di Manchester. Pioniere ed esponente di spicco
e autore di numerosi testi fondamentali, nella disciplina del clinical risk management.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
19
Rilevabilità
Consiste nella possibilità che l’errore possa venire individuato dalle misure di controllo presenti nel
sistema.
Spinsanti
Sandro Spinsanti, professore di etica medica nella Facoltà di Medicina dell'Università Cattolica di
Roma e bioetica all'Università di Firenze. Fondatore e Direttore dell'Istituto Giano per le medical
humanities e il management in sanità di Roma. Dirige la rivista Janus. Medicina, cultura, culture.
Autore di numerosissime pubblicazioni a carattere etico e filosofico, per le professioni sanitarie.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
20
Bibliografia
Rasmussen J, Duncan K. & Leplat J. New technology and human error . 1987 Chichester, England: Wiley
Reason J. Human error; 1990; Cambrige University Press. (Edizione italiana: L'errore umano ; Editore Il
Mulino, Bologna.
Reason J. Human errors: models and management ; 2000; BMJ; 320; 768-70.
Reason J., Carthey J., de Leval M.R.; Diagnosing "vulnerable system syndrome": an essential prerequisite to
effective Risk management ; 2001; Quality in health care; Dec; 10 Suppl 2;21-5.
Reason J., Carthey J., de Leval M.R.; Institutional resilience in healthcare systems ; 2001; Qual Health Care;
Mar; 10(1):29-32.
Reason J. Combating omission errors though task analysis and good reminders; 2002; Qual Saf Health Care;
Mar; 11(1):40-4.
Nashef S. What is a near miss? 2003, The Lancet, 361; 180-181.
Rasmussen J, Duncan K. & Leplat J. New technology and human error . 1987 Chichester, England: Wiley
Reason J. Human error; 1990; Cambrige University Press. (Edizione italiana: L'errore umano ; Editore Il
Mulino, Bologna.
Reason J. Human errors: models and management ; 2000; BMJ; 320; 768-70.
Reason J., Carthey J., de Leval M.R.; Diagnosing "vulnerable system syndrome": an essential prerequisite to
effective Risk management ; 2001; Quality in health care; Dec; 10 Suppl 2;21-5.
Reason J., Carthey J., de Leval M.R.; Institutional resilience in healthcare systems ; 2001; Qual Health Care;
Mar; 10(1):29-32.
Reason J. Combating omission errors though task analysis and good reminders; 2002; Qual Saf Health Care;
Mar; 11(1):40-4.
Nashef S. What is a near miss? 2003, The Lancet, 361; 180-181.
Heinrich, H. W. (1950) Industrial Accident Prevention. A Scientific Approach.
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
21
Questionario ECM
1. James Reason nel 1990 ha redatto un modello organizzativo utilizzando come metafora il Swiss Cheese
(formaggio svizzero), cosa rappresentano i buchi?
a. livello di difesa
b. imperfezioni
c. procedure
d. personale
2. Come si può classificare secondo Rasmussen il comportamento umano?
a. Skill-based behaviour
b. Ruled-based behaviour
c. Knowledge-based behaviour
d. Tutte le risposte indicate
3. Che cosa sono gli slip (‘scivolata’)?
a. errori d’esecuzione che si verificano a livello delle abilità
b. errori nell’attuazione di uno schema comportamentale corretto sull’oggetto sbagliato
c. errori che si verificano quando vogliamo deviare da una routine ma non prestiamo sufficiente
attenzione
d. errori provocati da un fallimento della memoria
4. Cosa sono i “near miss”?
a. errori evidenti
b. quasi errori
c. procedure
d. nessuna delle risposte indicate
5. I sistemi di difesa da cosa possono essere costituiti?
a. segnali di allarme
b. strumentazione
c. procedure
d. tutte le risposte indicate
6. Nella metafora dell’iceberg, cosa c’è alla base?
a. incidenti
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
22
b. near miss
c. errori
d. incidenti
7. Che cosa è definite dal punto di vista matematico come la combinazione tra la probabilità che un evento
accada e le conseguenze dell’evento stesso?
a. errore
b. perseveranze
c. rischio
d. nessuna delle risposte indicate
8. Quando il danno viene definito medio?
a. quando l’evento ha causato un danno temporaneo al paziente e ha reso necessari interventi o
trattamenti supplementari
b. quando l’evento ha causato un danno temporaneo (invalidità temporanea) e ha reso necessario un inizio
o un prolungamento della degenza
c. quando l’evento ha causato un danno temporaneo (invalidità permanente ) oppure ha causato un evento
prossimo alla morte
d. quando l’evento causa un decesso del paziente
9. Qual è la probabilità moderata di insorgenza di un evento?
a. un caso ogni 5.00
b. un caso ogni 200
c. un caso ogni 100
d. un caso ogni 10
10. Quali tra questi cause e fattori sono di tipo ambientale?
a. inadeguatezze nella comunicazione tra gli operatori sanitari nella gestione del processo assistenziale
b. inadeguatezze nelle competenze/conoscenze degli operatori
c. fattori legati alla logistica
d. assenza di linee guida e presenza di barriere
11. Qual è la specialità in un ospedale considerata più a rischio?
a. cardiologia
b. pediatria
c. ortopedia
d. chirurgia
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
23
12. Quale delle seguenti motivazioni può causare un errore?
a. carico di lavoro eccessivo
b. supervisione inadeguata
c. competenze o esperienze inadeguate
d. tutte le risposte indicate
© Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5
24