Risk management: errori e incidenti nell'ambiente sanitario Autore e responsabile scientifico: Dr Andrea Vettori, Esperto in management sanitario e clinical governance Sanitanova è accreditato dalla Commissione Nazionale ECM (accreditamento n. 12 del 10/06/2010) a fornire programmi di formazione continua per tutte le professioni. Sanitanova si assume la responsabilità per i contenuti, la qualità e la correttezza etica di questa attività ECM. Inizio evento: 01/07/2012; ID evento: 12- 36451 MODULO 5. Metodi e strumenti del Risk management - L’analisi proattiva del rischio: presupposti e strumenti Obiettivi formativi Al termine di questa monografia, il lettore dovrebbe essere in grado di: conoscere gli aspetti concettuali e applicativi degli eventi sentinella individuare e comprendere gli strumenti di analisi proattiva Keyword Analisi Proattiva, James Reason Analisi Proattiva: i presupposti concettuali “La fallibilità è una caratteristica dell’essere umano. Noi non possiamo cambiare l’essere umano, ma possiamo cambiare le condizioni in cui gli esseri umani operano” James Reason Come già detto nei moduli precedenti, gli errori in medicina costituiscono un grave problema di salute pubblica e una minaccia per la salute del paziente. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 1 Nel complesso occorre sempre tenere presente che solo una minima parte degli errori esitano in effettivi danni per il paziente, in quanto spesso l’errore viene identificato in tempo e mitigato, il paziente non ha comunque avuto danni o per semplice fortuna. James Reason ha elaborato nel 1990 una teoria che è diventata il punto di riferimento e un modello comunemente accettato per comprendere la causalità degli errori e come questa nozione si applichi al mondo sanitario. Secondo questo modello, detto anche modello dello Swiss Cheese (formaggio svizzero), tutte le organizzazioni complesse e gli ambienti di lavoro presentano una serie di livelli di difesa, che offrono protezione contro le conseguenze avverse di un errore; questi livelli di difesa sono rappresentabili metaforicamente come singole fette di formaggio. Nonostante ciò, ogni livello di difesa presenta delle imperfezioni, dei “buchi” nella fetta di formaggio svizzero. Il danno per il paziente si verifica quando le circostanze consentono all’errore di attraversare tutte le barriere di difesa (passare in mezzo ai buchi di tutte le fette di formaggio), in modo tale che la freccia rappresentante l’errore raggiunga il paziente. Figura 1. Il modello dello swiss cheese di Reason Diventa a questo punto fondamentale comprendere quali linee di difesa è possibile attuare per ridurre il più possibile da un lato le dimensioni dei “buchi” e dall’altro per aumentare il numero di fette di formaggio, rendendo meno probabile un incidente. Diventa a questo punto fondamentale l’analisi proattiva, che consente di identificare a priori i possibili errori e di imparare dai possibili errori compiuti. Mentre Reason nella comprensione di come quei comportamenti umani possano trasformarsi e diventare errori, Rasmussen ci aiuta nella comprensione dei comportamenti umani. Classificazione dei comportamenti umani © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 2 Secondo Rasmussen il comportamento umano, soprattutto nei luoghi di lavoro, lo si può classificare e distinguere in tre tipologie: Skill-based behaviour, ossia comportamenti automatici a una data situazione; Ruled-based behaviour, ovvero comportamenti, prescritti da regole, che sono state definiti in quanto ritenuti più idonei da applicare in una particolare circostanza; Knowledge-based behaviour, ovvero comportamenti messi in atto quando ci si trova davanti a una situazione sconosciuta e si deve attuare un piano per superarla. I tre tipi di comportamento si acquisiscono in sequenza; non esistono comportamenti skill-based innati, ma questi derivano dalla pratica in situazioni che all’inizio richiedevano impiego della conoscenza e capacità di risolvere problemi. Quindi, ogni comportamento basato sulla pratica è stato, prima di diventare automatico, di tipo ruledbased e prima ancora knowledge-based. Un glossario per cominciare Errori attivi Si tratta degli errori individuali (legati alla persona), che provocano l’incidente. Slip (letteralmente ‘scivolata’), ovvero errori d’esecuzione che si verificano a livello delle abilità. In questa categoria vengono classificate tutte quelle azioni che vengono eseguite in modo diverso da come pianificato; in altre parole il soggetto sa come dovrebbe eseguire un compito ma, più o meno consapevolmente, decide di svolgerla in un altro modo, “alla sua maniera”. Di solito tale comportamento, si sviluppa nei confronti di attività definite routinarie e/o ritenute nel tempo dalla persona stessa, di “secondaria” importanza. Gli slip possono essere sotto classificati in errori di cattura, perseveranze e errori di descrizione. Errori di cattura: si verificano quando vogliamo deviare da una routine, ma non prestiamo sufficiente attenzione. Il risultato è quello di venir “catturati” dal processo automatico e impossibilitati a deviare dalla routine stessa. Compare quando due diverse sequenze d’azione hanno in comune gli stadi iniziali. Perseveranze: dopo che un’attività di routine è stata completata, uno o più passaggi della stessa possono venir ripetuti. Un esempio banale è esemplificativo: capita che mentre chiamando l’ascensore, contemporaneamente, veniamo distratti da qualcosa; l’ascensore magari è già arrivato ma continuiamo a premere il pulsante. Errori di descrizione: consistono nell’attuazione di uno schema comportamentale corretto sull’oggetto sbagliato. Prendiamo ad esempio la collocazione dei farmaci: fiale per somministrazione intramuscolare nello scaffale previsto per la somministrazione endovenosa. L’azione che si intende fare ha molto in comune con altre che sono anch’esse possibile; quanto più l’oggetto sbagliato e quello giusto hanno in comune, tanto più l’errore è probabile. Lapse (letteralmente ‘lapsus, svista’), ovvero errori d’esecuzione provocati da un fallimento della memoria. In questo caso l’azione ha un risultato diverso da quello atteso a causa di un fallimento della memoria. Non si commettono lapse nelle cose che stiamo ancora imparando. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 3 Comportamenti che si trasformano in errori James Reason riprende la teoria di Rasmussen e la elabora ulteriormente sotto il profilo cognitivocomportamentale, consentendone la comprensione e classificando i comportamenti in relazione alle varie tipologie di errore. L’autore individua e sintetizza gli errori in due tipologie: gli errori attivi e gli errori latenti. Errori attivi Si tratta degli errori individuali (legati alla persona), che provocano l’incidente. Questi errori di solito sono attribuiti o attribuibili a uno specifico operatore, anche se non si ha certezza (semmai probabilità) che un diverso operatore, nelle stesse condizioni, avrebbe commesso lo stesso errore. Vediamoli nel dettaglio: Errori d'esecuzione che si verificano a livello d'abilità (slip). Errori d'esecuzione provocati da un fallimento della memoria (lapse). Errori non commessi durante l'esecuzione pratica dell'azione (mistake). Errori latenti Vengono collocati in questa categoria, gli errori che all’interno dell’organizzazione, anche se dannosi, singolarmente non sono in grado di provocare un incidente o un errore, ma sicuramente lo facilitano. Si sintetizzano nel termine “mistakes” e sono specificati come: Ruled-based: quando si è scelto di applicare una regola o una procedura che non permette il conseguimento di quel determinato obiettivo, di solito a causa di mancanza di pianificazione e di programmazione. Knowledge-based: sono errori che riguardano la conoscenza, a volte troppo scarsa (addestramento o formazione inadeguata), che porta a ideare percorsi d’azione che non permettono di raggiungere l’obiettivo prefissato. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 4 Figura 2 Teoria degli errori latenti Il presupposto di base della teoria proposta da Reason risiede nella convinzione che gli incidenti siano solo la punta di un iceberg e che, per un incidente che ha avuto luogo, ce ne siano stati molti altri che non sono avvenuti solo perché l’operatore o un controllo hanno impedito che accadesse. Su questi presupposti si impianta quindi il concetto di near miss, cioè la necessità di dover considerare anche i “quasi eventi” come potenzialmente pericolosi per il sistema. Per completare il quadro degli eventi dannosi o potenzialmente tali, l’autore ricorda anche omissioni e violazioni. Relativamente a omissioni e violazioni, dai termini stessi si evince che si tratta di atti deliberati e volontari. Le omissioni, ovviamente, rappresentano la non applicazione volontaria di una procedura, mentre le violazioni tutte quelle azioni che vengono eseguite anche se ciò è formalmente impedito da un regolamento o da una direttiva. Per questi due ultimi aspetti, la riflessione implicitamente include ambiti professionali di pertinenza e natura etica, giuridica e deontologica. Le difese dell’organizzazione Un altro aspetto fondamentale della teoria di Reason riguarda le difese, ossia le barriere che un’organizzazione mette in atto per prevenire incidenti/errori. Questi sistemi di difesa possono essere costituiti da: segnali di allarme, da strumentazione, da procedure da protocolli. L’autore sottolinea come le difese, pur non garantendo l’eliminazione degli incidenti, permettono di ridurre la probabilità che si verifichino. Ovviamente oltre all’errore umano (attivo e latente), si possono associare errori e violazioni, riconducibili di volta in volta all’organizzazione e all’ambiente di lavoro. Poiché gli errori attivi non potranno mai essere eliminati in modo definitivo, per aumentare la sicurezza del sistema risulterà necessario influire sulle criticità latenti, sulle quali gli errori attivi s’innescano. Riprendendo il modello di Reason, si può osservare come le difese dell’organizzazione possano essere riconducibili a: le condizioni predisponenti (aspetti legati alla progettazione stessa dell’organizzazione) gli errori attivi (azioni) le limitate opportunità di opzione (sistema difensivo carente) © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 5 Figura 1 – Il modello di Reason Dallo schema di Figura 1 emerge molto significativamente il rapporto tra organizzazione, ambiente di lavoro e persone. Il punto di forza dell’analisi proattiva, si poggia proprio su questa consapevolezza: “Se la persona si trovasse a operare in condizioni organizzative e ambiente di lavoro adeguati, commetterebbe meno errori”. Dal momento che l’errore del singolo potrebbe essere “condizionato” dal sistema, attraverso l’approccio proattivo si propongono interventi plurimi, simultanei, su più fronti e si elimina di fatto la tradizionale, rassicurante e inutile “caccia alle streghe”. Con la ricerca del “colpevole”, come si sottolineava nel Modulo 1, si effettua un’operazione “finta”, si crea un’illusione ottica, si sposta altrove e si rimanda il problema, anziché analizzarlo nei suoi vari aspetti e affrontarlo con gli strumenti appropriati. Il modello originale di Reason è stato nel tempo rielaborato; la versione del 1995 (vedi figura 4), adattata da Vincent, evidenzia rispetto al modello originale la differenza tra l’incidente e il danno al paziente, mentre il modello del 1997 (vedio figura 5) segnala come il processo di generazione di un incidente non sia in realtà rappresentabile in modo lineare. È peraltro da evidenziare un dato significativo: uno studio condotto nel 2005 da Perneger ha sottoposto la figura del modello di Reason nella sua versione originale (lo Swiss cheese) a un gruppo di circa 200 operatori sanitari che avevano dichiarato familiarità con il modello; veniva richiesto di comprendere nel modello quale fosse la raprpesentazione del rischio e quale quella dell’errore. Da questo studio è emersa una conoscenza non completa e errori di attribuzione anche significativi di questi termini, anche fra persone che si erano dichiarate competenti. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 6 ERRORI LATENTI Decisioni Strategiche Condizioni che favoriscono l’errore Processi organizzativi Condizioni che favoriscono le violazioni Organizzazione ERRORI ATTIVI Ambiente di lavoro Difese Errori Violazioni Difese Persone Figura 3 Correlazioni tra organizzazione, ambiente e persone. Figura 4 – Il modello di Reason pubblicato nel 1997. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 7 Reason J. Managing the Risks of Organizational Accidents. Aldershot, UK: Ashgate; 1997. La metafora dell’iceberg Man mano che le organizzazioni in generale, e quelle sanitarie in particolare, hanno fatto propria la concettualizzazione, legata alla necessità di quantificare, classificare, intercettare gli errori, si è gradualmente venuta a configurare la distribuzione degli errori secondo frequenza e visibilità. Nella metafora dell’iceberg appare evidente che il riscontro degli incidenti che determinano danno clinico al paziente risulti essere solo la punta del famigerato iceberg. Per ogni incidente che ha avuto luogo, ce ne sono molti altri che non sono avvenuti perché, di volta in volta, l’operatore o un controllo hanno impedito che ciò accadesse (near miss event). L’aspetto particolarmente interessante, sul quale ruotano poi gli interventi di tipo proattivo, si ritrova nell’asse frequenza/visibilità. Un evento avverso più è frequente, meno è visibile e in genere è anche meno “grave”; di contro, un evento meno è frequente, più è visibile e spesso, purtroppo, è anche più grave. Dietro questo contorto giro di parole si possono però ritrovare anche gli estremi per poter disattivare la catena gli eventi stessi e la modalità, pur nella sua complessità, sembra essere abbastanza intuitiva: intervenire sulla base della piramide, ossia sugli eventi considerati meno dannosi (gli errori), meno visibili e più frequenti, affinché si possano smascherare i near miss e ridurre sensibilmente gli incidenti. Figura 5 - Metafora dell'iceberg © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 8 La proporzione di Heinrich (Heinrich William Herbert, 1886 - 1968 , Prevenzione degli incidenti industriali: un approccio scientifico, NY: McGraw-Hill, 1950) ipotizza che per ogni denuncia vi siano le proporzioni riportate in Figura 5. Figura 6 Piramide di Heinrich Non tutti gli errori determinano danni evidenti. L’epidemiologia degli errori in medicina mostra come una piccola parte di errori abbia effetti gravi (morte, disabilità, trattamenti aggiuntivi o prolungati) per la salute dei pazienti, ma si accetta ancora oggi il rapporto, scoperto da Heinrich nei suoi studi di metà 1900, di 1 evento maggiore per 29 eventi minori e per 300 errori senza conseguenze. L’utilizzo della FMEA/FMECA nella determinazione dell’indice di priorità del rischio Il rischio è definibile anche da un punto di vista matematico, come la combinazione tra la probabilità che un evento accada e le conseguenze dell’evento stesso. La probabilità, a sua volta, può essere definita come una valutazione della probabilità (misura della probabilità che un evento accada) e della rilevabilità dell’attività (valutazione delle possibilità dell’organizzazione di rilevare l’evento e di evitarne le conseguenze). L’indice di probabilità del rischio IPR può quindi essere espresso come segue: IPR = P x G x R È quindi necessario poter esprimere attraverso parametri numerici probabilità di insorgenza, gravità e rilevabilità. Nelle tabelle seguenti sono riportati i valori comunemente accettati, derivati dalle scale JCHAO. Tabella 1 - Probabilità di insorgenza (P) Evento Remoto PUNTEGGIO Un caso ogni 10.000 © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 1 9 Bassa (possibile ma Un caso ogni 5.000 non esistono dati noti) 2 Moderata Un caso ogni 200 (documentata ma infrequente) 3 Alta (documentata Un caso ogni 100 e frequente) 4 Molto alta (documentata e quasi certa) 5 Un caso ogni 20 Tabella 2 - Calcolo della severità/gravità (G) Descrizione Note di valutazione Punt eggio Nessun L’evento non ha comportato alcun danno oppure ha comportato soltanto un 1 danno maggior monitoraggio del paziente 2 Danno lieve L’evento ha causato un danno temporaneo al paziente e ha reso necessari interventi o trattamenti supplementari o un prolungamento della degenza al di sopra del valore medio del DRG specifico Danno L’evento ha causato un danno temporaneo (invalidità temporanea) e ha reso 3 medio necessario un inizio o un prolungamento della degenza Danno grave L’evento ha causato un danno temporaneo (invalidità permanente ) oppure ha causato un evento prossimo alla morte 4 Morte 5 Decesso del paziente Tabella 3 - Rilevabilità (R) Rilevabilità dell’errore Remota (rilevazione praticamente impossibile) Punteggio Si rivela 0 volte su 10 che l’evento accada 5 Bassa (probabilità bassa di Si rivela 2 volte su 10 che l’evento accada rilevazione dell’errore) 4 Media (probabilità moderata di rilevazione 3 Si rivela 5 volte su 10 che l’evento accada © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 10 dell’errore) Alta (errore probabilmente Si rivela 7 volte su 10 che l’evento accada rilevato) 2 Altissima (errore sempre rilevato) 1 Si rivela 9 volte su 10 che l’evento accada Il risultato della moltiplicazione di IPR = P x G x R offre una valutazione numerica dell’indice di probabilità del rischio. Occorre a questo punto però effettuare una seconda valutazione, relativa non solo al valore assoluto dell’IPR, ma anche alla sua composizione. Facciamo un esempio: l’attività X ha un IPR pari a 25, derivato da G = 5, P = 1 e R = 5. l’attività Y ha un IPR pari a 25, derivato da G = 1, P = 5 e R = 5. Figura 7 – Esempi di mappatura del rischio L’evento X nella matrice della mappatura del rischio appare in alto a sinistra, mentre l’evento Y in basso a destra. Le priorità di’intervento riguardano, chiaramente, prima le attività ad alta probabilità d’accadimento e alta gravità del danno, ma tra valori analoghi (come nell’esempio), conviene intervenire prima delle aree dove il danno ha conseguenze più gravi, anche se meno probabili, rispetto a eventi frequenti ma non gravi. Esempi di Applicazione di FMEA/FMECA: Schema classico © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 11 L’applicazione può avvenire secondo uno schema classico e tradizionale, rappresentato dal diagramma di flusso rappresentato (vedi Figura 8). Figura 8 - Diagramma di flusso dell’applicazione dello schema classico della FMEA Questo schema permette: la ricostruzione della catena di eventi che hanno provocato un incidente o una situazione di elevato rischio di caduta del sistema; l’identificazione dei punti, all’interno della sequenza, che rappresentano gli errori attivi e gli errori latenti (errori di un sistema che non è stato in grado di impedire l’incidente); l’impostazione delle azioni di miglioramento da intraprendere sul piano organizzativo, tecnologico e umano per ogni criticità rilevata sulla sequenza di eventi. Esempi di applicazione Di seguito sono riportate due ipotesi di declinazione operativa della FMEA/FMECA. Nel primo esempio (vedi Tabella 4) si evidenzia in maniera prioritaria la componente analitica; nel secondo (vedi Tabella 5), oltre all’aspetto analitico, viene incluso l’indice IPR prima e dopo l’attivazione delle misure correttive. È proprio questo aspetto quantitativo e temporale che permette di assegnare al secondo modulo la componente di proattività (FMECA). Tabella 4 - Esempio di modulo FMEA/FMECA: Incidente 1 Criticità Sequenza di Errori Errori latenti Procedure eventi attivi 1) 2) 3) 4) Raccomandazioni Attrezzature Training Tabella 5 - Esempio di modulo FMEA/FMECA: Descrizione del processo Descrizione dell'errore Effetti dell'error P G R IPR Misure P G R IPR correttive © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 12 Process Attività o Errori attivi Errori latenti e Alcuni consigli pratici per l’applicazione di FMEA/FMECA Nell’applicazione della RCA conviene tenere presente quanto segue: avere come riferimento una tassonomia degli errori umani da utilizzare come checklist per l’identificazione delle criticità; descrivere la sequenza degli eventi in maniera molto sintetica e precisa, limitandosi all’asciutta descrizione dei fatti senza aggiungere commenti; prima di applicare FMEA/FMECA, può essere utile costruire un diagramma di flusso per la descrizione del processo di lavoro oggetto di analisi. La tassonomia degli errori umani è visualizzata nella figura 9. Figura 9 – Tassionomia degli errori umani Grazie agli strumenti di analisi reattiva e in parte proattiva precedentemente considerati (incident reporting, RCA e FMEA/FMECA), oggi si è in grado di effettuare all’interno delle organizzazioni, non solo una mappatura delle aree a maggior concentrazione degli eventi: near miss, errori attivi e latenti ma, anche, una stima delle cause e dei fattori e con, di conseguenza, delle modalità che si potrebbero intraprendere per affrontare le specifiche situazioni. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 13 Le cause e i fattori si possono suddividere in: cause e fattori generali cause e fattori specifici. Cause e fattori generali Le cause e i fattori generali possono essere di diverso tipo e sono: legati alla comunicazione; umani; ambientali; legati a tecnologie sanitarie e farmaci. Cause e fattori legati alla comunicazione Le cause e i fattori legati alla comunicazione si suddividono in: cause o fattori legati alla carenza/mancanza di informazione e comunicazione; inadeguatezze nella documentazione analizzata ai fini del chiaro inquadramento; cause e fattori legati al paziente, al piano di trattamento e alla risposta del paziente al trattamento; inadeguatezze nella comunicazione tra gli operatori sanitari nella gestione del processo assistenziale; inadeguatezze nella comunicazione tra operatori sanitari e pazienti/familiari/accompagnatori nel processo assistenziale. Cause e fattori umani Le cause e i fattori umani comprendono: cause e fattori correlabili alla carente formazione/addestramento degli operatori; inadeguatezze nelle competenze/conoscenze degli operatori; inadeguatezze legate alla organizzazione del lavoro (ad esempio, organizzazione dei turni, fatica, stress). Cause e fattori ambientali Sono incluse nelle cause e fattori ambientali: cause o fattori correlabili all'ambiente fisico; fattori strutturali; fattori legati alla logistica; fattori legati al microclima. Cause e fattori legati a tecnologie sanitarie e farmaci Le cause e i fattori legati a tecnologie sanitarie e farmaci sono correlati a: scorretta gestione di dispositivi medici e apparecchiature elettromedicali; assenza di linee guida e presenza di barriere © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 14 eventi avversi, scarsa conoscenza o scadente gestione dei farmaci. Cause e fattori specifici Con il crescere della cultura sulla gestione del rischio, attualmente si possono definire e stimare cause e fattori di tipo specifico, come ad esempio quelli correlati a uno specifico luogo (reparto o ambiente). Si possono altresì identificare le motivazioni di causa e le modalità con cui si manifestano. Di seguito una sintesi dei: luoghi, motivi, modalità. I luoghi Incidenti ed errori si verificano con frequenza diversa per le diverse discipline mediche. Sono qui riportate le specialità classificate come più a rischio: Ortopedia (16,5%) Oncologia (13%) Ostetricia e ginecologia (10,8%) Chirurgia generale (10,6%) Nel complesso, queste quattro specialità raggruppano più del 50% del totale delle segnalazioni. Trasversalmente alle discipline mediche, i diversi reparti hanno una classificazione del rischio diversa. A ognuno di essi è associata una percentuale di errori o incidenti. sala operatoria (32%) dipartimento degenze (28%) dipartimento urgenza (22%) ambulatorio (18%) I motivi di fondo La motivazione di fondo degli errori (perché si sbaglia) è dovuta a: carico di lavoro eccessivo; supervisione inadeguata; tecnologie e strutture edilizie inadeguate; comunicazioni inadeguate tra operatori; competenze o esperienze inadeguate; ambiente di lavoro stressante; recente e rapida modificazione dell’ambiente di lavoro; obiettivi in conflitto (per es. limiti economici dell’assistenza e esigenze cliniche). Le modalità Le modalità degli errori (come si sbaglia?) sono diverse e si riportano di seguito i principali comportamenti e situazioni a rischio: omissione di un intervento necessario; scarsa attenzione o negligenza; © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 15 violazione di un processo diagnostico, terapeutico o assistenziale; inesperienza in procedure invasive; difetto di conoscenza; insufficiente competenza clinica; insufficiente capacità di collegare i dati del paziente con le conoscenze; errore di prescrizione, informazione, compilazione. Le modalità appena descritte, nella quotidianità operativa, possono tradursi in ulteriori fattispecie di situazioni o circostanze indicative di un “malfunzionamento”, come ad esempio: cambio di turno e di consegne, sia per il medico sia per l’infermiere; pazienti che ritornano per una visita non programmata; pazienti trasferiti da un’altra struttura che si rivelano più gravi del previsto; pazienti che, per vari motivi, lasciano l’ospedale contro il parere del medico; pazienti che lasciano il pronto soccorso senza essere stati visitati; prestazioni eseguite da medici e infermieri inesperti o in formazione, senza supervisione di un responsabile; consigli telefonici senza visitare il paziente I pregi e vantaggi della FMEA/FMECA La FMEA/FMECA presenta i seguenti pregi e vantaggi: è uno strumento piuttosto semplice ed intuitivo; può essere applicato a diversi livelli di analisi, dal singolo compito a un intero processo di lavoro; aiuta a scomporre l’oggetto di analisi in fasi ordinate in sequenza temporale; invita a prendere sempre in considerazione la parte attiva e quella latente di ogni errore. È quindi uno schema di base per focalizzare le discussioni in gruppo sulle criticità e le relative proposte di miglioramento del sistema. Riflessione Nel modulo 4 e in questo Modulo 5, sono stati descritte modalità e strumenti applicativi per l’intercettazione, la valutazione e la gestione del rischio. Benché sia doverosa una buona dose di ottimismo, gli indicatori appena elencati ci lasciano supporre che probabilmente non stiamo facendo ancora abbastanza. A tal proposito, proponiamo una riflessione di Spinsanti, che riteniamo utile e a supporto della costruzione di un’appropriata consapevolezza. “Sbagliano i medici? Si, certamente. E gli infermieri, e gli altri professionisti sanitari? Anche loro: chi più, chi meno. Chi per colpa, chi incolpevolmente. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 16 Chi come artefice dell’errore, chi come vittima di modi di organizzare il lavoro o di omissione nel rimuovere le cause strutturali dell’errore. E quindi l’incertezza è connaturata alla pratica stessa della medicina: nessuno – ne chi eroga un intervento sanitario, ne chi lo riceve – può essere sicuro del buon esito di un intervento terapeutico. L’incertezza e l’errore, con gli spiacevoli strascichi psicologici che li accompagnano –pentimenti, accuse, rammarichi– sono il lato d’ombra della medicina”. Sandro Spinsanti © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 17 Glossario Analisi di processo Descrizione e valutazione sistematica della sequenza di attività di un processo, nella loro successione logico-temporale, identificando eventuali scostamenti rispetto al modello di riferimento. Analisi proattiva Approccio preventivo al sistema per evitare che si verifichino eventi avversi, attraverso l’applicazione di metodi e strumenti per identificarne ed eliminarne le criticità. Analisi reattiva Studio a posteriori degli eventi avversi, mirato ad individuare le cause che hanno permesso il loro verificarsi. Cultura della sicurezza Impegno per la sicurezza che coinvolge tutti i livelli di un’organizzazione, dalla direzione al personale in prima linea. Modello integrato di comportamenti individuali ed organizzativi basato su convinzioni e valori condivisi volto a promuovere la sicurezza dei pazienti. Errore Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato. Errori attivi Azioni o decisioni pericolose commesse da coloro che sono in contatto diretto con il paziente. Sono più facilmente individuabili, hanno conseguenze immediate Errori latenti Condizioni presenti nel sistema determinate da azioni o decisioni manageriali, da norme e modalità organizzative e quindi correlate ad attività compiute in tempi e spazi lontani rispetto al momento e al luogo reale dell'incidente. Errore di esecuzione Fallimento degli obiettivi prefissati a causa di una errata esecuzione di azioni, adeguatamente pianificate. Errore di omissione Mancata esecuzione di un’azione che doveva essere eseguita Evento avverso (Adverse event) Evento inatteso correlato al processo assistenziale e che comporta un danno al paziente, non intenzionale e indesiderabile. Gli eventi avversi possono essere prevenibili o non prevenibili. Un evento avverso attribuibile ad errore è “un evento avverso prevenibile”. Fallimento delle difese/controllo (Failed control/defence) © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 18 Il venir meno della capacità dei dispositivi o delle procedure di controllo o delle barriere di protezione. FMEA/FMECA Analisi delle modalità e degli effetti della vulnerabilità del sistema. Modalità prevalentemente di tipo Reattivo; diventa Proattiva, nel momento in cui offre una forma di monitoraggio temporale. Gravità Misura del danno conseguente ad un evento avverso effettuata sulla base di scale predefinite. Heinrich William Herbert Heinrich è un americano pioniere della sicurezza del lavoro dal 1930. Era un sovrintendente Assistente della ingegneria e ispezione Divisione di Travelers Insurance Company quando pubblicò il suo libro La prevenzione degli infortuni, un approccio scientifico nel 1931. Una scoperta empirica del suo libro del 1931 divenne nota come la legge di Heinrich: in un luogo di lavoro, per ogni incidente che provoca un pregiudizio rilevante, ci sono 29 incidenti che causano lesioni non gravi e 330 incidenti che causano feriti. Dato che molti incidenti partiti da cause aventi una radice comune, riguardano gli incidenti più banali che non provocano lesioni, intervenendo sulle cause comuni si possono prevenire incidenti che causano lesioni. Il lavoro di Heinrich è la base per la teoria della sicurezza Behavior-based, che sostiene che addirittura il 95 per cento di tutti gli incidenti sul lavoro sono causati da atti non sicuri. Heinrich è giunto a questa conclusione dopo aver esaminato migliaia dei rapporti di incidenti stilati dalle autorità di vigilanza, che in genere incolpavano i lavoratori di essere la causa di incidenti, senza effettuare indagini approfondite sulle reali cause alla radice. Indice di priorità del rischio Indice numerico, costruito attraverso scale di punteggio che considerano la probabilità di accadimento dell’errore, la probabilità che venga rilevato e la gravità delle sue conseguenze. Esso viene utilizzato nell’applicazione della FMECA e definisce il livello di criticità di un processo. Il valore dell’indice di priorità del rischio aiuta ad assumere decisioni per l’attivazione di misure di prevenzione Probabilità La probabilità di un evento rappresenta l'espressione quantitativa della frequenza con cui esso si verifica ed è calcolata come rapporto tra il numero di casi favorevoli (quelli in cui l’evento si verifica) ed il numero di casi possibili (il numero di volte che l’evento può verificarsi). Rasmussen Jens Rasmussen, ingegnere nucleare, esperto di sicurezza nelle centrali nucleari. Ha pubblicato nel 1979: “skill, ruled and knowledge model”, testo fondamentale per la comprensione dei fenomeni legati ai comportamenti umani. Dalle teorie di Rasmussen, verranno successivamente elaborate teorie, ritenute fondamentali nel risk management. Reason James Reason, psicologo, professore all’università di Manchester. Pioniere ed esponente di spicco e autore di numerosi testi fondamentali, nella disciplina del clinical risk management. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 19 Rilevabilità Consiste nella possibilità che l’errore possa venire individuato dalle misure di controllo presenti nel sistema. Spinsanti Sandro Spinsanti, professore di etica medica nella Facoltà di Medicina dell'Università Cattolica di Roma e bioetica all'Università di Firenze. Fondatore e Direttore dell'Istituto Giano per le medical humanities e il management in sanità di Roma. Dirige la rivista Janus. Medicina, cultura, culture. Autore di numerosissime pubblicazioni a carattere etico e filosofico, per le professioni sanitarie. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 20 Bibliografia Rasmussen J, Duncan K. & Leplat J. New technology and human error . 1987 Chichester, England: Wiley Reason J. Human error; 1990; Cambrige University Press. (Edizione italiana: L'errore umano ; Editore Il Mulino, Bologna. Reason J. Human errors: models and management ; 2000; BMJ; 320; 768-70. Reason J., Carthey J., de Leval M.R.; Diagnosing "vulnerable system syndrome": an essential prerequisite to effective Risk management ; 2001; Quality in health care; Dec; 10 Suppl 2;21-5. Reason J., Carthey J., de Leval M.R.; Institutional resilience in healthcare systems ; 2001; Qual Health Care; Mar; 10(1):29-32. Reason J. Combating omission errors though task analysis and good reminders; 2002; Qual Saf Health Care; Mar; 11(1):40-4. Nashef S. What is a near miss? 2003, The Lancet, 361; 180-181. Rasmussen J, Duncan K. & Leplat J. New technology and human error . 1987 Chichester, England: Wiley Reason J. Human error; 1990; Cambrige University Press. (Edizione italiana: L'errore umano ; Editore Il Mulino, Bologna. Reason J. Human errors: models and management ; 2000; BMJ; 320; 768-70. Reason J., Carthey J., de Leval M.R.; Diagnosing "vulnerable system syndrome": an essential prerequisite to effective Risk management ; 2001; Quality in health care; Dec; 10 Suppl 2;21-5. Reason J., Carthey J., de Leval M.R.; Institutional resilience in healthcare systems ; 2001; Qual Health Care; Mar; 10(1):29-32. Reason J. Combating omission errors though task analysis and good reminders; 2002; Qual Saf Health Care; Mar; 11(1):40-4. Nashef S. What is a near miss? 2003, The Lancet, 361; 180-181. Heinrich, H. W. (1950) Industrial Accident Prevention. A Scientific Approach. © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 21 Questionario ECM 1. James Reason nel 1990 ha redatto un modello organizzativo utilizzando come metafora il Swiss Cheese (formaggio svizzero), cosa rappresentano i buchi? a. livello di difesa b. imperfezioni c. procedure d. personale 2. Come si può classificare secondo Rasmussen il comportamento umano? a. Skill-based behaviour b. Ruled-based behaviour c. Knowledge-based behaviour d. Tutte le risposte indicate 3. Che cosa sono gli slip (‘scivolata’)? a. errori d’esecuzione che si verificano a livello delle abilità b. errori nell’attuazione di uno schema comportamentale corretto sull’oggetto sbagliato c. errori che si verificano quando vogliamo deviare da una routine ma non prestiamo sufficiente attenzione d. errori provocati da un fallimento della memoria 4. Cosa sono i “near miss”? a. errori evidenti b. quasi errori c. procedure d. nessuna delle risposte indicate 5. I sistemi di difesa da cosa possono essere costituiti? a. segnali di allarme b. strumentazione c. procedure d. tutte le risposte indicate 6. Nella metafora dell’iceberg, cosa c’è alla base? a. incidenti © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 22 b. near miss c. errori d. incidenti 7. Che cosa è definite dal punto di vista matematico come la combinazione tra la probabilità che un evento accada e le conseguenze dell’evento stesso? a. errore b. perseveranze c. rischio d. nessuna delle risposte indicate 8. Quando il danno viene definito medio? a. quando l’evento ha causato un danno temporaneo al paziente e ha reso necessari interventi o trattamenti supplementari b. quando l’evento ha causato un danno temporaneo (invalidità temporanea) e ha reso necessario un inizio o un prolungamento della degenza c. quando l’evento ha causato un danno temporaneo (invalidità permanente ) oppure ha causato un evento prossimo alla morte d. quando l’evento causa un decesso del paziente 9. Qual è la probabilità moderata di insorgenza di un evento? a. un caso ogni 5.00 b. un caso ogni 200 c. un caso ogni 100 d. un caso ogni 10 10. Quali tra questi cause e fattori sono di tipo ambientale? a. inadeguatezze nella comunicazione tra gli operatori sanitari nella gestione del processo assistenziale b. inadeguatezze nelle competenze/conoscenze degli operatori c. fattori legati alla logistica d. assenza di linee guida e presenza di barriere 11. Qual è la specialità in un ospedale considerata più a rischio? a. cardiologia b. pediatria c. ortopedia d. chirurgia © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 23 12. Quale delle seguenti motivazioni può causare un errore? a. carico di lavoro eccessivo b. supervisione inadeguata c. competenze o esperienze inadeguate d. tutte le risposte indicate © Sanitanova Srl – Risk management: errori ed incidenti nell'ambiente sanitario – Modulo 5 24