Download Seguridad del Paciente
Document related concepts
no text concepts found
Transcript
Seguridad del Paciente. Error Médico: Introducción y Conceptos. Experiencia Hospitalaria Dr. Fabián Vítolo Introducción Todavía hoy, a casi diez años de publicado el informe “Errar es Humano” del Institute of Medicine (IOM) de Washington (Kohn y col. 1999), se discuten las cifras de norteamericanos que morirían por año a consecuencia de errores médicos. Independientemente se trate de 44.000 o 98.000 personas, el mérito principal del informe es haber puesto en el centro del debate el tema de la seguridad en la atención de los pacientes. Probablemente ningún médico asistencial requiera estas estadísticas para intuir que el índice de errores en la actividad diaria es alto. Dada la prevalencia de los mismos en nuestro trabajo y considerando que uno de los postulados hipocráticos básicos es “Primum non nocere” (primero no dañar), es extraño que dediquemos tan poco tiempo en nuestros hospitales, seminarios y congresos a hablar sobre el tema. Probablemente se deba a que tendemos a ver a la mayoría de los errores como fallas humanas, atribuibles a vagancia, incompetencia o inatención por parte de aquellos que cometieron el error. Como consecuencia de este enfoque, cuando se aborda el tema, ya sea en ateneos de morbimortalidad o ante la justicia, buscamos establecer culpas. Culpamos: Al médico que no recordó o chequeó una alergia medicamentosa en la guardia Al cirujano que colocó mal una sutura mecánica intestinal A la enfermera que leyó mal la concentración de epinefrina en la ampolla Estas conversaciones “culposas” están teñidas por el temor (a sanciones, a juicios, a pérdida de prestigio, etc.). Si bien privadamente hablamos sin tapujos sobre la negligencia de otros, en general en lo más íntimo pensamos “por suerte no me pasó a mí…”. Así es que los profesionales de la salud preferimos hablar de cualquier cosa antes que de nuestros errores. Y no lo hacemos porque en el fondo pensamos que la sola diligencia personal hubiera prevenido el error. Su mera existencia daña la imagen que tenemos de nosotros mismos como profesionales. Hay coincidencia generalizada en que esta visión, si bien puede ser catalogada como heroica, está equivocada. Si bien en algunos casos hay franca negligencia del médico o de la enfemera/o, la mayoría de las veces los errores del efector final (en su inmensa mayoría buenos profesionales) nacen de procesos y sistemas pobremente diseñados. Tomemos como ejemplo los casos mencionados previamente: El médico que falló en recordar la alergia, ¿tenía acceso a la historia clínica del paciente, o ésta se encontraba bajo llave, exclusivamente visible de 8 a 17 en los horarios de trabajo del personal de archivo?; ¿tenía algún sistema computarizado que le obligara a chequear el antecedente alérgico antes de indicar el medicamento? ¿Se produjo la fístula de la anastomosis luego de que el cirujano había estado de guardia por más de 20 hs. sin un lugar adecuado para descansar, debiendo operar a la madrugada en un quirófano en el cual los cirujanos, las instrumentadoras y los anestesistas se encontraban virtualmente en pie de guerra? ¿Se hubiera evitado el error de medicación si las ampollas de epinefrina con distintas concentraciones fueran de distinto color o forma? La mayoría de estas situaciones nacen de sistemas pobremente diseñados. Las fallas en estos sistemas son las raíces de la mayoría de los errores. Es por ello que la culpa y el ocultamiento deberían ser reemplazados por el abordaje sincero del problema que permita desarrollar estrategias de prevención focalizadas en los procesos y no en los individuos. Objetivos de aprendizaje Comprender la magnitud del problema del error médico en la atención de los pacientes Conocer los principales métodos de identificación y análisis de los riesgos a los que se enfrentan los pacientes Brindar herramientas que aseguren un tratamiento eficaz del riesgo desde una perspectiva preventiva y sistémica Describir los factores culturales a tener en cuenta para implementar programas de seguridad exitosos Antecedentes El concepto de error médico es conocido desde hace siglos y ya desde el Código de Hamurabi en la antigua Babilonia se hace mención al castigo que debían recibir aquellos médicos que habían cometido errores. Con el correr de los siglos, ya al adquirir la medicina el carácter de ciencia se comienza a correlacionar los diagnósticos con los hallazgos de las autopsias en los Ateneos Anátomo-Clínicos, y si bien en los mismos se descubrían errores pocas veces el error en sí mismo era tema de análisis y discusión. Los tradicionales ateneos de morbimortalidad tampoco trataban mayormente el tema de los errores, discutiendo habitualmente sobre complicaciones referidas a la enfermedad o a los tratamientos. La discusión de casos de pacientes con evolución tórpida ayudó a su vez a poner de manifiesto errores médicos, los cuales eran atribuidos generalmente a fallas individuales que podrían ser corregidas con mayor capacitación, entrenamiento o atención. En el ámbito quirúrgico, tal vez el antecedente más importante sea la publicación por Max Thorek en Chicago en 1932 de Surgical Errors and Safeguards (Thorek, 1932) , en donde analiza sus errores y los de otros cirujanos, con la finalidad de prevenirlos o evitarlos, manteniendo vivos los signos de peligro. Junto con el desarrollo tecnológico de mediados del siglo XX, comienzan a surgir dos disciplinas que serían fundamentales para avanzar en la comprensión del error: la psicología cognitiva y la investigación en factores humanos. Los especialistas en factores humanos, mayormente ingenieros, están fundamentalmente involucrados en el diseño de interfases hombre-máquina en ambientes complejos como un cockpit o una central nuclear. La psicología cognitiva se concentró en desarrollar modelos de respuestas humanas sujetas al examen empírico. Lecciones de ambas esferas de observación han profundizado nuestra comprensión de los mecanismos por el cual se cometen errores en todos los ámbitos. La mayoría de los preceptos aplicados para la seguridad industrial eran absolutamente aplicables al accionar médico. En 1983 el British Medical Journal publica el trabajo de Karl Popper (uno de los filósofos más importantes del siglo XX) y Neil Mac Intyre (médico) en el que señalan: “Aprender de los errores es un proceso lento, penoso y de alto costo. (McIntyre N ; Popper K, 1983) En 1991, se publica el estudio de práctica médica de Harvard (Brennan y col, 1991), que fue la piedra angular sobre la que se basaron infinidad de trabajos posteriores sobre el error médico. Este estudio investigó la incidencia de eventos adversos, definidos estos como daños ocasionados a los pacientes por la práctica médica, secundarios a una atención inadecuada o negligente. De un total de 30.122 historias clínicas seleccionadas al azar, se identificaron 3,7% (1.133) eventos adversos, de los cuales 58% fueron considerados prevenibles. Este estudio fue replicado luego en UTAH- Colorado (Thomas, 2000) y por varios países. En 1994, Lucian Leape, de la Escuela de Salud Pública de Harvard y que había liderado el estudio de práctica médica, publica su trabajo “Error in Medicine” en el Journal of the American Medical Association (JAMA). En el mismo hace un llamado para que los profesionales de la salud modifiquen sus percepciones acerca de los errores médicos para reducir la incidencia de eventos adversos.(Leape, 1994) Hace en el mismo un análisis de la cultura médica, caracterizada por niveles de prevención muy bajos. En 1995, en un estudio realizado en Australia (Wilson, 1995), se encontró que, en un total de 14.179 admisiones hospitalarias se observó la ocurrencia de un evento adverso en el 16,6% de los pacientes, con un 13,7 % de incapacidad permanente y un 4,9% de muertes. Más de la mitad de estos hechos fueron considerados prevenibles. Sin lugar a dudas, el impulso definitivo para poner el tema en el centro del debate fue el informe “Errar es Humano”, del Institute of Medicine (IOM) de Estados Unidos en 1999. El IOM fue creado en 1970 por la Academia nacional de Ciencias de los EE.UU nombrando a miembros relevantes de las profesiones apropiadas para la evaluación continua de las políticas de salud pública. Bajo la Constitución de los Estados actúa como asesor del Gobierno federal. Dicho documento analiza lo publicado hasta el momento sobre el tema y llega a conclusiones que movilizaron no sólo a profesionales de la salud sino también a toda la sociedad norteamericana: de cada 33,6 millones de admisiones hospitalarias en ese país se producirían entre 44.000 y 98.000 muertes evitables. En sus valores más bajos los eventos adversos prevenibles serían la 8va. causa de muerte más frecuente, por delante del SIDA, el cáncer de mama y los accidentes vehiculares. La inmensa mayoría de los errores nacerían de déficit en los sistemas y no en la incapacidad de los individuos. Estos antecedentes determinaron que en muchos países se destinaran recursos para crear agencias dedicadas a la investigación del error y al desarrollo de medidas preventivas con el objetivo de aumentar los márgenes de seguridad en la práctica médica de todos los días. El tema se trasladó rápidamente al mundo de habla hispana. En la Argentina el académico Dr. Alberto Agrest motoriza desde el 2001 el estudio local del error desde el punto de vista sistémico, fundando el Comité de Error Médico de la Academia Nacional de Medicina, desarrollando foros, seminarios y proyectos piloto en diversas instituciones. El comité investiga los aspectos epidemiológicos y culturales que hacen a la seguridad de los pacientes. En su excelente página web (www.errorenmedicina.anm.edu.ar) pueden consultarse los principales avances sobre esta temática. En el año 2006 se publica en España el Estudio Nacional sobre los Efectos Adversos ligados a la Hospitalización (ENEAS) (Aranaz Andres, 2006), que incluyó una muestra de 24 hospitales públicos y 5.624 historias, detectándose un 9,3% de eventos adversos relacionados con la asistencia sanitaria. Este estudio es el segundo más grande realizado hasta la fecha en Europa y el quinto en el mundo En el año 2002 la Organización Mundial de la Salud (OMS) exhorta a prestar atención al tema y en el 2004 crea la “Alianza Mundial para la Seguridad del Paciente”, que tiene por objeto coordinar, difundir y acelerar la mejora de la seguridad de los pacientes en todo el mundo. Parte de este análisis se refleja en el informe publicado en mayo de 2007 por el Centro Colaborador de la OMS sobre soluciones para la Seguridad del Paciente en donde se abordan temas concretos: identificación de pacientes, errores de medicación error de lado, traspaso de pacientes entre otros. Se analiza en dicho documento el impacto del problema, se brindan sugerencias de prevención y se analiza su aplicabilidad. (OMS, 2007) Error Humano. Definición Constituyen errores lo que se hace y no debe hacerse y lo que no se hace y debe hacerse. El error ha sido definido también como la omisión de una acción apropiada para una circunstancia determinada, la falla para completar una acción planeada como se intentó (error de ejecución) o la utilización de un plan equivocado para alcanzar un objetivo (error de planificación). (Kohn, 1999) Swain y Gutman, especialistas en factores humanos, definieron en 1983 al error humano como toda acción o conjunto de acciones humanas cuyo resultado está fuera de la tolerancia del sistema. Bajo esta definición se entiende al sistema como al conjunto de elementos relacionados entre sí ordenada y concatenadamente, que contribuyen a cumplir una función determinada. El sistema estaría entonces integrado por el conjunto de máquinas (equipamiento) y el conjunto de hombres con sus principios y reglas (grupo humano) (Swain, 1983) Los errores pueden ser de práctica, de recursos propiamente dichos o de sistemas. Son ejemplos de errores de práctica las omisiones de datos relevantes del interrogatorio o del examen físico en la historia clínica, la incapacidad para interpretar hallazgos, el desconocimiento de exámenes complementarios, etc. En ocasiones, el error es consecuencia de la utilización de aparatos mal calibrados o de reactivos o medicamentos perimidos: estos constituyen los errores de recursos. Finalmente, se considera como error de sistema a aquel que no resulta de una acción individual por ignorancia o impericia, sino por una serie de acciones y factores que dependen de la organización de los procesos diagnósticos y terapéuticos. (Ortiz, 2007) Luego de investigar el tema del error médico por años, Leape concluye que los errores producidos por gente incompetente representan, a lo sumo, un 1% del problema. En el 99% de los casos se trata de buena gente tratando de hacer bien su trabajo y que comete errores simples. Son en general los procesos los que los predisponen a cometer estos errores. “FISIOPATOLOGÍA” DEL ERROR Gracias al aporte de la psicología cognitiva y de la investigación en factores humanos, hoy existen teorías razonables y coherentes acerca de por qué los humanos cometemos errores y se ha avanzado en el diseño de ambientes de trabajo que minimicen la ocurrencia de los mismos y limiten sus consecuencias. La mayoría de los errores provienen de aberraciones del funcionamiento mental. Por ello para comprender por qué se producen los errores debemos primero comprender el mecanismo cognitivo normal. Si bien hay muchas teorías al respecto y muchos expertos no concuerdan, James Reason, de la Universidad de Manchester, propone el siguiente esquema que captura los principales temas de la psicología cognitiva y que es consistente con la observación empírica (Reason, 2000) La mayoría del funcionamiento mental es automático, rápido y sin esfuerzo. Una persona puede dejar su casa, ir a la cochera, encender su auto, manejar hasta el trabajo y entrar a la oficina sin dedicar mucho pensamiento consciente al centenar de maniobras y decisiones que esta compleja red de acciones requiere. Este procesamiento automático e inconsciente es posible porque llevamos “esquemas mentales” que serían “expertos” en algunos aspectos recurrentes de nuestro mundo. Estos esquemas actúan rápidamente cuando se activan, procesando información en paralelo sin esfuerzo consciente. Los esquemas son activados sí por pensamientos conscientes o estímulos sensoriales. El funcionamiento ulterior es automático. Además de estos mecanismos automáticos inconscientes, las actividades cognitivas pueden ser conscientes y controladas. Este modo “atencional” o pensamiento consciente es utilizado para resolver problemas o para monitorear la función automática. Esta forma de pensamiento se pone en acción cuando enfrentamos un problema, ya sea nuevo o como resultado de fallas en el modelo esquemático. En contraste, esta forma es lenta, secuencial, esforzada y difícil de sostener en el tiempo Errores de acción o automáticos (“fugas”) La falla de mecanismos mentales automáticos determina los denominados “slips” o “fugas”. Las fugas son cortocircuitos en los mecanismos automáticos y son errores de acción. Este tipo de errores ocurre cuando hay un quiebre en la acción rutinaria por una desviación en la atención. La persona posee los requisitos para realizar la tarea, pero los errores ocurren por falta de un chequeo a tiempo. Son actos no intencionales en donde falló el monitoreo. Hay infinidad de ejemplos en el accionar médico de todos los días de errores de este tipo: equivocaciones de lado o de paciente, errores de medicación, gasas olvidadas (oblitos, etc) Nadie está exento de cometer este tipo de errores, que por lo general ocurren por la forma en la cual funcionan nuestros mecanismos mentales, siendo algunas de sus características: Cautividad al hábito: En estos casos se tiende utilizar el esquema mental más frecuentemente utilizado por sobre uno menos familiar. Por ej. Si la secuencia habitual de acción es ABCDE, pero esta vez la secuencia cambia a ABCFG, la atención consciente debe activarse rápidamente después de C, o se terminará ejecutando el patrón habitual DE. Ejemplo: En guardia de emergencias está protocolizado que a todo politraumatismo grave se asegura vía aérea y se coloca sonda nasogátrica y vesical. El personal está automatizado para ello y siempre hace lo mismo. Un día un paciente politraumatizado se presenta con signos de traumatismo de base de cráneo (contraindicación de sonda nasogátrica), pero como fallan los mecanismos conscientes de control, se coloca la sonda y la misma produce un daño cerebral. Errores de Asociación Asociación mental de ideas, como atender el teléfono cuando suena el timbre de la puerta. Ej: mala interpretación de las alarmas en terapia intensiva Pérdida de Activación Son pérdidas temporarias de memoria, como entrar a una habitación y no recordar para qué entró. Las pérdidas de activación frecuentemente son causadas por interrupciones. Ej: nos olvidamos de preguntar un dato que era importante porque fuimos interrumpidos durante la consulta. Una gran variedad de factores pueden distraer el control de la atención y hacer estas “fugas” más probables. Dentro de los factores fisiológicos podemos mencionar la fatiga, la falta de sueño, el alcohol, las drogas y la enfermedad. También pueden atribuirse a factores psicológicos o sobrecarga de trabajo, como así también a factores emocionales: aburrimiento, frustración, miedo, ansiedad o enojo. Todos estos factores llevan a preocupaciones que pueden distraer la atención. Los factores psicológicos, si bien son considerados como internos o “endógenos” pueden ser también causados por factores externos, como por ej malas relaciones interpersonales. Los factores ambientales, como ruido, calor, estímulos visuales, excesivo movimiento u otro fenómeno físico también pueden causar estas “fugas” Errores de conocimiento o no automáticos Los errores de mecanismos conscientes no automáticos ya no son “fugas”. Se trata de equivocaciones que ocurren durante el proceso de resolución de un problema, generalmente por una mala percepción de la situación que lleva a aplicar una solución equivocada. Este tipo de errores es mucho más complejo. En ellos la persona se encuentra ante una situación nueva para la cual no tiene en forma “programada” ninguna solución. Sobrevienen por falta de conocimiento o por una mala interpretación de la situación. Hay algunos hábitos de pensamiento que son poco reconocidos por la persona pero que lo llevan al error. Algunos de ellos son: La memoria sesgada: Basamos nuestras decisiones en lo que hay presente en nuestra memoria, pero la memoria generalmente está sesgada hacia lo que es común y general. Se asumen conclusiones que generalmente funcionan. Vemos lo que conocemos. Paradójicamente, la memoria también tiene una tendencia a desviarse hacia la discrepancia, dándole a un caso aislado que alguna vez tuvimos una importancia estadística significativa. La tendencia a utilizar la primera información que viene a mano La tendencia a buscar evidencias que apoyen esa hipótesis temprana Exceso de confianza en el curso de acción iniciado Los errores de conocimiento son afectados por las mismas influencias psicológicas, fisiológicas y ambientales que determinan las “fugas”. Hay suficiente investigación acerca de los efectos del stress sobre el desempeño. Si bien generalmente es difícil establecer un nexo causal entre el stress y un accidente específico, no hay duda de que ambos tipos de errores aumentan bajo stress. Por otra parte, cierto grado de stress no es malo. Un poco de ansiedad puede mejorar el desempeño, el que puede verse afectado tanto por aburrimiento como por presiones excesivas. Modelos de Error. Por qué ocurren los accidentes Uno de los mayores aportes a la comprensión de error humano fue el modelo del “Queso Suizo” propuesto por James Reason, profesor de psicología de la Universidad de Manchester en la década del ’90. Según esta teoría, el problema del error humano puede ser abordado de dos formas: enfocándose en la persona o haciéndolo en el sistema. Cada modelo tiene visiones muy distintas sobre las causas de los errores y los factores que los determinan. Es importante comprender las diferencias entre estas dos visiones para poder trabajar sobre el error y aumentar la seguridad de los pacientes. El abordaje del error centrado en la persona tiene una larga tradición en la práctica médica. Según esta visión los errores se producen por olvidos, desatenciones, pobre motivación, descuidos, negligencia, impericia o imprudencia de las personas que están en la primera línea de atención: médicos, enfermeras, anestesistas, farmacéuticos, etc. La consecuencia natural de esta percepción es apelar a que estos individuos modifiquen sus conductas. Se los estimula entonces a que sean más cuidadosos, a entrenarlos más y eventualmente a castigarlos con medidas disciplinarias. Los adeptos a esta visión tienden a tratar los errores como temas morales, asumiendo que las cosas malas les pasan a malos profesionales, lo que los psicólogos han denominado “la hipótesis del mundo justo”. El abordaje del error centrado en el sistema tiene como premisa básica que los humanos son falibles y que deben esperarse errores, aún en las mejores organizaciones. Según esta visión, los errores son consecuencias más que causas, y tienen sus orígenes en factores del sistema en el cual nos desenvolvemos y no en la “perversidad” de la naturaleza humana. Bajo esta filosofía, las medidas que se deben tomar para minimizar el error y aumentar la seguridad de los pacientes deben tomarse luego de asumir que no se puede cambiar la naturaleza humana, pero sí se pueden cambiar las condiciones bajo la cual los humanos trabajamos. Dentro de la visión sistémica, juega un rol central el concepto de defensas o barreras. Todas las organizaciones altamente confiables desarrollan este tipo de salvaguardas. Cuando ocurre un evento adverso (error de medicación, de lado, etc.), lo importante no es quién se equivocó, sino cómo y por qué las defensas fallaron. Obviamente, los sistemas de atención médica han desarrollado varios tipos de defensas para evitar que los errores produzcan daño. Algunas tienen que ver con normas y procedimientos institucionales, otras con alarmas o barreras físicas, supervisión, capacitación permanente, etc. Generalmente estas barreras funcionan muy efectivamente, pero siempre habrá debilidades. En un mundo ideal, cada barrera defensiva se mantendría intacta. Sin embargo, en el mundo real las barreras defensivas se comportarían como fetas de queso suizo: están llenas de agujeros – si bien, a diferencia del queso estos agujeros están continuamente abriéndose, cerrándose y cambiando de localización-. La presencia de agujeros en cualquiera de estas fetas no causa normalmente una mala evolución. Usualmente los accidentes ocurren sólo cuando los agujeros de varias fetas se alinean momentáneamente para permitir una trayectoria oportuna al accidente llevando a que el peligro termine dañando al paciente. Los “agujeros” en las defensas se forman por dos razones: fallas activas y condiciones latentes. Casi todos los eventos adversos se deben a una combinación de ambos factores. Las fallas activas son aquellos actos inseguros cometidos por las personas que están en contacto directo con el paciente. Pueden tomar una variedad de formas: fugas, equivocaciones o violaciones de procedimientos. Son generalmente los errores del efector final: la enfermera que equivocó la medicación, el cirujano que operó del lado erróneo, etc. Las fallas activas tienen un impacto directo y generalmente de poca duración en la integridad de las defensas. Una vez que han identificado esta falla proximal al accidente, los seguidores del abordaje personal generalmente no investigan mucho más allá luego de un evento adverso. Sin embargo, la mayoría de estos errores finales son el resultado de una cadena de errores que se extiende hacia atrás en el tiempo y a través de otros niveles superiores del sistema. Las condiciones latentes son los inevitables “residentes patógenos” dentro del sistema. Se originan en decisiones tomadas a nivel gerencial por los responsables de diseñar la atención y elaborar las normas y procedimientos. Estas decisiones pueden estar equivocadas, aunque no es una condición necesaria. Todas estas decisiones estratégicas tienen el potencial de introducir “patógenos” dentro del sistema. Las condiciones latentes tienen dos tipos de efectos adversos: pueden traducirse en condiciones de trabajo favorables al error (ej: presiones de tiempo, poco personal, equipamiento inadecuado, fatiga e inexperiencia) o bien pueden crear agujeros permanentes o debilidades en las defensas (ej: alarmas no confiables, procedimientos incumplibles, deficiencias de diseño o construcción, etc.). Las condiciones latentes -como su nombre lo indica- pueden permanecer “dormidos” dentro del sistema por muchos años antes de que se combinen con una falla activa que gatille el accidente. A diferencia de las fallas activas, cuyas formas específicas generalmente son difíciles de predecir, las condiciones latentes sí pueden ser identificadas y remediadas antes de que ocurra el evento adverso. Comprender esto lleva a una administración del riesgo más preactiva. Reason utiliza otra analogía: las fallas activas son como mosquitos. Se los puede matar uno a uno con un mosquitero, pero seguirán apareciendo si no drenamos el pantano en el cual se alimentan. El pantano, en este caso serían las condiciones latentes. La Notificación de Incidentes, Errores y Eventos Adversos La reducción de accidentes y errores médicos resulta vital para mejorar la calidad y disminuir los costos en la atención de la salud. Para desarrollar una estrategia preventiva debemos tener una acabada comprensión del tipo de accidentes y de sus causas y resulta evidente que la notificación de los mismos y de los errores serios que no causaron ningún daño debe ser una parte central de dicha estrategia. En la práctica habitual los errores médicos son revelados retrospectivamente en los ateneos de morbimortalidad. El enfoque generalmente es individual y las lecciones aprendidas son compartidas por pocos. Los juicios por mala praxis tienen también un rol, aunque limitado, para conocer más acerca de este tipo de eventos. Los más importantes estudios acerca del error médico utilizaron como método el análisis retrospectivo de las historias clínicas para cuantificar índices de eventos adversos. Si bien la recolección de datos en esta forma puede brindarnos importante información epidemiológica, la misma es muy costosa y generalmente no captura información acerca de las causas del error y sus circunstancias. Muchos errores importantes que no produjeron lesiones pueden pasar inadvertidos por este método Otras actividades complejas y de alto riesgo fuera del ámbito de la salud han desarrollado esquemas de notificación de accidentes y cuasi accidentes que funcionan desde hace muchos años, entre ellos: la industria aeronáutica, las petroquímicas, la ingeniería nuclear, la producción de acero y las operaciones militares (Barach, 2000).La seguridad es una prioridad tanto para los dirigentes como para los trabajadores y se encuentra institucionalizada. ¿Por qué no hacerlo en medicina? Algunas Definiciones Error (Kohn, 1999): Es la falla para completar una acción tal como fue planeada, o el uso de un plan equivocado para lograr un objetivo. La acumulación de errores lleva a accidentes. No todos los errores producen daño o lesión. Evento Adverso (Kohn, 1999) Injuria o complicación no intencional consecuencia del cuidado de la salud y no de la enfermedad misma del paciente. En los estudios epidemiológicos publicados sobre el tema se describen como significativos sólo aquellos que producen prolongación de la estadía durante la internación, necesidad de reinternación, secuela transitoria o definitiva o muerte. Incidente: (Kohn, 1999) Evento no deseado en la operativa de la institución o en el cuidado del paciente. Las compañías de seguros de responsabilidad profesionales suelen definirlo como “cualquier hecho o circunstancia que pueda derivar en un reclamo” Accidente : Evento que produce un daño a un sistema definido y que altera los resultados en curso o futuros del sistema. Cuasiaccidente: Evento o situación que pudo haber terminado en un accidente, pero en donde una intervención a tiempo (planificada o no) o la casualidad evitó que se produjera el mismo. ¿A quién notificar? Una vez identificado el incidente o el error, la notificación puede ser dirigida a personas o entidades con objetivos que pueden ser distintos pero que resultan complementarios: a. Notificación Interna Es la destinada a las autoridades médicas y administrativas de la institución, preocupadas principalmente por la seguridad y calidad en la atención de sus pacientes y por los costos que el incidente pueda generar (mayores gastos de internación y medicamentos, posibles acciones legales, etc). Un buen sistema de notificación interna en los hospitales y centros de salud asegura que todas las partes responsables sean conscientes de los peligros mayores. La detección precoz de eventos adversos hace posible la pronta investigación e intervención destinada a reducir los daños asociados con dicho evento. La recolección de los informes en forma de base de datos ayuda al desarrollo de un cuerpo de conocimientos para identificar tendencias sobre las cuales desarrollar estrategias preventivas. El objetivo buscado es el aprendizaje a través de la experiencia Clásicamente se notifican (a través de formularios simples desarrollados a tal propósito) eventos tales como errores de medicación, caídas, error de sitio quirúrgico o de paciente, fallas de equipos, etc. Idealmente debe notificar el personal que estuvo involucrado o que vio el evento en cuestión. Si no se quiere implementar un formulario, pueden utilizarse mecanismos más informales como la comunicación franca y frecuente con el personal médico y de enfermería clave en la búsqueda de estos eventos. Más allá de cuál sea el mecanismo de recolección de datos, lo importante es que los mismos se centralicen e idealmente se codifiquen para poder generar una base de datos que permita valorar la frecuencia y severidad de este tipo de eventos. No es necesario que se haya producido un daño para notificar. De hecho la denuncia de los cuasiaccidentes (errores que no determinaron ningún daño) debe ser estimulada. Su frecuencia es hasta 300 veces mayor que la de los eventos adversos (Battles, 1998) -donde sí hay daño-, hay menos barreras psicológicas para la notificación y no se corren mayores riesgos médicolegales. Idealmente, una vez notificado el evento adverso o el error a la administración del hospital, se desencadena una investigación para descubrir las causas sistémicas y se implementan los cambios necesarios para prevenir recurrencias. b. Notificación Externa Los resultados de las investigaciones de los hospitales y centros pueden a su vez ser notificados a cuerpos independientes externos, quienes reúnen y analizan datos provenientes de otras instituciones y difunden a su vez la información y las recomendaciones en forma más amplia. La notificación externa permite, al concentrar información de distintas fuentes, la detección precoz de un nuevo peligro aún con pocas notificaciones (por ejemplo complicaciones de una nueva droga). El análisis central de la información ayuda a identificar tendencias que serían muy difíciles de detectar individualmente en los hospitales y a desarrollar recomendaciones generales para todos. La vigilancia epidemiológica del error se vuelve de esta manera un objetivo de salud pública tendiente a garantizar la seguridad de los pacientes La notificación de incidentes en Medicina ha tomado diversas formas. Desde 1975 la FDA de los EE.UU obliga a denunciar las principales reacciones adversas a las transfusiones sanguíneas, focalizándose en muertes prevenibles y lesiones graves (FDA, 1997) Existen en la actualidad en los Estados Unidos cuatro grandes sistemas nacionales de notificación voluntaria de incidentes (Leape, 2002). Solamente uno, el programa de Eventos Centinela de la Comisión de Acreditación de Organizaciones de Salud (JCAHO) aborda una gama amplia de eventos adversos serios. A partir de la notificación se desarrollaron alertas específicas: Cuadro Nº 1 Alertas publicadas por la JCAHO (Comisión conjunta de Acreditación de Organizaciones de Salud) de los EE.UU luego del análisis de las notificaciones de incidentes Eventos centinela: Errores de Medicación. Prevención: Cloruro de Potasio Error de sitio Quirúrgico: Lecciones aprendidas Suicidio de pacientes internados. Recomendaciones para su prevención Prevención de muertes por contención de pacientes. Robo de recién nacidos: Previniendo futuras ocurrencias Medicaciones de alto riesgo: Alerta y seguridad de los pacientes Complicaciones operatorias y postoperatorias: Lecciones para el futuro Caídas fatales: Lecciones para el futuro Bombas de infusión: previniendo eventos adversos futuros Lecciones aprendidas: Incendios en establecimientos de cuidados crónicos Kernicterus: Una amenaza en recién nacidos sanos Fuente: Wald H. 2001 Otros dos programas se focalizan exclusivamente en los errores de medicación. El restante es dirigido por el Centro de Prevención y Control de Enfermedades (CDC) y se denomina Encuesta Nacional de Infecciones Nosocomiales. Dicho programa utiliza personal entrenado en control de infecciones para notificar infecciones intrahospitalarias. Sobre la base de estas notificaciones, el CDC establece pautas nacionales y determina los índices de infección ajustados a servicios específicos en los establecimientos participantes (CDC, 2001) .Se reciben aproximadamente 40.000 informes por año, un número significativamente mayor que la cantidad de eventos centinela de la JCAHO (no más de 500 notificaciones anuales). La evidencia del efecto de estos sistemas voluntarios de notificación es mayormente anecdótica. El reporte de los eventos centinela habría derivado en medidas concretas como la remoción de las ampollas de cloruro de potasio de las unidades de enfermería (JCAHO, 2000), y los informes acerca de errores en la medicación habrían motorizado cambios en la industria farmacéutica -etiquetas, envases- (Cohen, 2000) la identificación de las drogas con mayores problemas -insulina, heparina y warfarina- (Pharmacopeia, 2000). El único programa con efectos demostrados sobre la seguridad de los pacientes mediante estudios controlados es el del CDC: los índices de infección intranosocomial son 32% más bajos en los hospitales que implementan el programa completo (Haley, 1985) .Sistemas similares al norteamericano son aplicados por el Servicio Nacional de Salud Británico (UK Department of Health, 2000) y por la Fundación para la Seguridad de los Pacientes de Australia (Webb, 1993). Barreras para la Notificación Los datos son contundentes: con la excepción mencionada de la notificación de infecciones intrahospitalarias, la mayoría de los sistemas aplicados fallan en sus objetivos y el subregistro de efectos adversos, tanto interno como externo es un mal generalizado. Dicho subregistro ha sido calculado entre un 50% a un 96% anual (Barach, 2003). La mayoría de los sistemas de reportes de incidentes hospitalarios no captan la mayoría de errores y cuasiaccidentes. Los estudios de algunos servicios sugieren que sólo el 1,5% de todos los eventos adversos son notificados (O’Neil, 1993) y que sólo el 6% de eventos adversos por medicación son identificados (Cullen, 1995). El Colegio Norteamericano de Cirugía estima que las notificaciones de incidentes sólo reflejan entre un 5 a un 30% de los eventos adversos (Bader, 1985). Más aún: un estudio sugiere que menos del 20% de las complicaciones de un servicio quirúrgico serían discutidos en ateneos de morbimortalidad (Wanzel, 2000) ¿Cuáles son las probables barreras? (Lawton, 2002) La cultura de la seguridad aún no ha sido introducida en la práctica médica, a diferencia por ejemplo de la actividad aeronáutica, en donde se reciben más de 30.000 notificaciones de incidentes y cuasiaccidentes por año. La naturaleza de la práctica médica habitual, con su énfasis en la autonomía profesional, la colegiación y la autorregulación no estimula el informe de los errores. El clima legal actual, con el aumento alarmante de la litigiosidad tampoco ayuda y es lógico el temor de notificar eventos que luego puedan derivar en un juicio millonario. Es difícil que un tipo de sistema así pueda funcionar sin algún tipo de protección legal, como sucede en Australia y en Nueva Zelanda (Harvard School of Public Health, 2001). Para poder implementar un programa exitoso es necesario primero resolver los dilemas morales, científicos, legales y prácticos de los accidentes médicos. Características de un sistema de notificación exitoso (CDC, 2001) No Punitivo Confidencial Independiente Análisis Experto Rapidez Orientado a los sistemas Participativo Quienes notifican no deben temer consecuencias o castigo como resultado del informe Las identidades del paciente, el informante y de la institución nunca son revelados a terceras partes El programa es independiente de cualquier autoridad con poder de castigo sobre el informante o la organización Las notificaciones son evaluadas por expertos que comprenden las circunstancias clínicas del evento y que son entrenados para reconocer las causales sistémicas del error Las notificaciones son analizadas rápidamente y las recomendaciones son diseminadas oportunamente a quienes necesitan saber, especialmente cuando se han identificado peligros serios Las recomendaciones se concentran en los cambios necesarios en los sistemas, procesos o productos más que en el desempeño individual La agencia que recibe la notificación debe poder dar recomendaciones y las organizaciones participantes deben estar de acuerdo en implementar las mismas siempre que sea posible ¿Obligatorio y personalizado o Voluntario y anónimo? Ambos tipos de notificaciones son necesarias y cada una carga con sus beneficios y limitaciones. La mayoría de los sistemas obligatorios están designados para identificar a los “malos” profesionales o centros con el objetivo de penalizar a los implicados a fines de que esos hechos no se repitan. El énfasis está puesto en el error en sí mismo y no en su corrección y el feedback que reciben los que cometieron el error es escaso (Pharmacopeia, 2000). Evidentemente, esto actúa como freno a los informes y explica por qué la JCAHO tiene tan pocos “eventos centinela” denunciados. Un beneficio indudable de este tipo de sistemas es que facilita el establecimiento de responsabilidades. Los sistemas obligatorios tampoco suelen capturar la información de los cuasiaccidentes, ya que en general cuando no hay daño no hay obligación de denunciar. La información cualitativa contenida en estos informes suele ser muy pobre, porque la principal motivación cuando hay que cumplir con un requerimiento es el cumplimiento de la norma y la autoprotección. El análisis de los sistemas utilizados en otras actividades sugiere la conveniencia de que las notificaciones, hasta cierto punto, sean voluntarias y que haya algún tipo de protección para quienes reportan. La forma más obvia de asegurar la confidencialidad es hacer que las notificaciones sean anónimas. Por ejemplo, extractos de los sistemas de notificación de errores de la industria aeronáutica se publican semanalmente en una revista, con una honesta descripción de acciones que llevaron a situaciones peligrosas. Los críticos puntualizan, sin embargo, que el anonimato no siempre es posible ni deseable (Barach, 2000). Los analistas del evento adverso o del error no pueden contactar en estos casos a quienes notificaron para requerir mayor información. Las notificaciones pierden de esta forma confiabilidad y en determinadas situaciones (culpa grave, hechos dolosos) es imposible garantizar el anonimato. El anonimato también ha sido criticado por su amenaza al sentido de responsabilidad y transparencia que debe primar en la atención de la salud. Queda entonces claro que ambos sistemas deberían ser complementarios. Si se quiere reducir el índice de errores en la actividad médica es fundamental estimular su notificación para su mejor comprensión y el establecimiento de medidas correctivas. Sin embargo, antes de aplicar un programa se deben remover las barreras culturales que impiden el desarrollo de estos sistemas. Los programas exitosos en otras actividades se basan en la protección de quienes notifican, la simpleza (una sola carilla suele bastar) y en el resultado práctico que tuvo el haber notificado (análisis, recomendaciones, etc.). El reporte de incidentes es tan sólo una herramienta de las muchas que existen para mejorar la seguridad de las prestaciones. El éxito de los sistemas de notificación dependerá de que las Instituciones los utilicen para mejorar la calidad más que para medir el desempeño individual. ANÁLISIS DE RIESGOS Una vez identificados los errores y lo riesgos, los mismos deben ser analizados en función de su probable frecuencia y severidad. También se deberán estudiar las causas sistémicas que subyacen en cada error. Las tres herramientas básicas para analizar riesgos son: 1. Matriz de Riesgos 2. Análisis de Causa Raíz (ACR) 3. Análisis de Modo de Falla y sus Efectos 1. Matriz de Riesgos El análisis de un riesgo tiene básicamente dos dimensiones: (Svarzman, 2006) La clasificación o categorización del riesgo, que se refiere a su tipificación (riesgo para el paciente, para el visitante, para el trabajador de la salud, etc) La calificación del riesgo, que nos permite valorizar de alguna manera el riesgo. Para ello hay que determinar la severidad, que es el impacto potencial que produciría la materialización del riesgo identificado; y además, calcular la probabilidad de ocurrencia del hecho. Esta probabilidad se basa, en la mayoría de los casos, en el historial (cuántas veces se produjo el hecho en un período de tiempo, en la organización o en el mercado) Normalmente se abren varias categorías de severidad y de probabilidad y las distintas combinaciones entre esas categorías de una y otra determinan el nivel de riesgo. CALIFICACIÓN DEL RIESGO POR SU SEVERIDAD (NSW Severity Assessment Code, 2005) CATASTRÓFICO • • • • • • • • • MODERADO MENOR Pacientes con pérdida Pacientes con Pacientes que mayor y permanente de reducción permanente requieren mayor nivel función (sensitiva, motora, y significativa de de cuidados fisiológica o psicológica función (sensitiva, incluyendo: no relacionada con el motora, fisiológica o curso natural de la psicológica) no • Primeros enfermedad y que difiere relacionada con el auxilios de la evolución esperada o curso natural de la Error de lado o • Nueva cualquiera de las enfermedad y que sitio en evaluación siguientes circunstancias: difiere de la evolución procedimiento • Estudios esperada o cualquiera Cirugía en adicionales de las siguientes paciente • Pérdida de • Derivación a circunstancias: equivocado miembro otro médico Suicidio en • Desfiguración internación • Aumento del Oblito que requirió tiempo de remoción internación quirúrgica como Embolia gaseosa resultado del Muerte por error incidentes de medicación • Se requiere Reacción una hemolítica postintervención transfusional quirúrgica Muerta materna como vinculado al parto resultado del Daño neurológico incidente al recién nacido Robo de recién nacido Muerte no relacionada con el curso natural de la enfermedad y que difiere de la evolución esperada, o bien cualquiera de estas circunstancias. • MAYOR INSIGNIFICANTE Pacientes sin daño ni aumento del nivel de cuidados o estadía IAFRECUENCIA CALIFICACIÓN DEL RIESGO POR SU FRECUENCIA (NSW Severity Assessment Code, 2005) CASI SEGUR0 Se espera que ocurra y se repita en cortos períodos de tiempo (todas las semanas o meses) PROBABLE Probablemente ocurrirá y se repetirá en muchas circunstancias (varias veces al año) POSIBLE Puede ocurrir ocasionalmente. Ha ocurrido en el pasado y es posible que vuelva a pasar (cada uno a dos años) IMPROBABLE No se espera que ocurra o que se repita, pero potencialmente podría pasar (cada 2 a cinco años) MUY RARO No se cree que el evento pueda ocurrir. Sólo podría pasar algo así en circunstancias excepcionales (cada 5 a 30 años) Combinando ahora ambas categorías se puede armar una verdadera matriz que permita determinar el nivel de riesgo. Este nivel de riesgo puede adoptar un valor cuantitativo ($), un valor meramente cualitativo (ej: elevado, bajo) o algún valor semicuantitativo (300, 200, 100), representado por números y no por $ que permita realizar un ordenamiento por el nivel de riesgos: SEVERIDAD CATASTRÓFICO MAYOR CASI SEGURO PROBABLE POSIBLE IMPROBABLE MUY RARO (NSW Severity Assessment Code, 2005) MODERADO MENOR INSIGNIFICANTE De acuerdo a esta matriz se podrán determinar prioridades RIESGO EXTREMO: Se requiere acción inmediata. El Directorio debe conocer esta situación y deben implementarse acciones correctivas urgentes. Si ocurre el incidente el mismo debe ser reportado dentro de las 24 hs. y se deben analizar causas raíces RIESGO ALTO: Se requieren acciones lo antes posible y no más allá de los 6 meses. La Jefatura de Servicio debe conocer esta situación. RIESGO MODERADO: Se requieren acciones lo antes posible y no más allá del año. RIESGO BAJO: Manejo por procedimientos de rutina. Implementar medidas fáciles y rápidas y soluciones de fondo cuando los recursos lo permitan (NSW Severity Assessment Code, 2005) 2. Análisis de Causa Raíz (JCAHO, 1997) El análisis de causa raíz es una herramienta que se utiliza para identificar la causas básicas y los factores que contribuyen a la ocurrencia de un evento indeseado y las contramedidas necesarias, a nivel de sistemas y procesos. El análisis progresa desde una causa próxima (especial), a una causa común (sistémica). Más que focalizarse en el individuo busca conocer por qué sucedió el evento adverso, cuáles fueron los factores más próximos y qué procesos o sistemas subyacen bajo estos factores.. La causa próxima o especial es la causa directa de un evento adverso, la que se encuentra más cercana a su origen. Para un evento centinela ésta puede ser un error humano o una falla de equipo. Generalmente son factores impredecibles, intermitentes y que no son parte del diseño del sistema. La causa raíz o sistémica es aquella que subyace en el sistema y que influye en el proceso que ha producido el evento a estudiar. Son factores inherentes al sistema, producido por la interacción de las variantes del mismo. Típicamente el análisis de causa raíz lleva a estudiar los factores humanos, ambientales, comunicacionales y de equipo que determinaron el error del efector final. Una misma causa raíz (ej: problemas de comunicación) puede dar origen a distintos tipos de eventos adversos. Una vez identificada la misma se deberían identificar las potenciales mejoras al sistema y determinar una estrategia de medición de los progresos. 3. Análisis de Modos de Fallas y sus Efectos (AMFE) (IHI, 2004) Es una herramienta analítica, desarrollada en el área de ingeniería, para evaluar en forma sistemática las distintas formas (modos) en que puede fallar en su funcionamiento cada uno de los componentes de un sistema, sean tecnológicos (equipamiento, software, etc.) o humanos (operadores, personal técnico de apoyo o mantenimiento, etc.). El análisis busca identificar para cada uno de esos “modos de falla” su efecto sobre el funcionamiento seguro del sistema. A diferencia del análisis de causa raíz, que es reactivo a partir de un evento adverso, el análisis de modos de fallas es proactivo, incluyendo en el análisis lo siguiente: Pasos en el proceso Modos de falla (¿qué puede salir mal?) Causas de estas fallas (¿por qué pueden producirse las fallas) Efectos de estas fallas (¿cuál sería el efecto de cada falla?) Los pasos del AMFE son: Selección de un proceso de alto riesgo a evaluar con AMFE Formación de un equipo multidisciplinario Que el equipo enumere todos los pasos del proceso Tormenta de ideas para enumerar modos de falla. (Para cada modo de falla identificar posibles causas) 5. Para cada modo de falla, se debe asignar un valor numérico (NPR: Número de Prioridad de Riesgo) de acuerdo a la probabilidad de ocurrencia, a la probabilidad de detección y a la severidad 6. Evaluar los resultados 7. Utilizar el Nº de prioridad de riesgo (NPR) para planificar mejoras al sistema 1. 2. 3. 4. IMPLEMENTACIÓN DE PROGRAMAS DE SEGURIDAD HOSPITALARIA El progreso hacia la seguridad es muy lento y la mayoría de los hospitales ha adoptado medidas aisladas. Para poder implementar un programa abarcativo y exitoso es fundamental conocer cuál es la cultura de la organización, comprendiendo en profundidad los determinantes culturales que contribuyen o no en el proceso de reporte y prevención del error y en el mejoramiento continuo de la seguridad de los pacientes. La cultura organizacional puede evaluarse mediante encuestas o grupos focales en los cuales suelen preguntarse aspectos vinculados al liderazgo, las normas y procedimientos, la composición de la fuerza de trabajo, la comunicación y el reporte de errores. Los dos modelos de encuestas más difundidas son la preparada por la Agencia de Investigación y Calidad en Salud (AHRQ, 2007) del Departamento de Salud y Servicios Humanos de los Estados Unidos y la encuesta desarrollada por la Universidad de Texas (Sexton, 2003). Suelen describirse tres tipos de culturas organizacionales: Cultura Organizacional Patológica: No hay interés por conocer los errores ni sus causas, se” mata al mensajero”, no se asume la responsabilidad. Es esta cultura el error es castigado severamente o bien es consentido y se desalienta cualquier nueva idea. Cultura Organizacional Burocrática: Quienes tienen que tomar decisiones generalmente no se enteran de los errores. Cuando finalmente el mensajero llega, la responsabilidad está compartimentalizada. En esta cultura las fallas llevan a arreglos de coyuntura, locales y las nuevas ideas generalmente representan un problema. Cultura Organizacional Generadora: Se busca conocer activamente los errores y sus causas, se entrena y recompensa a los mensajeros y la responsabilidad es compartida. En esta cultura las fallas llevan a reformas de largo alcance y las nuevas ideas son bienvenidas. Más concretamente estas organizaciones: (Pizzi, 2001) Reconocen la naturaleza misma de la actividad que desarrollan como propensa a la ocurrencia de errores o accidentes Estimulan un ámbito de análisis del error no centrado en el individuo, en el que su reporte no se acompañe automáticamente de una penalidad o castigo Promueven la colaboración a distintos niveles para corregir aspectos vulnerables Destinan recursos para mejorar la seguridad en forma sostenida EL MODELO AERONÁUTICO La práctica de la medicina hospitalaria ha sido comparada a la de la industria aeronáutica, otra actividad complicada y riesgosa pero que parece ser mucho más segura. Tanto los pilotos como los médicos son profesionales cuidadosamente seleccionados y altamente entrenados. En ambos casos se trata de individuos usualmente determinados a mantener altos estándares de eficiencia que le son impuestos tanto internamente como externamente por la gente a la que sirven. Tanto médicos como pilotos interactúan con equipos de alta tecnología y funcionan como piezas clave de un equipo de especialistas. Ambos se ejercitan para resolver situaciones complejas en un medio del cual mucho se conoce pero aún queda mucho por ser descubierto. Aún pudiendo disentir en algún aspecto, hay muchas cosas que la medicina puede aprender de la aviación comercial, una empresa que año a año mejora sus índices de seguridad (diez millones de despegues por año en los EE.UU con sólo cuatro colisiones). Veamos el enfoque de la industria aeronáutica y el de la medicina frente aspectos tales como: (Leape, 1994) a) El error: En aviación de asume que los errores y fallas son inevitables y se diseñan sistemas para “absorberlos”, creando múltiples buffers, automatización y redundancia. En la cabina, los sistemas de monitoreo se encuentran duplicados y triplicados. Un estudio sobre tripulaciones de cabina de vuelos transatlánticos observó un promedio de un error humano o falla de equipo cada cuatro minutos. Cada evento fue prontamente reconocido y corregido sin consecuencias desfavorables.En medicina el abordaje clásico confía en que los individuos no van a cometer errores antes de asumir que los cometerán. b) Estandarización: En aviación la estandarización es máxima. Se deben seguir protocolos específicos para la planificación de los vuelos, las operaciones y el mantenimiento. Los pilotos deben cumplimentar una grilla de chequeos antes de cada despegue. Los requisitos de mantenimiento son detallados y deben ser realizados regularmente de acuerdo a las horas de vuelo. Los médicos, en cambio desconfían de los estándares, pensando que interfieren en lo que la ciencia de la medicina tiene de arte. Si bien no se puede reducir la actividad médica a un “libro de recetas”, hay muchas actividades que pueden y deben estar protocolizadas, particularmente aquellas que dependen de la memoria, uno de los elementos más pobres de la cognición. c) Certificación: En la industria aeronáutica, el entrenamiento, la evaluación y certificación es rigurosa. Los pilotos de aerolíneas rinden exámenes de aptitud cada seis meses. Muchas de estas evaluaciones se basan en temas de seguridad. La educación y el entrenamiento de los médicos excede en mucho a la de los pilotos en contenidos y duración y pocas profesiones se comparan con la medicina en este aspecto. Sin embargo, a pesar de que se está empezando a recertificar, el proceso aparece algo relajado y la idea de medir realmente el desempeño no termina de ser internalizada en la comunidad médica. Los profesionales ponen mucho énfasis en su capacitación y entrenamiento pero son renuentes a que se los examine para demostrar si dicha educación marca alguna diferencia. d) Seguridad: En la aviación la seguridad se encuentra institucionalizada. Existen dos agencias independientes con responsabilidades delegadas por el gobierno. La Administración Federal de Aviación (FAA) regula todos los aspectos del vuelo y prescribe medidas de seguridad. La Dirección Nacional de Seguridad del Transporte (NTSB) investiga todos los accidentes y elabora un informe final. Hace ya mucho tiempo que la FAA reconoció que rara vez los pilotos reportaban un error si el mismo podía desembocar en una acción disciplinaria. Por ello, en 1975 estableció un sistema confidencial de reporte no punitivo de errores e infracciones de seguridad, el Aviation Safety Reporting System (ASRS) que recibe anualmente 36.000 reportes voluntarios de pilotos, controladores de vuelos, tripulación de cabina y personal de mantenimiento referentes a condiciones inseguras en los aeropuertos, en la comunicación o en los controles. El sistema garantiza la confidencialidad de la información. Toda la información identificatoria es destruida una vez ingresado el evento a una base de datos disponible a todos. No se puede sancionar a nadie por violaciones no intencionales de las Regulaciones Federales Aeronáuticas si el informe es remitido dentro de los diez días de ocurrido el incidente. Los accidentes y actividades criminales no están protegidos y no deben ser remitidos. En los hospitales, en cambio, el tema de la seguridad es uno más entre tantos. La investigación de los accidentes suele ser superficial a no ser que se prevea una posible demanda. Los errores que no produjeron lesiones (“los casi accidentes”) rara vez son examinados y se teme notificar incidentes por temor a represalias. Cuando son notificados, invariablemente se apunta al error individual. EL ABORDAJE SISTÉMICO El abordaje sistémico busca: (Leape, 1994) 1. Prevenir los errores: Reduciendo la confianza en la memoria y la vigilancia (funciones cognitivas débiles) Simplificando Estandarizando Desarrollando “funciones forzosas” Utilizando protocolos y chequeos Entrenando en seguridad Mejorando el acceso a la información Mejorando la comunicación y el feedback Evitando la sobrecarga de trabajo y de horas 2. Hacer visibles los errores Estimulando la notificación de errores y peligros Focalizándose en los sistemas, no en los individuos 3. Mitigar los efectos del error Para ello es importante diseñar sistemas redundantes, dobles y triples chequeos, para lograr interceptar el error y por ende sus consecuencias. Ejemplos: Doble chequeo de medicación pediátrica en donde se calculan dosis/kg Triple chequeo de lado en cirugía Checklist prequirúrgico Este tipo de abordaje permite rediseñar sistemas. Algunos ejemplos: Sistemas de identificación de pacientes y de lado Desarrollo de sistemas de comunicación estructurada para traspaso de pacientes Remoción del ClK de los office de enfermería Programas de prevención de caídas Sistemas de medicación computarizada Historias clínicas electrónicas con campos mandatarios BARRERAS CULTURALES A VENCER Para implementar programas de seguridad es necesario vencer una serie de barreras muy arraigadas en muchos sistemas de salud. 1. Falta de compromiso y liderazgo de los dirigentes: ¿Qué lugar ocupa la seguridad de los pacientes en la agenda de trabajo de todos los días? En general en muchas instituciones se encuentran personas que comienzan a estudiar el tema, a proponer cambios, pero muchas veces chocan con quienes deben tomar las decisiones. La seguridad hospitalaria necesita de líderes. Los mayores avances en la Argentina se debieron al liderazgo de la Academia Nacional de Medicina y al impulso dado por el académico Dr. Alberto Agrest al Instituto de Investigaciones Epidemiológicas. 2. Privilegio de la productividad por sobre la seguridad Aquellos sistemas que privilegian la productividad por sobre la seguridad son por definición inseguros. Seguirán cometiéndose errores si las condiciones de trabajo obligan a que los médicos deban atender un volumen inapropiado de pacientes por hora, si faltan enfermeros/as, si los honorarios están pauperizados y los profesionales están obligados a ir de guardia en guardia, sin descanso. Ya vimos que las principales causas de errores son la fatiga, la ansiedad y la falta de personal. Se observa en muchas instituciones una gran resistencia a atacar los problemas de fondo (condiciones de trabajo, procesos deficientes, capacitación del personal, diseño y mantenimiento de equipos). Hay decisiones tomadas por financiadores, administrativos y jefes que afectan los márgenes de seguridad de la primera línea de atención. Quienes toman estas decisiones deberían sentirse tan responsables como quien cometió la última falla en la cadena 3. Resistencia a invertir tiempo y dinero Obviamente, para obtener resultados en seguridad hay que invertir. La inversión en investigaciones de seguridad de los pacientes del Departamento de Salud de los EE.UU es de aproximadamente 50 millones de dólares, con: (US Department of Health & Human Services, 2001) 24 proyectos sobre identificación, recolección y análisis de errores médicos (U$S 24,7 M) 22 proyectos sobre el impacto de la tecnología en la prevención de errores (U$S 5,3 M) 8 proyectos sobre el impacto de las condiciones de trabajo en la seguridad de los pacientes (U$S 3 M) 23 proyectos de investigación y desarrollo de actividades innovadoras para mejorar la seguridad (U$S 8 M) 7 proyectos sobre capacitación de losmprofesionales en seguridad (2,4 M) 10 proyectos de investigación en seguridad adicionales (U$S 6,4) 4. Escepticismo La inmensa mayoría de los profesionales de la salud no creen en la magnitud del problema. No creen realmente que el tema de los errores sea serio, por más que haya un cuerpo de conocimientos que avale esto. Al respecto resulta interesante el estudio Validar, realizado en 107 hospitales y centros de salud privados de la Argentina. (Programa Validar, Ministerio de Salud) El estudio permitió calcular que, si se contara con un programa activo de control de infecciones podrían evitarse 530 muertes por año y 300 episodios infecciosos y se ahorrarían 7 millones de pesos, sólo en UTI. Si se considera la totalidad de los hospitales públicos y privados que hay en el país (3196), las cifras ascienden a 17.000 muertes y 96.000 episodios infecciosos anuales, representando un ahorro de 224 M. Muchos de los datos que se dan al hablar de error no se condicen con la experiencia personal de los médicos, quienes ven a los eventos adversos como eventos marginales en su actividad. La “tiranía” de los pequeños números impide ver por ejemplo la cantidad total de fracturas de cadera por caídas de la cama o errores de lado o de medicación. Por otro el concepto de fallas de sistemas aparece frente a los médicos como algo vago y complicado, ya que va en contra de todo lo que nos enseñaron y ofende nuestro sentido de libertad y de responsabilidad frente a los pacientes. Hay una tendencia a pensar que culpar al sistema significa evadirnos de la responsabilidad individual que tenemos como médicos de hacer lo mejor para nuestros pacientes con el menor margen de error posible. Ambas cosas son necesarias: la búsqueda de la excelencia a nivel individual y los cambios en el sistema para poder aprender de los errores y minimizar el daño. 5. Individualismo La complejidad de la práctica de la medicina en nuestros días nos hace totalmente interdependientes y es imposible crear un ambiente seguro si no se trabaja en equipo. La seguridad depende más de la armonía dinámica entre los actores que de la excelencia a nivel individual. La trancisión que se requiere para avanzar en seguridad es muy difícil. Implica ceder algo de protagonismo para transformarse en un componente más del equipo, aún siendo el más importante. Es difícil porque atenta contra el ego y la imagen que el médico tiene de sí mismo. Obviamente hay límites. La ultraestandarización y el principio de actores equivalentes requieren de condiciones estables. Estas condiciones son alcanzadas más fácilmente en algunos ámbitos de la medicina, como en radiología, farmacia, laboratorio y anestesia programada. Hay otros ámbitos en donde esto es mucho más difícil, como en guardia o en cirugía de urgencia. 6. Discrecionalidad Cualquier sistema que permite que sus integrantes trabajen en forma ilimitada tomando decisiones autónomas sin mayor regulación ni imposición de límites es altamente inseguro. Hoy la acreditación y certificación médica no es lo rigurosa que debiera y se observan falta de límites y control. Hoy con el título de especialista el límite lo determina el propio profesional. Un cirujano puede estar operando todo el tiempo que él considere necesario, un médico puede salir de 24 hs de guardia e ir a operar a otro hospital, etc. El sistema no contempla muchas veces un freno a estas actitudes, dependiéndose del criterio individual. Está comprobado que los mayores niveles de inseguridad no se deben a incompetencia. En ámbitos complejos los mayores riesgos suelen correrlos quienes desafían los límites de su propio desempeño. Los sistemas de seguridad desarrollados niegan aún a los más experimentados la absoluta discrecionalidad. El profesional medio generalmente se siente incómodo cuando se le imponen límites, regulaciones o evaluaciones de desempeño. Si se quiere avanzar, los profesionales deberán cede algo de autonomía en pos de la seguridad del sistema. 7. Temor Todavía está muy arraigada entre los profesionales de la salud la cultura del castigo. Esto hace muy difícil que los mismos notifiquen errores y sólo salen a la luz aquellos errores que produjeron daños graves y que son inocultables. Se pierde entonces la oportunidad de aprender a partir de los mismos. La excesiva verticalidad de nuestro sistema establece barreras jerárquicas que hacen inimaginable a una enfermera notificando un error de un médico o a un residente notificando el error de un jefe. Tampoco es imaginable la discusión abierta de un error en un servicio. En general, cuando esto sucede, como en algunos ateneos, las discusiones tienen carácter netamente incriminatorio y el esfuerzo mayor está puesto en deslindar responsabilidades más que en el estudio de las raíces del problema. Por otra parte la facilidad para entablar juicios millonarios en nuestro sistema legal desalienta cualquier intento de discutir abiertamente los errores. El sistema de responsabilidad civil y penal del médico tiene un abordaje necesariamente individual, punitivo y confrontacional, buscando establecer culpas. Este sistema pareciera oponerse a los sistemas de seguridad en donde la culpa no es el eje, el abordaje es necesariamente sistémico y no punitivo. La resolución del problema no es fácil y en algunos países ha determinado la protección legal del incidente denunciado impidiendo que se constituya en prueba en casos de responsabilidad profesional. 8. Tolerancia Muchos profesionales se han acostumbrado a convivir con el error y condiciones de seguridad deficientes. Los errores son tomados muchas veces como fatalidades del destino o hechos fortuitos. ¿Se equivocó de lado?. Le puede pasar a cualquiera… ¿Se cayó de la camilla? Son cosas que pasan. En los sistemas punitivos hay menos tolerancia con quien cometió el error que con el error en sí mismo No debieran asumirse como inevitables o inherentes a la práctica habitual hechos que no debemos permitir que pasen. Reconocer que los errores son frecuentes y que van a ocurrir porque somos humanos no debe llevarnos a una insensibilización que nos paralice. Debemos estudiarlos y buscar la forma de minimizarlos. 9. Falta de consenso Uno de los principales obstáculos para la implementación de planes de seguridad de pacientes es la falta de consenso entre los especialistas en la materia y los profesionales asistenciales acerca de lo que es relevante. Por ejemplo, de acuerdo a una encuesta del 2002 (Blendon 2002), la mayoría de los médicos asistenciales sólo consideran como muy efectivos para la prevención de errores dos abordajes: Que los hospitales desarrollen sistemas para evitar el error médico (55%) Aumentar el personal de enfermería (50%) Menos médicos consideran que otras medidas, importantes para quienes manejan riesgos, sean efectivas. Solo el 40% piensa que sería efectivo limitar procedimientos de alto riesgo Sólo el 34% piensa que sería efectivo que sólo hubiera especialistas en terapia intensiva en dichas unidades Sólo el 23% piensa que sería efectivo aumentar los sistemas de prescripción electrónica Sólo el 19% piensa que la historia clínica electrónica sería efectiva para disminuir los errores. Reflexión Final: El error médico y la seguridad de los pacientes ocupan desde hace algunos años el centro de la escena de quienes tienen la responsabilidad de pensar los sistemas de salud en todo el mundo. Como con los programas de calidad en la atención, los programas de seguridad del paciente requieren el compromiso y liderazgo de los más altos niveles de las organizaciones (directores, jefes de servicio). Ningún cambio será posible sin su apoyo. Si las instituciones de salud quieren realmente tomar medidas efectivas para reducir sus errores y aumentar la seguridad de los pacientes deberán asumir el desafío del cambio cultural. Los profesionales de la salud deberán aceptar la noción de que el error es un componente inevitable de la condición humana, aún tratándose de buenos profesionales acostumbrados a altos estándares de desempeño. Los errores deberán ser aceptados como evidencias de fallas de sistemas y no de carácter. Mientras no se den estas condiciones es poco probable que puedan implementarse progresos significativos. No haremos un sistema más seguro hasta que no decidamos realmente hacerlo. Parafraseando a James Reason: “No podemos cambiar la condición humana, pero sí podemos cambiar los sistemas en los cuales los humanos trabajan” REFERENCIAS BIBLIOGRÁFICAS Agency for Healthcare Research and Quality (AHRQ). , Rockville, MD. Patient Safety Culture Surveys April, 2007. www.ahrq.gov/qual/hospculture/ Aranaz Andrés J., Aibar Remón C., Vitaller Burillo J., Ruiz López P. Estudio Nacional sobre los Efectos Adversos ligados a la Hospitalización ENEAS 2005. Febrero 2006. Ministerio de Sanidad y Consumo. Madrid. España Bader & Associates Patient Safety Manual. Data Sources and coordination In: Surgeons ACo, editor. Rockville, 1985 Barach P., Small S. Reporting and preventing medical mishaps: lessons from non-medical near miss reporting systems. BMJ 2000; 320: 759-763 Battles J., Kaplan H., Van der Schaaf T., Shea C. The attributes of medical event-reporting systems. Arch Pathol Lab Med 1998; 122:231-238 Blendon J., DesRoches C., Brodie M., et al. Views of practicing physicians and the public on medical errors. New Engl J Med 2002, 2002: 347: 1933-9 Brennan T., Leape L., Laird N, et al. Incidence of adverse events and negligence in hospitalized patients. Results of the Harvard Medical Practice Study I. N Engl J Med. 1991, 324: 370-6 CDC. Center for Disease Control and Prevention About NNIS. Atlanta:, 2001. www.cdc.gov Cohen M. Why error reporting systems should be voluntary. BMJ 2000; 320: 728-729 (18 March) Cullen D., Bates D., Small S. et al. The incident reporting system does not detect adverse events: a problem for quality improvement. Jt Comm J Qual Improv 1995; 21: 541-548 Food and Drug Administration: Biological products; reporting of errors and accidents in manufacturing. Federal Register 1997; 62:49642-49648 Haley R., Culver D., White J. et al. The efficacy of infection surveillance and control programs in preventing nososcomial infections in US hospitals. Am J Epidemiol 1985; 121: 182-205 Harvard School of Public Health. No-Fault Compensation for Medical Injury proposed as incentive for Reporting and Correcting Hospital Error, Improving Patient Safety. Press Release July 10, 2001 IHI. Institute for Healthcare Improvement. Failure Modes and Effects Analysis (FMEA). 2004. www.ihi.org/ihi/workspace/tools/fmea JCAHO Sentinel Events. American Society for Healthcare Risk Management. 1997 Annual Conference and Exhibition. October 28, 1997. Atlanta GA JCAHO. Joint Commission on Accreditation of Healthcare Organizations, 2000. Results of JCAHO sentinel events reporting. Oakbrook Terrace, Ill. Kohn L, Corrigan J, Molla S, Donaldson M (editors) To err is Human: building a safer health system. Washington DC, National Academy Press, 1999 Lawton R., Parker D.,Barriers to incident reporting in a healthcare system Qual Safe Care 2002; 11: 15-18 Leape L. Error in Medicine. JAMA Dec 21, 1994 vol 272 Nº23 p 185-7. Leape L. Reporting of Adverse Events N Engl J Med, Vol 347, Nº20 1633-1638, November 2002 McIntyre N., Popper K.: The critical attitude in medicine: the need for a new ethics. BMJ 1983; 287: 1919-23 NSW Health (New South Wells. Australia). Severity Assesment Code (SAC). November 2005 O’Neil A., Petersen L., Cook E., Bates D., Lee T., Brennan T. Physician reporting compared with medical-record review to identify adverse medical events. Ann Intern Med 1993; 119:370376 Organización Mundial de la Salud. Centro colaborador de la OMS sobre soluciones para la seguridad del paciente. Soluciones para la Seguridad del Paciente. Mayo 2007. Vol 1 (Sol 1-8) Ortiz, Z y col. Implementación de un programa para el mejoramiento de la seguridad en la atención médica de los pacientes. . 1º edición. Buenos Aires: Salud Investiga 2007 Pharmacopeia, 2000. Summary of the 1999 information submitted to Med MARx: a national data base for hospital medication error reporting: Rockville, Md Pizzi L., Goldfarb N., Nash D. Promoting a Culture of Safety . Agency for Healthcare Research and Quality. U.S. Department of Health and Human Services. Making Healthcare Safer: A critical analysis of Patient Safety Practices. Borrad, 2001: 447-57 Reason J. Human error: models and management. BMJ 2000; 320: 768-770 (18 March) Sexton J., Thomas E. The Safety Climate Survey: Psychometric and Benchmarking PropertiesTechnical Report 03-03. The University of Texas. Center of Excellence for Patient Safety Research and Practice Swain A., Guttman H. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications. (1983).. NUREG/CR-1278 (Washington D.C.). Thomas E., Studdert D. et al. Incidence and types of adverse events and negligent care in UTAH and Colorado. Med Care 2000 March; 38 (3): 247-9 Thorek M. Surgical Errors and Safeguards. 1932. London: JB. Pippincot Co. eds. U.K Department of Health. (Stationery Office, 2000) An organisation with a memory. Report of an expert group on learning from adverse events in the NHS. Chaired by the Chief Medical Officer. United States Department of Health & Human Services. HHS announces $50 million investment to improve patient safety. Press Release, Thursday, Oct 11, 2001. www.hhs.gov/news/press/2001pres/20011011.html Wald H, Shojania, Incident Reporting. Chapter 4. Making Health care Safer: A Critical Analysis of Patient Safety Practices. AHRQ. US Department of Health July 2001 Wanzel K., Jamieson C., Bohnen J. Complications on a general surgery service: incidence and reporting. CJS 2000; 43: 113-117 Webb R., Currie M., Morgan C. et al. The Australian Incident Monitoring Study: an analysis of 2000 incident reports. Anaesth Intens Care 1993;21:520-528 Wilson R., Runciman W., et.al. The Quality in Australian Health Care Study. Med J Aust. 1995 Nov 6; 163 (9): 458-71