Download NETS Innovación y Tecnología en la Salud

Document related concepts
no text concepts found
Transcript
nets es una publicación de la Fundación Gaspar Casal - número 02 - octubre 2009
Innovación y Tecnología en la Salud
net
02
editorial
La revista NETS Innovación y Tecnología en la Salud es un recopilatorio de artículos publicados en
www.proyectonets.org y aportaciones inéditas. Distribuye dos números anuales con una tirada de
15.000 ejemplares. Está estructurada en ocho secciones codificadas por colores: editorial, tecnología
y eficiencia, gestionando conocimiento, adelántate al futuro, nuevas tecnologías, medicina del bienestar,
tribuna profesional e iniciativas y programas. En los márgenes podrás encontrar información
complementaria relacionada con cada artículo, en aquellos que han sido extraídos de
www.proyectonets.org podrás leer alguno de los comentarios que los usuarios del portal han hecho
al autor. Todo el contenido de la revista será publicado en www.proyectonets.org donde podrás
descargarlo, enviarlo a amigos o participar en el debate comentando cada uno de ellos. Recuerda
visitar www.proyectonets.org y crear tu perfil de usuario pinchando en la ventana "acceder" del menú
superior y eligiendo la opción "obtener una cuenta nets". NETS programa diferentes actividades y
retransmite en directo jornadas y encuentros científicos y académicos de gran interés, para ampliar
información puedes contactar con nosotros en [email protected].
editor.
Juan del LLano.
director.
Nicolás Villar.
equipo de redacción.
Dra. Yolanda Revilla.
Dr. Luís Quecedo.
Dra. María José Jiménez.
maquetación.
Marcosgpunto.
impresión.
V.A. Impresores.
oficina editorial.
Fundación Gaspar Casal.
General Díaz Porlier 78, 8º A
28006 Madrid
[email protected]
ISSN: 1889 - 3007
La revista nets es una publicación
de NETS: Red de Comunicación e
Información Global de Tecnología
Aplicada a la Salud.
La Fundación Gaspar Casal no se hace
responsable de las opiniones vertidas
en los textos publicados.
www.proyectonets.org
bienvenidos a
nets
Innovación y Tecnología en la Salud
nets_02
NICOLÁS VILLAR y JUAN DEL LLANO.
NICOLÁS VILLAR
Dr. J. DEL LLANO
Hace justamente un año, la Fundación Gaspar Casal formó un equipo de trabajo para
abordar un proyecto horizontal que analizase y acercase las nuevas formas de comunicación
-y las tecnologías que las soportan- al sector sanitario. Abordamos el reto de crear un
escenario común de trabajo para los diferentes agentes del sector sanitario basado en los
principios de transparencia de la información, debate responsable y espíritu crítico.
Aprovechando la experiencia acumulada a lo largo de una década de trabajo como
organización en red, empezamos a construir una red social profesional denominada
Proyecto NETS - www.proyectonets.org - que está a punto de cumplir un año.
Las redes sociales son sistemas de comunicación mayoritariamente soportados por
tecnologías de internet donde, de forma autónoma, usuarios espontáneos pueden crear
comunidades de trabajo y grupos de afinidad y/o intereses comunes para compartir y
publicitar información en formatos variados, texto, imagen, video etc. Las redes sociales
se caracterizan por su universalidad, permiten acceder a contenidos generados por otros
usuarios e interactuar con ellos de muy diversa índole; se popularizaron a finales de la
década de los noventa de la mano del desarrollo y generalización de las tecnologías world
wide web y el acceso y difusión de internet.
Las redes sociales, como ya lo hizo el correo electrónico, han revolucionado la forma de
comunicación entre las personas, su inmediatez, flexibilidad y adaptabilidad permiten
diseñar comunidades de afines muy personalizadas y recibir información sobe los temas
de interés desde orígenes normalmente no accesibles al mismo tiempo que permite
conectar a personas cualquiera que sea su ubicación geográfica en tiempo real y de forma
recurrente. El carácter multinacional de las redes sociales ha generado no pocos problemas
en materia de protección de datos y libertad de la información lo que ha supuesto un
freno a su uso por parte de organizaciones e instituciones y que hemos tenido en cuenta
a la hora de diseñar NETS, más controlada y controlable preparada para trasladar esta
nueva filosofía de comunicación a la dinámica de trabajo y estrategia de comunicación
habitual de las corporaciones e instituciones sanitarias.
La semana pasada nos enteramos que España se encontraba a la cola de la UE 27 en
confianza de los pacientes en el sistema sanitario*. Si profundizamos un poco más en los
indicadores utilizados para la comparación encontramos que nuestra puntuación es
especialmente baja en el aprovechamiento de las nuevas tecnologías de la información
y en e-salud. El compromiso de NETS es acercar no sólamente Internet a la cotidianidad
del sistema sanitario sino, y muy especialmente, abrir los ojos y los ordenadores a las
nuevas formas de comunicación, acostumbrarnos a compartir información sobre proyectos,
experiencias, tecnologías, sistemas de gestión, indicadores económicos y demás,
participando en los foros donde se debate continuamente sobre los temas que nos afectan
y abordar cambios profundos en la forma en que la ciencia se comparte y se difunde.
Más del 80% de la ciencia que se consume en todo el mundo se difunde a través de
Internet: las publicacionen en papel, los congresos y los encuentros científicos o académicos
tradicionales están perdiendo protagonismo y su replanteamiento es necesario ahora más
que nunca.
El Proyecto NETS está en proceso de transformación continua, los próximos días será
presentada la versión NETS 3.0 que incorporará tecnologías de videcolaboración y supondrá
un paso adelante a las relaciones 3.0 en www.proyectonets.org, que estrenó su interfaz
multimedia - campusnets - en mayo de 2009 retransmitiendo en directo a 6 países a más
de 350 usuarios concurrentes el V Foro Europeo de Política Farmacéutica y el pasado 16
de septiembre el encuentro sobre optimización del uso de medicamentos en el entorno
hospitalario organizado por la Red EPIMED.
NETS ha publicado de forma inédita 168 artículos técnicos, científicos y de divulgación
de gran calidad, albergado más de 70 debates multidisciplinares sobre diversas materias
y es soporte tecnológico para más de 15 blogs corporativos alimentados diariamente. Ha
sido reconocido como herramienta de interés para el Sistema Nacional de Salud por la
Agencia de Calidad del SNSE y por la Agència d´Avaluació de Tecnologia i Recerca Mèdiques
de la Generalitat de Catalunya y sus recursos son citados diariamente en multitud de foros.
Actualmente tiene cerca de 5000 usuarios registrados y forma parte de la Red Iris, el
servidor público español de alta capacidad destinado a la conexión de grandes centros
generadores de conocimiento de alto valor social.
NETS no es un fin en si mismo, el trabajo de interlocución que hemos hecho desde el
equipo de proyecto ha valido únicamente para poner en manos de médicos, hospitales,
universidades, agencias de evaluación, compañías y profesionales, una herramienta de
trabajo dotada con las tecnologías más avanzadas en la que compartir y debatir.
Continuaremos esforzándonos para sumar voces a este Proyecto y siendo, como
organización implicada, parte del debate que se vehiculice en torno a NETS.
Nuestros retos más inmediatos son incorporar a NETS a los principales bloggers del sector
sanitario celebrando el I Congreso de la Blogosfera Sanitaria, organizar la transición a NETS
3.0 y aumentar nuestra capacidad técnica para continuar siendo la red social sanitaria más
potente y avanzada. Seguiremos presentando NETS en los hospitales de referencia y
centros de atención primaria para implicar a médicos y gestores en el proyecto e invitaremos
a las compañías más innovadoras a compartir en NETS el resultado de sus innovaciones,
para que nuestros usuarios estén al día de lo que ocurre en los centros sanitarios pero
también en los departamentos de I+D+i de las empresas comprometidas.
En los tiempos que corren es motivo de especial orgullo presentar el segundo número de
NETS Innovación y Tecnología en la Salud, la publicación que complementa al portal
www.proyectonets.org dentro del Proyecto NETS. Es el resultado de la participación
desinteresada de más de 70 articulistas a quienes agradecemos su compromiso y
colaboración. A todos los navegantes de NETS y a quienes os aproximéis por primera vez
a esta iniciativa, bienvenidos.
Nicolás Villar. Director de NETS Innovación y Tecnología en la Salud. Director del Proyecto NETS.
Juan del Llano. Editor de NETS Innovación y Tecnología en la Salud.
*Health Consumer Powerhouse 2009.
2
BIENVENIDA. Nicolás Villar y Juan del Llano.
EDITORIAL
6
LA DIGITALIZACIÓN DE LA MEDICINA: DE LA TEORÍA A LA PRÁCTICA. Dr. Martín Caicoya y Dr. Juan del Llano.
11 COMUNICACIÓN EN EL SISTEMA SANITARIO: EL EMPOWERMENT DEL PACIENTE. Nicolás Villar.
TECNOLOGÍA Y EFICIENCIA
14 IMPACTO DE LA FARMACOGENÓMICA EN EL PROCESO DE INVESTIGACIÓN Y DESARROLLO DE
UN NUEVO MEDICAMENTO. Laura Cabiedes.
18 LA NECESIDAD DE CONVERGENCIA ENTRE LA EVALUACIÓN DE TECNOLOGÍAS SANITARIAS Y LA INVESTIGACIÓN EN
FARMACOGENÓMICA. Pedro Serrano y Mª del Mar Trujillo.
25 LA CRISIS, LA EVALUACIÓN DE TECNOLOGÍAS Y LAS OPORTUNIDADES PERDIDAS. Oriol Solà-Morales.
27 LA EFICIENCIA DEL BLOQUE QUIRÚRGICO, PERSPECTIVAS DESDE EL SISTEMA PRIVADO O PUBLICO DE SALUD. Dr. Luis Quecedo
y Eva Melgar.
30 ¿QUÉ ES ESTO DE LA CUARTA GARANTÍA?. Dr. Juan del Llano, José Mª Abellán y José Luis Pinto.
33 A VUELTAS CON LA UTILIDAD TERAPÉUTICA. Nazaret Torralba, Gema Pi y Dr. Juan del Llano..
GESTIONANDO CONOCIMIENTO
37 LA GESTIÓN FOSBURY. Dra. María José Jiménez.
40 REHABILITACIÓN JUST IN TIME. Alfonso Díez.
43 LA GESTIÓN DE LA INVESTIGACIÓN EN SANIDAD: DEBILIDADES Y MODELOS DE VANGUARDIA. Ana Mª Valdeolmillos.
46 EPIMED. Josep Monterde, Elena Tomás y Gema Pi.
NUEVAS TECNOLOGÍAS
50 UTILIZACIÓN DE CÉLULAS MADRE PROCEDENTES DE ASPIRADO DE MÉDULA ÓSEA EN LA
OSTEONECROSIS DE LA CABEZA FEMORAL. Prof. Javier Vaquero.
54 LA HIPOTERMIA COMO MEDIDA TERAPÉUTICA. Dr. Juan Carlos Martín.
56 EL RESURFACING DE CADERA EN LA PATOLOGÍA DEL ADULTO JOVEN. Dra. Catherine Van Der Straeten.
59 PROBLEMAS NO RESUELTOS EN EL TRATAMIENTO DE LA HEPATITIS INDUCIDA POR VIRUS C. Dr. Gustavo López.
62 DEPENDENCIA Y FRACTURAS VERTEBRALES POR COMPRESIÓN. Enrique Antón.
64 ESTADO ACTUAL DEL TRATAMIENTO DEL CÁNCER COLORRECTAL AVANZADO Y METASTÁSICO Y LA IMPORTANCIA DE
MARCADORES PREDICTIVOS DE RESPUESTA AL TRATAMIENTO. Dr. Alberto Abad.
66 CONTROL ROBOTIZADO DE CATÉTER PARA TÉCNICA INTERVENCIONISTA. Dolors Mata y Ángel Canelles.
71 INNOVACIONES EN EL TRATAMIENTO DEL CÁNCER DE PULMÓN NO MICROCÍTICO AVANZADO: UN RETO PARA LA SOSTENIBILIDAD
DEL SISTEMA. Dr. Diego Malón.
76 LA RADIOCIRUGÍA GAMMA KNIFE. UNA MARAVILLOSA TECNOLOGÍA SANITARIA. Dr. Erick Strömbäck.
sumario
número 02, octubre 2009
81 ¿ES NECESARIA LA AUTOMATIZACIÓN EN LA MEDICINA TRANSFUSIONAL?. Dra. Mª Asunción Mora.
85 CIRUGÍA MICROGRÁFICA DE MOHS. LA CIRUGÍA MÁS EFECTIVA EN EL TRATAMIENTO DEL
CÁNCER DE PIEL. Dr. Javier Pedraz y Dr. Eduardo López.
89 IMPORTANCIA DE UN ADECUADO TRATAMIENTO DEL DOLOR EN LA MUCOSITIS ORAL PRODUCIDA POR LA IRRADIACIÓN.
Dra. Mar Serrano.
90 DOCUMENTO DE CONSENSO SOBRE UTILIDAD TERAPÉUTICA DE LA ASOCIACIÓN FIJA DE TRAMADOL/PARACETAMOL.
Dr. Juan Tamargo.
92 SOSTENIBILIDAD Y EQUIDAD EN EL TRATAMIENTO RENAL SUSTITUTIVO. Grupo para la evaluación del tratamiento renal.
96 TRATAMIENTO QUIRÚRGICO INTRAOPERATORIO DE LA FIBRILACIÓN AURICULAR.
Dr. Gonzálo Aldámiz-Echevarría.
99 LA ANGIOGRAFÍA TERAPÉUTICA EN NEUROLOGÍA. Dr. Leopoldo Guimaraens, Dra. Teresa Sola y Dr. Elio Vivas.
103 PROTEÓMICA: EL FUTURO DE LOS TRATAMIENTOS EN DERMATOLOGÍA. Dr. Javier Pedraz y Dr. Eduardo López.
105 IMAGEN DE LA ELASTICIDAD POR ULTRASONIDOS: ¿PALPACIÓN O BIOPSIA VIRTUAL? Dr. Juan Arrazola.
107 UN BANCO DE LECHE HUMANA: PRIMER AÑO DE EXPERIENCIA EN EL BANCO DE LECHE HUMANA DEL HOSPITAL 12 DE OCTUBRE.
Mª Carmen Medina.
ADELÁNTATE AL FUTURO
114 SECUENCIACIÓN MASIVA EN MICROBIOLOGÍA CLÍNICA, O LA CIENCIA DE ENCONTRAR UNA
AGUJA EN UN PAJAR. Dr. Jesús Mingorance.
115 GET WITH WEB 2.0 OR BECOME A YESTERDAY’S PERSON”. Richard Smith.
116 ¿PODEMOS CON TODO PARA TODO Y GRATIS?: A PROPÓSITO DE LAS TECNOLOGÍAS “ÓMICAS. Dr. Juan del Llano y Joan Rovira.
SECCIÓN TRIBUNA PROFESIONAL.
120 INNOVAR DESDE LA UNIVERSIDAD ESPAÑOLA: ¿ES POSIBLE?. Fco. Javier Sevillano.
123 INCENTIVOS A LA INVESTIGACIÓN DE MEDICAMENTOS Y PRIORIDADES EN SALUD.
Paloma Fernández-Cano.
126 SERVICIO DE LOGOPEDIA EN LOS HOSPITALES MADRILEÑOS, ¿EN PELIGRO DE EXTINCIÓN?. Margarita Duran.
128 ESPECIALIDADES MÉDICAS DE SEGUNDA FILA. Dr. Jesús Mora.
131 LA ESCALERA ANALGÉSICA DEL SIGLO XXI: ¿UNA HERRAMIENTA OBSOLETA?. Dr. Oscar A. de León.
134 DE LA MEDICINA COMO UNA VOCACIÓN A LA MEDICINA COMO UN FUNCIONARIADO. Dr. Enrique Morales.
136 MEJORA CONTINUA EN LA CALIDAD DE LA CONSULTA EXTERNA. EL PROFESIONAL SANITARIO COMO PROMOTOR DEL CAMBIO.
Dr. Carlos Peña Gil.
139 LA SALUD, EN MANOS DE LOS PACIENTES. Ana Céspedes.
141 LA MEDICINA INTENSIVA, TAN NECESARIA COMO DESCONOCIDA. Dr. Miguel Sánchez.
INICIATIVAS Y PROGRAMAS
146 LA OXIGENOTERAPIA MÓVIL, TODO UN ABANICO DE POSIBILIDADES PARA LOS PACIENTES CRÓNICOS. Paul García de Oteyza.
148 ALIANZA PARA LA PREVENCIÓN DEL CÁNCER DE COLON. Dr. Antoni Castells.
"La relación medico-paciente
paternalista, como única conexión,
está en vías de extinción."
LA DIGITALIZACIÓN DE LA MEDICINA. DIÁLOGO ENTRE JUAN DEL LLANO
Y MARTÍN CAICOYA. Dr. MARTÍN CAICOYA y Dr. JUAN DEL LLANO.
Dr. MARTÍN CAICOYA
Dr. JUAN DEL LLANO
Innovación y su aplicación a la medicina siempre han ido juntas. La incesante innovación
y desarrollo tecnológico dirigido a la práctica médica tiene un crecimiento muy notable.
Sin embargo y, sorprendentemente, las nuevas tecnologías de la información y de la
comunicación no han penetrado apenas en los sistemas sanitarios en comparación como
lo ha hecho en otros sectores (la banca por ejemplo) desde los años 80 (del siglo pasado).
El médico sigue utilizando mucho el bolígrafo y el papel en la mayoría de los países del
mundo. Si queremos que la digitalización de la medicina avance, tenemos que mover a
los pacientes de la marginalidad al centro del sistema, pero de verdad, no discursivamente.
Si nos seguimos obsesionando en que la adopción de historias clínicas electrónicas reducirá
costes o errores médicos, nos estamos equivocando. Las principales ganancias de la
digitalización vienen de la mano de la mejora de diagnósticos y tratamientos a partir de
la integración on line de distintos datos, imágenes y textos acerca del paciente procedentes
de distintas fuentes. Es decir, simplificar el acceso a lo que han sido partes (radiología,
laboratorio, interconsulta,…). Todo ello precisa de entornos y contextos que lo propicien,
además de los recursos de tiempo y tecnológicos que lo hagan realidad. La medicina es
bastante más compleja que internet, por lo que no habrá revolución en la implantación
de la digitalización sino más bien será un proceso de gradual.
La era de las redes sociales está llegando también a la medicina y, seguro que para
quedarse. Twitter, Facebook, Google, Microsoft, Yahoo,….permiten a sus usuarios/pacientes
compartir con otros comentarios, dudas, experiencias, apoyo emocional, consejo,…..
Una buena relación médico-paciente requiere de confianza y de tiempo, siendo éste un
recurso escaso por la presión asistencial que soportan los galenos. La comunicación viva,
bidireccional que propicia la Web 2.0 evita desplazamientos de los pacientes a las consultas
y resuelve muchas dudas acerca de problemas de salud menores. Es un recurso cuya
utilización se incrementará exponencialmente. La relación medico-paciente paternalista,
como única conexión, está en vías de extinción.
El sector sanitario es conservador en su comportamiento y los modelos financieros son
complejos hasta en los sistemas públicos. El paciente demanda conocer con más detalle
todo lo referente a su salud, estar más apoderado, y compartir cada vez más las decisiones
acerca de las opciones diagnósticas y terapéuticas con su médico. Los blogs de salud más
influyentes en la Red son los que ofrecen información fidedigna y relevante a pacientes
con enfermedades crónicas.
El desafío está en hacer fácilmente accesible la información sanitaria de calidad. Desde la
Fundación estamos arrimando el hombro en esta dirección, en el sano convencimiento
de que propiciará una mayor implicación de nuestros conciudadanos en la agenda sanitaria.
Y ello, redundará en un sano desarrollo de la sociedad civil.
Si conseguimos que los pacientes se impliquen más y que las mejoras tecnológicas vengan,
sobre todo, por ser demandadas por ellos y no por las instituciones, empresas o gobiernos,
asistiremos a que los países desarrollados puedan enfrentarse mejor a sus dos principales
desafíos: las enfermedades degenerativas y las enfermedades crónicas; y a que los países
en desarrollo, gestionen mejor sus enfermedades más mortales.
6
Si entre todos conseguimos que pacientes, médicos, administradores y ciudadanos, estén
mejor informados, más comunicados, sean más racionalmente exigentes y empujen la
innovación que merece la pena, la mejora en nuestra calidad de vida estará servida.
Martín escribe a continuación sus impresiones sobre la informatización de un hospital
que ha conseguido en poco tiempo hacer desaparecer el papel de la práctica diaria. La
idea es conocer el tamaño de la brecha entre teoría y práctica o entre deseo y realidad.
La inmersión fue rápida y como todo proceso de cambio tuvo apoyos y resistencias. Los
gestores del programa trataron de adaptar el esqueleto a las necesidades de los diferentes
actores para lo que mantuvieron largas conversaciones con el personal. Se ensayaron
varios prototipos, se fueron introduciendo los cambios que técnicamente eran posibles
y poco a poco se fue mejorando el producto y su aceptación, aunque aun existen
resistencias, tanto globales como a diferentes módulos. En general, están muy satisfechos
todos los que usan la historia clínica para obtener información como son los servicios
básicos, la dirección médica, la asistencia social, la vigilancia epidemiológica, etc. Enfermería
está también muy satisfecha, me dicen que no podrían volver al papel. Entre los clínicos
hay divisiones. En consultas externas hay en general más satisfacción que en plantas.
Desde hace muchos años se confía en la informática como una de las tecnologías que más
pueden colaborar a mejorar la eficiencia, eficacia y calidad del sistema sanitario. De acuerdo
con Karen Davis, los países y sistemas sanitarios que adoptan con más intensidad las
tecnologías de la información, son más eficientes, tienen mejores resultados en salud y
la satisfacción de la población es más alta. En prácticamente todos los centros asistenciales
de occidente existen ya IT, la cuestión es hasta dónde llega la informatización y qué
ventajas aporta para las diferentes partes: enfermos y familiares, clínicos, administradores,
servicios de apoyo, evaluadores, epidemiólogos, etc. Los objetivos de cada una de las
partes pueden ser diferentes, como ejemplo más claro es el contraste entre médico y
administrador.
El administrador necesita organizar la actividad para aprovechar lo mejor posible los
recursos y conocer la que se realiza en función de una serie de variables que es lo que se
denomina cuadros de mando. La informática le es de gran ayuda y de una forma u otra
está instaurada en casi todos los centros para poder responder básicamente a sus demandas
ordinarias.
El médico, en general, no es un demandante de la informatización del acto clínico, al
contrario, tiene cierta resistencia cuando no oposición. El principal obstáculo que percibe
es la posible falta de confidencialidad, temeroso de que en la red cualquiera tenga acceso
a la información clínica reservada. Lo cierto es que las historias clínicas pueden estar mal
custodiadas, circulan y se amontonan en despachos no vigilados, no queda constancia de
quién las examinó. Pero al médico, esa fácil accesibilidad a la información almacenada en
red desde cualquier ordenador le produce inquietud. La experiencia es que aunque se
anuncia que habrá diferentes niveles de acceso por usuario, no siempre se activan bien,
y aunque se dice que el acceso siempre dejara huella, no siempre queda reflejado cuando
no se hacen cambios. De todas formas, técnicamente parece que estos problemas tienen
solución. El segundo inconveniente es el del propio uso de ordenador, tanto en el acto
clínico delante del enfermo como para examinar los datos e información que puede
precisar. El uso de ordenador en el pase de visita no está bien resuelto. Antes el médico
podía examinar la historia clínica en la cabecera del enfermo, circulando por ella con
facilidad mientras intercambiaba impresiones con el paciente, la enfermera y colegas. No
era difícil escribir una nota. Ahora, en el caso de que pueda examinar el ordenador en la
cabecera del enfermo, exige una atención que le aparta del contacto visual, el manejo de
las teclas y la lectura de la pantalla es muy diferente de la fácil circulación por la historia
clínica en papel. El mismo objeto se interpone entre ambos, bien es un carrito o si está
fijo a los pies del enfermo. En los casos en que se funciona con red inalámbrica, la posibilidad
de que no haya comunicación no es rara, tampoco lo es el que la batería se agote. Algunos
médicos optan por examinar las historias en su despacho, visitar al paciente y regresar a
actualizarla en el despacho. Esto tiene los obvios inconveniente de que puede precisar
contrastar algo cuando está delante del enfermo, que se podría resolver con una PDA, y
Puedes encontrar este artículo en el
BLABLABLOG, el blog de la Fundación
Gaspar Casal en
www.proyectonets.org. Recuerda que
en NETS puedes comentar los
artículos, dar tu opinión, participar en
debates y escribir nuevos artículos. El
blog de la Fundación Gaspar Casal
tiene más de una decena de artículos
originales de diversos temas
comentados y discutidos por los
usuarios de NETS.
7
que consume mucho tiempo en idas y venidas. El tercer inconveniente que se observa
es la misma disposición de la información en las pantallas, que nunca puede remedar a
la forma en que se ofrece en la historia clínica a la que está acostumbrado. Finalmente,
puede haber, según el programa, dificultades en la prescripción y siempre los hay en el
uso del teclado respecto al bolígrafo y papel.
A continuación trataremos las ventajas de las IT para varias actividades y perspectivas:
1. Citaciones.
Xavier Triadó de la Universidad de
Barcelona comentó el artículo en
www.proyectonets.org:
Gracias por la reflexión y las sugerencias
que viertes en el artículo. Estoy de
acuerdo con tus comentarios. Sin
embargo también sucede que más
comunicación no tiene porque mejorar
“la comunicación” entre
departamentos, ni con el paciente. Creo
que existe un peligro de tecnificación y
de escalada de gasto “innecesario”.
Tecnologías con dispositivos móviles,
novedades en el diagnostico,
diagnósticos remotos, ... son algunas
tecnologías que se plantan en los USA
y otros países del primer mundo.
Ciertamente pueden ayudan, pero no
tiene porqué mejorar “realmente” la
comunicación entre nosotros.
Supongo que lo habréis leído, pero The
Economist publicó en su edición del 16
de abril un “ special report on health
care and technology” titulado “Health
2.0 How far can interactive digital
medicine go?”. Muy interesante.
Como bien dices el sector es puntero,
pero a la vez las diferencias entre países
del primer y de “los otros mundos”
(entiéndase segundo y tercero) son muy
importantes, y también podrían
aprovecharse de ellas si las pueden
pagar. Como puedes ver estoy abriendo
dos temas, el último referido a la
equidad y el primero a la unidad
organizativa. Ambos referidos al uso de
nuevas tecnologías. Sólo es un inicio de
reflexión.
Una agenda electrónica es una ventaja incontestable respecto a la manual, sobre todo
si está en red. Permite a todos los que tengan algún interés en ella acceder al instante. El
médico puede conocer su demanda de trabajo y puede él mismo programar su trabajo.
Además si todo acto médico requiere la apertura de una citación, el registro de la actividad
puede llegar a ser exhaustivo. Esto requiere organización. De esta forma, un proceso puede
generar varias sucesivas.
Le corresponde al médico decidir si sobrevenido en un proceso aparece otro de la misma
especialidad, por tanto sigue en la misma consulta. Supongamos que está siendo controlado
por enfermedad coronaria en consultas externas de cardiología y en el curso de un control
el paciente manifiesta clínica de insuficiencia cardiaca, no siendo este el motivo de consulta.
Si lo fuera, por una derivación de APS, lo lógico es abrir un nuevo proceso; pero en este
caso es la decisión del consultante. Le corresponde también al médico decidir cuándo el
proceso está finalizado en su ámbito, es decir el alta con el correspondiente informe.
Ambos situaciones pueden ser objeto de variaciones importantes que dependerán de
hábitos y estilos de práctica, lo que redundará en las estadísticas.
2. Acto Médico.
A medida que se incluye en la historia clínica electrónica la información del paciente en
ese centro, y otros, el médico tendrá mejor y más cómodo acceso a ella. Podrá navegar
por las diferentes notas clínicas, informes, pruebas complementarias y aunque al principio
pueda resultarle incómodo, pronto se acostumbrará y lo hará con facilidad con la ventaja
añadida de que el acceso es inmediato, una ventaja importante en historias clínicas con
múltiples entradas cuyo manejo en papel es difícil y no es raro no encontrar alguna
información bien porque no esté o porque esté archivada mal; y en la lectura no se tiene
que enfrentar con los problemas de desciframiento caligráfico. Por ejemplo, no tendrá
duda de la medicación recomendada. Naturalmente, ante la ingente cantidad de
información que puede encontrar, dependerá de su habilidad y pericia para seleccionar
y no perderse en divagaciones que hagan el acto clínico interminable.
En la entrevista con el paciente el uso del ordenador puede constituir un obstáculo como
ya se ha comentado. Nuevamente dependerán de la habilidad del clínico. En consulta
externas, algunos se sumergen en la pantalla y apenas miran al paciente que tienen
delante. No es diferente de los que se sumergen en la historia en papel, solo que aquí
entre los dos está la pantalla y en el caso clásico el paciente ve al médico concentrado en
la lectura. No es difícil, como se hace en tantos sitios, colocar la pantalla algo ladeada de
manera que se tenga contacto con ambos. Y de la misma manera que cuando se toman
notas se deja de mirar al paciente, una vez obtenida la información que se precisa, o un
segmento de ella, el médico puede dedicar un momento a escribirla. Su mayor o menor
pericia con el teclado determinará ese tiempo. En mi experiencia, no es un obstáculo la
pantalla siempre que se mantenga un buen contacto visual con el paciente. Los más
hábiles incluso puede escribir mientras escuchan, sin mirar la pantalla, algo que no se
puede hacer con el papel o es más difícil.
Una recomendación importante para la comodidad es que el texto se escriba con un buen
procesador que permita al clínico elegir tipo y tamaño de letra, que le señale las
incorrecciones gramaticales para poderlas corregir con facilidad y que pueda él mismo
elegir cuánto de la pantalla ocupará el texto.
8
3. Medicación.
El programa que se maneja al que hago referencia es en este campo mejorable. Llama la
atención que existan aplicaciones antiguas, que incluso corren en MSDOS que son más
convenientes. Lo ideal es que el prescriptor pueda escribir su prescripción, como hace en
una búsqueda en internet. Mientras escribe el programa le va dando posibles términos
coincidentes con las letras introducidas, que puede o no aceptar. En el siguiente campo
decide dosis y en el último la periodificación. Un acto semejante al que haría si lo escribiera
en la historia o en una receta. El programa actual se basa en combos, por tanto no permite
escribir solo elegir entre lo que hay, de manera que el ritmo de administración está reducido
a lo que se oferta. Me dicen los farmacéuticos que tienen problemas para acoplar los
ritmos. En general, es el módulo sobre el que se tienen más quejas, tanto de farmacia
como de los clínicos. Mientras el MSDOS es claro, fácil e inmediato, el que existe en el
centro es incómodo además de excesivamente cerrado.
4. Pruebas complementarias.
El módulo de pruebas complementarias considero que ofrece ventajas para todos sobre
los volantes. Rellenar la información clínica de la petición está facilitado por la opción de
copiar y pegar del curso clínico, además de que en los laboratorios se tiene acceso a la
historia y la posibilidad de introducir notas clínicas. Sin embargo, no está resuelto el aviso
de llegada de resultados, importante en consultas externas. Antes, la enfermería recibía
los informes de los laboratorios y servicios básicos y los mostraba al médico con la historia
clínica, quién decidía qué había que hacer. Ahora, ni siquiera cuando se abre la historia
clínica del paciente pendiente de resultados se tiene un aviso de que están disponibles.
Por otra parte, si cualquier otro clínico, de otra consulta, examinara esos resultados, cosa
lógica antes de pedir lo que crea necesario, aparecen a partir de ese momento como leídos
y puede despistar al peticionario.
5. Aspectos éticos.
El que un clínico pueda navegar por todos los procesos de un paciente, incluso aquellos
que el mismo puede preferir ocultar, no es una posibilidad diferente de la que tendría si
la historia fuera en papel. Quizá se plantee con la unión de ficheros de diferentes ámbitos.
Por ejemplo, consultas más privadas como de ETS que el paciente puede preferir que no
se conozcan ¿deberían ciertas consultas no estar visibles para los no implicados, incluido
por tanto el que hubo citación?
6. Confidencialidad.
Ya se ha comentado brevemente. La confidencialidad estaría tan preservada como capaz
sea la red de bloquear las entradas a los diferentes módulos de la historia. Es importante
que además quede rastro, que haya un registro de dónde y cuándo entró el usuario. Lo
que observo es que todo eso no está del todo maduro.
En la historia en papel, el que la examinaba tenía acceso a la totalidad, fuera auxiliar de
clínica, enfermera, médico, asistente social o secretaria. Con la historia electrónica se
pueden restringir los accesos a los módulos que se decida.
Joaquín Campillo comentó el artículo
en www.proyectonets.org:
Cuando hablamos de historia médica
electrónica solemos referirnos a que el
sistema público informatice sus registros
y procedimientos de trabajo. Sin
embargo, hay otra posibilidad: que
terceros (Google, Microsoft, Keyose -del
Dr. Bonis) ofrezcan esta posibilidad para
que, en caso de cambiar de
consulta/seguro, el paciente pueda dar
acceso a la misma a su nuevo médico y
elegir a qué campos lo hace. ¿Habéis
tenido alguna experiencia con estas
platarformas de historia médica
electrónica?
7. Vigilancia.
Para todos aquellos que hacen algún tipo de vigilancia, el poder acceder desde su despacho
a las historias es formidable. Antes tenían que procurar que el examen de ellas no
interrumpiera la propia actividad clínica, además de tener que ir a las plantas.
Cuando varios profesionales trabajan sobre un mismo caso, puede ocurrir que la historia
no esté disponible en ese momento que uno la requiere. Esto ya no pasa con la electrónica.
8. Sistemas de información.
En al ámbito sanitario se produce ya mucha información que pocas veces se examina y
menos aún se analiza. Un ejemplo son los registros de mortalidad, de enfermedades como
9
cáncer, tuberculosis, etc. Se publican y están disponibles y fácilmente accesibles, casi
siempre en la red, y sin embargo apenas se emplean. Todavía los clínicos en sus
presentaciones usan datos ajenos, muchas veces de EEUU sobre incidencia, mortalidad,
etc. Sorprende el escaso empleo del conjunto mínimo básico de datos (CMBD). Es verdad
que es menos accesible, pero no por eso deja de estar disponible para los evaluadores e
investigadores. Mi experiencia es que apenas se usa, como no sea para proyectos concretos,
y lo que no se usa difícilmente es fiable. Por eso creo que la ingente cantidad de datos
que puede proporcionar una historia clínica informatizada no será, en general, de mucha
utilidad por falta de interés, tiempo y profesionales dedicados a ello. De hecho, el módulo
de estadística del programa que se comenta que es muy potente, es muy poco utilizado,
la mayoría de los clínicos no lo tienen instalado y los que lo tienen apenas lo emplean.
De todas formas, existen datos que pueden ser fiables por su propia naturaleza como es
la medicación administrada, las pruebas complementarias solicitadas y sus resultados y
las constantes introducidas. También es recuperable todo aquello que se introduce en
formato de formulario una vez acordado, como pueden ser algunos datos que vigila la
enfermería: accidentes por caída, úlceras de presión, etc
9. La informática en atención primaria.
En www.proyectonets.org puedes
encontrar más artículos relacionados
con medicina digital y nuevas
tecnologías de comunicación
aplicadas a la medicina. Te
recomendamos GET WITH WEB 2.0 OR
BECOME A YESTERDAY´S PERSON de
Richard Smith que encontrarás en esta
revista en la sección "adelántate al
futuro", HACIA LA HISTORIA CLÍNICA
ÚNICA DEL PACIENTE de Jorge Rangil
o ¿POR QUÉ LOS MÉDICOS SE
RESISTEN A LA GESTIÓN INTELIGENTE
DEL CONOCIMIENTO? de Rafael Pinilla
publicados en www.proyectonets.org
en "gestionando conocimiento".
Varios estudios hechos por la Commonwealth Fund argumentan que los países que tienen
más extendida las IT tienen mejor atención primaria. Se fijan en los siguientes puntos que
consideran importantes: los problemas de coordinación entre servicios y niveles, los errores
de medicación o laboratorio, con duplicación de peticiones o ausencias, los recuerdos
preventivos, el acceso a la historia clínica desde el domicilio, la accesibilidad para el
paciente, la coordinación de cuidados en crónicos, entre otros.
Se observa que la CWF en sus evaluaciones se interesa por la facilidad de uso de información
que beneficia en la actividad al clínico y hace partícipe al paciente. Este enfoque, centrado
en el acto, es el que realmente puede estimular la adopción de IT y producir mejoras en
la asistencia. Sin embargo, cuando la aspiración principal es recoger información para
poderla analizar en conjunto, se fuerza muchas veces la forma de realizar el acto clínico,
sometido a listados que deben ser exhaustivos y mutuamente exclusivos, difíciles de hacer
e incómodos de utilizar.
La codificación del motivo de consulta en APS es un problema no resuelto.
En los hospitales ya es difícil mantenerla alta entre los profesionales que se dedican a ello,
codificadores, cuánto más si el propio profesional codifica su actividad. Este no es un
problema de la informatización del acto clínico en APS pero se hace más patente cuando
lo está pues la información de baja calidad está más disponible.
En resumen, parece deseable e inevitable que el acto clínico se informatice. El reto es
diseñar un buen programa que realmente facilite la actividad al clínico y que como
consecuencia pueda servir para que otros, que tienen intereses de investigación dirigida
a mejorara las prácticas clínicas, puedan usar la información que se produce. Es necesario
centrar la informatización en primar la relación clínico-paciente, todos los demás productos
son consecuencia de la buena calidad de éste. Si una de las dos partes de este binomio
está incómoda o descontenta, difícilmente el resto de los potenciales usuarios podrá estar
satisfecho con la información que obtiene y su uso será muy limitado.
Dr. Martín Caicoya. Hospital Monte Naranco. Principado de Asturias.
Dr. Juan del Llano. Director de la Fundación Gaspar Casal.
www.proyectonets.org
10
“no debe preocuparnos rendir cuentas
ni obligar a nuestros médicos a
someterse a auditorías, debe
preocuparnos el resultado de éstas”
COMUNICACIÓN EN EL SISTEMA SANITARIO: EL EMPOWERMENT DEL
PACIENTE. NICOLÁS VILLAR.
Hablar de comunicación en sanidad está de moda. Todos los meses se celebra en España
algún evento relacionado con las nuevas formas de comunicación en sanidad. Las compañías
con intereses en el sector sanitario están creando y dotando de recursos a departamentos
relacionados con el acceso al paciente y el e-marketing al mismo tiempo que la
Administración se muestra sensible con la necesidad de fomentar la competencia saludable
entre profesionales y centros de atención sanitaria a través de la transparencia, el
benchmarking y el empowerment del paciente.
NICOLÁS VILLAR
La estrategia de fomento de la competencia entre centros de atención sanitaria (hospitales
fundamentalmente) vía libertad de elección de médico y centro es muy pertinente por
cuanto supone abrir un camino hacia el establecimiento de relaciones de mercado entre
profesionales e instituciones, una de las grandes carencias de los sistemas públicos y uno
de sus grandes focos de ineficiencia y rigideces. Sin embargo, dar al paciente esta capacidad
de elección no basta si al mismo tiempo no se pone a su disposición información que le
permita la discriminación eficiente de profesionales y centros. No tiene sentido permitir
la elección a un agente que no dispone de elementos de juicio para elegir y es aquí donde
la comunicación se vuelve más protagonista que nunca. Es necesario abordar estrategias
integrales de comunicación desde la Administración y desde los propios centros de
atención sanitaria que permitan al paciente aproximarse y conocer sus carteras de servicios,
los profesionales médicos adscritos, los recursos con los que cuentan (tecnológicos y
humanos), el presupuesto que manejan, la composición de los diferentes comités clínicos
y gestores, los indicadores de éxito (diferenciando profesionales), la organización por
procesos, las terapias que ofrecen, los premios, reconocimientos, investigaciones y
publicaciones, así como toda la información que pueda ser relevante para formar un juicio
responsable sobre un centro en concreto.
Evidentemente esto pasa por mejorar la gestión del conocimiento y la información dentro
de nuestros hospitales: obligar a estandarizar rutinas, utilizar los repositorios de información
incluidos en los programas de gestión conque trabajan los hospitales, incentivar de forma
positiva pero también coercitiva la elaboración de informes exhaustivos sobre cada fase
del tratamiento de un paciente, auditar de forma independiente cada proceso y elaborar
con todo ello, informes públicos y accesibles que supongan una radiografía nítida de la
atención sanitaria que provee cada centro.
Esta estrategia de comunicación debe ser percibida como una responsabilidad por parte
de los centros de atención sanitaria pero también como parte de su actividad normal. Si
de verdad existe un compromiso por aportar dinamismo y eficiencia al sistema vía estímulo
de la competencia, entonces la transparencia, la rendición de cuentas y la permeabilidad
hacia el potencial paciente son condiciones sine qua non para trabajar en este nuevo
marco.
En cierto modo, el papel de los gestores debe reivindicarse y actuar de forma más directiva
sobre los aspectos clínicos que ocurren en sus centros, proponiendo auditorías más
exhaustivas dirigidas a maximizar el rendimiento de todo el staff clínico pero también -y
sobre todo- para obtener los indicadores y la información que servirán al centro para
desarrollar la estrategia de comunicación cuya necesidad defiendo en este artículo y que
debe ser la carta de presentación ante el potencial paciente.
11
Para entender hasta qué punto nuestros centros de atención sanitaria son opacos basta
con visitar las páginas web de hospitales y consejerías, convertidas en escaparates de
logotipos y slogans institucionales irrelevantes en la búsqueda de información útil para
el paciente que quiere elegir el mejor centro posible para la patología que padece.
Como casi siempre, para ser críticos con nosotros mismos debemos mirar de reojo a
nuestros vecinos europeos para estudiar cómo resuelven estas nuevas necesidades. En
Holanda, Bélgica o Alemania, la pugna por el paciente -incluso entre hospitales públicoses una realidad cotidiana, por eso la mayoría de hospitales disponen de equipos dedicados
a la comunicación desde múltiples puntos de vista y a través de diversos canales: la
tecnología 2.0 y las redes sociales internas y externas permiten al paciente contactar con
los distintos servicios del hospital e informarse sobre procedimientos, tratamientos,
tiempos, tasas de éxito, experiencias y demás, interactuando con profesionales y también
con otros pacientes. En España es una odisea encontrar un organigrama con los servicios
que ofrece un hospital. La diferencia es abismal, los resultados, determinantes.
Nicolás Villar es economista y
responsable de Difusión Científica de
la Fundación Gaspar Casal. Dirige
desde marzo de 2008 el equipo de
Proyecto NETS, reconocido como
herramienta de interés para el sector
sanitario por la Agencia de Calidad del
SNS. Ha publicado el artículo NETS:
UNA HERRAMIENTA PARA TODOS que
inauguró el número 01 de la revista
NETS Innovación y Tecnología en la
Salud. Sus áreas de trabajo engloban
las nuevas formas de comunicación
en sanidad, redes sociales y gestión
del conocimiento. Es especialista en
Técnica Económica del Sector
Sanitario y ha participado en diversos
programas internacionales de
postgrado relacionados con liderazgo
y estrategia en el sector sanitario.
Exigimos eficiencia al sistema y lo hacemos centrando nuestra atención en las autoridades
sanitarias y a los organismos públicos de evaluación y control. De manera implícita hemos
asumido que la eficiencia pasa fundamentalmente por la fiscalización del uso de recursos
y la evaluación de tecnologías sanitarias, nos hemos fijado la contención del gasto sanitario
como meta indiscutible y para ello auditamos la manera en que los fármacos y tecnologías
son incorporados convirtiendo al precio en el determinante último. Para conseguir esto
creamos nuevas figuras administrativas y ampliamos las competencias y poderes de los
centros reguladores y, como consecuencia, insistimos en "provocar" eficiencia y no
"permitir" la eficiencia. El primer interesado en disponer de un sistema sanitario eficiente
no es el Estado sino el paciente que es quien recibe la atención sanitaria y quien paga por
ella con el ejercicio de sus obligaciones tributarias y, sin embargo, es el gran olvidado de
toda esta estrategia. Hace tiempo que la teoría económica nos enseñó que no es posible
reproducir la eficiencia generada de forma espontánea por el mercado y, a pesar de esto,
nos preocupa la idea de que los pacientes se conviertan en consumidores de atención
sanitaria informados, que elijan centro y exijan conocer las opciones de tratamiento y su
coste para decidir entre un hospital u otro y, en otro nivel, entre un sistema sanitario u
otro.
El problema de la opacidad no es exclusivo del sistema sanitario. En educación, un sector
íntimamente parecido y con un grado de intervención pública similar, el debate sobre la
comunicación y la competencia se inició hace ya unos años. El distrito único, la oferta de
títulos propios, los ranking de calidad -públicos y privados-, los indicadores de éxito, los
foros de debate y la redes sociales de las universidades, las becas de excelencia, las bolsas
de empleo así como la publicación de los méritos y currícula de los profesores son el
equivalente del empowerment del paciente conque abría este artículo. El siguiente pasó
será, probablemente, vincular parte de presupuesto de la universidad a su capacidad de
atracción de alumnos a través de modelos como el cheque-estudiante y otras fórmulas
desarrolladas con éxito en países con mayor tradición meritocrática -y menos endogámicaque la nuestra.
Dar protagonismo al paciente no es solamente un ejercicio de responsabilidad democrática,
es también una apuesta firme por abordar la eficiencia del sistema nacional de salud desde
su raíz, no debe preocuparnos rendir cuentas ni crear portales interactivos en nuestros
hospitales u obligar a nuestros médicos a presentar de forma rigurosa la información
sometiéndose a auditorías, debe preocuparnos el resultado de éstas y, cuando esto ocurra,
observaremos como nuestros profesionales, nuestros centros y las administraciones
maximizan su esfuerzo por mejorar, ser más efectivos y más eficientes. Y será normal, a
pesar de que la competencia es como el cielo, muchos creemos en ella pero queremos
tardar en alcanzarla.
Nicolás Villar. Director del Proyecto NETS. Responsable de Difusión Científica de la Fundación
Gaspar Casal.
12
net
"La estrategia blockbuster está dando
señales de constituir un modelo
caduco, por las dificultades para
obtener este tipo de productos."
IMPACTO DE LA FARMACOGENÓMICA EN EL PROCESO DE
INVESTIGACIÓN Y DESARROLLO DE UN NUEVO MEDICAMENTO.
LAURA CABIEDES.
LAURA CABIEDES
Elena de Miguel comentó el artículo
en www.proyectonets.org:
Atractiva aportación de Laura Cabiedes
pero, casualidades de la vida, hoy
mismo se ha publicado una entrevista
cuyo título desmonta el párrafo inicial:
Un medicamento personalizado
también puede ser un 'blockbuster'
(http://www.diariomedico.com/edicio
n/diario_medico/gestion/es/desarroll
o/1200928.html). Considero que lo que
plantea Laura sería el modelo general,
cada vez menos vigente, mientras que
lo que declara Sydney Taurel es, además
de subjetivo, sólo será realidad para un
número reducido de nuevos productos.
También es cierto que cuanto menor es
la población que puede beneficiarse de
la innovación, mayor es el precio
unitario necesario para lograr que se
convierta en un blockbuster.
Es sabido que el proceso de investigación y desarrollo de un nuevo medicamento es un
proceso duradero y muy costoso. En poco tiempo está teniendo lugar un importante
incremento de costes que, unido a la mayor duración del proceso y a la obtención de
peores resultados en términos de innovación, explican tanto el éxito como el malogro del
modelo blockbuster de la industria, es decir, la estrategia de centrarse en (pocos) productos
muy rentables, con unas ventas globales superiores a mil millones de dólares anuales. La
estrategia blockbuster está dando señales de constituir un modelo ya caduco, precisamente
por las crecientes dificultades para obtener este tipo de productos. Ante esta situación,
hace unos años, la FDA estadounidense (Food and Drug Administration) emprendió la
iniciativa critical path (“la senda crítica”, en adelante), entendiendo que los avances en las
ciencias básicas no estaban siendo debidamente acompasados por los conseguidos en
las ciencias aplicadas, ampliando la distancia entre potencialidades y realidades y
conduciendo a las autoridades a fijar niveles de exigencia más conservadores, de modo
que el proceso hacia la obtención de un nuevo medicamento se tornaba finalmente más
difícil (FDA, 2004) [...]
En la literatura predomina una visión optimista en relación a la aplicación de la
farmacogenómica al proceso de desarrollo de un nuevo medicamento. Se sostiene, por
ejemplo, que permite eliminar mucho antes productos no seguros y que la selección de
pacientes (con apoyo en biomarcadores/tests genéticos) permite aumentar la efectividad
y/o disminuir posibles efectos adversos, es decir, aumentar la relación beneficio a riesgo,
de modo que es más fácil demostrar el cumplimiento de los requisitos de la eficacia y la
seguridad, necesarios para conseguir la autorización del medicamento. Se menciona
frecuentemente la ventaja que la delimitación de una población diana representa en
términos del menor tamaño de los ensayos clínicos, permitiendo reducir costes y grados
de incertidumbre. En definitiva, cabría esperar una mayor probabilidad no sólo de conseguir
la autorización de una innovación, sino también de obtenerla en menos tiempo, lo que
aumentaría la vida efectiva de la patente (el tiempo que le resta, descontado el empleado
en conseguir la autorización). No obstante, algunos autores apuntan que si la prevalencia
genética es demasiado baja, enrolar en los ensayos clínicos sólo a quienes tienen el
marcador podría absorber más tiempo y, en consecuencia, acarrear mayores costes (Phillips
y Van Bebber, 2006). Del mismo modo, se mencionan costes adicionales en la etapa de los
ensayos preclínicos, asociados a la identificación y posterior validación de los biomarcadores
(Tucker, 2008). Es fundamental hacer hincapié en que la aplicación de la farmacogenómica
al proceso de desarrollo de un nuevo fármaco incorpora un elemento nuevo que lo torna
aun más complejo; para que la información genómica sea útil, el nuevo medicamento
precisa/rá de un test complementario. En definitiva, es preciso hacer referencia a la relación
de complementariedad medicamento/test. Existen tres posibilidades en cuanto a la
disponibilidad del test respecto al medicamento en el tiempo, con implicaciones bien
distintas para los agentes implicados y, por lo tanto, para el proceso innovador [...]
Los agentes implicados: entre potencialidades y realidades.
La farmacogenómica implica a numerosos agentes, cuyos intereses no siempre coinciden.
Así, el descubrimiento del marcador/test y, en su caso, la manufactura del soporte
14
correspondiente, pueden ir asociados tanto a laboratorios farmacéuticos como a empresas
de biotecnología o de técnicas de diagnóstico. El agotamiento de los derechos de la
patente de medicamentos blockbuster y las dificultades cada vez mayores en su obtención
pueden conducir a la industria tradicional a seguir estrategias (complementarias) apoyadas
en la farmacogenómica, a través de operaciones de absorción, alianzas, licencias, adquisición
de derechos de patente e incluso procesos de aprendizaje y desarrollo internos. Desde la
perspectiva de los laboratorios farmacéuticos, la medicina personalizada implica
segmentación del mercado, debido a la exclusión de parte de la población y/o ajuste de
dosis y duración del tratamiento. La indicación queda mucho más acotada, de modo que
cabe prever que se definan mercados de menor tamaño. Si bien éste es un factor que
apunta hacia una menor rentabilidad de la inversión en I+D, el impacto neto depende de
muchos otros factores, como la posible consecución de menores costes en el desarrollo
del producto; una autorización más rápida del nuevo medicamento, de modo que se
disponga de mayor tiempo para explotar la patente; una diferenciación técnica del producto
más allá de la marca (algunos autores aluden al valor que el marcador puede añadir al
medicamento) y el precio.
El papel del regulador es clave en este contexto, en la medida en la que la medicina
personalizada aconseja adoptar una visión integral de actividades hasta ahora separadas
-obtención y comercialización de nuevos medicamentos y de biomarcadores/tests- e
históricamente reguladas de forma independiente. Es preciso destacar que la regulación
del soporte de las pruebas, tanto en USA como en la UE, es muy laxa y que la validación
de éstas es una cuestión previa ineludible.
Por último, conviene mencionar las expectativas de los potenciales usuarios y de los
clínicos. Las expectativas de la población no siempre se ven satisfechas en la práctica
clínica o bien se cumplen, desde su perspectiva, con retardo. Quizás más en USA que en
Europa, el marketing de diversos tests por Internet permite prever un fenómeno de oferta
inducida. Por su parte, dado que la medicina personalizada puede afectar sensiblemente
sus decisiones, los clínicos precisan apoyo tanto del regulador como del potencial
financiador, por ejemplo, en términos de validación de las pruebas; formación; diseño de
guías; algoritmos... Cabe destacar en este sentido que de la literatura se desprende un
elevado grado de desconfianza de los profesionales acerca de la validez de los tests
genéticos frente a los métodos de seguimiento tradicionales. Surgen pues cuestiones
éticas y posibles tensiones con las expectativas de los pacientes [...]
En definitiva, si bien existen factores asociados a la farmacogenómica que probablemente
permitan acortar en algunos casos “la senda crítica”, existen otros factores que posiblemente
abran un tramo nuevo, sobre todo debido a las particularidades en el uso clínico. Con
todo, el modelo sanitario predominante en cada país será, en la práctica, un elemento
determinante en la disponibilidad y accesibilidad a productos obtenidos con apoyo en la
farmacogenómica. En un marco de precios administrados como es el español, son muy
pertinentes los estudios de evaluación económica, con vistas a apoyar decisiones sobre
si procede o no su financiación con fondos públicos y, en caso afirmativo, a qué precio [...]
Desde la perspectiva de la industria, sería una oportunidad de demostrar el valor del
producto en términos de eficacia relativa, tema no baladí si se tiene en cuenta que, tanto
en USA como en la UE, sólo se exige la demostración de la eficacia absoluta (frente a
placebo) para conseguir la autorización de un nuevo medicamento [...]
Joaquín Campillo comentó el artículo
en www.proyectonets.org:
Tengo que agradecer a la autora su
reflexión sobre estos temas: si bien
alguno ya ha podido ser tratado por
otros autores, dudo que alguno haya
podido alcanzar la capacidad de síntesis
que alcanza en la tabla 1. La relación
de variables que ha elegido permiten
evalúar el valor que aporta una
innovación basada en la
farmacogenética, y no se encuentra en
ningún estudio anterior. Sobre el debate
en los comentarios anteriores acerca de
la viabilidad de nuevos blockbusters,
creo que es preferible plantearla en
términos de probabilidad de ocurrencia,
y opino que ésta es cada vez menor.
Evaluación económica de intervenciones apoyadas en la medicina personalizada.
Del mismo modo que los estudios de evaluación económica de intervenciones apoyadas
en la farmacogenómica son muy pertinentes, su realización puede resultar particularmente
compleja debido, entre otras razones, a problemas de incertidumbre y de disponibilidad
de datos que, de todos modos, no eximen a las autoridades públicas de la responsabilidad
de tomar decisiones. Así, aun disponiendo de un test muy fiable para detectar variantes
genéticas, una baja penetración del genotipo tiene gran trascendencia en este ámbito,
ya que los falsos positivos (o error tipo II) pueden conducir a tratar o a privar de un
tratamiento innecesariamente, debido a que la enfermedad o los efectos adversos,
finalmente, no se presentan. En la tabla 1 se recogen algunos factores clave que permiten
15
prever (ceteris paribus; si todo lo demás permanece constante) una buena relación costeefectividad o que, al menos, sugieren el interés de realizar un estudio de evaluación
económica en este ámbito.
Factores que permiten prever una buena relación coste-efectividad o que, al menos,
sugieren el interés de realizar un estudio de evaluación económica de un tratamiento
apoyado en la medicina personalizada, frente al tratamiento habitual
Laura Cabiedes respondió a los
comentarios de los usuarios de
www.proyectonets.org:
Respecto a los nuevos blockbusters,
Elena, te remito a las páginas 615 y 616
del artículo completo, en Revista de
Administración Sanitaria, 6 (4), 2008,
donde en relación a este tema se pone
de relieve la trascendencia de la
disponibilidad de la prueba en relación
al nuevo fármaco, en el tiempo: es la
disponibilidad posterior de la prueba la
que puede amenazar el modelo
blockbuster tradicional. La
disponibildad previa de la prueba
asociada al rescate de fármacos falllidos
tiene el inconveniente del agotamiento
del derecho de patente en muchos
casos. Por último, la disponibilidad
simultánea del nuevo principio activo y
de la prueba es una opción deseable
desde muchos puntos de vista pero, tal
y como se indica en el artículo, existen
contados ejemplos de desarrollo
simultáneo: Trastuzumab, Imatinib y
Cetuximab. Precisamente, los tres
figuran como blockbusters en diversos
listados.
Bajo ciertas circunstancias la
farmacogenómica puede ser una una
estrategia complementaria y rentable
para la industria. Estoy de acuerdo con
Joaquín Campillo en que conviene
plantear el tema en términos de
probabilidad de ocurrencia: si un rasgo
caracteriza indiscutiblemente la
investigación y desarrollo de nuevos
fármacos es la incertidumbre y más aun
en el caso de los asociados a la
farmacogenómica.
16
• Gravedad de la enfermedad y pocos tratamientos alternativos.
• Elevados costes del tratamiento aplicado.
• Seguimiento de la enfermedad o del efecto del medicamento difícil o inviable.
• Medicamento con bajo índice terapéutico.
• Elevada variabilidad interpersonal en la respuesta a un tratamiento.
• Elevada prevalencia de la variante genética.
• Alta penetración del genotipo o estrecha asociación genotipo-fenotipo (menos falsos
positivos).
• Validez clínica del test (que sea útil para predecir resultados clínicos).
• Disponibilidad en el mercado de una prueba validada y relativamente poco costosa.
• Existencia de tratamiento efectivo para intervenir con apoyo en la información genómica.
Fuentes: elaboración propia a partir de Danzon y Towse (2002); Flowers y Veenstra (2004);
Goldie y Levin (2001) y Veenstra et al. (2000).
Con independencia de que sea preciso hacer un análisis caso por caso, hasta el momento
existen algunas áreas que parecen especialmente adecuadas para la realización de estudios
de estas características. De hecho, una parte nada despreciable está siendo aplicada a
enfermedades agudas, sobremanera las relacionadas con la oncología, área en la que la
genómica está permitiendo hacer una subtipificación genética de las enfermedades y en
la que se cumplen, entre otras, condiciones como la severidad de la enfermedad;
tratamientos disponibles generalmente muy costosos y con bajo índice terapéutico y
elevada variabilidad interpersonal en la respuesta (véase la Tabla 1). Respecto a las
enfermedades crónicas, el atractivo de la aplicación de este tipo de estudios se refiere a
la evitación de muchos años de terapia innecesaria o inadecuada, pero la influencia de
numerosos polimorfismos y factores de riesgo inspiran menor optimismo. En resumen,
de momento, cabe esperar menor potencialidad en relación a enfermedades que
prácticamente toda la población es susceptible de padecer. No obstante, están surgiendo
expectativas positivas en áreas como la neurología y la psiquiatría [...]
Las mejoras relativas sobre la salud que (en su caso) permiten alcanzar las nuevas tecnologías
generalmente van asociadas a mayores costes netos. Dado que sería insostenible financiar
todo nuevo tratamiento, en los sistemas sanitarios públicos se puede tomar como referencia
la ratio obtenida en el análisis incremental, comparándola con la correspondiente a los
tratamientos generalmente aceptados en un marco determinado: 30.000 libras/AVAC (años
de vida ajustados por calidad), implícitas en las recomendaciones del NICE; 100.000 $/AVAC
en USA y 30.000 €/AVAC en España (Ortún, 2004). Se trata de umbrales considerados en
una sociedad y en un momento determinados que, complementados con otras dimensiones,
contribuyen a legitimar un proceso de priorización con recursos públicos. A título ilustrativo,
se presentan sintéticamente los resultados de varios estudios de evaluación económica
de intervenciones asociadas a la farmacogenómica. Los dos primeros evalúan el uso de
Trastuzumab como tratamiento adyuvante de cáncer de mama HER2 positivo. Se trata de
un principio activo pionero en el ámbito de la medicina personalizada, autorizado en 1998
en USA y en 2000 en la UE. A pesar de la reducida evidencia evaluadora disponible en
general, en este caso y, dado su carácter pionero, se dispone de numerosos estudios de
evaluación económica. Los dos seleccionados se aplican al marco sanitario público europeo
(Inglaterra/Gales e Italia, respectivamente) y son, hasta cierto punto, comparables. El tercer
ejemplo ilustra la posible utilidad de los tests genéticos en la elección de tratamiento (en
este caso, aplicado al SIDA). El último estudio recogido consiste en ajustar la duración del
tratamiento de la hepatitis C con Interferón y Ribivirina, con apoyo en el genotipo viral
[...]
A modo de conclusión.
De lo expuesto previamente cabe concluir que, para explotar apropiadamente las ventajas
de la farmacogenómica desde una perspectiva social, conviene profundizar en algunas
parcelas. En el ámbito público-privado, la complejidad del tema tratado impone límites
prácticos que aconsejan articular nuevos modelos de cooperación, por ejemplo a efectos
de obtener la información necesaria para validar un marcador (Frueh, 2006), de donde se
desprende la idoneidad de los consorcios. En el ámbito estrictamente público, la medicina
personalizada conduce incluso a replantear viejos problemas: un dato preocupante se
refiere a la efectividad de los tratamientos que están siendo aplicados, ya que sólo el 50
% de los pacientes responde positivamente a los mismos (Spear et al., 2001. Tomado de
Williams-Jones y Ozdemir, 2008). Otra vieja cuestión se relaciona con la patentabilidad de
la información genética per se y su impacto sobre la innovación.
Por último, tres cuestiones clave en relación con la nueva dimensión que incorpora la
farmacogenómica se refieren a la validación de las pruebas, la regulación del soporte de
las mismas (con la posibilidad de revisión paralela del medicamento y del test, ya
contemplada en USA) y la posible traslación al terreno legislativo de la evaluación
económica, a efectos de guiar la toma de decisiones en materia de financiación de
innovaciones con fondos públicos y, en su caso, fijación de precios. En este sentido, cabe
diferenciar entre sistemas sanitarios públicos con “legislación blanda”; es decir, mención
no coercitiva y ausencia de aplicación sistemática y transparente de la evaluación económica
(España) y sistemas con “legislación dura” (Ontario y Australia), sin olvidar que, en gran
parte del Reino Unido (donde los precios no son objeto de regulación), cabría hablar de
un modelo intermedio que, sin ser coercitivo, incorpora incentivos a su aplicación, en la
medida en la que las nuevas tecnologías recomendadas por el NICE tienen garantizada
la financiación con fondos públicos.
Laura Cabiedes Miragaya. Departamento de Economía Aplicada. Universidad de Oviedo.
*Resumen del artículo "Economía y medicina personalizada: allegro ma non troppo".
síguenos en internet
www.proyectonets.org
Bibliografía:
Danzon, P. y Towse, A. (2002): “The
Economics of Gene Therapy and of
Pharmacogenetics”, Value in Health, 5
(1): 5-13.
FDA (2004): Challenge and Opportunity
on the Critical Path to New Medical
Products, US Department of Health and
Human Services, FDA (extraído de:
http://www.fda.gov/oc/initiatives/criti
calpath/whitepaper.html el 6 de mayo
de 2008).
Flowers, C.R. y Veenstra, D. (2004): “The
Role of Cost-Effectiveness Analysis in the
Era of Pharmacogenomics”,
PharmacoEconomics, 22 (8); 481-493.
Frueh, F.W. (2006): “Challenges in
Biomarker and Drug Co-Development
and Regulation: The Regulatory View
for Drugs”, AACC 2006 Annual Meeting,
Chicago, 24 de Julio.
Goldie, S.J. y Levin, A.R. (2001):
“Genomics in Medicine and Public
Health: Role of Cost-Effectiveness
Analysis”, JAMA, 286 (13): 1637-1638.
Ortún, V. (2004): “30.000 Euros por
AVAC”, Economía y Salud, nº 49: 1-2
(disponible en http://www.aes.es).
Phillips, K.A. y Van Bebber, S.L. (2006):
“Regulatory Perspectives on
Pharmacogenomics: A Review of the
Literature on Key Issues Faced by the
United States Food and Drug
Administration”, Medical Care Research
and Review, 63 (3): 301-326.
Spear, B.B.; Heath-Chiozzi, M. y Huff, J.
(2001): “Clinical Application of
Pharmacogenetics”, Trends in Molecular
Medicine, 7 (5): 201-204.
Tucker, L. (2008): Pharmacogenomics:
A Primer for Policymakers, Background
Paper, National Health Policy Forum.
Veenstra, D.L.; Higashi, M.K. y Phillips,
K.A. (2000): “Assessing the CostEffectiveness of Pharmacogenomics”,
AAPS Pharmsci 2 (3): article 29
(American Association of
Pharmaceutical Scientists) (extraído de:
http://www.pharmsci.org/ el 5 de mayo
de 2008).
Williams-Jones, B. y Ozdemir, V. (2008):
“Challenges for Corporate Ethics in
Marketing Genetic Tests”, Journal of
Business Ethics, 77: 33-44.
17
"La mayor parte del conocimiento
científico disponible sobre
Farmacogenética presenta déficits
en la validez (...)"
NECESIDAD DE CONVERGENCIA ENTRE LA EVALUACIÓN DE
TECNOLOGÍAS SANITARIAS Y LA INVESTIGACIÓN
FARMACOGENÓMICA. PEDRO SERRANO y Mª DEL MAR TRUJILLO.
PEDRO SERRANO
Mª DEL MAR TRUJILLO
La Farmacogenómica es una tecnología sanitaria en desarrollo desde hace más de 50 años,
que tiene por objeto predecir la respuesta terapéutica a algunos fármacos y personalizar
la prescripción mediante pruebas de diagnóstico genético. La información ofrecida por
estas pruebas de diagnóstico genético permitiría ajustar la dosificación a las características
individuales de los pacientes, reduciendo la frecuencia y la gravedad de los efectos adversos
potenciales mientras se mantiene el efecto terapéutico deseado, contribuyendo a ajustar
los costes a los resultados. Sin embargo, los avances alcanzados en este campo, aunque
significativos, no han satisfecho las expectativas iniciales de los científicos, de los
profesionales y de la sociedad, dado que únicamente se han logrado incorporar a la
práctica clínica un reducido volumen de terapias genómicas (1-4). En este escenario, en
el que las necesidades de los pacientes y de los profesionales sanitarios convergen con
el esfuerzo investigador de la industria y con la responsabilidad de los Gobiernos en cuanto
a que los recursos sanitarios se distribuyan de manera justa, equitativa y transparente
para hacer frente al conjunto de las necesidades de salud de la población, el papel que
desempeña la evaluación de tecnologías sanitarias (ETS) podría ser interpretado de dos
maneras totalmente diferentes. Para algunos, la ETS supone una barrera al avance de la
medicina; mientras que para otros la ETS es una garantía para la sostenibilidad de los
sistemas sanitarios públicos y universales. La incorporación del enfoque de la ETS a la
investigación farmacogenética podría contribuir a reducir las diferencias entre las dos
visiones anteriores: barrera vs. garantía.
Incorporación de nuevas pruebas farmacogenéticas al Sistema Nacional de Salud: la
perspectiva desde la evaluación de tecnologías sanitarias.
El Center for Disease Control and Prevention (CDC) de EE. UU. adaptó la metodología de
ETS diagnósticas a las pruebas genéticas con el programa ACCE. Este programa toma su
nombre de las iniciales en inglés correspondientes a los cuatro componentes que se
evalúan: validez analítica, validez clínica, utilidad clínica y aspectos éticos, sociales y legales
(5). La Agencia de Evaluación de Tecnologías Sanitarias de Andalucía elaboró en el 2004
y en el 2006 sendos informes de evaluación relacionados con estos procedimientos, en
los que se exponían con mayor detalle las recomendaciones para llevarlos a cabo (6,7). La
información que sigue ha sido extraída de estos informes.
La validez analítica es la exactitud con que una prueba de laboratorio es capaz de identificar
una determinada variante genética (8,9). Su evaluación, antes de su utilización en clínica,
incluye el análisis de la fiabilidad de la prueba y el de la sensibilidad, especificidad y valores
predictivos de la prueba en relación con el genotipo.
La validez clínica es la exactitud con que una prueba predice un resultado clínico
determinado. Se expresa por medio de la sensibilidad, de la especificidad y de los valores
predictivos para un determinado fenotipo. Su estudio requiere diseños epidemiológicos
(cohortes y casos-controles), centrados en la capacidad de la prueba para diagnosticar o
predecir riesgos en la población de estudio (9).
La utilidad clínica es la probabilidad de que la realización de una prueba tenga un efecto
en términos de salud, contabilizando los efectos tanto de los resultados positivos como
de los negativos. Dado que los test farmacogenéticos tienen una finalidad predictiva, es
18
preciso que exista una estrategia de seguimiento efectiva para evaluar la respuesta
terapéutica en términos de supervivencia, calidad de vida u otros resultados de salud,
frente a los resultados obtenidos sin que se haya empleado el test farmacogenético.
Un aspecto clave es definir cuál es el nivel de evidencia que debería exigirse para aceptar
el paso desde la investigación al uso en la práctica clínica de las pruebas farmacogenéticas.
Una opción es diseñar modelos de decisión que no sean tan rígidos como para impedir
la innovación, ni tan flexibles que permitan repetir lo que ya ha ocurrido con otras muchas
tecnologías emergentes, que se han utilizado sobre la base de expectativas y razonamientos
clínicos sin que existiese una evaluación adecuada del balance entre los beneficios y los
riesgos (8). A fin de valorar la evidencia sobre la utilidad clínica de una prueba genética,
el tipo de estudio ideal es el ensayo clínico que evalúa la estrategia completa de intervención
(pruebas farmacogenéticas y tratamiento individualizado), con un periodo de seguimiento
lo suficientemente largo como para valorar los resultados finales más relevantes para los
pacientes y para los sistemas sanitarios.
Además, en determinados casos podría ser conveniente que algunas pruebas pasaran
por un periodo de introducción condicional, ligado a sistemas de información y vigilancia
post-introducción. Este tipo de estrategia haría posible la monitorización de la práctica
clínica mediante estudios observacionales (cohortes y casos-controles), que permitirían
obtener información sobre un seguimiento largo y resultados de mayor relevancia clínica.
En la actualidad, se han publicado un número creciente de ejemplos que ponen de
manifiesto diferencias en la respuesta farmacológica como resultado del conocimiento
de los polimorfismos genéticos, pero la mayoría de los estudios que dan lugar a esta
información carecen de criterios explícitos para guiar la traslación de esta información al
ajuste farmacológico con objeto de hacer frente a situaciones clínicas concretas. Sigue
siendo necesario, por tanto, disponer de recomendaciones clínicas específicas y claras
para facilitar a los médicos la toma de decisiones sobre la individualización de las dosis
de los medicamentos de acuerdo con los resultados de las pruebas farmacogenéticas. Sin
embargo, la importante y cada vez mayor disponibilidad de conocimiento farmacogenético
contrasta con la falta de reconocimiento y de utilización de esta información en el ejercicio
clínico diario (10). Herramientas tales como STARD (Standards for Reporting of Diagnostic
Accuracy) (11) y QUADAS (QualityAssessment of Diagnostic Accuracy Assessment) (12)
ofrecen criterios metodológicamente apropiados para guiar las decisiones en cuanto a la
utilización de pruebas diagnósticas en la gestión clínica de pacientes. No obstante, ninguna
de estas dos herramientas responde a las necesidades de evaluación de la investigación
sobre pruebas farmacogenéticas (13). Otras iniciativas específicamente diseñadas para
contribuir a mejorar la validez de la investigación sobre pruebas genéticas, tales como
MIAME (Minimum Information About a Microarray Experiment) (14) o MIAPE (Minimum
Information About a Proteomics Experiment) (15), también presentan limitaciones al
centrarse específicamente en las características analíticas de las pruebas (13). Para tratar
de obviar las limitaciones anteriores y ofrecer una alternativa a la evaluación de la calidad
de la investigación sobre pruebas genéticas, un grupo de investigadores de CIBERESP
desarrolló recientemente QUADOMICS. Se trata de una escala que procede de la adaptación
de QUADAS a las exigencias y requerimientos metodológicos de las nuevas pruebas
diagnósticas de carácter genético. Con ello se ha logrado una adaptación más apropiada
a las diferentes fases de la investigación en el desarrollo y validación de este tipo de
pruebas diagnósticas genéticas (13).
Si te ha interesado este artículo te
recomendamos que leas también
¿MEDICINA INDIVIDUALIZADA O
ESTRATIFICADA? del Dr. Juan del Llano
publicado en www.proyectonets.org
en la sección "adelántate al futuro",
IMPACTO DE LA FARMACOGENÓMICA
EN EL PROCESO DE INVESTIGACIÓN Y
DESARROLLO DE UN NUEVO
MEDICAMENTO de Laura Cabiedes
que puedes encontrar en esta revista
en la sección "tecnología y eficiencia"
o NUEVAS TERAPIAS
ANTINEOPLÁSICAS EN EL CCR
METASTÁSICO: UNA CUESTIÓN DE
ESTRATEGIA de Eduardo Díaz-Rubio
que encontarás en
www.proyectonets.org en la sección
"nuevas tecnologías".
Para tomar decisiones sobre la incorporación de nuevas pruebas genéticas a la práctica
clínica, es necesario estimar los costes relacionados con la adquisición, los posibles cambios
requeridos por la organización y el mantenimiento de todos los servicios asociados. Estos
costes incluirían tanto los de las propias pruebas genéticas como los de los circuitos de
atención y tratamiento de las personas que presentan un resultado positivo. El parámetro
fundamental de cara a informar la toma de decisiones sobre la incorporación de las nuevas
tecnologías sanitarias es la relación coste-efectividad de la estrategia de diagnóstico con
la nueva prueba genética en relación con otras alternativas. Otro aspecto clave tras decidir
incorporar una nueva prueba genética a partir de la evaluación y comprobación de su
validez y utilidad clínica es garantizar que las condiciones de su realización en la práctica
sean adecuadas. Para ello habrá que incorporar controles de calidad en los laboratorios
acreditados para efectuar análisis genéticos, establecer circuitos de tratamiento y
19
seguimiento de los pacientes y de los familiares, e instaurar mecanismos que garanticen
la accesibilidad de la población.
Necesidades de mejora en la investigación farmacogenética.
Al revisar la literatura sobre investigación en Farmacogenética se observan algunos déficits
que, de resolverse, podrían contribuir tanto a facilitar la ETS en este contexto, como a
mejorar las posibilidades de transferencia de resultados a la práctica clínica. Hemos
identificado cuatro aspectos limitantes: las dificultades de localizar y de acceder a los
estudios genéticos incluidos en bases de datos electrónicas, el problema del tamaño de
la muestra utilizada en los estudios, las características de los diseños más comúnmente
utilizados por la investigación farmacogenética y la ausencia de la incorporación de la
perspectiva de los pacientes.
La identificación de estudios genéticos en las bases de datos electrónicas afronta dificultades
superiores a las correspondientes a otros campos del conocimiento, debido a dos factores:
al descubrimiento de considerables cantidades de genes, y a la complejidad y a la
variabilidad de la nomenclatura utilizada para identificar a los genes en la literatura
biomédica. Esta heterogeneidad se explica por la falta de una ontología específica que
haga posible la estandarización de la nomenclatura de los genes. La ausencia de una
nomenclatura estandarizada propicia la aparición de notables problemas en las actividades
de búsqueda y de acceso a la información genética relevante (16).
La mayor parte del conocimiento científico disponible sobre Farmacogenética presenta
déficits en la validez, por proceder de estudios de pequeño tamaño de muestra y reducido
poder estadístico. Estas limitaciones en el diseño y/o ejecución de los estudios explican
los problemas de replicación en clínica sobre marcadores genéticos con capacidad
predictora de la respuesta farmacológica (17). Este problema cobra aún mayor relevancia
por la frecuente utilización de procedimientos estadísticos exploratorios y la elección de
medidas de resultado múltiples, o bien de subgrupos o combinaciones de genotipogenotipo, habitualmente no previstos en la etapa de diseño del estudio.
Para contribuir a un desarrollo más rápido y a una incorporación amplia de los resultados
de la investigación farmacogenética a la práctica clínica, es necesario seleccionar el tipo
de estudio más apropiado que haga posible, de forma eficiente, la consecución de los
objetivos específicos perseguidos por los investigadores. Tanto los objetivos como la
metodología requerida deben estar claramente definidos desde la primera fase de la
investigación clínica. Idealmente, antes de que un determinado polimorfismo
farmacogenético pueda utilizarse en la selección y en el ajuste farmacológico en la clínica
rutinaria, éste debería caracterizarse ampliamente. Esta caracterización incluye: la
evaluación de su función in vitro; la evaluación funcional de sus efectos sobre la
farmacocinética y la farmacodinámica en ensayos clínicos con voluntarios sanos; y la
evaluación de los efectos de interés clínico relacionados con la eficacia y con los
acontecimientos adversos potenciales del fármaco mediante la monitorización de las
medidas de resultados (a medio-largo plazo) de interés para los profesionales y para los
pacientes. Pero incluso tras la validación y la comprobación de la contribución al resultado
clínico de un determinado tratamiento mediante la incorporación de las pruebas
farmacogenéticas, el valor potencial de estas tecnologías debería evaluarse
económicamente para informar de manera adecuada la toma de decisiones y la distribución
de los recursos sanitarios a partir de la disponibilidad de información clínica y económica.
A fin de disponer de información básica, clínica o económica del valor de los resultados
de salud tras la incorporación de la Farmacogenética, hay que hacer uso de diferentes
tipos de estudios, cada uno de los cuales requiere un tipo de diseño específico, tal como
se expone en la Tabla I (3).
La evaluación de los resultados de salud autopercibidos por los pacientes mediante el
empleo de cuestionarios genéricos y/o específicos de calidad de vida relacionada con la
salud (CVRS) no se ha difundido en el caso de los tratamientos oncológicos en general. Es
probable que la limitada sensibilidad de los instrumentos desarrollados para captar los
cambios asociados a las terapias, por un lado, y la frecuencia e intensidad de los efectos
20
adversos, así como la toxicidad que conllevan los fármacos citostáticos, por otro lado,
reduzcan el valor informativo de este tipo de instrumentos y medidas cuando se evalúa
la efectividad autopercibida de los tratamientos frente al cáncer. Sin embargo, en las fases
avanzadas de la investigación farmacogenética (estudios en fase III-IV), este tipo de
instrumentos que incorporan la perspectiva del paciente podrían ser de utilidad para
medir el valor de la posible reducción de toxicidad y/o eventos adversos que pueden
aportar las pruebas farmacogenéticas para ajustar y personalizar, según las características
de los pacientes, los programas terapéuticos en Oncología. Otra actividad de interés
consiste en la participación de los pacientes en la fase de adaptación del informe final de
la investigación para garantizar su compresión y posible utilización a fin de favorecer la
toma de decisiones compartida entre médicos y pacientes (18-20).
Barreras a la incorporación y difusión de las pruebas farmacogenéticas.
La incorporación, difusión y utilización apropiada de las pruebas farmacogenéticas en la
práctica clínica cotidiana está resultando más lenta de lo inicialmente esperado por todos
los sectores interesados. Los diferentes tipos de barreras –estructurales, financieras, de
utilidad clínica, relacionadas con la formación y con el entrenamiento profesional, o bien
sociales, legales o reguladoras– parecen interactuar y contribuir a ello (3,21).
Un aspecto que puede contribuir a limitar la difusión de las pruebas farmacogenéticas es
la disponibilidad de laboratorios con la infraestructura y con el personal entrenado
necesarios. Además, la comunicación adecuada entre los médicos clínicos y los profesionales
del laboratorio que llevan a cabo las pruebas farmacogenéticas también puede actuar
como factor facilitador o como barrera a la implantación y a la difusión. La existencia de
procedimientos de envío y de almacenamiento de muestras adecuados también puede
ser un elemento modulador de la difusión de estos test (22). Finalmente, la ausencia de
protocolos que promuevan la homogeneidad en el procesado de muestras genéticas se
ha identificado como un problema real de cara a la implantación de este tipo de tecnologías
(23).
Las barreras financieras están directamente relacionadas con la aprobación previa por
parte de las autoridades reguladoras. El carácter experimental de la mayor parte de las
pruebas farmacogenéticas o, en menos casos, el que estén sujetas a investigaciones
evaluativas limita la decisión de financiación de las autoridades sanitarias. Desde una
perspectiva clínica y de gestión, es importante tener en consideración que las tecnologías
sanitarias susceptibles de ser financiadas con fondos públicos deberían demostrar con
claridad el valor añadido sobre la práctica clínica habitual (21,24). Además, los costes
constituyen en sí mismos una barrera común a la difusión de las nuevas tecnologías. Los
costes de estas pruebas se perciben como altos, lo que favorece que los médicos los
identifiquen como un problema para su difusión. Sin embargo, es un aspecto sobre el que
se podría reflexionar, dado que se dispone de unas pocas evaluaciones económicas que
informan de la favorable ratio coste-efectividad de algunas pruebas farmacogenéticas
(test HER2 y test TPMT) (25, 26). Independientemente de la calidad científica de las
evaluaciones económicas, parecen existir problemas en el acceso a esta literatura, a su
comprensión o a su utilización por parte de los médicos y de las autoridades sanitarias.
La utilidad clínica es, probablemente, uno de los condicionantes más notables que modulan
la toma de decisiones sobre la incorporación, difusión y uso de las innovaciones. Un
volumen importante de médicos asistenciales justifican no utilizar los test genéticos
debido a que la investigación en curso no ha terminado de aclarar el valor real de las
pruebas genéticas frente a las fenotípicas a más largo plazo (3). Entre los investigadores,
sin embargo, ha ejercido una mayor atracción la búsqueda de conocimiento sobre la
identificación de los determinantes genéticos que explican la variabilidad interindividual
de la respuesta terapéutica y la validación analítica de nuevos alelos que el análisis de
posibles asociaciones entre genotipo y fenotipo clínico o la búsqueda de correlaciones
entre el fenotipo clínico y las alteraciones en la dosificación de los fármacos o
recomendaciones farmacológicas alternativas. Para favorecer la adopción de las pruebas
farmacogenéticas en la práctica, debería disponerse de estudios cuyos resultados
relacionaran inequívocamente un determinado genotipo con los fenotipos clínicos
habituales en la clínica al objeto de facilitar e individualizar las decisiones de prescripción
a partir de la información farmacogenética.
21
Una vez que esté disponible dicha información, sería conveniente favorecer el consenso
profesional mediante la elaboración de estándares para su incorporación en las guías de
práctica clínica.
No existen mecanismos reguladores que exijan la consistencia de los resultados procedentes
de la investigación sobre las pruebas diagnósticas. Hay que señalar que hasta finales del
2007 la FDA sólo había aprobado dos productos diferentes para que pudieran utilizarse
como pruebas farmacogenéticas. Además, la legislación recientemente propuesta desde
el Senado de EE. UU. sugiere incorporar mecanismos reguladores adicionales para las
pruebas de laboratorio. Estas tendencias describen un ambiente menos favorecedor de
cara a lograr la incorporación de las pruebas farmacogenéticas a la práctica clínica (21).
Otro aspecto mencionado con cierta frecuencia en la literatura es la preocupación sobre
posibles demandas legales a partir de la utilización de las pruebas genéticas (27). Los
aspectos relacionados con la suscripción de seguros se valoran como potencialmente
inhibidores para la difusión de las mismas.
Restriccciones a la financiación de la investigación evaluativa en farmacogenética.
Los estudios diseñados exclusivamente para evaluar pruebas diagnósticas farmacogenéticas
resultan relativamente costosos, por lo que difícilmente podrían ejecutarse fuera del
ámbito de la industria farmacéutica. Lamentablemente, las compañías farmacéuticas
tampoco parecen mostrar un gran interés por financiar este tipo de estudios, ya que su
mayor disposición está en el desarrollo de medicamentos de interés para grandes grupos
de población, siguiendo el principio de “algo que sirva para muchos”. El sector industrial
interesado en las tecnologías diagnósticas sí que parece mostrar una mayor inclinación
a desarrollar nuevos procedimientos de diagnóstico farmacogenético, pero, con frecuencia,
carece de los recursos suficientes para financiar grandes ensayos clínicos y del hábito de
evaluar sus propios productos mediante este tipo de diseños, que tampoco le exigen las
Administraciones competentes. Otro aspecto relevante consiste en que los propios
Gobiernos orientan mayoritariamente sus políticas de investigación hacia la financiación
de investigación básica y dedican presupuestos menores a la investigaciónclínica o a la
investigación de servicios de salud.
Limitaciones del valor de la información sobre el diagnóstico farmacogenético.
Por razones de extensión, la
bibliografía de este artículo no ha sido
publicada aquí, puedes encontrarla
en www.proyectonets.org o solicitarla
por correo electrónico en
[email protected].
Las bases científicas de las recomendaciones terapéuticas disponibles en la actualidad
para individualizar la dosificación de los fármacos frente a las enfermedades oncológicas
o hematológicas son fundamentalmente exploratorias. La mayoría de los resultados
ofrecidos en los estudios hasta la actualidad son poco consistentes y proceden, en gran
parte, de pequeñas muestras de pacientes. Por ello, se requieren ensayos clínicos
aleatorizados de tamaño muestral suficientemente amplio, adecuadamente diseñados y
ejecutados, cuyos periodos de seguimiento sean prolongados en el tiempo y que ofrezcan
información sobre las medidas de resultado relevantes para que los médicos, las autoridades
sanitarias y los pacientes puedan valorar la eficacia, la efectividad y la relación costeefectividad de estas tecnologías. Es necesario disponer de información para responder a
la pregunta: ¿cuáles son el odds ratio y el nivel de evidencia científica (validez del estudio)
a partir de los que debería ser obligatorio llevar a cabo algún test farmacogenético antes
de prescribir un determinado fármaco antineoplásico? Existen algunos ejemplos en el
área de conocimiento de la terapia oncológica (28-30) que permiten documentar el
concepto de selección terapéutica basada en el diagnóstico farmacogenético y que
demuestran que este procedimiento puede llegar a formar parte de la práctica clínica
rutinaria (4).
Otro aspecto que hay que tener en cuenta es que muchos de los estudios farmacogenéticos
se han llevado a cabo entre voluntarios sanos y, consecuentemente, han tendido a utilizar
bajos niveles de dosificación para analizar principalmente los parámetros farmacocinéticos.
Además, la ausencia de información farmacocinética en relación con posibles cambios de
dosificación y de concentración podría explicar algunas discrepancias que se han
evidenciado entre los datos farmacogenéticos experimentales y las observaciones realizadas
tras la utilización terapéutica en la práctica clínica (4).
22
TABLA 1. DISEÑO DE ESTUDIO FARMACOGENÉTICO EN DESARROLLO CLÍNICO.
fuente: Kirchbeiner et al (8).
TIPO DE ESTUDIO
FARMACOGENÉTICO
APLICACIÓN EN EL
DESARROLLO DE
MEDICAMENTOS
Estudio farmacogenético
controlado con voluntarios.
Estudio de panel**
TAMAÑO TÍPICO
DE LA MUESTRA
(SUJETOS)
VENTAJAS
DESVENTAJAS
VALIDEZ*
Fase I
Frecuencias
poblacionales de
fenotipo y de
genotipo.
Tamaño de
muestras grande
en caso de
genotipos raros.
50-1.000
(voluntarios sanos)
Alta validez
interna/moderada
validez externa.
Fase I
Alta potencia.
Acumulación de
genotipos raros.
Rara vez refleja
resultados clínicos.
12-50
(voluntarios sanos)
Alta validez
interna/baja validez
externa.
Estudio de cohorte
farmacogenético.
Fase II-III
Evaluación del riesgo
relativo para la falta de
respuesta o los efectos
adversos y el número
de sujetos necesarios
para ser genotipados.
Costes altos.
Requiere una
elevada tasa de
reclutamiento.
300-3.000
(pacientes)
Alta validez
interna y externa.
Casos clínicos y series
de casos relacionados
con un polimorfismo.
Vigilancia
poscomercialización.
Alta sensibilidad para detectar
un posible problema
importante para la seguridad
del medicamento.
No hay pruebas de
relación causal.
1-10
(pacientes)
Relación de
causalidad
habitualmente
no válida.
Estudio de casos-controles.
Vigilancia
poscomercialización.
Viabilidad razonable y
potencia estadística.
Sesgo de selección.
Otros tipos de error
sistemático.
20-500
(pacientes)
Moderada validez
interna y externa.
Estudio de casoscontroles “anidado”.
Fase II-III
Viabilidad razonable y
potencia estadística pero
mayor validez que el estudio
de asos-controles simple.
No es posible si no se han
obtenido los datos, los
materiales biológicos y el
consentimiento.
20-500
(pacientes)
Alta validez interna
y externa.
Ensayo diagnóstico
controlado y aleatorio basado
en la farmacogenética.
Diagnósticos basados en
la farmacogenética.
Prueba del beneficio de los
diagnósticos concomitantes
basados en la farmacogenética.
Estudio caso.
200-2.000
(pacientes)
Validez interna y
externa más alta.
* Alta validez interna significa que los factores de confusión se han eliminado con éxito. Alta validez externa significa que los resultados de un estudio pueden
extrapolarse a la población general. El juicio sobre la validez de estos diseños de estudio diferentes sólo puede ser estimado y dependerá del objetivo específico
del estudio. Este juicio se basa en el prerrequisito de que cada estudio se lleva a cabo bajo las condiciones óptimas establecidas para estos diseños de estudio (por
ejemplo, un ensayo diagnóstico controlado y aleatorio basado en la fármacogenética que se realiza mal puede ser incluso menos sólido que un estudio de casoscontroles realizado de forma excelente).
**Estudio en panel es un término que se usa específicamente para describir un estudio que compara subgrupos que fueron preseleccionados sobre la base de
marcadores farmacogenéticos (fenotípico o genotípico).
Pedro Serrano Aguilar. Servicio de Evaluación de Tecnologías Sanitarias del Servicio
Canario de la Salud. Centro de Investigación Biomédica en Red de Epidemiología y Salud
Pública (CIBERESP)
María del Mar Trujillo Martín. Fundación Canaria de Investigación y Salud (FUNCIS).
visítanos en internet
www.proyectonets.org
23
www.proyectonets.org
"La descoordinación nos sale
demasiado cara, deberíamos
fomentar alianzas (...) entre todos
los miembros del sector"
LA CRISIS, LA EVALUACIÓN DE TECNOLOGÍAS Y LAS OPORTUNIDADES
PERDIDAS. ORIOL SOLÀ-MORALES.
Dicen algunos que nos acercamos al final de la crisis global en la que estamos sumidos.
¡Celebrémoslo por si fuera cierto!, porqué tengo mis dudas a que hayamos sabido
aprovechar la dureza de esta crisis para plantear siquiera algunos de los problemas que
teníamos planteados.
ORIOL SOLÀ-MORALES
Desde la perspectiva de la evaluación de tecnologías (ET), la crisis llegó en un momento
de gran protagonismo de las mismas, con el Plan Nacional de Calidad para el Sistema
Nacional de Salud en marcha y unas dotaciones económicas generosas, una alta prioridad
en el momento político y hasta un cierto consenso de que eso debía mantenerse así.
Lamentablemente la virulencia de la crisis ha hecho que lo urgente pase por delante de
lo importante y que lo imprescindible anteceda a lo necesario. Sea o no cierto que la crisis
está amainando (aunque así fuera los daños para muchos serán muy lentamente si acaso
recuperables) me parece un buen momento para poner de manifiesto algunas reflexiones;
unas porque la crisis las ha puesto de manifiesto, otras para intentar recuperar el tiempo
perdido poniéndolas en la agenda de nuevo.
Coordinación.
Los esfuerzos a nivel nacional e internacional no han cesado para evitar la duplicación de
trabajos, y si bien es cierto que se ha mejorado y/o se avanza (lentamente y quizás por
algún camino demasiado largo o no muy claro). Lo primero que hay que decir es que en
todos los sectores se producen duplicaciones, y que la coordinación perfecta sólo es
posible a través de estructuras fuertemente jerarquizadas que no responden al modelo
actual de ET.
Dicho esto, es justo reconocer que el proyecto europeo EuNetHTA, en el que participan
todas la agencias y unidades de evaluación españolas, se encuentra en este momento en
una encrucijada. Por un lado se espera la resolución de la Comisión Europea en cuanto a
un proyecto colaborativo (Joint Action) que en principio es bien acogido por la
administración europea pero que está fundamentalmente apoyado por la potente industria
farmacéutica que ve de esta manera una oportunidad para mejorar su capacidad de acceso
a los 27 mercados a través de una única puerta. Y por otro lado están algunas voces que
claman contra la financiación de otro proyecto de coordinación de ET (y sería el cuarto)
sin haber obtenido hasta ahora resultados que lo justifiquen, y también están los que ven
en esta red una trampa para la regulación de la prestación sanitaria en los distintos estados
miembros.
El proyecto AUNETS de base española sigue dando los mismos frutos que en el pasado,
con limitaciones a la hora de la coordinación probablemente más por desídia de los socios
que por falta de oportunidades. ¡Lo que no funciona ni a nivel europeo ni a nivel de España
son los incentivos! Pocos tienen (tenemos) un incentivo a ceder parte de su soberanía a
una red, y quizás es porque la ET se encuentra a medio camino entre la investigación
académica y el servicio a un sistema sanitario. Por supuesto que el incentivo no es la
creación de una estructura lejana y con sistemas de gobierno poco participativos y
transparentes, sino aprovechar algunas sinergias más o menos naturales para crear desde
abajo (bottom-up approach) una verdadera red de intercambio de información. Igualmente
necesaria es la creación de elementos, espacios de comunicación virtuales en los que la
25
aportación sea homogenea, en la que todos salieran ganando y donde los más pequeños
valgan tanto como los más grandes. La descoordinación nos sale demasiado cara, y en
tiempos de crisis deberíamos aprovechar para fomentar alianzas que con una inversión
mínima permitan compartir documentos a todos los niveles, no sólo entre las agencias y
unidades de evaluación de tecnologías sino también entre todos los miembros del sector,
públicos y privados. Otra cosa es valorar si habría que ceder o vender a estos terceros los
documentos (teniendo en cuenta que, erróneamente, tendimos a pensar que lo que hay
que pagar es mejor).
Y la coordinación debe ir acompañada necesariamente de una política adecuada de
diseminación. ¡No parece lógico que unos (marketing directo) puedan hacer llegar al
buzón o teléfono de mi casa información no deseada ni relevante con los datos
perfectamente actualizados y nosotros no seamos capaces de hacer llegar información
relevante a individuos motivados!.
Los envíos postales no son ya una opción, y los emails masivos (virales) tampoco. Tenemos
alcance profesionales de la comunicación capaces de contactar con los interlocutores
apropiados y de convertir documentos de difícil digestión en amenos pasatiempos. Es de
nuevo un problema de eficiencia del proceso productivo, en el que cada una de las partes
puede y debe ser mejorada.
Eficiencia.
Oriol Solà-Morales también ha
publicado en NETS el artículo
PLANIFICACIÓN Y ANÁLISIS DE LA
EFICIENCIA que puedes encontrar en
www.proyectonets.org en la sección
"tecnología y eficiencia", este artículo
ha sido publicado también en el
número 01 de NETS Innovación y
Tecnología en la Salud.
Aceptamos todos que la elaboración de documentos de ET son largos y que los tiempos
no coinciden necesariamente con los de la toma de decisiones. Así, muchas de las decisiones
se toman sin o antes de la evidencia. Habría dos posibles soluciones a este problema:
modificamos los tempos o modificamos los temas a estudiar. Respecto de los segundo,
una reciente encuesta a responsables de aseguradoras privadas mostraba claramente
que los decisores están dispuestos a sacrificar parte del nivel de evidencia (en favor de
consenso de expertos) para tener respuestas más rápidas; sus fuentes de información no
son las revisiones sistemáticas (en realidad sólo son usadas de forma ocasional) sino
documentos comerciales. Deberíamos reflexionar sobre esto y plantearnos si estamos
respondiendo preguntas relevantes para el sistema o para los propios investigadores. O
como decía Sean Tunis (Institute of Medicine), quizá debemos pasar de le toma de decisiones
basada en la evidencia a la evidencia basada en la toma de decisiones.
En cuanto a lo primero, también disponemos de suficiente (ahora sí) evidencia que nos
indica que un porcentaje muy elevado (87%) de la información se encuentra en cuatro
bases de datos documentales (Embase, PubMed y Cochrane) , y que este porcentaje
aumenta más todavía cuando se asocian un par de bibliotecas más. La pregunta que hay
que hacerse entonces es: ¿porqué malgastamos tanto tiempo en escudriñar bibliotecas
para obtener sólo beneficios marginales escasos? Deberíamos reflexionar también si
debemos premiar la exhaustividad o la oportunidad, y como he dicho antes creo que el
ambiente académico premia en estos momentos la exhaustividad.
Efectividad.
Basamos muchas de nuestras recomendaciones en datos de eficacia, y no llegamos a
demandar datos de efectividad (no entraremos en el tema eficiencia por sabido y por
cansancio). Resulta que recomendamos tomar decisiones a partir de datos quizás no
pobres pero si incompletos y aceptamos todo tipo de proxys en la evaluación a largo plazo
de las políticas implementadas.
En el momento actual, debemos exigir tomar decisiones en base a la mejor información
disponible, y cuando esa no sea suficientemente robusta o no exista la información
referente a la efectividad debemos pretender obtener esos datos. Y deben ser los promotores
quienes de una forma u otra asuman parte del riesgo de que esas tecnologías se demuestren
ineficaces, ya sea mediante contratos de riesgo compartido o con otros arreglos múltiples.
Lo que no debe seguir ocurriendo es que el sector público asuma sin más las ‘aventuras
tecnológicas’ del momento, igual que no haría ninguna otra empresa.
26
En los últimos tiempos vemos aparecer con fuerza el concepto de la Eficacia Comparada
y por extensión la Investigación en Eficacia Comparada { }. Habría que estimular la
introducción de las metodologías que acompañan esta nueva disciplina también a todos
los niveles, no solo en las grandes organizaciones siendo al mismo tiempo muy conscientes
que los experimentos naturalísticos están muy expuestos a todo tipo de sesgos: por tanto,
capilarizar la idea de la efectividad asociada a un soporte metodológico suficiente para
no incorporar falsas conclusiones.
En conclusión, la crisis nos ha centrado excesivamente en la cuenta de resultados y el hoy,
y hemos perdido parte del momento que habíamos conseguido con la ET. La perspectiva
más a medio plazo es lo que justifica la ET, pero debemos también pensar en qué reformas
hacemos hoy para que almenos hayamos sacado algo positivo de la crisis. No podemos
volver a la ‘normalidad’ sin que nada haya ocurrido, sin que nuestras organizaciones y
sistemas hayan modificado en lo más mínimo sus procedimientos de trabajo, porque en
realidad sólo habremos ‘engordado’. Hay que ganar músculo y perder peso, y las actuaciones
pueden estar entre otros lugares en mejoras en la coordinación, una mirada menos
académica y más de servicio y en unas evidencias basadas en efectividad.
Referencias:
1. Schur C, Health Affairs 28, no. 5 (2009):
w886–w899 (published online 11
August 2009;
10.1377/hlthaff.28.5.w886)]
2. Royle P, Waughn N. Literature
searching for clinical and costeffectiveness studies used in health
technology assessment reports carried
out for the National Institute for Clinical
Excellence appraisal system. Health
Technol Assess 2003; 7 (34)
3. Hailey D, Johnson E, Jacobs P.
Comparative Effectiveness: an overview.
IHE Brief, IHE 2009 (Alberta, Canada)
Oriol Solà-Morales. Director Agència d´Avaluació de Tecnologia i Recerca Mèdiques.
"La fijación en la optimización del
quirófano (...) relega a un segundo
plano el objetivo principal que es
restaurar la salud del paciente"
LA EFICIENCIA DEL BLOQUE QUIRÚRGICO: PERSPECTIVAS DESDE EL
SISTEMA PRIVADO O PÚBLICO DE SALUD. Dr. LUIS QUECEDO y EVA
MELGAR.
Dr. LUIS QUECEDO
Un aspecto fundamental en la evaluación de la gestión de las diferentes organizaciones
sanitarias es la capacidad de identificar y separar aquellos centros, unidades o
departamentos eficientes. La información obtenida a través de la evaluación de la eficiencia
puede ser de utilidad en diversos niveles de la gestión, identificando las mejores y las
peores prácticas asociadas con una elevada o reducida eficiencia y productividad,
respectivamente.
Es evidente que la eficiencia es un concepto relativo. De hecho, el análisis de frontera
(“benchmark”) es básicamente una forma de llevar a cabo una comparación respecto de
una referencia de la eficiencia relativa de una unidad de decisión. Farrell (1957) propuso
que la medida de eficiencia se compone de dos elementos: eficiencia técnica (ET) que
refleja la habilidad de obtener el máximo nivel de producción con unos recursos dados,
y eficiencia asignativa, que corresponde a la capacidad de utilizar los recursos de acuerdo
con las proporciones óptimas, dados sus respectivos precios. La frontera de producción
representa el nivel máximo de producción que se puede obtener para cada nivel de
recursos.
EVA MELGAR
El bloque quirúrgico comprende aproximadamente el 10-15% del presupuesto realizándose
el 50% de los procedimientos del Hospital. Los indicadores de su actividad se centran en
el recurso “quirófano”, estos reflejan no sólo la intensidad de actividad realizada sino el
27
grado de optimización de dicha área. Habitualmente se han utilizado indicadores como
el número de intervenciones, número total de intervenciones por sesión quirurgica,
duración media de las intervenciónes, rendimiento o índice de ocupación de quirófano
entre otras. El índice de ocupación de quirófanos es uno de los más extendidos y utilizado.
Sin estudios que avalen su definición, se ha establecido por la mayoría de directores de
bloques quirúrgicos una cifra alrededor del 80% como óptima e ideal. Cifras por encima
podrían bloquear el acceso a nuevos cirujanos y por debajo de 50% no permiten una
buena coordinación de los equipos, cirugía, enfermería y anestesia, entre sí.
Macario (2007) describe una serie de posibles indicadores útiles para valorar la calidad y
la optimización del bloque quirúrgico. Diseña un sistema de puntuación de 8 indicadores
de rendimiento:
1. Costes del exceso de plantilla.
2. Retraso en la hora de inicio (retraso medio de los tiempos de inicio para cirugía
programada por quirófano por día).
3. Tasa de cancelaciones.
4. Retrasos en el ingreso en la Unidad de Reanimación Postanestésica (% de días de trabajo
con al menos una demora de 10 minutos o más en el ingreso en Reanimación porque
esta unidad está llena).
5. Margen de beneficio medio por hora del bloque quirúrgico.
6. Tiempos de transición (tiempos de transición medios para la preparación y limpieza
para todos los casos).
7. Sesgo de predicción (sesgo en la duración del caso estimada por 8 horas de tiempo de
quirófano).
8. Transiciones prolongadas (% de transiciones de más de 60 minutos).
Jordi Colomer del hospital de
Viladecans comentó el artículo en
www.proyectonets.org:
Una realidad es el coste de un quirófano
vació sin razón. Desgraciadamente
poca gente es consciente de que
representa cada minuto sin usar el
quirófano (hacer el cálculo) y lo peor
cuantas intervenciones se dejan de
hacer por ello. Las direcciones y
profesionales de todo tipo
lamentablemente estan muy
pendientes de los costes pero no de lo
que cuesta y poco de cómo se hacen las
cosas. Po rtodo ello el quirófano es caro,
es decir, ineficiente si no sabemos los
resultados. A estas alturas conscientes
de que el 40% de los efectos adversos
pasan en el bloque quirúrgico se nos
tiene que recordar que lavarse las
manos, señalar la zona para intervenir
y comunicarse entre los profesionales
quirúrgicos hay una disminución de los
efectos adversos. Así de sencillo, y así de
complicado por lo que se deduce. Si nos
orientaramos más a proceso que
contempla actividad, coste y calidad,
los indicadores estarían basados en los
tres vértices de un triangulo que debería
ser equilátero. Felicidades por la
reflexión a Luis y a Eva.
28
Como se observa, las recomendaciones de los directores de bloques quirúrgicos para
optimizar sus quirófanos se ven salpicados por connotaciones económicas donde se da
una extraordinaria importancia a la reducción de los tiempos de transición operatorios y
costes de sobreproducción. La cuestión es si dichas consideraciones tienen la misma
relevancia en nuestro entorno, dada la diferencia de los sistemas de salud y sobretodo de
los costes de personal.
En nuestro entorno la mayor parte del consumo del tiempo quirúrgico lo realizan los
cirujanos en su intervención. Por ello es lógico pensar que la selección de aquellos
facultativos mejor capacitados tanto en conocimientos como en habilidad práctica van
a ser la mejor fuente de ahorro y beneficio. ¿Realmente se seleccionan los mejores en
nuestro sistema de salud?. Obviamente no, damos por hecho que tenemos los mejores.
Y es frecuente que cirujanos con resultados quirúrgicos pobres, mantengan una elevada
tasa de frecuentación en el quirófano al no existir mecanismos de evaluación de
competencia profesional. En los centros de titularidad privada sin embargo, existe una
selección natural de los facultativos, retirando privilegios o relegando a aquellos cirujanos
cuya rentabilidad sea menor, es decir, que empleen mucho tiempo quirúrgico, elevado
gasto de material y sean frecuentes las complicaciones postoperatorias.
Las cifras de ocupación tienen tambien lecturas diferentes segun la titularidad del centro.
La importancia que reconoce Macario en el punto referente a las prolongaciones de
quirófano no tiene paralelismo en nuestro sistema. El coste de personal por hora de
prolongación es ridicula si la comparamos con otros países occidentales, en el caso no
infrecuente que dichas horas no sean remuneradas y el personal excepto cirujanos sean
relevados en la prolongación por el personal de urgencias (enfermeros y anestesiólogos),
constatar en este punto el impacto de la precariedad del empleo para influir en dichas
prácticas. Tampoco el tiempo de acceso al área de readaptación al medio o reanimación
tiene paralelismos con otros sistemas sanitarios, en muchos centros privados el paciente
se dirige directamente a su habitación para disminuir su factura o hace el tiempo de espera
en el antequirófano. En centros públicos el número de camas de reanimación no está
adpatado al de quirófanos ocurriendo demoras o altas precoces no recomendables,
mermando la calidad asistencial. La siguiente consideración que habría que hacerse sería
cuantos centros de titularidad pública reciben inspecciones periódicas de la estructura
de su bloque quirúrgico y si estas existen, si son tan exhaustivas como las que se realizan
en los centros privados.
Los quirófanos de urgencia se han convertido también en parte de un mecanismo de
optimización del bloque quirúrgico. Normalmente la programación del bloque se
recomienda realizarse semanalmente y dejando “abierto” un 20% del tiempo para aquellas
intervenciones que no siendo urgentes no son demorables mas de 24-48 horas. Aun a
pesar de la voluminosa literatura que evidencian mayores complicaciones postoperatorias
en pacientes intervenidos por equipos de guardia, cada vez es mayor la cifra de
intervenciones en las guardias y en horas nocturnas. Muchos son los factores que intervienen
en la decisión de operar urgentemente pacientes que podrían programarse electivamente
optimizados para ello, uno de ellos es claramente su rentabilidad, generada porque los
costes del personal y la disponibilidad nocturna del quirófano son costes hundidos, es
decir se imputan se haga o no la intervención.
El producto final del bloque quirúrgico como del resto de las unidades y centros es la
producción de salud y no la actividad y el número de intervenciones. Por lo tanto un centro
eficiente es aquel que produce mejores resultados en salud con el menor coste posible.
Muchos son los matices a partir de este principio básico de eficiencia, Por ello, la eficiencia
se puede considerar desde diversos puntos de vista y el tratamiento es muy distinto según
el actor implicado que la valore. La fijación exagerada en la optimización del quirófano
como mecanismo de incrementar el número de intervenciones relega a un segundo plano
el objetivo principal que es restaurar la salud del paciente.
Los directores de bloque quirúrgico y las unidades de gestión centran demasiado su
atención en las cifras relativas a la producción neta del numero de intervenciones, en la
reducción de los tiempos de recambio o de anestesia y en la distribución de los partes de
quirófano para optimizar su rendimiento. Sin embargo, aunque implementan y apoyan
circuitos de mejora de la calidad asistencial la impresión en el resto de los actores implicados
en el funcionamiento del bloque quirúrgico, es el de un papel secundario y prescindible
de la calidad asistencial.
Los matices de la eficiencia dependen en la práctica de los diferentes puntos de vista de
los agentes o actores implicados: gerentes, directores de bloque quirúrgico, cirujanos,
anestesiólogos y enfermeras, y por último, por el tipo de titularidad del centro o tipo de
retribución de la actividad. Sin embargo para el principal implicado, el paciente, la eficiencia
de los quirofanos no debe perder el norte en el matiz de la producción de salud, más salud
y al menor coste posible.
Dr. Luis Quecedo. Anestesista. Hospital de La Princesa de Madrid.
Eva Melgar. Enfermera.
Bibliografía:
Macario A. Are your operating rooms
'efficient'?. Or Manager. 23(12):16-8,
2007 Dec.
Macario A. Are your hospital operating
rooms "efficient"? A scoring system with
eight performance indicators.
Anesthesiology. 105(2):237-40, 2006
Aug.
www.proyectonets.org
29
"hay que fomentar los lazos entre
las compañías innovadoras y las
organizaciones sanitarias (...)"
¿QUÉ ES ESTO DE LA CUARTA GARANTÍA? Dr. JUAN DEL LLANO,
JOSÉ Mª ABELLÁN y JOSÉ LUIS PINTO.
Dr. JUAN DEL LLANO
JOSÉ Mª ABELLÁN
La situación.
En situaciones de crisis ecónomica, desacelaración y hasta decrecimiento, los recursos
públicos son cada vez más escasos siendo esencial elegir entre las distintas alternativas
posibles de la forma más racional e informada posible. Una correcta asignación es pues
crítica. Por este motivo, la evaluación económica se está convirtiendo en una Herramienta
imprescindible en el proceso de toma de decisiones. Si se acepta la pertinencia y la
legitimidad de la eficiencia como uno de los criterios de decisión, parece lógico concluir
que es necesario, o por lo menos conveniente, recurrir a los mejores instrumentos y
métodos disponibles para su cuantificación. Las técnicas de evaluación económica
constituyen el conjunto de herramientas que permiten tomar decisiones de asignación
de recursos de forma más rigurosa y consistente. En algunos países y contextos se utilizan
de forma explícita y sistemática, para informar decisiones tales como el establecimiento
del precio o la financiación, por un tercer pagador, de medicamentos y tecnologías
sanitarias. En otros se utilizan de forma discrecional y poco transparente. Finalmente, en
un tercer grupo de países entre los que posiblemente se incluiría España, la evaluación
económica se utiliza de forma esporádica en la toma de decisiones y parece constituir
más bien una forma de justificación de decisiones tomadas con criterios distintos a la
eficiencia, o simplemente como un instrumento de promoción de nuevas tecnologías que
se pretende introducir en la práctica clínica. Todo ello ha llevado a una cierta desconfianza
hacia los estudios de evaluación económica, cuya metodología se considera manipulable
y manipulada en función de los intereses particulares de sus promotores.
Una de las opciones que se ha propuesto para mejorar esta situación es la que aboga por
asegurar transparencia y reproducibilidad de los estudios, sobre la provisión de un conjunto
de bienes públicos y colectivos en los que se pueda apoyar la aplicación de la evaluación
económica a casos concretos. Es en esta cuestión donde las reflexiones vertidas en las
páginas siguientes pretenden ser de ayuda.
El diagnóstico.
JOSÉ LUIS PINTO
30
Las pruebas que sustentan nuestro diagnóstico proceden de un estudio de revisión
abordado por los autores sobre la experiencia internacional en materia de “cuarta garantía”
(1); expresión por la que optamos frente al término (peyorativo a nuestro juicio) de “cuarta
barrera” (fourth hurdle). En nuestra opinión, la presunta “barrera” de la evaluación económica,
entendida ésta como un criterio para informar las decisiones de reembolso y fijación de
precio de nuevos medicamentos y tecnologías, es en realidad una “garantía” de acceso al
sistema sanitario público de aquellos productos que se revelan como eficientes. Bajo este
punto de vista, la evaluación económica sirve para recompensar adecuadamente a aquellos
fabricantes cuyas tecnologías son lo suficientemente “meritorias” en el plano costeefectividad, al tiempo que asegura al financiador público que dichas tecnologías “valen
lo que cuestan”. La cuarta garantía o, si se prefiere, cuarto mérito, persigue ganancias de
eficiencia, no de ahorro de costes, lo cual no obsta para que pueda producirse ese ahorro.
Esto dependerá de cuáles sean las tecnologías seleccionadas para ser evaluadas (por
ejemplo, muy caras y dirigidas a colectivos de pacientes reducidos o menos caras pero de
uso generalizado) y de cómo se concilie la evidencia económica favorable a la financiación
de una nueva tecnología con el impacto presupuestario correspondiente.
La revisión de la evidencia internacional sobre la instauración de sistemas nacionales de
cuarta garantía nos permitió observar varias realidades. Por un lado, hay un conjunto
destacado de países (Australia, Finlandia, Reino Unido, Suecia, Canadá, Holanda) que
exigen de manera obligatoria la evaluación económica de las tecnologías que aspiran a
ser financiadas con fondos públicos. En la mayoría de los casos, la cuarta garantía sólo
atañe a medicamentos y tecnologías de nueva factura, si bien unos pocos sistemas incluyen
además otro tipo de tecnologías (aparatos y procedimientos). Un segundo grupo de
naciones, utilizan de manera discrecional la cuarta garantía (Alemania, Irlanda, Portugal).
Para otros países (Italia y Francia) la presentación de evidencia coste-efectividad es
voluntaria y/o recomendada. Queda en último lugar casos como el de España, en el que,
si bien parece observarse en años recientes una cierta efervescencia en el empleo de la
evaluación económica en el SNS, ni el marco regulador existente, ni las instancias decisorias
más elevadas, terminan de dar forma a un sistema de cuarta garantía homologable al de
otros países del entorno europeo.
El balance acerca de la repercusión que, en la práctica, tiene la cuarta garantía sobre las
decisiones de financiación de las agencias de reembolso de los países analizados está
limitado por la escasa información disponible. No obstante, pueden extraerse conclusiones
interesantes. Para empezar, resulta relativamente frecuente que los comités de cuarta
garantía recomienden la financiación de la tecnología bajo revisión, pero casi siempre de
un modo cualificado (esto es, restringido a determinadas indicaciones y grupos de
pacientes). Esto parece bastante claro en el caso del NICE, mientras que el sistema
canadiense es mucho más duro a este respecto, exhibiendo una tasa de rechazo de nuevas
tecnologías superior al 50%. Por su parte, el grado de consistencia que muestra la evidencia
económica aportada por la industria, con las directrices de las guías de evaluación
económica elaboradas por las agencias de cuarta garantía, tan sólo es regular. Parecen
existir, no obstante, ciertos indicios (tímidos, bien es cierto) de que las exigencias
provenientes de organismos como el NICE pueden estar favoreciendo la cantidad y calidad
de evaluaciones económicas realizadas por la industria. Asimismo, parece que, al menos
en el caso del NICE, poseer una ratio coste-efectividad por encima de un umbral considerado
“aceptable” puede privar a la tecnología en cuestión del reembolso. Finalmente, no siempre
se verifica el nivel de coherencia que sería deseable entre las recomendaciones efectuadas
por los comités de cuarta garantía y las instituciones de reembolso, ni tampoco, aun en
los casos en los que sí se comprueba dicha coherencia, puede concluirse una correlación
firme entre dichas recomendaciones y los niveles de consumo y coste de las tecnologías
evaluadas.
Por último, los resultados de nuestra revisión sobre la cuarta garantía fueron objeto de
análisis y debate en un grupo de discusión formado por reconocidos expertos. Los panelistas
señalaron que la ausencia de sistemas de información sanitaria apropiados constituye un
considerable obstáculo práctico a la implantación de la cuarta garantía en nuestro país.
También se señalaron dos requisitos imprescindibles para el desarrollo normativo y técnico
de la cuarta garantía en España. Estos son la transparencia (criterios, información,
herramientas y resultados disponibles para todos los agentes) y la estandarización
metodológica (un listado de costes estándar o una guía de evaluación económica de
tecnologías sanitarias que cuente con el consenso de todos los agentes implicados, así
como con el respaldo oficial de las autoridades sanitarias).
La Fundación Gaspar Casal publicó en
2008 una revisión de las guías de
evaluación económica y de las
experiencias de Cuarta Garantía junto
a una investigación cualitativa acerca
de la implantación de la Cuarta
Garantía en España bajo el título de
"Eficiencia y Medicamentos: Revisión
de las Guías de Evaluación Económica.
La Cuarta Garantía" donde se recogen
colaboraciones de José María Abellán,
José Luis Pinto, Marco Barbieri, Carlos
Polanco y Juan del Llano. El libro fue
editado por Sanofi-aventis.
La terapia.
Es indudable que el gasto en nuevos medicamentos y tecnologías en nuestro país y en
todos los del entorno europeo, crece robustamente. Sin embargo, este hallazgo en sí
mismo debería ser neutro y no generar controversia. Lo relevante no es que crezca sino
que lo que gastemos con el dinero público sea en tecnologías que merezcan la pena, que
produzcan ganancias en salud objetivas, o dicho en términos económicos, que los beneficios
que aportan estos nuevos medicamentos y tecnologías sean mayores que sus costes en
términos marginales. Así, el incremento del gasto tendría un beneficio marginal positivo
y sería adecuado. Sin embargo, si esto no sucediera, el incremento del gasto sería ineficiente
y generaría un injusto reparto de los recursos sanitarios que siempre serán escasos. Por
lo tanto, el problema no es gastar más o menos, sino más bien cómo gastamos y en qué.
31
El sentido común nos dice que lo primero sería asegurarnos que los medicamentos y las
tecnologías nuevas se utilizan adecuadamente, ya que el mal uso es un muy serio problema
de salud pública y económica. La medicalización de la vida cotidiana no es un tema baladí.
El objetivo, considerando los aspectos éticos, debe ser fomentar la eficiencia y no la mera
contención de costes.
El posible establecimiento de la cuarta garantía en España beneficiaría a todos los agentes
implicados: pacientes, profesionales, administración e industria. A los pacientes se les
pone a su alcance los mejores y más innovadores fármacos/tecnologías garantizando su
acceso de forma equitativa y en tiempo. A los profesionales se les dota de instrumentos
para prescribir medicamento, autorizar técnicas teniendo en cuenta la relación entre coste
y resultados en salud. La administración puede que gaste menos o no, pero gastará mejor
y sólo en lo adecuado. La industria realmente innovadora ganará pues se identificarán los
productos eficientes frente a los que no lo son, incentivando la inversión al conseguir
precios adecuados al valor que aporta cada innovación. En definitiva, ganariamos todos
pues mejoraría la eficiencia global del sistema.
El tema que nos ocupa es todo menos instrascendente. El sustancial impacto sobre la
economía nacional y el bienestar social de las regulaciones sobre la salud y la seguridad,
exige que las decisiones regulatorias estén basadas en análisis de alta calidad, donde los
resultados y las limitaciones estén claramente escritos y su lenguaje sea entendido por
todos los agentes del sector. Las medidas de beneficios deben poder ser aplicadas a un
amplio rango de problemas de salud, por lo que las características de la población afectada,
o del riesgo señalado han de ser detectadas en su medición. Los análisis de incertidumbre
y de sensibilidad son precisos en toda documentación regulatoria. Las medidas de coste
han de ser estandarizadas y consensuadas entre todos los agentes del sistema sanitario.
Las bases de datos de costes unitarios han de ser desarrolladas en un esfuerzo conjunto,
han de estar fácilmente disponibles y accesibles (de dominio público) y han de ser
actualizadas periódicamente.
Qué duda cabe que los procesos regulatorios por su importancia económica y social han
de ser transparentes. Han de ser comunicados de forma comprensible a muy distintos
tipos de audiencia, desde la compañía que quiere introducir un nuevo medicamento o
una nueva tecnología en el mercado hasta la asociación de afectados por una enfermedad
rara. Los decisores (gobiernos) han de facilitar la implicación de los individuos, poblaciones
y organizaciones afectadas por las regulaciones a través de deliberaciones sobre su impacto
en los riesgos para la salud y la seguridad. Es preciso que los objetivos sean claros y
producto del acuerdo previo entre todos los agentes involucrados; alineados en cualquier
caso para mejorar los procesos de rendición de cuentas. Asimismo deberían existir estrechas
relaciones con el/los organismo/os que pagará/n la factura, siendo el proceso de decisión
necesariamente sistemático. Finalmente, siempre es conveniente conocer los precedentes
(expericiencias previas) y todos los posibles impactos de las decisiones.
Referencias:
Del Llano J, Abellán JMª, Pinto JL,
Barbieri M, Polanco C. Eficiencia y
Medicamentos: Revisión de las Guías
de Evaluación Económica.
La Cuarta Garantía. Editado por
Sanofi-aventis. Barcelona 2008. ISBN:
978-84-691-2988-3.
Para mejorar la competitividad del sector salud hay que fomentar los lazos entre las
compañías innovadoras y las organizaciones que forman parte del sistema científico de
alta calidad, conciliando las políticas sanitarias con las de control de precios, incluyendo
los costes de la innovación. La cooperación se hace precisa. El camino nos ha de llevar a
que los bien conocidos criterios para las decisiones de reembolso -valor terapéutico o
diagnóstico, coste efectividad, coste beneficio y carga de la enfermedad- cuenten con
sistemas de información que hagan posible su medición sólida y no sesgada.
Por último, España precisa dotarse como país de información consistente y transparente
para el análisis de las regulaciones en su más amplia consideración. Ello forma parte del
proceso político de rendición de cuentas habitual en toda democracia firme, donde los
representantes informan periódicamente a los representados.
Dr. Juan del Llano. Director de la Fundación Gaspar Casal.
José Mª Abellán. Profesor Titular de Economía Aplicada, Universidad de Murcia.
José Luis Pinto. Catedrático de Economía Aplicada, Métodos Cuantitativos e Historia
Económica, Universidad Pablo de Olavide de Sevilla.
32
"El modelo de valoración de la
utilidad terapéutica de las nuevas
tecnologías es poco trasparente y
tiene un marcado peso político"
A VUELTAS CON LA UTILIDAD TERAPÉUTICA. NAZARET TORRALBA,
GEMA PI y Dr. JUAN DEL LLANO.
El modelo español de valoración de la utilidad terapéutica de las nuevas tecnologías y
medicamentos actual es poco trasparente desde el punto de vista técnico y tiene un
marcado peso político. Se acerca el momento de encarar reformas profundas que permitan
definir y acordar, el concepto de utilidad, ligándolo a las consecuencias lógicas que de
ello debieran derivarse, es decir, sacar del sistema de cobertura todo aquello que no es
útil, cuando no iatrogénico, y que, por ejemplo en los EEUU, puede significar un 30% del
su gasto sanitario que alcanza el 15% del PIB. Descuidar el componente técnico en el
proceso de dicha valoración, genera agravios y hace difícil la racionalidad. Reconsiderar
el papel del Estado, las CCAA y mejorar la gestión pública sería condición sine qua non.
Conviene recordar como hace Ortún (1), los condicionantes que afectan a los actores. Por
un lado, políticos atentos a la urna, sensibles -en ocasiones- a los intereses creados y a la
posibilidad de una buena salida profesional en la propia industria. Por otro lado,
profesionales sanitarios deseosos tanto de rentas más elevadas como de mayor autonomía
en sus decisiones. En ambos casos inmersos en una situación en la que numerosos aspectos
de la práctica profesional –información, formación, difusión, investigación, equiposdependen de la industria farmacéutica y también de las de empresas de tecnologías
sanitarias. Dichas compañías, a menudo con problemas de imagen, responden ante sus
accionistas y saben que la Bolsa valora la responsabilidad social de las empresas en la
medida en que las ayude a ser más rentables. La presión de grupos interesados puede
ayudar a crear conciencia social que sea reconocida por el mercado, aunque no es misión
de las empresas trabajar por unas sociedades más justas. Esto es tarea del Estado.
NAZARET TORRALBA
GEMA PI
La negociación de precios por parte de los financiadores públicos afecta a toda nueva
tecnología, incluyendo medicamento, que se integre en el paquete básico de prestaciones.
Este paquete es probable que venga cada vez más definido por la efectividad relativa
(utilidad terapéutica) y por el umbral, implícito o explícito, de euros por año de vida
ajustado por calidad, junto a consideraciones de renta y de preferencias reveladas o
declaradas (2). Los informes de una agencia europea podrían orientar a las decisiones
sobre precios de los financiadores públicos.
La pérdida de competitividad en Europa y su incapacidad de generar, organizar y mantener
en el tiempo procesos de innovación cada vez más caros y difíciles, hacen que avancemos
irreversiblemente en la aplicación de la directiva de transparencia en las decisiones de
fijación de precios y reembolso, en la creación de redes virtuales de coordinación de la
investigación básica y aplicada, en el acortamiento de los procesos de autorización (market
access), en mayores incentivos para la investigación, en el fortalecimiento de la competencia
de medicamentos no intervenidos y en una mejor información a los profesionales y
ciudadanos. Todo ello, nos llevaría a un escenario donde todos los actores se verían
reconocidos de justa manera.
Dr. JUAN DEL LLANO
En un reciente estudio, auspiciado por GSK, destacamos que existe unanimidad, de los
expertos consultados, en que la definición consensuada de utilidad terapéutica debe estar
asociada a dos vertientes: la efectividad (en lugar de datos de eficacia) y la marginalidad
(por cuanto es una variable relativa, procedente de la comparación de una innovación
con la práctica habitual en el presente). También apuntamos que sería deseable un mayor
peso del criterio de utilidad terapéutica en los procesos de financiación pública de nuevas
tecnologías y medicamentos. Hay consenso en la necesidad de separar los procesos de
33
autorización de comercialización y los de financiación pública: no toda innovación
autorizada debe contar con financiación pública. Resulta improbable eliminar los factores
sociales y políticos, reconociendo cierto margen de actuación necesario desde la
Administración y avanzando siempre en la transparencia de los procesos de financiación
pública de las innovaciones terapéuticas.
Es necesario desplazar el momento en el que se evalúa la utilidad terapéutica para cumplir
con el requisito de emplear datos de efectividad: una evaluación antes de la introducción
en la práctica clínica presenta sesgos inherentes al diseño de los ensayos clínicos. En este
sentido, propuestas como los acuerdos de riesgo compartido permiten conjugar el que
los pacientes dispongan a la mayor brevedad de una innovación terapéutica, como que
su aportación (evaluada tras 3-5 años en el mercado) determine el nivel de financiación
pública.
Otra herramienta, para evaluar en los próximos años la efectividad y el grado de ajuste a
la indicación de las innovaciones financiadas, podría ser la historia clínica electrónica.
Por otro lado, desde el punto de vista técnico, una vez se consiguiera unir el concepto de
utilidad terapéutica a la concesión de financiación de una determinada innovación, sería
lógico establecer un sistema que permitiera ir evaluando y acotando los medicamentos
que, en cada grupo terapéutico, resultan ser suficientemente “útiles” como para que
quedaran incluidos a priori frente a otros ante cualquier situación dentro del sistema de
financiación. De hecho en los métodos empleados para la evaluación de los dispositivos
médicos, es más habitual el hecho de que si una generación de estos productos resulta
tener una mayor utilidad que una generación anterior de los mismos, es sustituida (en
lugar de acumulada).
La evaluación económica, como herramienta para la toma de decisiones, resulta útil en
la medición de la utilidad terapéutica si se ciñe a la característica de partir de datos de
efectividad. Persisten las dudas acerca de algunos de sus supuestos e implicaciones éticas,
así como de quién financia estos trabajos. La implantación de un umbral económico por
unidad de resultado en salud sigue siendo de difícil viabilidad cultural y social en nuestro
contexto.
Definitivamente, hay necesidad de avanzar en el desarrollo del concepto de utilidad
terapéutica en España pues hoy no nos orienta lo suficiente en la búsqueda de la eficiencia
de los recursos públicos de forma transparente y consensuada. Pues bien ¿cómo
avanzamos?:
Para que la financiación pública de nuevos medicamentos y tecnologías incorporadas a
las carteras de servicios públicos no sea una decisión casi automática en muchos de los
países de nuestro entorno, se requiere de agencias de evaluación, cualificadas y
transparentes. En España, los organismos involucrados deberían ponerse de acuerdo en
la definición del concepto de utilidad terapéutica, su medida y su aplicación práctica. Así,
la autorización de entrada al mercado de nuevos medicamentos y tecnologías precisa del
desempeño de cualificadas agencias de evaluación que incorporen transparencia en su
quehacer y que no estuvieran ligadas con los procesos de decisión de financiación. Dichas
agencias podrían clasificar los nuevos medicamentos y tecnologías según su, inicialmente,
eficacia, seguridad y relación riesgo/beneficio. Una vez comienzan a ser utilizadas en el
contexto clínico, han de mostrar su efectividad, de tal manera que los compradores de la
atención sanitaria de programas públicos tuvieran conocimiento del impacto en la salud
de los fármacos nuevos, de los dispositivos médicos,…..estableciendo precios, intervenidos
si se reembolsan públicamente, que reflejen dicho grado de efectividad relativa. Con ello
se envían al mercado señales correctas que reflejen el esfuerzo investigador y la eficiencia
dinámica, y se facilita la eficiencia asignativa en la práctica clínica y en las intervenciones
sanitarias de cada país.
Para hacer realidad lo anterior, hemos de disponer a nivel estatal de una política estratégica
integrada de salud pública y de sistemas de información sanitaria más integrados que
permitan generar una red de cooperación entre las administraciones estatales y
34
autonómicas en materia de salud, tipo centrales de balance de resultados en salud que
contengan los principales indicadores de salud y funcionamiento de la asistencia sanitaria
(http://www.msc.es/estadEstudios/estadisticas/sisInfSanSNS/inclasSNS_DB.htm), hablamos
en definitiva de reivindicar la importancia de la métrica y de la cultura evaluativa. Resulta
crítico el fomento de una cultura organizativa de transparencia y rendición de cuentas,
así como la apertura a la participación ciudadana en las decisiones, entre otras cosas, por
si en el futuro tenemos que pedirles su participación económica. Resultará pues crucial,
trasladar los resultados de la investigación de resultados en salud y de la evaluación
comparativa del funcionamiento de los servicios sanitarios, a la práctica asistencial y
profesional.
Consideramos clave importar de fuera aquello que funciona como el NICE (Inglaterra y
Gales, SIGN (Escocia), IWoQ (Alemania), LFN (Suecia), y hasta valorar que así como hemos
creado a nivel europeo un CDC para la vigilancia epidemiológica de las enfermedades
transmisibles, se estudie cubrir a los 27 países de la UE con una agencia europea de
evaluación de tecnologías sanitarias que generara economías de escala y de gama y que
fuera más difícilmente capturable por los regulados. Fijaría precios homogéneos teniendo
en cuenta el valor de las aportaciones diagnósticas o terapéuticas de EMEA, sobre eficacia
y seguridad y la información de EuroNice sobre efectividad relativa y eficiencia de los
nuevos medicamentos y tecnologías a los 2-5 años de su entrada al mercado. Serviría esta
agencia europea para dar servicios de Cuarta Garantía a los países miembros, incorporando
consideraciones de coste y beneficio. Esta organización supranacional internalizará el
bienestar de los actores implicados aunque precise de compensaciones supranacionales
para conseguir acuerdos (3).
Referencias:
1. Ortún V. Patentes, regulación de
preciso e innovación en la industria
farmacéutica. Cuadernos Económicos
de ICE 2004; nº 67: 191-207.
2. Pinto JL, Abellán JMª, Sánchez FI.
Incorporación de preferencias de los
pacientes en la toma de decisiones
clínicas. Masson, Barcelona 2004.
3. Cabrales A. Precios Farmacéuticos:
regulación y competencia. Política
Farmacéutica Europea en el Mercado
Global. Contenidos del I y II Foro Europeo
de Política Farmacéutica. Ed. Sanofi
aventis-Fundación Gaspar Casl. Madrid
2007.
Nazaret Torralba. Patronato de la Fundación Gaspar Casal.
Gema Pi. Responsable de Relaciones Institucionales de la Fundación Gaspar Casal.
Dr. Juan del Llano. Director de la Fundación Gaspar Casal.
visítanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
35
GESTIONANDO CONOCIMIENT
net
"el éxito de cualquier innovación
organizativa tiene como factor
clave el liderazgo efectivo de sus
responsables"
GESTIÓN FOSBURY O GESTIÓN ANTIGÉNICA.
Dra. MARÍA JOSÉ JIMÉNEZ.
Hace algunos años, cuando participé en el Master de Administración y Dirección de
Servicios Sanitarios impartido por la Fundación Gaspar Casal y la Universidad Pompeu
Fabra, me llamó la atención leer -en el índice del módulo de gestión a cargo de Vicente
Ortún- el epígrafe del título de este artículo: Gestión Fosbury o gestión antigénica.
Dra. MARÍA JOSÉ JIMÉNEZ
En ese momento no tenía ningún conocimiento de gestión y tecleé esas dos palabras en
un buscador de internet pensando que Fosbury sería un autor de reconocido prestigio en
gestión clínica y podría ir leer algo antes de las clases. Lo único que encontré fue esto:
“Dick Fosbury, atleta estadounidense especialista en salto de altura, que fue campeón en
los Juegos Olímpicos de México 1968 y se hizo famoso por utilizar una nueva técnica para
pasar encima del listón, que posteriormente han aplicado casi todos los saltadores y que
se conoce como Fosbury Flop.”
De gestión clínica nada de nada. Sería una errata en el temario? No, no era un error sino
una genialidad de un gran docente: Gestionar significa coordinar e incentivar, y se puede
hacer mal, generando rechazo y “anticuerpos” -lo que él llamaba gestión antigénica- o
bien, en el “estilo Fosbury”, investigando y poniendo en práctica nuevas formas que
generen mejores resultados de verdad y, por tanto, aunque inicialmente puedan generar
dudas, cuando se demuestra su efectividad sean seguidas e imitadas.
Dos años más tarde viví desde dentro ( y desde una perspectiva más clínica que de gestión)
una modificación organizativa de gran calado en la atención sanitaria de los pacientes
con patología cardiovascular en el Hospital Clínico San Carlos de Madrid, especialmente
en el ámbito de la Cirugía Cardiaca, con la incorporación de un coordinador de la actividad
del mismo en abril de 2003.
El nuevo coordinador del Servicio de Cirugía Cardiaca fue el encargado de impulsar este
cambio, enfrentándose al reto de redefinir su actividad desde la clínico-quirúrgica a la
responsabilidad en gestión -pasando de ser un cirujano de reconocido prestigio a ser un
gestor clínico-, para lo que se requieren diferentes habilidades y diferentes estilos de
enfrentarse a problemas también diferentes.
Existen muchos ejemplos de cambios organizativos y de la influencia del liderazgo en la
gestión sanitaria, tanto de nuestro país como del resto de países de nuestro entorno, pero
la evaluación de los mismos sigue siendo difícil y en general de carácter cualitativo.
Tras el cambio producido en el Servicio de Cirugía Cardiaca del Hospital Clínico San Carlos,
me planteé aplicar los conocimientos adquiridos en el master y analizar su influencia a
corto y medio plazo en los indicadores de efectividad, calidad y eficiencia con respecto
al período precedente mediante un estudio retrospectivo, de cohortes no concurrentes
durante nueve meses: Los primeros tres meses previos al cambio (Precambio). Los tres
meses inmediatamente posteriores al cambio (Postcambio 1) y Los tres meses posteriores
al año tras el cambio (Postcambio 2).
Se incluyeron todos los pacientes sometidos a cirugía cardiaca mayor en el Hospital Clínico
durante el período de estudio y se analizaron las variables demográficas y los indicadores
37
de gravedad prequirúrgicos, de efectividad, eficiencia y calidad. Los resultados del
estudio realizado han constituido una tesis doctoral y demuestran que, tanto en el periodo
inmediatamente posterior, como un año después de la incorporación del nuevo coordinador
de Cirugía Cardiaca al hospital, los cambios organizativos instaurados consiguieron mejoras
en la mayoría de los indicadores evaluados.
Indicadores de gestión de quirófano
120%
97%
100%
83%
74% 76%
80%
102%
86%
% Intervenciones Suspendidas
60%
% Utilización Quirófanos
% Ocupación Quirófanos
40%
20%
7%
0%
Beatriz Claudia Thomann comentó el
artículo en www.proyectonets.org:
Estoy completamente de acuerdo con
la Dra. Jiménez. Considero que es
fundamental, para realizar un cambio
tan importante en un Servicio de tal
envergadura, que la persona a cargo de
este proyecto sea pro-activa y que los
objetivos planteados a corto, mediano
y largo plazo sean coherentes con el
momento por el que atraviesa la Gestión
del Servicio en cuestión. Si la persona a
cargo no es líder, es muy posible que no
pueda motivar al resto de los
integrantes del Servicio y los objetivos
no se cumplan como corresponde. No
es tarea fácil, pero es un desafío que
enriquece mucho al que lo realiza ya
que, al ver los resultados en un
determinado plazo, lo impulsa a seguir
adelante y mejorar en la Gestión.
Precambio
8%
Postcambio 1
1%
Postcambio 2
Analizando en primer lugar los indicadores de actividad y efectividad, se objetivó un
aumento de la actividad quirúrgica del 50% con respecto a la asistencia en los primeros
tres meses tras el cambio, y un año más tarde, en el periodo postcambio 2, el aumento
en la actividad quirúrgica fue del 150% con respecto al periodo precambio y del 66% con
respecto al periodo anterior (206 pacientes frente a 82 y 124).
Con respecto a las características de los pacientes intervenidos no hubo diferencias
estadísticamente significativas en la edad, el género, los indicadores de riesgo como el
infarto de miocardio previo o la intervención cardiaca previa, los índices pronósticos de
mortalidad más utilizados en cirugía cardiaca (Euroscore y Parsonnet) o la función del
ventrículo izquierdo previa a la cirugía entre los tres periodos estudiados. La única variable
que mostró diferencias entre los tres períodos fue la clase funcional (disnea y/o angina)
de los pacientes intervenidos, siendo mejor en el periodo inmediatamente posterior al
cambio, pero mucho peor en el último periodo estudiado, un año después del cambio
organizativo. La mortalidad hospitalaria indicador tanto de efectividad como de calidad,
mejoró significativamente en los dos periodos posteriores al cambio organizativo pasando
del 14,6% al 4% en el primer periodo postcambio, y al 6,3% en el segundo periodo
postcambio.
Una de la explicaciones podría ser que en el primer periodo tras el cambio disminuyó de
forma significativa el número de pacientes en peor clase funcional y por tanto, se podría
pensar que la mortalidad fue menor por una mejor selección de los pacientes, aunque
esta explicación no se podría aplicar al segundo periodo tras el cambio, porque se
intervinieron más pacientes en peor clase funcional de forma significativa. Tampoco hubo
diferencias significativas en el resto de variables demográficas ni en los índices o modelos
de predicción de riesgo de muerte (Euroscore y Parsonnet) de los pacientes intervenidos
en cada periodo (aunque el Euroscore fue ligeramente peor en el tercer trimestre con
respecto a los previos).
Además, en el análisis estadístico multivariable, la intervención en los dos periodos
posteriores al cambio supuso una reducción del riesgo de muerte, del 87% y del 83%
respectivamente, con respecto al periodo previo, independientemente del resto de
variables estudiadas. La mayoría de las complicaciones postquirúrgicas también
disminuyeron en el periodo posterior al cambio y de forma significativalo hicieron las
arritmias, el sangrado excesivo, el número de unidades de concentrados de hematíes
transfundidos por paciente y la necesidad de traqueostomía.
38
Entre los indicadores de eficiencia, la estancia preoperatoria, la estancia en la UCI y la
estancia media (EM) hospitalaria total (con extremos) disminuyeron en los dos periodos
posteriores con respecto al periodo previo al cambio, aunque sólo lo hicieron de forma
estadísticamente significativa la estancia preoperatoria y la estancia total.
Todos los indicadores de comparación con el estándar (ajustados por casuística y por
funcionamiento) fueron mejores en los tres periodos estudiados con respecto a dicho
estándar, pero mejoraron de forma considerable tras el cambio organizativo, especialmente
en el último periodo.
El aumento de actividad del Servicio consiguió disminuir la demora quirúrgica máxima
de tres meses y medio a uno, y la demora media de dos meses uno, aunque el número
total de pacientes en lista de espera aumentó en el último periodo de estudio.
El coste total del Servicio se incrementó de forma congruente con el aumento de la
actividad, pero el coste medio por paciente disminuyó tras el cambio organizativo.
Entre los indicadores de calidad el porcentaje de injertos con arteria mamaria interna en
la cirugía de revascularización coronaria mejoró de forma significativa en los dos periodos
posteriores al cambio (95% vs 56%).
El número de reclamaciones al Servicio de Atención al Usuario fue muy bajo en los tres
periodos, con un porcentaje menor en los periodos posteriores al cambio.
El presente estudio demuestra que el cambio organizativo establecido en el Servicio de
Cirugía Cardiaca del Hospital Clínico San Carlos de Madrid ha mejorado la asistencia
prestada a los pacientes intervenidos en dicho servicio, especialmente con un aumento
de la actividad quirúrgica que ha supuesto una reducción importante de los tiempos de
demora quirúrgica, con una reducción significativa de la mortalidad, de la mayoría de las
complicaciones posquirúrgicas, de la estancia media hospitalaria y en la UCI, y con una
mejora considerable de los indicadores de eficiencia hospitalaria, consiguiendo aumentar
la actividad y mejorar la calidad sin aumentar el coste medio por paciente, e incluso
disminuyendo este ligeramente.
Los esfuerzos para transformar las organizaciones, especialmente en el ámbito sanitario,
plantean numerosos conflictos y chocan con las respuestas individuales y colectivas, a
menudo de negación y resistencia, de las personas implicadas en dichos cambios. El éxito
o el fracaso de cualquier innovación organizativa tiene como factor clave el liderazgo
efectivo de las personas encargadas de implementar el cambio, especialmente en las
primeras fases de implantación. Si estas personas no son buenos líderes, que ven la
necesidad de la transformación y se implican profundamente en ella, las posibilidades
de fracaso son muy elevadas.
El hecho de que las mejoras conseguidas en el Servicio de Cirugía Cardiaca en los tres
primeros meses tras la implantación del cambio organizativo se hayan mantenido de
forma consistente un año más tarde confirma que, en este caso, los cambios fueron de
gran calado (como lo fue el salto de altura de Fosbury), estables y no meramente
coyunturales.
María José Jiménez es miembro del
equipo de redacción de Proyecto
NETS, también ha publicado en NETS
la introducción al debate "PRÓTESIS
AÓRTICAS BIOLÓGICAS PARA
PACIENTES DE ALTO RIESGO
QUIRÚRGICO, ¿VÍA PERCUTÁNEA O
TRANSAPICAL?." que puedes
encontrar en www.proyectonets.org
en la sección "nuevas tecnologías" y
que ha sido publicado también en el
número 01 de NETS Innovación y
Tecnología en la Salud.
Dra. María José Jiménez. UCI Cardiovascular. Hospital Clínico San Carlos de Madrid.
www.proyectonets.org
39
"las actividades, los empleados, los
aparatos y los clientes tienen una
programación ajustada al minuto,
cada día."
REHABILITACIÓN JUST-IN-TIME. ALFONSO DÍEZ.
ALFONSO DÍEZ
¿Es posible integrar exitosamente la gestión del conocimiento y la gestión de procesos?.
En este artículo vamos a presentar una experiencia exitosa de gestión y de desarrollo
tecnológico el la que hemos participado en este año: es una apuesta muy innovadora
sobre el modelo organizativo del área socio sanitaria de rehabilitación; e integra de forma
novedosa técnicas de gestión de procesos y de gestión del conocimiento.
Clínica Nubis nació hace tres años, en Las Palmas de Gran Canaria, apostando por un
enfoque radicalmente distinto en la prestación de servicios de rehabilitación y estética.
Este cambio radical tiene que ver con dos factores: la calidad de servicio y el control de
los procesos. En general los servicios de rehabilitación se prestan en un contexto que tiene
una alta incertidumbre en la programación de las actividades. Entre un 10 y un 20% de
la actividad de cada día no se puede predecir con 24 horas de antelación. Esto hace que
en general la organización de las áreas de rehabilitación suela estar sometida a un cierto
nivel de caos.
Clínica Nubis apostó desde el principio por organizar sus actividades desde un enfoque
de programación just-in-time: todas las actividades, los empleados, los aparatos y los
clientes tienen una programación ajustada al minuto, cada día. Veamos un ejemplo: son
las 8:47 minutos. En este minuto el paciente P1, en la camilla 1, va a ser atendido por el
auxiliar A1 para preparar el trabajo del fisioterapeuta F1 que lo atenderá a las 8:48. Al
mismo tiempo, el masajista M1 está yendo a recepción para recoger al paciente P2, llevarlo
a la silla S1, donde el auxiliar A1 le pondrá un TENS a las 8:48...
La pantalla que aparece a continuación es un ejemplo de un control de sesión de un
paciente con herramientas manuales de ajuste. Es un ejemplo del tipo de herramientas
de que disponen los responsables de planificación para hacer ajustes.
40
Una sesión diaria de un paciente tiene de promedio cinco actividades, con una duración
total de 45 minutos, y se repite, con ciertas variantes, a lo largo de diez a veinte días. Nubis
gestiona más de 200 pacientes al día, sujetos a una compleja coreografía de movimientos,
minuto a minuto. Este ajuste de la programación a cada minuto del día hace que el
responsable de operaciones tenga un conocimiento total sobre lo que ocurre.
Esta organización, tan milimétricamente concebida, puede parecer aberrante, es una
mecanización del trabajo personal que sugiere asfixia, como en las famosas secuencias
de Tiempos Modernos de Chaplin. Sin embargo, la realidad es muy distinta, como vemos:
• Los pacientes saben a qué hora entran y a qué hora salen. El paciente sabe con suficiente
antelación a qué hora va a salir de la clínica, y además está seguro de que la clínica será
puntual. La rehabilitación no se convierte en un problema en su vida cotidiana.
• La atención al paciente es continua. Nunca hay más de tres minutos de espera entreuna
actividad y otra. El tiempo del paciente también es valioso.
• No hay colas en las salas de rehabilitación. Ningún paciente se encuentra esperando a
que desalojen un aparato o un box, no tiene que competir por los recursos, ni se le cuela
nadie.
• Los profesionales solo hacen una cosa cada vez, no tienen, atascos, colas, enfados,
prisas, etc.
• Cuando un profesional tiene un hueco en su agenda, sabe que puede irse a la sala de
descanso sin ninguna preocupación. Todo seguirá funcionando bien en su ausencia.
Los profesionales confían en la eficacia del sistema.
• La dirección conoce el coste real de la atención a cada paciente, y puede programar con
precisión los recursos técnicos y materiales que necesita. Además puede monitorizar
la calidad de la atención de forma continua.
• Es sistema es flexible ante incidencias y cambios (por ejemplo, si se pone enfermo un
fisioterapeuta).
• La calidad de servicio que ofrece Nubis se repite siempre, todos los días y para todos
los pacientes. Esto genera una gran confianza por los pacientes y unas valoraciones
muy altas en la evaluación de la calidad.
Clinica Nubis contrató con BET el desarrollo de una nueva plataforma integral para la
gestión de sus operaciones. El proyecto se inició en marzo de 2009 con los siguientes
objetivos:
Alfonso Díez ha publicado diversos
artículos en NETS relacionados con la
gestión del conocimiento en las
organizaciones sanitarias como MÁS
INTELIGENCIA Y MENOS MATERIA: LA
GESTIÓN DE PROCESOS SOCIOSANITARIOS DESDE EL
CONOCIMIENTO y ¿EXISTEN
TECNOLOGÍAS PARA POSIBILITAR UNA
GESTIÓN INTELIGENTE DEL
CONOCIMIENTO?¿QUÉ ALCANCE
TIENEN? que puedes encontrar en el
blog de Bet Value en
www.proyectonets.org.
• Un área de gestión del conocimiento para incorporar la gestión de las
certificaciones ISO9000 e ISO27000.
• Recepción y gestión de pacientes.
• Consultas médicas e historiales clínicos.
• Programación de actividades y gestión de operaciones.
• Gestión de recursos humanos y materiales.
• Facturación y gestión financiera.
El sistema está, a la redacción de este artículo, finalizado en fase de pruebas de aceptación
y ajustes. Como todos los sistemas BET, se ha implantado como una Intranet, accesible
también desde el exterior, sujeto a las máximas medidas de seguridad física y lógica. Esto
permite deslocalizar el trabajo de programación y seguimiento.
El plazo de desarrollo de un sistema de estas características ha sido de cinco meses, lo
que es un éxito en cuanto a eficiencia y calidad.
41
El área más interesante del desarrollo realizado tiene que ver con la problemática de la
programación de operaciones en las salas de rehabilitación, que es el sello distintivo de
Nubis. Hasta el momento Clínica Nubis realiza la programación de forma básicamente
manual, usando unas plantillas de colores donde se representan pacientes y recursos. Los
responsables de operaciones deben organizar manualmente los recorridos de cada paciente
cada día, lo que es una tarea ímproba cuando el volumen de actividades de la clínica crece.
En el nuevo sistema una gran parte de la programación es automática. Esto quiere decir
que es el sistema el que se esfuerza en colocar cada cosa en su sitio. Obviamente, no todo
se puede automatizar, y cuando el sistema no es capaz de encajar el puzzle necesita del
apoyo de un ser humano, que es quien tiene la experiencia y es capaz de tomar decisiones.
Para entrenar al sistema en el papel de organizador de las salas de rehabilitación se ha
usado un modelado heurístico, con el que se ha ido trasladando poco a poco la experiencia
de los responsables a los sistemas. Este ha sido un proceso de retroalimentación positiva:
detectamos reglas tácitas en los seres humanos (patrones), los convertimos conocimiento
explícito, transformamos este conocimiento en reglas heurísticas embebidas en el sistema,
y volvemos a incorporar al ser humano para obtener de nuevo su juicio y experiencia
sobre un entorno técnico cada vez más capacitado. La mejora de las capacidades de
programación ha supuesto un juego de búsqueda de casos y patrones que pudiésemos
convertir en conocimiento embebido. No solo ha sido un proceso muy creativo, sino
también muy productivo para el resultado final.
Cuando iniciamos el desarrollo tampoco
sabíamos si el proceso era viable, porque las
reglas que el sistema debía seguir no habían
sido explicitadas nunca. La primera tentativa
nos dio diez reglas que dieron lugar al primer
prototipo. Luego hubo varias rondas
adicionales y al final el sistema dispone de
una experiencia humana embebida muy
importante y que seguirá creciendo en el
futuro. El sistema puede ir aprendiendo poco
a poco sin límite, lo que nos permitirá abordar
nuevas necesidades según vayan haciéndose
patentes.
Para concluir es interesante hacer una reflexión ligada al artículo que publicamos en mayo
pasado, que incluía un ejemplo sobre la problemática de control de un área de urgencias.
En aquel artículo argumentábamos que saber lo que ocurre en cada momento en nuestra
organización es algo imprescindible hoy en día. Tenemos los medios tecnológicos, pero
no siempre somos capaces de desplegarlos y enlazarlos de forma adecuada con nuestros
procesos operativos. Como consecuencia es frecuente que perdamos el control de nuestra
organización, con consecuencias siempre negativas. La solución tecnológica y organizativa
que mostramos hoy aquí es una solución radical en el terreno del control estricto.
Evidentemente no es la manera de atacar otro tipo de procesos, como podría ser el que
hemos comentado de urgencias. Podemos decir que hay tres grandes modelos de control:
uno cerrado, que intenta mecanizar lo más posible el trabajo (sería el caso Nubis), otro
abierto, que deja que las cosas ocurran de forma impredecible pero controlada (caso
urgencias), y un modelo mixto, que sería el más frecuente, en el cual ciertas partes son
susceptibles de control preciso y otras deben quedar abiertas. Elegir el modelo de proceso
adecuado es un factor imprescindible en un diseño de procesos eficaz, pero al mismo
tiempo no hay que olvidar que el modelo evoluciona muy rápidamente variando el balance
entre control y apertura. Sobre este tema continuaremos con un próximo artículo.
Por último queremos reseñar que el sistema descrito en este artículo va a permitir exportar
el modelo de Nubis a otras organizaciones, tanto clínicas privadas como áreas de
rehabilitación de hospitales.
Alfonso Díez Rubio. Matemático. Gerente de BET VALUE.
42
"la salud de la investigación de los
hospitales públicos es buena, sin
embargo la mayoría están en el
crecimiento de la adolescencia"
LA GESTIÓN DE LA INVESTIGACIÓN EN SANIDAD: DEBILIDADES Y
MODELOS DE VANGUARDIA. ANA Mª VALDEOLMILLOS.
Los cambios estructurales, organizativos y sobre todo los fuertes incrementos de
presupuesto introducidos en el “VI Plan Nacional de Investigación Científica, Desarrollo
e Innovación Tecnológica (2008-2011)” y más concretamente en el “Plan de actuación
2009”, tras la creación del nuevo ministerio de Ciencia e Innovación, ponen en evidencia
el compromiso político del gobierno con la investigación y deberían incidir positivamente
en la potenciación de la Investigación Biomédica y Clínica, de forma que se materialice a
medio plazo, en los mejores resultados posibles al servicio de la ciudadanía, del bienestar
social, del desarrollo sostenible y ser un elemento esencial para la generación de nuevos
conocimientos.
ANA Mª VALDEOLMILLOS
Este nuevo Plan contempla un conjunto de instrumentos agrupados en seis Líneas
Instrumentales de Actuación (LIA) y 5 Acciones Estratégicas (AE) que definen objetivos
específicos y priorizan líneas de trabajo. Las 2 primeras AE son la investigación en Salud
y en Biotecnología, con el objeto de conseguir preservar la salud y el bienestar de la
ciudadanía, así como el desarrollo de los aspectos preventivos, diagnósticos, curativos,
rehabilitadores y paliativos de la enfermedad, reforzando e incrementando la competitividad
y capacidad de I+D+i del Sistema Nacional de Salud (SNS) y de las empresas relacionadas
con el sector, y actuando en los diferentes entornos (hospitales, universidad, OPIS, empresas).
La investigación en Ciencias de la Salud, que se viene desarrollando de manera muy
preferente en el entorno de los hospitales del SNS y en las universidades, ha tenido en
los últimos años determinadas iniciativas de mejora y se encuentra en la actualidad en
una fase de crecimiento tanto en la calidad de los proyectos como en la de su gestión;
con El Instituto de Salud Carlos III (ISCIII) como órgano instructor y la implantación reciente
de Fundaciones de Investigación Biomédica, como instrumentos de gestión de la
investigación en los hospitales públicos españoles.
En este sentido, cabe destacar la gran contribución del ISCIII en financiar y fomentar:
• Los recursos humanos: formación y movilidad, contratación e incorporación de científicos.
• Los proyectos de I+D+i: en salud, en tecnologías sanitarias y servicios, en investigación
clínica no comercial.
• Las infraestructuras: creación de Institutos de Investigación Sanitaria a partir de centros
y grupos ya existentes de investigación de calidad contrastada (en estos momentos hay
5 acreditados: 4 en Barcelona y 1 en Sevilla).
• La articulación del sistema: creación de centros y redes temáticas de investigación
cooperativa en salud (CIBER, RETICS).
El resultado de estas actuaciones, que se puede extraer de los estudios de indicadores de
producción científica y tecnológica, revela que la investigación en Ciencias Medicas es
uno de los sectores con mayor desarrollo, impacto, y número de publicaciones y
colaboraciones tanto nacionales como internacionales.
A pesar de estos esfuerzos en el impulso de una política nacional de I+D en Investigación
Biomédica y Clínica, ésta no tiene el nivel deseable y presenta numerosas deficiencias e
43
imperfecciones que deberán solucionarse. Entre los aspectos más relevantes a mejorar
cabe señalar:
• En primer lugar el capital humano, ya que es la base de todo el sistema. Por un lado,
las peculiares características del mundo hospitalario y sanitario, donde los profesionales
deben desarrollar actividad asistencial, docente e investigadora; con baja remuneración
y sin certeza de continuidad laboral. Por otro lado, las escasas posibilidades de desarrollo
y promoción profesional no hacen atractiva la carrera investigadora en España.
• A continuación, y siguiendo en la línea de los recursos humanos, las dificultades que
tienen los grupos emergentes para lograr financiación adecuada para despegar, frente
a los grupos consolidados, que en muchos casos obtienen cuantiosas y numerosas
ayudas.
• También se debe tener en cuenta que mientras se continué, prioritariamente, midiendo
y valorando la producción y excelencia científica en número e índice de impacto de las
publicaciones científicas, nuestros investigadores se centrarán en proyectos
“potencialmente publicables”, en detrimento de resolver aspectos más cercanos a ser
aplicados en la actividad asistencial. Este hecho conduce a la desconexión del sistema
de I+D en Biomedicina del propio sistema nacional de salud.
• No debemos olvidar que a pesar de los incrementos en recursos monetarios, todavía
falta financiación pública y especialmente privada (separación de la industria, salvo en
ensayos clínicos), así como compromisos de mantenimiento y continuidad de los sistemas
a largo plazo.
• Por ultimo, poner en evidencia la insuficiente difusión, comunicación y divulgación al
resto de profesionales sanitarios, así como a la sociedad en general, de los
nuevos conocimientos generados.
Ángela Aizaga comentó el artículo en
www.proyectonets.org:
Sólo puedo ser crítica con el actual
énfasis en la I+D+i: hace una década
que se hablaba de cambiar nuestro
modelo económico y ahora, con prisas,
confiamos ciegamente en la
innovación. Lamentablemente, los
frutos de la investigación sólo se ven en
el largo plazo, y en el corto sólo vamos
a percibir lo costosa que es la inversión.
En cualquier caso, y aunque sea tarde,
se percibe un importante esfuerzo,
aunque no siempre coordinado.
• Los modelos de vanguardia recomendables para acometer reformas que ayuden a
solventar las debilidades existentes deberían incidir, prioritariamente, en las siguientes
actuaciones:
• “El capital humano que formemos e incorporemos a los servicios de salud marcará
nuestro futuro”, por tanto, este ámbito está contemplado como una de las LIA en el
nuevo Plan de actuación 2009. Pero además, seria conveniente instaurar nuevos modelos
contractuales, basados en compromisos de continuidad, reconocimiento y promoción
profesional, social y económica; que consigan, por un lado despertar vocaciones
científicas y por otro facilitar el regreso de nuestros científicos en el extranjero. En el
caso del personal sanitario, estas mejoras serian un incentivo para involucrarse más en
investigación.
• Un reto muy importante ahora mismo es conseguir investigación traslacional (de la
básica a la clínica y viceversa). Así, se deben fomentar todas las acciones para suscitar
y facilitar la interacción, cooperación y colaboración multidisciplinar y multiinstitucional,
donde se integre la investigación básica con la clínica y se aprovechen las sinergias
existentes entre los diferentes grupos de investigación biomédica, incidiendo en las
patologías más relevantes. En este sentido, podrían resultar muy eficaces y beneficiosos
los esfuerzos que se dediquen a la promoción y potenciación de las estructuras de
investigación biomédica creadas recientemente:
1. Acreditación de nuevos Institutos de Investigación Sanitaria e impulso de los ya existentes.
Éste será uno de los mejores mecanismos para aumentar infraestructuras, nuevas
tecnologías, masa crítica y prestigio de los centros que componen el Instituto, y estimular
el concepto de Hospital como Centro de Investigación.
2. Las Redes temáticas han sido un buen camino para comenzar, pero ahora es necesario
tras un profundo seguimiento y evaluación, incentivar las colaboraciones y la excelencia
en el entorno de estas estructuras (CIBER y RETICS), solventando los déficit que presentan
algunas en coordinación, personal (número y tiempo de dedicación) y planes estratégicos.
44
3. Aumentar las colaboraciones publico-privado; lamentablemente, la principal
colaboración entre industria farmacéutica y hospitales se sigue centrando en ensayos
clínicos, con un papel fundamental dentro de España. En estos momentos habría que
avanzar buscando alianzas sólidas, estables y con vocación de permanencia en investigación
básica.
• Otro factor clave para el progreso de todo el sistema sanitario implicaría una fuerte
apuesta por las nuevas tecnologías de la información y la comunicación. Así, se deberían
ir ejecutando los compromisos del proyecto e-Sanidad, incluido en el Plan Avanza
(tarjeta, citas, recetas e historia clínica electrónicas), e implantando la telemedicina, que
redundarían en la eficiencia y calidad de la información, de las colaboraciones y del
servicio de atención prestado. Además, actualmente en España, según un informe de
Google, el 79% de los individuos emplea internet cuando necesita información sobre
una enfermedad. El médico debe plantearse el uso de este medio de comunicación para
asegurar la calidad y el rigor de la información, frente a la publicidad engañosa.
• Seria muy acertado promocionar las acciones de difusión, comunicación y divulgación
de nuevos conocimientos en salud. “La atención médica de calidad debe basarse en el
conocimiento”. Por tanto, las nuevas innovaciones deberían llegar a todos los profesionales
de la salud. Además, si tenemos en cuenta los análisis de la “IV Encuesta Nacional de
Percepción Social de la Ciencia y la Tecnología 2008”, observamos que es la primera vez
que la medicina y la salud encabezan la lista de preocupaciones de la sociedad. Los
pacientes y sus familiares quieren resultados, que todo ese saber y todos esos recursos
se traduzcan en terapias eficaces para curar enfermedades. La participación de los
científicos en este tipo de actividades, con gran demanda social especialmente en el
sector salud, estará condicionada en gran medida por el reconocimiento y valoración
que se le otorguen.
• Actualmente, estamos asistiendo a un importante cambio en la forma de investigar y,
de ahí, la necesidad de definir y aprobar el marco legislativo necesario para que la
investigación pueda desarrollarse en el contexto ético y administrativo adecuado. Estas
normas aportarán certidumbre y seguridad en el trabajo de los investigadores españoles
y a la ciudadanía garantías de transparencia sobre las investigaciones, que respetan
todos los condicionantes éticos y legales.
Puedes encontrar este artículo en el
blog del MADS en
www.proyectonets.org, el Máster en
Administración y Dirección de
Servicios Sanitarios que imparte la
Fundación Gaspar Casal y la
Universidad Pompeu Fabra de
Barcelona. Recuerda que en NETS
puedes comentar los artículos, dar tu
opinión, participar en debates y
escribir nuevos artículos. El blog de la
Fundación Gaspar Casal tiene más de
una decena de artículos originales de
diversos temas comentados y
discutidos por los usuarios de NETS.
• Finalmente, no podemos olvidarnos de la importancia de los seguimientos y evaluaciones
de todas las inversiones en I+D+i, no sólo como control exhaustivo de cumplimiento
sino para ofrecer valoraciones objetivas de los impactos sanitario, social, ético, organizativo
y económico de las técnicas y procedimientos de uso médico-sanitario, que contribuyan
a sustentar, sobre bases científicas, las decisiones de autoridades y demás agentes
sanitarios.
Podemos concluir que "la salud de la investigación de los hospitales públicos españoles
es buena, y se encuentra en fase de crecimiento en casi todos los centros", sin embargo
"la mayoría están en el “crecimiento de la adolescencia”, en parte porque los instrumentos
de gestión de la investigación sanitaria aún deben mejorar, madurar y afrontar los
compromisos que la sociedad actual demanda.
Ana Mª Valdeolmillos. Doctora en Ciencias Químicas.
www.proyectonets.org
45
"Con EPIMED se persigue crear una
base de datos que permita
conocer los perfiles de utilización
de medicamentos por GRD"
OPTIMIZACIÓN DEL USO DE MEDICAMENTOS. JOSEP MONTERDE,
ELENA TOMÁS Y GEMA PI.
JOSEP MONTERDE
Es un hecho conocido que la variabilidad en la utilización de los recursos sanitarios existe
y que, cuando no puede explicarse por la propia epidemiología del problema de salud y
por los patrones de práctica clínica, se trata de variabilidad no justificada y, por tanto,
inapropiada. Dentro de esta variabilidad, es de especial interés identificar si existe disparidad
de criterios en la elección de las pautas de tratamiento farmacológico y, en este contexto,
evidenciar y priorizar acciones de mejora que contribuyan a la utilización racional de los
medicamentos.
Por otra parte, la detección de aquellas áreas en las que las estrategias de intervención
resulten más beneficiosas puede ser útil para priorizar las acciones que tengan un mayor
impacto tanto sobre el coste-efectividad, como sobre la calidad y la seguridad del uso del
medicamento. Así mismo, toda esta información, puede servir de base para orientar
políticas sanitarias.
ELENA TOMÁS
GEMA PI
Para identificar estos puntos de intervención, es imprescindible disponer de información
sistematizada y actualizada. Sin embargo, la realización de estudios cuantitativos y
cualitativos sobre la utilización de medicamentos en el entorno hospitalario, es una tarea
laboriosa debido, principalmente, a la necesidad de consultar fuentes de información
diversas, dispersas y, en la mayor parte de los casos, heterogéneas. En ocasiones, esta
demora en la obtención de resultados provoca que, cuando éstos están disponibles, la
problemática que motivó el estudio haya variado.
Con esta idea, y partiendo de experiencias previas, en el año 2000 se constituyó el Grupo
de Trabajo GEFE (Grupo Español de Farmacoepidemiología), adscrito a la SEFH (Sociedad
Española de Farmacéuticos de Hospital), formado por los servicios de farmacia de los
hospitales participantes en el estudio, que se denominó EPIMED. Con la ayuda de
herramientas informáticas básicas y con el objeto de contribuir a caracterizar la variabilidad
en los recursos sanitarios, los problemas de seguridad clínica y las bolsas de ineficiencia
en la utilización de medicamentos, se analizaron los datos relacionando el uso del
medicamento con la casuística. Fruto de este trabajo se generaron los informes EPIMED
2001 a EPIMED 2004, con los principales indicadores de carácter general para cada grupo
relacionado por el diagnóstico (GRD) del conjunto agregado de los hospitales participantes.
El estudio EPIMED utiliza dos fuentes de datos: por un lado, el sistema de distribución de
medicamentos en dosis unitarias (SDMDU), establecido en los servicios de farmacia de la
mayoría de los hospitales españoles, el cual genera abundante información que permite
conocer el uso de medicamentos de forma individualizada por paciente. Por otro lado, el
registro del CMBD clasificado según Grupos Relacionados por el Diagnóstico (GRD), permite
clasificar a los pacientes en grupos homogéneos en cuanto a la utilización de recursos. La
clasificación se basa en los diagnósticos principales y secundarios recogidos en el Conjunto
Mínimo Básico de Datos (CMBD) que el hospital genera a partir de las altas de los pacientes.
El CMBD es un registro poblacional con datos que identifican al paciente, datos clínicos
y otros relacionados con el proceso. Cada registro del CMBD corresponde al alta de un
paciente.
La implantación generalizada del registro del CMBD y su posterior clasificación en GRD,
permite disponer de una base de datos agregada, que puede relacionarse con la información
46
de utilización de medicamentos contenida en el registro del SDMDU. Esto permite llevar
a cabo, de forma ágil y sistematizada, estudios de utilización de medicamentos con los
que conocer los costes de medicación por GRD, los perfiles de utilización de medicamentos,
la variabilidad de los hábitos de prescripción, etc. Esta información es más útil, si cabe,
cuando cada hospital puede compararse con el patrón de referencia generado a partir del
agregado de datos del conjunto de participantes.
A partir de la edición 2005 y como evolución de estas experiencias, el estudio EPIMED
incorpora nuevas tecnologías en el análisis de datos (Data Mining) y un sistema de
clasificación de la casuística más evolucionado, los GRD refinados internacionales (IRGRD), que están orientados a procedimientos y que permiten clasificar tanto a pacientes
ingresados, como pacientes ambulatorios. De este modo, es posible estudiar, además de
a los pacientes hospitalizados, aquellos que son atendidos en régimen de hospital de día,
los sometidos a cirugía mayor ambulatoria y otras alternativas a la hospitalización
convencional. Además, cada IR-GRD se divide en tres niveles de gravedad, en función de
la comorbilidad de los pacientes: gravedad menor: sin complicaciones ni comorbilidades,
gravedad moderada: con complicaciones y/o comorbilidades, y gravedad mayor: con
complicaciones y/o comorbilidades mayores. En la realización del estudio EPIMED 2008,
se han procesado los datos de un total de 267.775 episodios de hospitalización y de 4.422
pacientes tratados en hospital de día, con un coste total (hospitalización más hospital de
día) de más de 100 millones de euros. Toda esta información se recoge en casi 5,5 millones
de registros que informan de los medicamentos vinculados a estos episodios. Esta ingente
información, generada por el sistema de dispensación de medicamentos en dosis unitarias,
ha podido procesarse gracias al esfuerzo de los servicios de farmacia de los 22 hospitales
españoles que forman parte del estudio.
En esta última edición, es interesante destacar el incremento en el aporte de datos de
hospital de día y de los sistemas automatizados de dispensación de medicamentos.
Además, los participantes disponen de informes predefinidos que ayudan a manejar e
interpretar sus propios datos. También se han realizados estudios específicos para los
hospitales que lo requieren, por ejemplo estudios de seguridad y de evaluación de la
prescripción (heparinización en pacientes oncológicos ingresados, tratamiento de la
neumonía adquirida en la comunidad…)
Con EPIMED se persigue crear una base de datos agregada que permita conocer, de forma
continua, completa y global, los perfiles de utilización de medicamentos por GRD, así
como llevar a cabo estudios de seguridad y de estimación de la adecuación de los
tratamientos con respecto a las guías de práctica clínica. Se trata por tanto de obtener
indicadores de utilización de medicamentos en función de la casuística, elaborados a
partir de una muestra representativa de hospitales que, se pretende, sean una herramienta
útil para reducir la variabilidad en la utilización de los medicamentos. Estos indicadores
servirán de referencia a cada hospital participante con el fin de detectar los ámbitos de
mejora que resulten más beneficiosos y priorizarlos en base a su impacto potencial. Este
podrá ser tanto de tipo económico, por reducción de costes, como de aumento en la
eficacia del tratamiento y en la seguridad del paciente. Posteriormente, los indicadores
obtenidos servirán, a su vez, para monitorizar y evaluar el impacto real de las intervenciones
emprendidas. Es de destacar, así mismo, el dinamismo que este proyecto aporta, pues, la
información puede procesarse por periodos cortos de tiempo (semestralmente,
trimestralmente), de forma que, pueden evaluarse y reencaminarse, a corto plazo, las
intervenciones iniciadas.
El proyecto EPIMED fue galardonado
en 2007 con el premio a la
transparencia de los Premios a la
Calidad de la Agencia de Calidad del
Sistema Nacional de Salud. Fueron
seleccionados nueve proyectos de
entre un centenar de candidaturas.
Con estos galardones el Ministerio de
Sanidad y Política Social pretende, por
un lado, premiar a las instituciones,
centros, equipos, grupos y servicios
de salud que se hayan distinguido en
la realización de actividades de mejora
en la calidad de los servicios ofrecidos
a los ciudadanos y, por otro, reconocer
iniciativas para mejorar la calidad de
la atención sanitaria a través de
proyectos innovadores. Puedes
ampliar información en
www.epimed.es
Estamos convencidos de que este sistema de información constituirá una excelente y
práctica herramienta en el proceso de toma de decisiones en terapéutica y un elemento
clave en la identificación de oportunidades de mejora en el uso racional de los
medicamentos en el entorno hospitalario.
Josep Monterde. Jefe del Servicio de Farmacia Hospitalaria. Hospital Universitari Vall d´Hebrón.
Elena Tomás. Coordinadora de EPIMED.
Gema Pi. Responsable de Relaciones Institucionales de la Fundación Gaspar Casal.
47
NUEVAS TECNOLOGÍAS
net
"Las terapias del futuro apuntan
hacia la regeneración tisular. La
Cirugía del Aparato Locomotor ha
sido una especialidad pionera"
UTILIZACIÓN DE CÉLULAS MADRE PROCEDENTES DE ASPIRADO DE
MÉDULA ÓSEA EN LA OSTEONECROSIS DE LA CABEZA FEMORAL.
Prof. JAVIER VAQUERO.
Prof. JAVIER VAQUERO
La necrosis avascular de la cabeza femoral (necrosis isquémica, necrosis aséptica,
osteonecrosis) es una enfermedad debida a un déficit de aporte sanguíneo al hueso de
la parte proximal del fémur.
Tiene un pico de incidencia en varones entre 30 y 40 años. Este rango de edades hace que
su repercusión sea mayor, por la presencia de actividades que exigen un mayor esfuerzo
físico. El diagnóstico en estos pacientes jóvenes exige también una mayor cautela a la
hora de decidir cuál es el procedimiento terapéutico más adecuado. La enfermedad no
tratada deriva a menudo en un colapso y deformidad de la superficie articular con
destrucción de la misma. Entre el 5 y el 12 % de las artroplastias de cadera realizadas son
debidas a osteonecrosis (1).
Recientemente se ha sugerido que en estos pacientes existe una disminución del número
de células osteoprogenitoras en cabeza femoral, que podría ser la causa de la osteonecrosis
(2,3). Se halla una mayor proporción de médula grasa con respecto a médula
hematopoyética en estos casos. El tratamiento tiene múltiples opciones terapéuticas,
algunas de ellas de eficacia controvertida. El éxito de los diferentes tratamientos está
directamente relacionado con el grado de la enfermedad (4.5), y diversos trabajos indican
cuál es la mejor técnica a emplear según el estadio de la osteonecrosis (5,6,7).
En aquellos grados iniciales en los que la cabeza conserva la esfericidad, las opciones son:
a) Tratamiento conservador mediante reposo y descarga de la articulación. No se ha
demostrado efectivo en la mayor parte de los casos.
b) Descompresión quirúrgica del núcleo: Mediante la realización de forages. Es el método
más empleado. Se basa en la teoría de que la vascularización se halla comprometida por
un aumento de la presión intraósea, a modo de síndrome compartimental. Parece ser
eficaz cuando menos del 30 % de la cabeza femoral está afectada.
c) Injertos óseos vascularizados: Además de ser injerto estructural también aporta material
osteogénico. Presenta resultados muy irregulares y es una técnica muy compleja.
Cuando la cabeza sufre un colapso subcondral y se deforma se puede realizar una
osteotomía para variar el eje de fuerzas del fémur y aliviar la carga de la zona afectada.
Es una cirugía agresiva, no siempre duradera y que dificulta posibles intervenciones futuras.
La artroplastia de cadera es una cirugía de buenos resultados pero que en personas jóvenes
ha de ser indicada con cautela por el inevitable desgaste de los componentes. El
renacimiento de las artroplastias de recubrimiento abre una esperanza en este tipo de
población siempre que la extensión de la necrosis no comprometa su fijación.
Las células troncales mesenquimales, mal llamadas “células madre”, son un tipo especial
de células mononucledadas con capacidad de multiplicarse indefinidamente y diferenciarse
hacia distintos tejidos(8).
50
A diferencia de las células embrionarias, las células madre adultas no tienen un potencial
de diferenciación ilimitado. Existen dos tipos fundamentales de células madre,
hematopoyéticas y mesenquimales que pueden dar lugar a distintos tejidos de origen
mesodérmico como tejido hematopoyético, muscular, tendinoso, óseo, etc.
Se encuentran repartidas en numerosas localizaciones en el adulto como células “dormidas”
que sólo harán su trabajo de reparar o regenerar estructuras dañadas cuando reciban las
oportunas señales. Se ha detectado la presencia de células madre adultas en grasa, músculo
esquelético, cerebro, sangre periférica, pared de los vasos sanguíneos, médula ósea, pulpa
dental, corazón, piel, intestino, testículo y epitelio ovárico. A estas localizaciones se las
denomina “nichos”. En el adulto la localización con mayor concentración de células madre
hematopoyéticas es la médula ósea de la cresta ilíaca (8). No obstante existen estudios
recientes que han demostrado la presencia de células madre mesenquimales y
hematopoyéticas en líquido sinovial de pacientes con osteoartritis de rodilla, en el hemartros
resultante tras lesión meniscal o ligamentosa y en los osteofitos (9,10,11). La cantidad de
células madre es menor que la hallada en cresta ilíaca, pero la facilidad para la obtención
de muestras con mínimo riesgo hace que sean una fuente útil para investigación.
Tratamiento de la Necrosis Avascular con células troncales mesenquimales.
La capacidad de estas células para generar osteoblastos ha sido bien definida en vitro y
en vivo, y puede ser favorecida en presencia de factores osteogénicos, como la proteína
morfogenética ósea (BMPs), factor de crecimiento de fibroblastos (FGF) y factor de
crecimiento insulin-like (IFG) (6,12). El principal problema reside en la obtención de estas
células de forma sencilla y en número suficiente. Como se ha mencionado la punción y
aspiración directa de la médula ósea a nivel de la cresta iliaca es un procedimiento sencillo
que permite obtener una población celular heterogénea formada principalmente por
células troncales mesenquimales y hematopoyéticas, células endoteliales, plaquetas y
otras células sanguíneas. El potencial osteogénico de la médula ósea está correlacionado
directamente con la concentración celular de ésta (4), y dado que el número de células
progenitoras mesenquimales presentes en el aspirado es pequeño (1 x 105 células
nucleadas) hay que recurrir a sistemas que aumentan la concentración celular.
Por un lado se plantea la posibilidad de aspirar unos 50 ml de médula ósea y cultivarla
durante aproximadamente dos semanas en medios específicos con condiciones especiales
de oxigenación que permitan la expansión de las células osteoprogenitoras identificables
mediante citometría de flujo, hasta 50 veces. Este sistema, además del retraso necesario
para obtener el producto terapéutico final, añade el inconveniente de la necesaria
manipulación celular en cámaras especiales rara vez disponibles en nuestros hospitales.
Por otro lado cabe la posibilidad de aumentar el volumen de médula ósea aspirada y
centrifugarla hasta conseguir una mayor concentración celular, aunque evidentemente
inespecífica. El sistema BMAC® (Harvest Technologies Corp.) genera mediante separación
por centrifugación una concentración de células nucleadas entre 5 y 7 veces mayor que
el aspirado original. Es un método poco agresivo y que está obteniendo unos resultados
excelentes no sólo en el tratamiento de la necrosis avascular del fémur sino también en
los casos de pseudoartrosis de diáfisis de huesos largos (11).
Si te ha interesado este artículo te
recomendamos que visites la sección
de nuevas tecnologías de
www.proyectonets.org donde
encontarás múltiples artículos
relacionados con el tema como
CIRUGÍA DE LA ARTROPLASTIA DE
CADERA Y DE RODILLA ASISTIDA POR
NAVEGADOR de Fernando Jara,
NUEVOS NANOBIOMATERIALES EN
CIRUGÍA ORTOPÉDICA Y
TRAUMATOLOGÍA de Andrés Díaz y
Fernando Jara y EL RESURFACING DE
CADERA EN LA PATOLOGÍA DEL
ADULTO JOVEN de Catherine Van der
Straeten que también encontarás en
esta revista.
Además desde el punto de vista legal este tratamiento se considera como un autoinjerto
mientras que el cultivo entra dentro de la “Terapia Celular” debiendo de ser autorizado
como “producto en investigación” y controlado por la Agencia Española de Medicamento
y Productos Sanitarios.
No existe actualmente un consenso en la literatura acerca del número de células madre
necesario para tratar la necrosis avascular, pero los trabajos más recientes e importantes
han establecido un limite por debajo del cual no se obtiene eficacia clínica y que ha sido
fijado en una media de 25x103 células por cadera (2,3).
En nuestro Servicio iniciamos hace dos años un estudio piloto para conocer la viabilidad
y la seguridad del sistema BMAC®.
51
Material.
Se llevó a cabo en 12 pacientes procedentes de la consulta de Cirugía Ortopédica y
Traumatología del Hospital General Universitario Gregorio Marañón con el diagnóstico
de necrosis avascular de cabeza del fémur grado I-II (Clasificación de Ficat), en los que
existía sintomatología dolorosa. Todos disponían de estudios Rx y mediante RMN para
localizar y cuantificar la lesión.
Se excluyeron aquellos con edad > 70 años, osteonecrosis con colapso, enfermedades o
tratamientos que disminuyen el número de células osteoprogenitoras (alcoholismo,
radiación, corticoides, cistostáticos, etc.). Todos los pacientes eran varones y la edad media
era de 39 años. La mitad habían tomado corticoterapia y en el 55% de los caso la afectación
fue bilateral.
Técnica quirúrgica.
Previo consentimiento informado se procede, generalmente bajo anestesia epidural al
aspirado de médula ósea mediante la punción por vía anterior de la cresta ilíaca ipsilateral
al lado de la lesión, con un trócar fino canulado con orificios laterales (Figura 1). Dicho
trócar se inserta a través de la cortical hasta llegar a hueso esponjoso, donde se comienza
la aspiración. Se recomienda aspirar unos 2 ml. y girar el trócar 45º y continuar con la
aspiración hasta completar los 360º para prevenir la hemodilución. Acto seguido se retira
la aguja 1 cm. y se repite el procedimiento. Se realizan entre 2 y 3 perforaciones separadas
2 cm entre sí.
Figura 1. Punción.
El aspirado se inyecta en un recipiente estéril al que se añade una dilución de suero salino
fisiológico al 0,9% y Heparina en una concentración de 455 unidades/ml., añadiendo 3 ml.
de esta dilución a cada 60 ml. de aspirado de médula ósea.
Para obtener el concentrado de células madre se utiliza el sistema BMAC que centrifuga
las bolsas del aspirado durante 15 min. y en un proceso automático obtiene una separación
del plasma y las capas celulares facilitando la obtención de la suspensión de células
nucleadas. El extracto resultante de células nucleadas es el que será reinfundido en la
zona de necrosis ósea.
52
Por cada 60 ml. de aspirado de médula ósea se obtienen alrededor de 10 ml. de concentrado
de células mononucleares. Para el tratamiento de la osteonecrosis de la cabeza femoral
suelen ser necesarios unos 20 cc. de concentrado.
Posteriormente y bajo control fluoroscópico se procede, mediante técnica percutánea, a
realizar un forage con una trefina llegando hasta la zona de necrosis ósea en la cabeza del
fémur. A través de la trefina se infunde a un ritmo lento y constante el concentrado de
células madre (Figura 2).
Todo el proceso se realiza dentro del
quirófano y el sistema asegura
condiciones estériles.
Los riesgos de esta intervención
quirúrgica son bajos (3), e incluyen:
infección de los puntos de entrada,
hematomas y dolor local en la zona
de punción de la cresta ilíaca, anemia
transitoria, posible penetración en
peritoneo (excepcional).
Es una técnica poco invasiva con un
tiempo de hospitalización mínimo y
que generalmente no requiere
anestesia general.
Figura 2. Inyección.
Resultados.
No tuvimos ninguna complicación peroperatoria. Los pacientes fueron seguido durante
un año comprobando una evidente mejoría de la escala funcional de cadera (Escala de
Harris) de unos 20 puntos de media. En 8 pacientes los resultados fueron excelentes y en
3 aceptables. Sólo un caso empeoró clínicamente y fue necesario reoperarle colocando
una artroplastia total de cadera no cementada sin ninguna dificultad añadida.
En el momento actual se han diseñado dos ensayos clínicos en nuestro Servicio, el primero
que prolonga el estudio piloto inicial relaci0onando los resultados con el número de
células estromales infundidas y el segundo que estudiará la población de células
osteoprogenitoras en varias localizaciones esqueléticas.
Conclusiones.
El hecho de que esta enfermedad tenga su máxima incidencia en pacientes jóvenes hace
necesario un tratamiento conservador y poco limitante que evite a corto plazo la necesidad
de la artroplastia.
Las terapias del futuro apuntan hacia la regeneración tisular y la Cirugía del Aparato
Locomotor ha sido una de las primeras especialidades en las que se está aplicando con
éxito. En este camino el tratamiento de la necrosis avascular o la pseudoartrosis mediante
células progenitoras mesenquimales es una realidad que ha mostrado ya resultados muy
esperanzadores en la literatura, habiendo sido tratados de este modo más de 1.000
pacientes con necrosis avascular de cabeza femoral (4).
Bibliografía:
(1) Ficat RP, Arlet J. Necrosis of the
femoral head. In: D. S. Hungerford, ed.
Ischemia and necrosis of bone.
Baltimore: Williams and Wilkins, 1980:
171-182.
(2) Hernigou P, Beaujean F. Treatment
of osteonecrosis with autologous bone
marrow grafting. Clin Orthop Relat Res.
2002 Dec;(405):14-23.
(3) Hernigou P, Poignard A, Manicom O,
Mathieu G, Rouard H. The use of
percutaneous autologous bone marrow
transplantation in nonunion and
avascular necrosis of bone. J Bone Joint
Surg Br. 2005 Jul;87(7):896-902. Review.
(4) Hernigou P, Poignard A, Beaujean F,
Rouard H. Percutaneous autologous
bone-marrow grafting for nonunions.
Influence of the number and
concentration of progenitor cells. J Bone
Joint Surg Am. 2005 Jul;87(7):1430-7.
(5) Petrigliano FA, Lieberman JR.
Osteonecrosis of the hip: novel
approaches to evaluation and
treatment. Clin Orthop Relat Res. 2007
Dec;465:53-62. Review.
(6) Lieberman JR, Conduah A, Urist MR.
Treatment of osteonecrosis of the
femoral head with core decompression
and human bone morphogenetic
protein. Clin Orthop Relat Res. 2004
Dec;(429):139-45
(7) Marker DR, Seyler TM, McGrath MS,
Delanois RE, Ulrico SD, Mont MA.
Treatment of early stage osteonecrosis
of the femoral head. J Bone Joint Surg
2008; 90A:175-87.
(8) NIH Stem Cell information web site.
Disponible en:
http://stemcells.nih.gov/info/. Accedido
el 27/12/2008.
(9) Lee SY, Miwa M, Sakai Y, Kuroda R,
Matsumoto T, Iwakura T, Fujioka H,
Doita M, Kurosaka M. In vitro
multipotentiality and characterization
of human unfractured traumatic
hemarthrosis-derived progenitor cells:
A potential cell source for tissue repair.
J Cell Physiol. 2007 Mar;210(3):561-6.
(10) Singh S, Jones BJ, Crawford R, Xiao
Y. Characterization of a mesenchymallike stem cell population from
osteophyte tissue. Stem Cells Dev. 2008
Apr;17(2):245-54.
(11) Suzuki Y, Kim KJ, Kotake S, Itoh T.
Stromal cell activity in bone marrow
from the tibia and iliac crest of patients
with rheumatoid arthritis. J Bone Miner
Metab. 2001;19(1):56-60.
(12) Connolly JF. Clinical use of marrow
osteoprogenitor cells to stimulate
osteogenesis. Clin Orthop Relat Res.
1998 Oct;(355 Suppl):S257-66. Review.
Prof. Javier Vaquero Martín. Jefe de Servicio de Cirugía Ortopédica y Traumatología del
Hospital General Universitario Gregorio Marañón.
53
“a pesar de la acreditada utilidad
de la hipotermia, sorprende que
su implantación sea tan baja”
LA HIPOTERMIA COMO MEDIDA TERAPÉUTICA.
Dr. JUAN CARLOS MARTÍN.
La utilización del frío como medio terapéutico no es nueva. Hipócrates ya aludía a su
utilidad en sus aforismos atribuyéndole un factor protector para el control de las
hemorragias, aunque también advertía de sus efectos deletéreos.
Dr. JUAN CARLOS MARTÍN
Junto a Hipócrates, romanos y egipcios habían preconizado el valor médico del frio.
Posteriormente existen múltiples alusiones a su aplicación en medicina, entre las que
destaca la del cirujano Dominique Jean Larrey que lo utilizó para la preservación de los
miembros amputados en la campaña de Rusia de las guerras napoleónicas.
No fue hasta 1936 cuando Temple Fay lo aplicó de forma justificada en medicina,
fundamentándose en la observación de la reducción de la mitosis en las células neoplásicas
sometidas al frio. Con posterioridad también aplicó la hipotermia a pacientes con
traumatismo cráneo encefálico. Los “científicos” nazis no escaparon a la tentación del uso
de la hipotermia entre sus métodos y tristemente lo sufrieron los prisioneros del campo
de concentración de Dachau entre otros.
Con posterioridad su utilización, en grados diversos de hipotermia, como protector cerebral
en los pacientes sometidos a cirugía cardiaca con circulación extracorpórea ha generalizado
su uso, aunque persisten dudas en la actualidad de cómo debe de aplicarse o respecto al
método idóneo de corrección de los gases sanguíneos.
Desde entonces han sido múltiples los intentos de la utilización de la hipotermia como
neuroprotector. Pero no ha sido hasta 2002 cuando se han publicado trabajos bien
diseñados que han avalado su utilización y ha pasado a ser considerado por los organismos
y sociedades médicas (Internacional Liaison Comittee on Resuscitation, European
Resuscitation Council, American Heart Association,…) dentro de las medidas a instaurar
en los pacientes que han sufrido una parada cardio-respiratoria (PCR) extrahopitalaria.
Si la elección de los pacientes es adecuada el impacto de esta medida, en términos de
número de pacientes a tratar para salvar una vida o encontrar mejoría neurológica, es
superior a otros tratamientos de utilización generalizada e incuestionada en nuestra
práctica clínica.
A pesar de la acreditada utilidad sorprende como hasta épocas recientes su implantación
en países del primer mundo y en hospitales de vanguardia sea tan baja. Diferentes encuestas
acreditan su baja utilización por causas diversas (falta de experiencia, dificultades técnicas,
ausencia de un método ideal…) En nuestro entorno tanto europeo como español esta
proporción no supera el 30 %.
Una vez asumido y aconsejado por los organismos y sociedades médicas como una medida
a instaurar en los pacientes que han sufrido una PCR la siguiente pregunta que debemos
plantearnos es a qué pacientes deberemos de aplicarlo. Como ocurre con frecuencia la
extrapolación a la práctica clínica de los resultados de los ensayos clínicos, en los que el
sesgo de selección puede ser importante, condicionaría que los resultados no sean
reproducibles. El aplicarlo a pacientes “demasiado vivos” les va a someter a los riesgos
inherentes a la hipotermia y que pueden superar el beneficio esperado. Por el contrario
el aplicarlo a pacientes “demasiado muertos” va a generar además de un aumento del
coste asociado al procedimiento, la sensación de futilidad del trabajo del equipo sanitario
54
sin obtener un beneficio real. Será por tanto relevante la adecuada selección de los
pacientes a los que se decida su implantación.
La siguiente pregunta tras decidir su aplicación es decidir que método de hipotermia
vamos a utilizar. A grandes rasgos se describen dos métodos generales de hipotermia: los
métodos externos o lo métodos invasivos. Lo métodos externos no invasivos producen
hipotermia mediante la aplicación de corriente de aire frio, o mediante el contacto con
superficies frías (agua, hidrogeles, hielo,…). Los métodos invasivos, consiguen reducir la
temperatura mediante el enfriamiento interno a través de la infusión de suero frío, la
utilización de circuitos externos (hemofiltración, circulación extracorpórea,..), irrigación
de cavidades con líquidos fríos (estómago, peritoneo,..), catéteres intravasculares con
circulación estanca de suero frio, etc. En la actualidad no esta determinado cual es el
método de elección pero los trabajos realizados hasta la fecha orientan a un control más
fiable de la temperatura con la utilización de catéteres intravasculares. En nuestra
experiencia lo más aconsejable es la combinación de la infusión de líquidos intravenosos
que puede iniciarse precozmente desde el medio extrahospitalario y la implantación de
catéteres intravasculares (ej. sistema CoolGard© de Alsius) en el medio hospitalario.
No cabe duda de que la aplicación de la hipotermia condiciona un cambio en la asistencia
a los pacientes recuperados tras PCR, que va mas allá de la aplicación de un tipo de
enfriamiento u otro. Los efectos de la hipotermia sobre los diferentes sistemas obligan en
primer lugar a una modificación de la terapéutica como es la administración generalizada
de sedación y con frecuencia la utilización de bloqueantes neuromusculares durante toda
la fase de hipotermia y hasta la normalización térmica a fin de evitar los escalofríos. Además
los cambios metabólicos que produce hacen necesaria la monitorización frecuente de
iones, glucemia etc. y su ajuste individualizado.
Además, la utilización de la hipotermia puede modificar los márgenes temporales para
la estimación de un pronóstico realizado de forma habitual mediante la valoración clínica,
neurofisiológica o bioquímica.
De igual manera existen trabajos que nos informan de la modificación de las propiedades
farmacodinámicas de diferentes fármacos, utilizados con frecuencia en el contexto de la
PCR y de los que hasta el momento no disponemos de unos conocimientos inequívocos.
Nos hemos referido al impacto favorable que tiene la aplicación de la hipotermia en los
pacientes que han sufrido una PCR recuperada, pero no debemos olvidar que se trata de
un detalle más dentro de la compleja y multidisciplinar asistencia a este tipo de pacientes.
Se trata de un proceso en el que participan gran número de especialidades médicas y
profesionales sanitarios desde que se inician las medidas de soporte vital, ingresa en una
Unidad de Cuidados Intensivos y hasta que el paciente sale del hospital (vivo o muerto).
Además con frecuencia y como queda recogido en el informe monográfico del Defensor
del Pueblo de 2005 acerca de daño cerebral sobrevenido “las unidades de cuidados
intensivos de los centros hospitalarios logran, con suma eficacia, salvar la vida en su
dimensión biofísica, y reducir las complicaciones fisiológicas inmediatas a la lesión inicial.
Pero, una vez traspasado el umbral de los cuidados críticos, y cursada el alta hospitalaria,
la atención se diluye con la vuelta a la familia de un paciente, estabilizado en términos
clínicos, pero con graves secuelas en sus modos de vida y de relación”
Mª José Jiménez comentó el artículo
en www.proyectonets.org:
Lo que más llama la atención al leer el
artículo es que una medida que parece
tener un impacto mayor que otros
tratamientos en la recuperación
neurológica de los pacientes con
encefalopatía postanóxica se utilice sólo
en un 30% de los casos en nuestro país.
Aunque se debe intentar estandarizar
tanto la selección de los pacientes, como
el método y tiempo de inducción de la
hipotermia, y el control fisiológico
durante y después del tratamiento, el
hecho de que no se utilice
mayoritariamente, parece más un
problema de desconocimiento de sus
ventajas y quizás de sobrecarga de
trabajo para enfermeras y médicos en
las UCI españolas que de dificultades
técnicas (hay varios métodos rápidos y
de relativamente fácil aplicación).
Probablemente nos corresponde a los
propios médicos intensivistas y a
nuestra sociedad científica (SEMICYUC),
revisar y publicar los datos más recientes
sobre la utilidad y beneficios reales de
esta técnica, y tratar de implicar tanto
a las administraciones sanitarias de las
diferentes comunidades autónomas
como a nuestros propios compañeros
para tratar de mejorar el pronóstico
neurológico y la calidad de vida de estos
pacientes, que si sobreviven en situación
de coma vegetativo persistente suponen
un reto para el sitema sanitario y la
sociedad en general.
Es por tanto la hipotermia una terapéutica a aplicar en los paciente recuperados tras sufrir
una PCR, pero debe de ser considerado como una parte más en su compleja asistencia,
que permita que al final del proceso encajen de la mejor forma posible todas las piezas
del puzle del cerebro para devolverlo a la situación que tenía antes de que se desordenaran
al sufrir la PCR.
Dr. Juan Carlos Martín. Coordinador de la UCI Cardiovascular. Servicio de Medicina
Intensiva. Hospital Clínico San Carlos de Madrid.
55
"Se trata de una opción protésica
que, conceptualmente, responde
a criterios de máxima preservación
ósea y anatómica para el paciente"
EL RESURFACING DE CADERA EN LA PATOLOGÍA DEL ADULTO JOVEN.
Dra. CATHERINE VAN DER STRAETEN.
Dra. CATHERINE VAN DER STRAETEN
Desde un punto de vista médico, el siglo XX conllevó grandes avances en todas las
disciplinas. Atendiendo a las ramas de la Cirugía Ortopédica y Traumatología, las décadas
finales del siglo XX supusieron jalones importantísimos desde un punto de vista conceptual
y material. Los avances respondieron a una madurez científica que, fue, y es acompañada,
por un desarrollo tecnológico y unas demandas sociales de una sociedad cada vez más
evolucionada y, por ello, más exigente. Especialización científico-quirúrgica, investigación
tecnológica y desarrollo de una conciencia especialista-paciente mayor cada día, se dan
la mano como una realidad indisoluble. Es en este marco evolucionado en el que surge
un caldo de cultivo para toda una serie de innovaciones.
Tras una primera fase de generalización de técnicas y tratamientos, favorecidas dentro de
procesos culturales de globalización y el impulso de una industria en constante desarrollo,
asistimos a una segunda fase de especialización y profundización. Es perceptible, tanto
en las patologías, como en las indicaciones y novedades tecnológicas parejas. Dicha
evolución es observable en un paciente más informado y exigente, que demanda, además
de la eliminación del dolor, una funcionalidad y resultados acordes al nivel de vida que
el sistema social le ofrece. En este marco, y dentro de la Cirugía de Cadera, hemos de
centrar todo el rango de soluciones que se están desarrollando bajo el paraguas de la
Patología de Cadera del Adulto Joven. Abarcan opciones conservadoras, no invasivas
desde un punto de vista quirúrgico, y otras, inevitablemente clínico-quirúrgicas.
Resurfacing.
Dentro de las opciones quirúrgicas en creciente expansión se encuentra el Resurfacing
de Cadera. Se trata de una opción protésica que, conceptualmente, responde a criterios
de máxima preservación ósea y anatómica para el paciente, proporcionándole una
funcionalidad incluso superior con respecto a una prótesis total de cadera.
Como concepto, se apoya en una idea de resuperficialización de la articulación de la
cadera, mínimamente invasiva a nivel cotiloideo y femoral. El diseño protésico reproduce
la fisiología de la cadera mediante una cabeza protésica que se adapta al máximo a la
anatomía del paciente. Los resultados finales para éste, son evidentes: una mayor
propiocepción tras la protetización, una menor invasividad de las estructuras óseas y de
partes blandas, que devienen en mayores oportunidades de tratamiento de futuro en
pacientes con altas expectativas de vida, y unas elevadas prestaciones funcionales.
Señalemos por ejemplo, un mayor rango de movilidad en comparación con las prótesis
totales de cadera habituales hasta ahora, y una menor posibilidad de luxación.
Como idea no es ninguna novedad. Tiene desde el punto de vista evolutivo una serie de
jalones, ya clásicos, dentro de la historia de la artroplastia de cadera. Ha sido un concepto
recurrente, que ha ido evolucionando en base a la tecnología y el método científico. Las
distintas fases sufridas en este camino han demostrado en el pasado, problemas
relacionados con el diseño de los distintos modelos con los materiales y tecnología
utilizados para su plasmación. Las conclusiones sacadas hablan de una necesaria selección
del paciente y de una estricta indicación.
56
Se centra ésta, sobre todo, en pacientes jóvenes y con buena situación ósea a nivel del
cuello femoral. Aunque, según criterio del cirujano, también puede indicarse en pacientes
de edad más avanzada y casos de displasia de cadera.
Las evidencias parecen dejar patente que resulta fundamental la elección de un diseño
adecuado y su acompañamiento mediante una instrumentación consecuente, reproducible
y fiable que permita, y favorezca, un posicionamiento preciso del implante, para la obtención
de unos resultados exitosos a medio y largo plazo. Aún hoy se debate en foros
internacionales las implicaciones de una articulación metal-metal y la consiguiente
liberación de iones en sangre.
Sistema Conserve.
El Sistema Conserve (1), ha demostrado ser uno de los dos resurfacing de cadera más
fiables del mercado. Ofrece una serie de ventajas claras tanto para el paciente como para
el cirujano.
Resaltar, entre las primeras, las derivadas del sistema protésico. Todos los implantes se
proveen en incrementos de 2mm por lo que se ofrecen opciones de cotilos de todo tipo
(tanto delgados como más gruesos) que permitirán al cirujano abordar cualquier tipo de
patología potencial de cadera: desde una cadera normal hasta la protrusión, pasando por
caderas displásicas. Con determinados sistemas, tanto las cabezas como los cotilos están
sobredimensionados debido a los incrementos entre tallas de 4mm. Esto implica demasiada
resección ósea del fémur y del acetábulo, un problema que se acrecienta en las tallas más
pequeñas.
Figura 1.Sistema Conserve.
Dicha resección ósea conservadora, también se ve favorecida al ser el acetábulo menor
a una hemiesfera. Se evita así el tener que profundizar más en el cotilo para obtener una
cobertura completa del implante. Las características del implante femoral también ayudan
a una mejor repartición de las cargas. Es posible gracias a una longitud y diámetro de
vástago dependientes del tamaño, a una mejor cobertura articular y a una óptima “clearance”
o tolerancia espacial, por lo que existe menor riesgo de “impingement” y por tanto, una
menor liberación de iones metálicos.
Hemos de precisar que hay una diferencia sustancial entre los diferentes tipos de prótesis
de resurfacing teniendo en cuenta la cobertura de la cabeza femoral por el componente
acetabular (debido a la diferencia del diámetro interno del acetábulo). Un ángulo de
cobertura menor lleva a un mayor ‘borde de carga’ y a un mayor desgaste, especialmente
en tamaños de diámetro menor (mujeres). Es incluso, mayor cuando el posicionamiento
del acetábulo es demasiado vertical (ángulo de abducción). En otras palabras, a tamaños
más pequeños, mayor es la importancia en el correcto posicionamiento del acetábulo.
Y ya relacionado con la instrumentación, variable también muy importante, cabe destacar
la alineación del componente femoral. La utilización de una pieza de instrumental llamada
57
‘guía de centraje de pin’ o sistema “lollipops” permite una de las opciones más precisas
para la buena orientación del componente femoral. Éste aspecto es esencial, no sólo para
la supervivencia de la prótesis, sino, en combinación con la orientación cotiloidea, para
la funcionalidad de la cadera protésica. Todo ello deviene en una mejora de la calidad de
vida del paciente.
Figura 2. Conserve bilateral.
Diversos estudios con el sistema de resurfacing Conserve demuestran niveles muy bajos
de liberación de iones metálicos. Habiendo sido demostrada en estudios recientes (2) la
mayor indulgencia de la Conserve, en posicionamientos no tan adecuados, más
verticalizados del componente cotiloideo, por tener un mayor diámetro interno el acetábulo
de dicho sistema.
La diferencia más importante entre las prótesis de superficie está en las tasas de desgaste
que producen. Además, se han de tener en cuenta, las diferencias existentes en cuanto
a ciertos mecanismos de fallo, recientemente publicados, como la iliopsoitis, el dolor
inguinal y la presentación de pseudotumores.
Se ha de prestar una especial atención al control del posible desgaste de la prótesis
mediante la determinación periódica de los niveles plasmáticos de iones. Es un hecho
conocido la destrucción de las partes blandas, y del propio hueso, cuando estos tejidos
se ven expuestos a concentraciones elevadas de productos de desgaste. En ocasiones, se
ha de tener presente la necesidad de revisar aquellos componentes mal orientados en las
artroplastias de superficie, con el fin de evitar complicaciones posteriores para el paciente.
Notas:
(1) El sistema Conserve® está fabricado
por Wright Medical Technology.
(2) Correlation between inclination of
the acetabular component and metal
ion levels in metal-on-metal hip
resurfacing replacement: R. De Haan, C.
Pattyn, H. S. Gill, D. W. Murray, P. A.
Campbell, K. De Smet Journal of Bone
and Joint Surgery - British Volume, Vol
90-B, Issue 10, 1291-1297.
Link::
http://www.jbjs.org.uk/cgi/content/ab
stract/90-B/10/1291
Conclusión.
Podemos concluir que la elección del implante adecuado resulta trascendental, ya que
tanto la frecuente mala orientación, como el elevado desgaste de algunos modelos, se
deben, por un lado, a cuestiones relativas al diseño y por otro, a la dificultad para orientar
correctamente el componente acetabular.
La prótesis Conserve presenta ventajas evidentes en cuanto al desgaste debido a factores
propios de su diseño (mejor cobertura, menor riesgo de sobrecarga marginal, incluso en
caso de componentes excesivamente verticalizados) y de su instrumentación, puesto que
permite un mejor control de la posición del componente en el momento de su asentamiento
definitivo y a unos materiales de dureza diferenciada (“A-class”).
Dra. Catherine Van Der Straeten, M.D. Consultant Clinical Research Rheumatologist.
58
"la negativización sérica del RNA
del virus C a partir del 1 mes de
tratamiento, supone una tasa de
erradicación superior al 90%"
er
PROBLEMAS NO RESUELTOS EN EL TRATAMIENTO DE LA HEPATITIS
INDUCIDA POR VIRUS C. Dr. GUSTAVO LOPEZ.
La hepatitis inducida por el virus C afecta a más de 200 millones de personas en todo el
mundo. Si tenemos en cuenta que aproximadamente el 30 % de esas personas
evolucionarán hacia cirrosis en un plazo comprendido entre 5 y 20 años y que gran parte
de ellas morirán por complicaciones de la propia cirrosis o por un carcinoma hepatocelular
injertado en el hígado cirrótico, y si pensamos, además, que la cirrosis producida por el
virus C, con o sin hepatoma añadido, es la causa más frecuente de trasplante hepático,
comprenderemos fácilmente la importancia de disponer de una terapia adecuada para
combatir al virus que nos ocupa.
Dr. GUSTAVO LOPEZ
¿Disponemos en la actualidad de esa adecuada terapia?: no del todo, por ello,
desgraciadamente, tenemos problemas no resueltos a la hora de referirnos al tratamiento
de esta enfermedad. Pero hagamos una breve historia de lo ocurrido hasta llegar al día
de hoy.
El virus C no se conoció hasta el año 1989, fecha en que Houghton y Kuo en USA, clonaron
su genoma. Hasta entonces, las hepatitis virales que no tenían su origen en el virus A ni
en el virus B, eran denominadas Hepatitis No-A No-B. En la actualidad se conocen siete
virus causantes de hepatitis (A, B, C, Delta, E, F y G); sin embargo, los que pueden dar lugar
a importantes complicaciones a lo largo de su evolución son los virus B y C (el virus Delta
es un virus defectivo que necesita la infección previa y concomitante del virus B y, por
cierto, empeora el curso de la enfermedad).
Desde poco después de la clonación del genoma del virus C comenzaron a hacerse en
todo el mundo gran cantidad de estudios encaminados a conocer la prevalencia de la
enfermedad y muy pronto pudimos disponer de análisis séricos que demostraban la
presencia, o no, de anticuerpos frente al virus. Estas herramientas diagnósticas fueron
cada vez más fiables y se siguieron de una prueba fundamental: la detección del RNA del
virus en el suero de los infectados.
Los diversos estudios epidemiológicos efectuados en gran parte de países de todo el
mundo han permitido averigüar que el virus C tiene una elevadísima prevalencia en todos
los continentes, si bien con grandes variaciones de unos a otros lugares. En USA se cifra
en 1%, mientras que en muchos lugares de África se sitúa en casi el 15%. En España se
han hecho pocos estudios epidemiológicos pero se calcula que probablemente existe una
prevalencia que oscila entre el 1.5 y el 2.5% (similar a la del resto de los países mediterráneos)
La precoz previsión de la elevada frecuencia de esta enfermedad estimuló a la industria
farmacéutica en la investigación de fármacos eficaces, por lo que muy poco después del
descubrimiento del genoma viral comenzaron a llevarse a cabo multitud de ensayos
clínicos con Interferón, sustancia obtenida por recombinación genética (pretende imitar
las acciones del interferón natural: inmunomoduladoras, antineoplásicas y antiproliferativas).
Las primeras noticias sobre sus resultados terapéuticos fueron muy alentadoras ya que
durante el tratamiento se objetivaba, prácticamente en todos los casos, normalización de
la cifra de transaminasas séricas. Sin embargo, la conclusión del ciclo medicamentoso nos
volvía a la amarga realidad ya que no obteníamos una auténtica respuesta más que en el
10-12% de los pacientes tratados.
59
El escaso, pero evidente, éxito obtenido con el interferón, sin embargo, dio lugar a la
realización de multitud de investigaciones en los distintos campos implicados en el estudio
de la enfermedad: histologicos, clínicos, farmacológicos, etc, lo que ha permitido dar un
gran y generalizado impulso al estudio de todas las enfermedades hepáticas. El hecho es
que en la actualidad estamos en condiciones de poder erradicar al virus C en un porcentaje
de casos que oscila desde un 40% hasta un 80%. ¿Cómo se explica ese rango tan amplio
de erradicación? Fundamentalmente porque existen ciertas pequeñas diferencias en la
composición del virus C que dan lugar a la aparición de 6 distintos “genotipos”
(homologación de secuencias menor del 69%) y más de 100 subtipos. En cada zona
geográfica predomina uno u otro de los genotipos; en España existe una elevada proporción
del denominado genotipo 1b (más del 60% de los pacientes). Pues bien, se ha podido
comprobar que de los 6 mencionados genotipos, los denominados como 2 y 3 responden
al tratamiento mucho mejor (hasta 80%) y con menor duración del ciclo terapéutico que
los demás; concretamente, el genotipo 1 se erradica en un porcentaje inferior al 45%.
Ya vemos el primer y más importante de los problemas no resueltos en el tratamiento de
la hepatitis C: no somos capaces de curar ni a la mitad de los pacientes con el genotipo
más numeroso (genotipo 1) ni a la quinta parte de los infectados con los genotipos
“mejores” (2 y 3).
El segundo problema no resuelto es el que se relaciona con los efectos secundarios o
adversos del tratamiento, que hora es ya de decir que consiste en la combinación de dos
fármacos, Interferón pegilado (Interferón standard al que se acopla una molécula de
polietilenglicol o PEG, con lo que se retarda su eliminación y se alarga el número de días
entre cada dosis) y Ribavirina (antivírico sintético). Estos dos medicamentos se administran
en combinación durante 24 semanas en los casos de los genotipos 2 y 3, y durante 48
semanas en el resto de genotipos. Durante la terapia es muy frecuente la aparición de
síndrome pseudogripal, trastornos del ánimo (tendencia a la depresión), astenia, anorexia,
pérdida de peso, tendencia a la caída del cabello, insomnio, pancitopenia, etc. En general,
todos estos efectos son leves o moderados y suelen tolerarse por parte de los enfermos,
pero en ocasiones son tan importantes que llegan a ser causa de abandono de tratamiento
(10% de casos).
Gustavo López Alonso también ha
escrito en NETS el artículo ECOGRAFÍA
EN MEDICINA que puedes encontrar
en la sección “tribuna profesional) de
www.proyectonets.org y en el número
01 de la revista NETS Innovación y
Tecnología en la Salud.
El tercer problema no resuelto, no tan importante como los dos primeros pero no por ello
insignificante, se relaciona con el precio. El ciclo de 48 semanas de tratamiento, sin contar
los gastos ocasionados por las obligadas visitas de control y sus correspondientes controles
analíticos periódicos durante la terapia, supone entre 12 y 14 mil euros. Sumemos todos
los enfermos tratados en todos los hospitales del país y nos daremos cuenta del enorme
gasto que ello supone. Sin embargo, los estudios realizados (Buti y cols entre otros autores)
avalan que la terapia combinada es coste/eficaz, lo que no deja de ser tranquilizador para
los que nos consideramos responsables de este gasto.
Podríamos añadir otros dos problemas que poco a poco se van resolviendo, por lo que es
de esperar que en breve dejen de ser problema. Uno de ellos consiste en la existencia de
enfermos que no saben que padecen la enfermedad (asintomática durante gran parte de
sus distintas fases). El otro problema lo constituyen, a veces, los propios médicos que,
bien porque desconocen los verdaderos porcentajes de éxito del tratamiento, bien porque
exageran (es decir que también desconocen) la importancia de los efectos adversos,
desaniman a sus pacientes a la hora de ser sometidos a terapia combinadas.
Los tres primeros problemas no resueltos (resultados parciales, frecuentes efectos adversos
y elevado coste), hacen necesario que la industria farmacéutica prosiga la investigación
y desarrollo de nuevos medicamentos (se prevé su aparición para dentro de 4-5 años) y
que los que tratamos a estos pacientes busquemos factores predictivos de respuesta a la
terapia actual para que no sometamos a indeseables efectos adversos más que a los que
van a obtener beneficio y para hacer un mejor uso del dinero público. En este sentido, se
distinguen los factores predictivos previos al inicio de la terapia y factores predictivos
durante la terapia.
El principal de los factores predictivos previos al inicio del tratamiento se relaciona con
el genotipo. Ya se ha dicho en las líneas precedentes que el genotipo 1, el más frecuente
60
con diferencia en España, es el que peor responde al tratamiento combinado (40-50% de
los casos). Así pues, el genotipo 1 es un factor predicativo negativo y los genotipos 2 y 3
son factores predictivos positivos.
Además del genotipo, pero ya con diferencia en lo que se refiere a su utilidad, son
importantes: 1) tiempo trascurrido desde la adquisición de la enfermedad (a menor tiempo
mayores posibilidades de éxito; 2) grado de fibrosis hepática en el momento de iniciar la
terapia (mayores posibilidades de curación cuanto menor es el grado de fibrosis), que
guarda relación con el anterior factor, puesto que cuanto mayor es el tiempo trascurrido
mayor es la posibilidad de que aumente la fibrosis; 3) sexo del paciente, con mejor
pronóstico para el femenino; 4) existencia de hábitos perniciosos, especialmente negativos
en el caso de la ingesta de alcohol; 5) enfermedades concomitantes, especialmente las
que influyen negativamente en el estado inmunitario del enfermo; 6) obesidad, que influye
negativamente en el pronóstico. Recientemente se relaciona de forma negativa tanto la
obesidad como el trastorno relacionado con el metabolismo de la insulina-glucosa; 7) la
hipersideremia también se ha relacionado negativamente con la respuesta al tratamiento
combinado.
Durante la terapia existe prácticamente un único pero importantísimo factor predictivo
positivo: la respuesta viral precoz. En multitud de trabajos se ha demostrado que la
negativización sérica del RNA del virus C a partir del primer mes de tratamiento, significa
que obtendremos una tasa de erradicación superior al 90%, incluso para el genotipo 1.
Al mismo tiempo también podemos afirmar que la positividad sérica del RNA que se
mantiene más allá del 6º mes de terapia es equivalente a fracaso de tratamiento en más
del 90% de casos.
Como síntesis de la hasta aquí expuesto quisiera expresar la satisfacción que podemos
experimentar los médicos que hemos asistido a la evolución de la terapia frente al virus
C desde su descubrimiento hasta la actualidad, aunque sabemos que aún es largo el
camino que queda por recorrer.
Dr. Gustavo López Alonso. Servicio de Aparato Digestivo, Hospital Clínico San Carlos.
visitanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
61
"en los pacientes hospitalizados por
FVC, un 26% de los fallecimientos
están directamente relacionados
con la fractura."
DEPENDENCIA Y FRACTURAS VERTEBRALES POR COMPRESIÓN.
ENRIQUE ANTÓN.
ENRIQUE ANTÓN
La enfermedad y no la edad, es la principal causa asociada a dependencia. Aunque el
envejecimiento se ha asociado normalmente a dependencia y enfermedad,
aproximadamente más del 50% de las personas mayores manifiestan en las diferentes
encuestas de salud que tienen una buena o muy buena salud, lo que suele asociarse a la
ausencia de síntomas importantes de las posibles enfermedades crónicas existentes y a
la ausencia de enfermedades incapacitantes. Una de las enfermedades que puede generar
mayor dependencia es la osteoporosis, en concreto, las fracturas que de ella se pueden
derivar. Las fracturas vertebrales por compresión (FVC) son el tipo de fracturas más común
debidas a osteoporosis, aunque también puede deberse a lesiones osteolíticas y/o
traumatismos. La cifra de casos diagnosticados en Europa es de 117 por 100.000 personas
y año, lo que significa que solo en la Unión Europea se tratan unas 450.000 FVC al año.
Dicho de una forma más simple, se origina una FVC cada 30 segundos. En España se
producen 66.000 FVC cada año y esta cifra continua creciendo a consecuencia del aumento
actual de población en el segmento menor de 65 años y es lógico esperar que la incidencia
global de fracturas se incremente en un futuro próximo, la Comisión Europea estima un
crecimiento de esta patología de un 50% en los próximos 8 años.
Figura 1. Espiral descendente.
El European Vertebral Osteoporosis study (EVOS), estima que el 20,2% de las mujeres y
el 12% de los varones europeos de más de 50 años sufre una FVC. En España, los resultados
del estudio EVOS muestran datos similares al resto de Europa. En la población femenina
se observaba presencia de, al menos, una FVC dentro de unos márgenes que varían entre
el 14,9% de Madrid y el 26% de Barcelona, y en los varones entre el 19,8% de Madrid y el
25,1% de Las Palmas. Existen datos de incidencia de hospitalizaciones por FVC en España
de 2,76 casos por 10.000 habitantes de 30 años o más.
62
Cada fractura vertebral conlleva una serie de consecuencias a largo plazo que pueden
acompañarse o no de dolor y que se desencadenan en una espiral descendente de síntomas.
Además de las manifestaciones puramente externas o estéticas este arqueamiento de la
columna comprime el tórax y la cavidad abdominal generando otra serie de consecuencias,
el deterioro se inicia con la deformidad de la columna, ocasionando disminución de la
capacidad pulmonar, alteración de la función, pérdida de apetito, problemas de sueño,
disminución de la actividad, aumento del riesgo de fracturas y de comorbilidades, y
finalmente hasta un incremento de la mortalidad. Se ha estimado que en los pacientes
hospitalizados por FVC, un 26% de los fallecimientos están directamente relacionados
con la fractura.
Las FVC, lejos de ser una patología banal, tienen un importante impacto en los pacientes
que las sufren que se ha descrito como un proceso degenerativo en forma descendente
que va incrementando la morbilidad y mortalidad de los individuos. La disminución de
la movilidad por la deformidad de la columna disminuye significativamente las actividades
diarias que pueden realizar los pacientes y por tanto incrementar la dependencia de otras
personas. Se estima que en la Unión Europa la estancia media hospitalaria por una FVC
es de 13,5 días cuando no existe déficit neurológico y de 21,5 días cuando existe déficit
neurológico. Una fractura en la zona lumbar origina por término medio 25,8 días de
postración en cama y 158,5 días de actividad limitada. Por su parte, una fractura en la zona
torácica origina 12,6 días de postración y 73,6 días de limitación de actividad. La ansiedad
y depresión manifestada por estos pacientes a consecuencia del temor a nuevas fracturas
y a la deformidad física puede estar derivada de esta dependencia junto a las otras
consecuencias descritas. La dependencia física de estos pacientes dificulta además sus
posibles relaciones sociales e interpersonales, ya que este tipo de pacientes no puede
corresponder al apoyo social, y la dificultad para cumplir con el rol social establecido
(trabajar o cocinar, por ejemplo) desemboca en una pérdida de autoestima con efectos
social y psicológicamente devastadores.
El impacto de las FVC en la calidad de vida es similar al producido por las fracturas de
cadera, teniendo en cuenta que éstas últimas suceden con menor frecuencia y a una edad
más avanzada. Algunos autores han concluido que en Europa las FVC por osteoporosis
ocasionan más años de vida ajustados por discapacidad que el cáncer, aproximadamente
2 millones. Este impacto de las FVC sobre la calidad de vida y funcionalidad de los pacientes,
debe ser reconocido tanto por la comunidad asistencial como la sociedad en general, para
poder establecer programas de prevención adecuados, así como dedicar los recursos
sanitarios precisos para el tratamiento de esta debilitante condición.
El impacto económico de las fracturas vertebrales no está tan definido como el de las
fracturas osteoporóticas de cadera, las publicaciones existentes han puesto de manifiesto
de forma unánime el enorme impacto económico de las FVC, se estimó que causaron
costes directos totales de aproximadamente 1,5 billones de dólares en EE.UU. en 1996. A
nivel europeo los costes hospitalarios de las fracturas osteoporóticas alcanzaron en 1998
los 340 millones de euros. En concreto, en Suiza se ha publicado que el coste directo del
ingreso hospitalario de pacientes con FV supuso en el 2000 el 1,6% del gasto sanitario
nacional y en España se ha estimado que las FVC supusieron un coste de 41.746.930€ en
el año 2002. Tal y como se ha comentado previamente, el aumento de la longevidad de
la población, y el impacto de la osteoporosis pueden hacer que las cifras económicas
aumenten hasta en un 33% en los próximos años.
El manejo de las FVC puede circunscribirse simplemente a tratamiento paliativo o realizarse
mediante procedimientos quirúrgicos, en cualquier caso, se constata la importancia de
una rápida intervención con el objeto de evitar el desencadenamiento de la espiral
descendente anteriormente mencionada. Los pilares básicos del tratamiento de cualquier
fractura son la restauración de la anatomía, la corrección de la deformidad y la preservación
de la función, conseguir estos fines sin excesivos riesgos o agresividad quirúrgica era algo
prácticamente impensable hasta hace poco, pero las técnicas quirúrgicas han ido
evolucionando y en la actualidad, los procedimientos percutáneos guiados por radioscopia
(Kyphon® cifoplastia con balón, vertebroplastia, etc.…) permiten un abordaje mínimamente
63
invasivo de la lesión. Inicialmente la indicación de estas técnicas se restringía a pacientes
con dolor secundario a fractura que persistía por encima de 4-6 semanas, con un grado
de acuñamiento no superior al 60% de la altura vertebral, con la confirmación radiológica
de que la fractura aún se encontraba en actividad, descartando casos en los que el dolor
desaparecía.
Conforme se ha ido ganando en experiencia, se ha ampliado la horquilla terapéutica,
incluyéndose en la actualidad las indicaciones de Hemangiomas sintomáticos, Metástasis
óseas osteolíticas, Mieloma múltiple u otras alteraciones como linfoma, espondilitis de
Kummell, histiocitosis u osteogénesis imperfecta.
Enrique Antón de las Heras. Manager de Rembolso y Economía de la Salud. Spine and
Biology. Medtronic Ibérica.
"características genéticas de los
individuos y del tumor hacen que
se comporten de manera distinta
frente a los medicamentos"
ESTADO ACTUAL DEL TRATAMIENTO DEL CÁNCER COLORRECTAL
AVANZADO Y METASTÁSICO Y LA IMPORTANCIA DE MARCADORES
PREDICTIVOS DE RESPUESTA AL TRATAMIENTO. Dr. ALBERTO ABAD.
Dr. ALBERTO ABAD
El panorama actual del tratamiento del cáncer colorrectal metastásico es muy alentador,
habiendo mejorado de manera significativa en los últimos años. Hasta los años setenta,
la quimioterapia ofrecía únicamente 20% de respuestas al tratamiento y la mediana de
supervivencia no superaba los 9 meses. Hoy en día, estamos hablando de elevados índices
de respuesta que pueden alcanzar o incluso superar el 60% en situaciones con enfermedad
metastásica limitada al hígado, cuando se optimiza el tratamiento. Naturalmente, esta
mejoría en la respuesta al tratamiento conlleva una esperanza de curación en aquellos
que pueden ser rescatados para cirugía y una prolongada supervivencia que supera hoy
día los 22 meses de mediana en aquellos pacientes que pueden recibir todos los fármacos
en sucesivas líneas de tratamiento, en la mayoría de los casos con excelente calidad de
vida .
Existen varios elementos determinantes para esta mejoría, como son la incorporación de
nuevos fármacos quimioterápicos con actividad en este tumor y la aparición de una nueva
familia de medicamentos, los llamados fármacos biológicos o antidiana. En el caso del
cáncer de colon y recto esta nueva familia está representada por 2 anticuerpos monoclonales
frente al factor de crecimiento epidérmico (anti-EGFR) y uno antiangiogénico (anti-VEGF),
mejorando significativamente los resultados del tratamiento médico y consiguendo con
ello un incremento claro de pacientes que se benefician de la cirugía de las metástasis.
La disponibilidad de múltiples medicamentos hace posible tratar a los pacientes con un
segundo tratamiento cuando fracasa el primero, cambiar fármacos si provocan toxicidad
exagerada o elegir los medicamentos según las características y condiciones del paciente.
Pero existe otro elemento de gran importancia para la optimización del tratamiento que
es la posibilidad de disponer de marcadores moleculares de respuesta.
64
Los conocimientos cada día más profundos en biología molecular nos han permitido
comprender algunas características genéticas de los individuos y del tumor que hacen
que se comporten de manera distinta frente a los medicamentos. Estas características
pueden ser analizadas mediante el establecimiento de perfiles genéticos, el análisis de
mutaciones en el tejido tumoral y el análisis de polimorfismos genéticos.
Dentro del campo de la aplicación clínica en cáncer de colon, el ejemplo más notable en
este momento es la determinación de la presencia de mutación en el gen kras que codifica
una proteína que actúa en la vía de transmisión de la proliferación celular inhibida por la
acción de los fármacos anti-EGFR (antireceptor del Factor de Crecimiento Epidérmico). La
presencia de esta mutación hace ineficaz el tratamiento con estas antidianas, ya que kras
permanece activado continuamente, indiferente a la inhibición de EGFR. En este sentido,
cetuximab representa un modelo de optimización del tratamiento. Si bien la combinación
de quimioterapia con este fármaco anti-EGFR ha demostrado mejorar los resultados en
los enfermos con cáncer colorrectal metastásico, la determinación del estado mutacional
del gen kras ha permitido conocer que un porcentaje de pacientes, aquellos en los que
el gen está mutado en el tumor, no van a responder al tratamiento con inhibidores de
EGFR debido a la activación permanente de la vía de proliferación como se ha comentado
anteriormente. Por el contrario los pacientes cuyo tumor no presenta la mutación tienen
una respuesta significativamente superior si son tratados con cetuximab frente a si no lo
son.
Recientemente se han presentado en el congreso de la Sociedad Americana de Oncología
Medica (ASCO) los resultados comparativos según la presencia de la mutación o no. Tanto
si cetuximab se combina con quimioterapia basada en irinotecan/fluorouracilo (estudio
CRISTAL) como si lo hace con otra pauta basada en oxaliplatino/fluorouracilo (estudio
OPUS), la respuesta alcanza 59-61%, situando la mediana de supervivencia cercana a los
25 meses (p=0.22). Para los pacientes con metástasis hepáticas únicamente la respuesta
al tratamiento alcanza 77%. En un estudio en pacientes con metástasis hepáticas irresecables
(CELIM) aunque con un tamaño muestral no muy amplio, la respuesta alcanza para ambas
combinaciones un 79%, lo que genera un 42% de pacientes en los que se puede resecar
la enfermedad hepática (35% con cirugía radical) con lo que conlleva respecto a las
posibilidades de curación incluso con enfermedad diseminada.
En aquellos pacientes con mutación del kras, el conocimiento de la falta de eficacia del
anti-EGRF evita ofrecerles un tratamiento sin opciones y optar por otras alternativas omo
los antiangiogénicos para completar su tratamiento.
Es clara pues la ventaja de disponer de marcadores biológicos de respuesta para decidir
el tratamiento a la medida de cada paciente y aunque estamos lejos de disponer de ellos
para todos los medicamen hoy ya también algunos polimorfismos genéticos y
sobrexpresión de algunos genes que en breve van a contribuir a este avance de momento
marcado por los agentes antiEGFR cuya relación con las mutaciones de kras tiene una
especifidad prácticamente 100%.
Referencias bibliográficas:
CRYSTAL: Van Cutsem E,Köhne CH, Hitre
E. Cetuximab and chemotherapy as
initial treatment for metastatic
colorectal cancer.N Engl J Med.
2009 Apr 2;360(14):1408-17.
OPUS: Bokemeyer C, Bondarenko I,
Makhson A. Fluorouracil, leucovorin,
and oxaliplatin with and without
cetuximab in the first-line treatment of
metastatic colorectal cancer.J Clin
Oncol. 2009 Feb 10;27(5):663-71.
Epub 2008 Dec 29.
CELIM: Folprecht G, et al. ASCO GI 2009;
Abstract No: 296.
http://www.asco.org/ASCO/Abstracts
+%26+Virtual+Meeting/Abstracts?&v
mview=abst_detail_view&confID=63
&abstractID=10212 (acceso 8 de abril
de 2009).
Dr. Alberto Abad. Vicepresidente del Grupo Español de Tratamiento de Tumores Digestivos.
www.proyectonets.org
65
"SenseiTM y ArtisanTM se
combinan proporcionando a los
médicos mayor control y precisión
sobre la punta del catéter"
CONTROL ROBOTIZADO DE CATÉTER PARA TÉCNICA INTERVENCIONISTA.
DOLORS MATA y ÁNGEL CANELLES.
DOLORS MATA
Historia de la Robótica en la Medicina.
La palabra robot proviene del término checo “robota” que significa “trabajo forzado”. Hoy
en día asociamos la palabra robot tanto con las máquinas que realizan trabajos repetitivos
en las cadenas de montaje como con los de apariencia humana que hemos visto en las
películas de ciencia ficción desde los años 40.
Hoy, los robots han evolucionado para realizar trabajos complicados que no siempre son
posibles de hacer manualmente. Se utilizan para fabricar microprocesadores, explorar las
profundas cuencas marinas y trabajar en otros entornos potencialmente peligrosos. Era
solo cuestión de tiempo que la robótica entrara en el campo de la medicina y ahora lo
está haciendo a gran escala.
ÁNGEL CANELLES
La historia de la robótica en la medicina comenzó con el Puma 560 que fue utilizado en
1985 para realizar biopsias neuroquirúrgicas con una mayor precisión. En 1988 el Puma
amplió sus capacidades y se utilizó en la cirugía de próstata. Tras el éxito inicial del Puma,
el PROROBOT fue desarrollado específicamente para la resección transuretral de la próstata
y durante este tiempo también se desarrolló el ROBODOC, el primero aprobado por la
FDA, para usarse en operaciones de cadera.
Desde mediados de los 80 hasta principios de los 90, la NASA, Agencia Aeroespacial
Estadounidense, que había estado trabajando en el campo de la realidad virtual, se interesó
por el uso de su tecnología e investigó para desarrollar robots quirúrgicos. El objetivo era
facilitar que el médico tuviera la sensación de estar operando directamente al paciente
en vez de hacerlo a distancia.
Médicos e ingenieros de la NASA se unieron para formar empresas comerciales en Silicon
Valley, California. Se desarrolló y comercializó el AESOP, un brazo robótico móvil con un
endoscopio activado por voz. Poco después, una empresa ahora llamada Intuitive Surgical
introdujo el sistema quirúrgico daVinci. El sistema daVinci ha obtenido un gran éxito en
diversos campos quirúrgicos, especialmente en cirugía cardiaca y de próstata. Los beneficios
incluyen la reducción del trauma, de la pérdida de sangre y del dolor para el paciente, así
como una estancia más corta en el hospital y una recuperación más rápida.
Hansen Medical.
Tras el éxito del daVinci, el ingeniero mecánico Dan Wallace, y su colega el cirujano Fred
Moll, vieron la necesidad de una nueva generación de robots médicos avanzados. Hansen
Medical nació en 2002, y en 2007 la empresa obtenía la aprobación FDA y la Marca CE
para el uso en Electrofisiología del Sistema SenseiTM y del catéter ArtisanTM. El sistema de
Catéter Robótico Sensei se ha diseñado para superar las limitaciones de las anteriores
tecnologías; facilitando la manipulación y aportando seguridad , precisión y estabilidad
al catéter y las tecnologías basadas en el catéter. El sistema proporciona navegación y
control de movimiento instintivo del catéter (Instinctive MotionTM), dando como resultado
mejor acceso, estabilidad y control en intervenciones complejas.
66
Fibrilación Auricular.
La Fibrilación Auricular (FA) es una arritmia cardíaca en la que múltiples ondas eléctricas
se propagan a través de la aurícula, provocando contracciones auriculares descoordinadas
(1). Es la arritmia que se observa mas comúnmente en la práctica clínica, y su prevalencia
continúa aumentando en el mundo occidental como resultado del envejecimiento de la
población, del aumento de la incidencia de enfermedades cardiacas y del mejor diagnóstico
(2). Se espera que esta tendencia continúe y las estimaciones recientes sugieren que en
2050, la enfermedad afectará a 15,9 millones de americanos. Esta estimación del problema
pone de manifiesto la importancia de desarrollar propuestas eficaces para la prevención
primaria de la FA (3).
En la actualidad, se sabe que la arritmia se da en el 1% de la población general, y asciende
a 2,2 millones de personas en los Estados Unidos (4) y a 4,5 millones en Europa (5). La Fa
es más prevalente a partir de los 65 años (media de edad, 75 años) y su prevalencia
aumenta con la edad, afectando aproximadamente a un 9% de la población mayor de 80
años (6). Los datos del Framingham Heart Study sugieren que uno de cada cuatro individuos,
sufrirá algún episodio de FA a lo largo de su vida (7).
Considerada antiguamente como una enfermedad relativamente benigna, hoy se sabe
que la FA es un vaticinador independiente tanto de fallecimiento como de accidente
cerebro vascular y está asociada con una importante morbilidad. Comparado con personas
en ritmo sinusal normal, la presencia de FA confiere el doble de riesgo de mortalidad (8).
Este riesgo aumenta ante enfermedad cardiaca subyacente y es particularmente grave en
pacientes con insuficiencia cardíaca crónica (9), ya que la coexistencia de las dos condiciones
crea un círculo vicioso.
Ablación de la Fibrilación Auricular mediante catéter.
Puedes encontrar este artículo en el
blog de Palex en
www.proyectonets.org. Recuerda que
en NETS puedes comentar los
artículos, dar tu opinión, participar en
debates y escribir nuevos artículos. El
blog de Palex tiene varios artículos
originales de diversos temas
comentados y discutidos por los
usuarios de NETS.
La ablación de FA ha evolucionado considerablemente durante los últimos años y ha
surgido como opción de tratamiento estándar reconocida para determinados pacientes.
De hecho, las pautas clínicas sobre FA publicadas recientemente por el American College
of Cardiology, la American Heart Association, y la European Society of Cardiology, describen
por primera vez la ablación de FA mediante catéter como una opción de tratamiento viable
en pacientes con FA persistente o paroxística que no han tenido éxito con al menos un
fármaco antiarrítmico. Este cambio nace como resultado del importante desarrollo clínico
que ha habido durante los últimos 5 años, incluyendo ensayos unicentro que demuestran
que la ablación mediante catéter es un tratamiento relativamente seguro y eficaz, con un
porcentaje considerable de pacientes que consiguen la erradicación de su FA. Las nuevas
pautas ayudarán con seguridad a crear un mayor interés en la ablación de la FA y
probablemente aumentarán el número de pacientes derivados a este tratamiento.
La ablación para la FA está incluida ahora en las pautas NICE para pacientes resistentes a
la terapia con fármacos.
Ablación convencional de la Fibrilación Auricular y sus limitaciones.
La ablación de la Fibrilación Auricular es
extremadamente compleja, en la
actualidad es un proceso largo (3-5 horas
por caso) y en el 50% de los pacientes se
necesita una segunda y en ocasiones
hasta una tercera intervención para
conseguir una cura satisfactoria. El éxito
del procedimiento y la recurrencia
dependen de la habilidad para crear
lesiones de ablación continuas y precisas
en lugares específicos de la aurícula
izquierda. Para conseguirlo, nos
encontramos con que existen muchas
Figura 1.
Navegación manual vs
navegación robótica
67
limitaciones prácticas y técnicas con los equipos de ablación.
Un catéter deflectable tiene un movimiento limitado. De hecho, solo hay tres niveles de
libertad: curva de deflexión fija, adelante-atrás y rotación. Con esta herramienta manual,
el médico necesita de una gran habilidad y experiencia para llegar a los sitios necesarios.
Los catéteres y vainas manipulados manualmente carecen de estabilidad en el corazón
latiendo. La precisión de la localización del catéter en el corazón se ve comprometida por
una serie de razones:
• Relativamente pocos grados de libertad con catéteres de ablación manual.
• Falta de estabilidad en el endocardio.
• Dependencia de las manos del médico para estabilizar estos dispositivos.
Figura 2. Terminal de control y brazo robótico para el direccionamiento del catéter.
El sistema de navegación mediante catéter remoto Sensei.
El objetivo del diseño del sistema Sensei es proporcionar precisión quirúrgica con
introductores percutáneos flexibles. En la fase actual, los catéteres Artisan para control
robotizado están diseñados y aprobados para ablación y mapeo electrofisiológico auricular.
El Manipulador Remoto de Catéter (RCM) permite 10 grados de libertad al Catéter de
Control Artisan, que se dirige remotamente desde la consola del sistema Sensei. El diseño
exclusivo del Artisan permite navegar con el catéter instintivamente dentro de la cámara
cardíaca, utilizando un controlador de movimiento en 3D (IMC) o “joystick”. Una vez
alcanzado el punto deseado el médico puede liberar el IMC y la posición se mantendrá
con una estabilidad superior a la de cualquier catéter manual. Estudios publicados en
2007 ya han demostrado una superior manejabilidad utilizando el sistema Sensei y han
revelado que el alcance de movimiento proporcionado por el Artisan es considerablemente
mayor (10).
Eficacia.
El sistema Sensei utiliza un histograma de fuerza, IntellisenseTM, para medir en gramos la
fuerza ejercida por la punta del catéter en el tejido cardíaco. Sensei es el único sistema
disponible que puede medir la fuerza de contacto. Mediante esta función el médico puede
controlar la eficacia de la lesión de ablación, que al poder optimizarse conduce a unos
mejores resultados y reduce la necesidad de repetir procedimientos. 40 pacientes que
inicialmente habían presentado una FA refractaria y que fueron tratados mediante una
ablación utilizando el sistema Sensei, fueron sometidos a un seguimiento a largo plazo
68
(multicéntrico). A cabo de un año, 39 de los 40 pacientes no presentaban ninguna arritmia,
y 34 de ellos ya no tomaban fármacos antiarrítmicos (11).
En un estudio unicéntrico, entre los pacientes que alcanzaron los 6 meses de seguimiento,
el 94% de los que inicialmente tenían FA paroxística estaban libres de ella (12). Con las
técnicas tradicionales, la tasa de éxito en los centros de EF más prestigiosos del mundo
oscila entre un 60 y un 90% (13,14,15,16,17,18).
Los estudios diseñados para validar el Intellisense indican que la fuerza ejercida contra el
tejido afecta a la transmuralidad y al tamaño de la lesión (profundidad de la lesión a través
del tejido cardiaco) y que la liberación de energía con una fuerza de contacto menor a 30
gramos puede dar como resultado lesiones inadecuadas, por lo que debe evitarse (19).
Utilizando el sistema Sensei para dirigir el catéter de ablación, el médico es capaz de
valorar la fuerza aplicada al endocardio antes y durante la aplicación de la ablación.
En otras palabras, el médico puede aplicar mucha o poca fuerza según desee.
La fuerza contra endocardio, medida con Intellisense, ha resultado estar directamente
relacionada con la transmuralidad de la lesión (20).
Productividad.
Se ha demostrado que Sensei puede aplicarse con éxito para realizar mediante catéter de
ablación todos los procedimientos de FA paroxística y permanente (21). El sistema Sensei,
utilizado con el catéter de control Artisan para ablación de la FA, proporciona precisión
y exactitud cuando se navega dentro de la aurícula izquierda.
La clave para conseguir esto es la tecnología Instinctive Motion de Hansen Medical, que
traslada con precisión y sensibilidad los movimientos de la mano del médico desde el
controlador de movimiento al Catéter de control Artisan introducido en el cuerpo del
paciente. Reddy considera que el catéter de control Artisan proporciona un grado de
control que no es fácil de alcanzar con un catéter guiado de forma manual.
Figura 3. Controlador intuitivo del movimiento.
69
Mayor control para el médico.
El sistema Sensei es un sistema de navegación remota móvil. La consola en que se sitúa
el médico puede colocarse prácticamente en cualquier sitio dentro de la sala. Una posición
óptima cercana al sistema de registro EP y al sistema de mapeado EP en 3D permite al
médico no solo controlar la posición del catéter en el corazón sino también estudiar las
señales y el mapeo 3D sin depender del personal de sala, que puede no estar formado
adecuadamente. Desde la consola, el médico también tiene control del pedal del
fluoroscopio y del pedal del generador de ablación por RF.
El personal técnico de apoyo de la sala de EP es difícil de encontrar y de fidelizar.
Al hacer que el médico tenga el control de los sistemas de registro EP y mapeado en 3D,
los requisitos del personal de apoyo pueden ser considerablemente menores.
Menor exposición a los rayos X perjudiciales.
Los Cardiólogos Intervencionistas suelen considerar la radiación como su principal riesgo
laboral (22). Durante un procedimiento de ablación de AF pueden estar expuestos a los
rayos X durante cerca de una hora y con una duración así, la dosis corporal efectiva no es
insignificante (23). La seguridad radiológica en la sala siempre es una preocupación, incluso
siguiendo estrictamente los protocolos de seguridad y utilizando mejores delantales de
plomo. Sin embargo, el sistema Sensei proporciona una solución probada. Cuando se
utiliza el sistema Sensei, el médico se sitúa lejos de los dañinos rayos X y está sentado en
una cómoda silla. En 2008, en Londres, Kanagaratnam el at. revelaron que la ablación
mediante catéter robótico remoto usando el sistema Sensei reduce considerablemente
la exposición del médico a la radiación (24).
Reducción de la fatiga y las lesiones musculoesqueléticos.
Durante un procedimiento de FA el médico necesita estar de pie durante largos periodos
de tiempo llevando un pesado delantal de plomo cerca del sistema del fluoroscopio. Esto,
no solo causa fatiga sino que puede provocar lesiones musculoesqueléticas y en la columna
vertebral. Los cardiólogos sufren más dolores de espalda y cuello, provocando más bajas,
en comparación con los cirujanos y reumatólogos (25). Los procedimientos largos que
requieren fluoroscopia en que los médicos necesitan llevar un delantal de plomo durante
largos periodos de tiempo, presentan una mayor proporción de médicos con lesiones
musculoesqueléticas (26). Debido a que los procedimientos que utilizan el Sensei se hacen
sentados y lejos de la sala, pueden reducirse las tasas de riesgo laboral incluyendo dolencias
de cuello, espalda y articulaciones. Además, reduciendo la fatiga del médico, este puede
concentrarse mejor durante la duración del caso (27).
Futuras aplicaciones clínicas.
El Catéter de Control Artisan es descrito a menudo como un “dispositivo flexible de control
robotizado”. Hansen Medical tiene previsto lanzar otras versiones del Artisan y nuevos
modelos para su uso en pacientes dentro de las disciplinas cardiacas.
Intervención vascular: Hansen Medical está trabajando en la actualidad sobre estudios
clínicos en las áreas de colocación de stents carotideos y de endoprótesis AAA. El trabajo
clínico previo ha demostrado el potencial para reducir la duración del tratamiento y
aumentar la precisión al colocar el stent (28).
Reemplazo valvular: En 2007 Hansen Medical adquirió una empresa llamada AorTx. En
la actualidad se trabaja con AorTx para producir una válvula aórtica de reemplazo sencilla
y rentable que se aplique mediante el catéter Artisan.
Intervención Coronaria: Se prevé lanzar un Catéter Artisan de 7 French para la aplicación
de stents en arterias coronarias enfermas. Los tests han demostrado que el catéter de 7Fr
será muy útil para tratar oclusiones totales crónicas, que son lesiones particularmente
problemáticas.
70
Cierre del foramen oval permeable: Al utilizar Artisan para conseguir precisión, estabilidad
y una buena aplicación, existe una gran oportunidad para los cardiólogos que trabajan
en el campo del cierre del foramen oval permeable.
Resumen.
La incidencia y tratamiento de la Fibrilación Auricular va en aumento. Con el sistema
Sensei, Hansen Medical proporciona una solución a esta demanda con una generación de
robots que capacita y protege a los médicos mientras que proporciona un mejor cuidado
del paciente.
El sistema robótico SenseiTM y el catéter de control ArtisanTM se combinan para cambiar
el panorama del tratamiento de las arritmias cardiacas proporcionando a los médicos
control y precisión sin igual sobre la punta del catéter.
Esta combinación única de tecnología y ergonomía crea una solución que beneficia a
pacientes y médicos en el tratamiento de la Fibrilación Auricular. La abierta plataforma
de esta tecnología está siendo adaptada con el objetivo de proporcionar mejores
tratamientos en otros procedimientos de cateterización intervencionista.
Por razones de extensión, la
bibliografía de este artículo no ha sido
publicada aquí, puedes encontrarla
en www.proyectonets.org o solicitarla
por correo electrónico en
[email protected].
Dolors Mata. Jefe de Marketing División Cirugía / Intervencionismo de Palex Medical.
Angel Canelles. Técnico Especialista Arritmias División Cirugía / Intervencionismo de
Palex Medical.
"Los tratamientos han aumentado
la esperanza de vida pero los
pacientes se benefician de forma
desigual de las nuevas opciones"
INNOVACIONES EN EL TRATAMIENTO DEL CÁNCER DE PULMÓN NO
MICROCÍTICO AVANZADO: UN RETO PARA LA SOSTENIBILIDAD DEL
SISTEMA. Dr. DIEGO MALÓN.
El cáncer de pulmón es una de las neoplasias más frecuentes (15-20% de todas las neoplasias
en países desarrollados) y, a pesar de la política antitabaco, su incidencia sigue
incrementándose anualmente en un 0.5%. El 80-85% de las neoplasias de pulmón son
carcinomas no microcíticos (en torno a 8.000 casos nuevos en España al año), subgrupo
heterogéneo que engloba a distintas histologías como son adenocarcinoma, carcinoma
de células grandes o carcinoma epidermoide. Es la primera causa de muerte por cáncer
en mayores de 35 años en países occidentales (25-35% de todas las muertes por cáncer
con una supervivencia global a los 5 años del 10-15%). Un 85% de los pacientes desarrollan
enfermedad avanzada (32% al diagnóstico, 50% recaídas de los estadios I y II y 80% recaídas
del estado III) alcanzando una mediana de supervivencia en este estado de evolución, de
2 a 4 meses con el mejor tratamiento de soporte.
Dr. DIEGO MALÓN
Tras un breve repaso de la evolución histórica en el tratamiento en primera línea de esta
patología nos centraremos en las innovaciones farmacológicas que brindan los nuevos
71
conocimientos en biología molecular. A continuación, se destacan varias cuestiones
respecto a la incorporación por los Sistemas Nacionales de Salud de dichas innovaciones.
Fue en los años 70 cuando se intentaron los primeros abordajes de esta enfermedad con
tratamiento sistémico de quimioterapia administrando regímenes con distintos fármacos,
como doxorrubicina o ciclofosfamida, objetivando respuestas pero sin beneficio en la
supervivencia. El desarrollo de esquemas que contenían platino demostró mayores tasas
de respuestas lo que alentó, junto a un mejor conocimiento de su forma óptima de
administración y manejo de su toxicidad, el desarrollo de ensayos clínicos randomizados
comparando esquemas que contenían cisplatino (fundamentalmente asociados a alcaloides
de la vinca) con el mejor tratamiento de soporte posible. Con estos estudios se demostró
un aumento significativo de la supervivencia sin compromiso de la calidad de vida de los
pacientes alcanzando medianas de 8 meses (ej. European Big Lung Trial). En la década de
los 80, aparece el carboplatino (con perfil de toxicidad más favorable que el cisplatino) y
nuevos agentes quimioterápicos de segunda y tercera generación (etopósico, gemcitabina,
taxanos o, más recientemente pemetrexed). Estas innovaciones planteaban nuevas
cuestiones a responder que han ido perfilando los diseños de los ensayos clínicos en las
últimas décadas: ¿las combinaciones son mejor que los agentes únicos? ¿hay alguna
combinación mejor? ¿son superiores los regímenes con cisplatino que con carboplatino?
¿realmente son los platinos necesarios? La evidencia nos llevó a considerar como
tratamiento estándar esquemas con dos fármacos basados en platino sin poder demostrar
de forma significativa una combinación mejor, siendo las características del paciente
(comorbilidad, situación basal) y la toxicidad esperada las principales herramientas de
decisión para el oncólogo. Con estos esquemas se alcanzaron medianas de supervivencia
en torno a los 10 meses.
Los tratamientos oncológicos y las mejoras obtenidas en el tratamiento de soporte han
aumentado lenta pero progresivamente la esperanza de vida y la calidad de la misma.
Sin embargo, en la práctica clínica diaria, se continúa observando con cierto desconcierto
como los pacientes se benefician de forma muy desigual de las opciones que les brindamos.
Estas observaciones, junto con la sucesión vertiginosa de descubrimientos en el área de
biología molecular, han impulsado desde el inicio de este siglo nuevas vías de investigación
que pretenden ayudarnos a seleccionar los subgrupos de pacientes (según histología,
perfiles genómicos) que se van a beneficiar de uno u otro tratamiento y nuevas dianas
terapéuticas específicas que abordar con nuevos fármacos dirigidos.
Se destacan a continuación dos ejemplos sobre la evidencia que disponemos del impacto
de la histología en la elección del tratamiento y los nuevos estudios farmacogenómicos
que pretenden predecir la sensibilidad o resistencia a esquemas que contienen platinos
(todavía hoy base del tratamiento estándar). Respecto a la primera cuestión, el primer
estudio prospectivo Fase III que analiza los resultados de distintos esquemas de tratamiento
por subgrupos según histología lo publicaron Giorgio Vittorio Scagliotti et al. en julio de
2008 en Journal of Clinical Oncology. Los datos expuestos arrojan significación a favor
del esquema que contenía pemetrexed en aquellos tumores de histología no escamosa
demostrando que esta diferenciación, accesible en la práctica clínica diaria, puede ser otra
herramienta que ayude al oncólogo en la selección de la terapia.
Por otro lado, el desarrollo de la genómica nos está identificando pacientes que pueden
responder mejor a la QT basada en platinos con el fin de mejorar la respuesta y evitar
toxicidad innecesaria. Cobo et al. presentaron en octubre de 2007 en Journal of Clinical
Oncology los resultados de un estudio desarrollado en múltiples centros sanitarios (mayoría
españoles) en el cual se randomizaba a distintos brazos de tratamiento de acuerdo con
la expresión de ARN mensajero de una proteína implicada en la reparación del ADN
(proteína de complementación cruzada de reparación por escisión 1, ERCC1) partiendo
de la hipótesis de que su expresión confiere resistencia a platinos (mayor capacidad del
individuo a defenderse de los daños del platino en el material genético de las células
tumorales). En este estudio se concluyó que en el brazo genotípico (los pacientes con
bajas concentraciones de ERCC1 recibieron esquemas con cisplatino y los pacientes con
concentraciones elevadas esquemas con quimioterápicos con diferente mecanismo de
acción) existía una mayor tasa de respuestas objetivas.
72
Junto con los fármacos clásicos que hemos comentado, el conocimiento de nuevas dianas
moleculares específicas de las células tumorales o de su estroma han llevado a desarrollar
fármacos dirigidos contra las mismas. En la actualidad, en el tratamiento del cáncer de
pulmón, disponemos de fármacos contra el receptor del factor de crecimiento epidérmico
(EGFR) o el factor de crecimiento derivado del endotelio vascular (VEGF) inhibiendo la
angiogénesis. Sabemos que estos factores pueden estar sobreexpresados o mutados (ej.
EGFR se sobreexpresa mutado en el 40-80%) y que pueden conferir valor pronóstico (ej.
La expresión de VEGFR se asocia con peor pronóstico).
A continuación, repasamos brevemente la evidencia sobre las principales innovaciones
con las que contamos actualmente.
Bevacizumab actúa como fármaco antiangiogénico (ver figura 1). Dos estudios Fase III
midieron su eficacia en el tratamiento del carcinoma no microcítico de pulmón avanzado.
Asociado a carboplatino-taxol demostró aumento de la tasa de respuestas y supervivencia
global (12.3 meses vs 10.3) acosta de una mayor toxicidad (hemoptisis, hematemesis)
aunque, en general, fue bien tolerado. En el estudio AVAIL, junto con cisplatino-gemcitabina,
se objetivaron también mayor tasa de respuestas en el brazo con bevacizumab, no obstante
las diferencias en supervivencia no alcanzaron la significación estadística.
FIGURA 1. Mecanismo de acción.
fuente: Genentech - Roche.
Cetuximab es un anticuerpo monoclonal dirigido contra el EGFR (ver figura 2). En el último
meeting de la Sociedad Americana de Oncología (ASCO 2008) se presentaron los resultados
del estudio FLEX. Para la inclusión de los pacientes en el estudio se requería el análisis
de la expresión del EGFR con métodos inmunohistoquímicos. Junto con una mayor tasa
de respuestas se demostró un beneficio en supervivencia global de 11.3 vs 10.1 meses en
el brazo con cetuximab asociado a la QT estándar. El rash cutáneo y la diarrea fueron las
toxicidades más relacionadas con el fármaco.
Erlotinib y Gefitinib son pequeñas moléculas que bloquean el dominio tirosin-kinasa
intracelular del EGFR (ver figura2). Han demostrado que prolongan la supervivencia en
pacientes que han progresado a una primera línea de tratamiento. Sin embargo, en
combinación con esquemas basados en platino como primera línea no han demostrado
beneficio añadido. Estos estudios no tenían en cuenta el estatus mutacional de los pacientes.
73
Paz-Ares et al. presentaron en ASCO en 2006 un estudio Fase II con erlotinib en pacientes
con carcinoma no microcítico de pulmón avanzado con mutación en el dominio tirosin
kinasa del EGFR obteniendo tasas de respuestas de hasta el 90% mantenidas más de 8
meses (datos muy prometedores nunca vistos en esta patología).
Figura 2
A lo largo de nuestro repaso de la evolución en el tratamiento del cáncer de pulmón
avanzado de primera línea, hemos referido ganancias progresivas en la supervivencia
global desde los 4 meses (evolución natural con tratamiento de soporte), 8 meses (primeros
tratamientos quimioterápicos), 10 meses (fármacos de segunda y tercera generación)
hasta el momento actual donde llegamos a alcanzar medianas que rondan el año de
supervivencia global (asociando nuevos fármacos antidiana). Estos resultados discretos
no han supuesto hasta la actualidad un cambio disruptivo en el manejo de esta patología
y paralelamente, la incorporación de los nuevos fármacos anti-diana es la principal
responsable del aumento del gasto en oncología que llega a cifras de hasta el 22% anual
en Europa. La baja productividad marginal en términos de utilidad demostrada a día de
hoy por la mayoría de las innovaciones farmacológicas y el reto que supone su incorporación
para los Sistemas Nacionales de Salud ha abierto el debate sobre su financiación tomando
cada vez mayor relevancia estudios de evaluación económica.
Tanto la adopción de medidas restrictivas en exceso que puedan hacer abandonar vías
de investigación como medidas permisivas que pongan en peligro la sostenibilidad del
sistema pueden acarrear costes de oportunidad en uno y otro sentido que mermen nuestras
expectativas de conseguir un mejor estado de salud de nuestros pacientes. Es por este
motivo que debemos ser rigurosos en los modelos económicos a emplear para dichas
valoraciones y en la interpretación de los beneficios que arroja la evidencia científica así
como otorgar a la calidad de vida el valor asignado por la sociedad en nuestros días de
la forma más ajustada posible.
Pese a conocer las vías moleculares sobre las que actúan los nuevos fármacos en la práctica
no disponemos de los medios para identificarlas en gran parte de los casos. Como
consecuencia, los oncólogos tratamos de forma universal el cáncer de pulmón y no a
pacientes con características biológicas distintas aunque denominemos su enfermedad
igual. Hablamos de supervivencia de unos meses en el total del grupo a estudio. Pero
aquellos que no tienen expresadas estas vías moleculares (muchas veces la mayoría) no
se benefician en absoluto. Sin embargo, aquellos que sí las expresan, el beneficio que
74
apreciamos es mucho mayor (tanto que, siendo minoría, desplazan los resultados
estadísticos de forma significativa, aunque discretamente en número, a su favor). En
aquellas patologías donde la expresión de estas dianas terapéuticas esta mayoritariamente
expresada (ej. GIST donde hay un alto porcentaje de expresión de cKit) o bien estandartizada
la forma de identificación (ej. HER2 en cáncer de mama) los resultados con los nuevos
fármacos que las bloquean no son cuestionables. Por este motivo es necesario un impulso
decidido a la investigación traslacional que nos ayude a la selección de los pacientes. A
su vez, la asignación de beneficios en supervivencia a un único fármaco es cada vez más
difícil. Los nuevos fármacos se utilizan en combinación y a los pacientes, cuando progresan,
se les aplican segundas líneas de tratamiento que también pueden impactar en la
supervivencia. Es por este motivo que, aunque la supervivencia global siga siendo el
objetivo principal, otras metas como intervalos libres de progresión o aumentos en calidad
de vida también pueden servir de ayuda en la toma de decisiones.
Para finalizar, se desarrollan unas consideraciones sobre las perspectivas futuras que
pueden multiplicar los retos a los que debe hacer frente el Sistema para sostenerse. Se ha
hecho referencia de forma unidimensional a vías moleculares que sabemos, en el mejor
de los casos, bloquear por un tiempo. Pero se sabe que la célula es un medio complejo en
el que interactúan múltiples vías moleculares y que tiene capacidad de activar vías
accesorias cuando la más sobreexpresada (y que más le aporta a su metabolismo para
subsistir) se bloquea. Con lo que podemos deducir que el abordaje óptimo debería ser
multilateral. Es decir, diferentes fármacos que bloqueen diferentes dianas en el mismo
paciente y sin retirar los bloqueos ya establecidos ir introduciendo nuevos conforme la
célula se va defendiendo activando otras vías. Otra incógnita, viendo como esta patología
se va cronificando, es el tiempo de mantenimiento de estas terapias. Un ejemplo que nos
ilustra muy bien esta cuestión es la rápida revascularización de los tumores que se ha
observado al interrumpir bevacizumab llegando a aconsejarse el mantenimiento de dicho
fármaco a pesar de que la enfermedad progrese (práctica no justificada al no disponer
todavía de datos obtenidos de estudios prospectivos randomizados). Como decía, el reto
que supone la incorporación de todas estas innovaciones no ha hecho nada más que
empezar.
Con qué, a quiénes y durante cuánto tiempo. Cuestiones que, como se ha podido ver en
este artículo, continúan en búsqueda de respuesta. La toma de decisiones basada en la
evidencia deberá tener en cuenta los costes en relación con la efectividad real. Los Sistemas
Sanitarios y la industria farmacéutica convergen en el terreno donde se deben decidir las
soluciones óptimas respecto a la consecución de un sistema sostenible. Si no lo llegamos
a conseguir es posible que todos pierdan aunque unos lo sufran más que otros.
Dr. Diego Malón Giménez. Médico Adjunto. Unidad Oncología Médica. Hospital del Henares.
www.proyectonets.org
75
"España cuenta con esta tecnología
desde 1993, en 2007 el Hospital
Ruber Internacional de Madrid
adquirió el último modelo"
LA RADIOCIRUGÍA GAMMA KNIFE. UNA MARAVILLOSA TECNOLOGÍA
SANITARIA. Dr. ERICK STRÖMBÄCK.
Dr. ERICK STRÖMBÄCK
Lars Leksell (neurocirujano sueco, 1907-1986), jamás pensó que su aporte a la ciencia
médica en esos remotos años a fines de los 40 y comienzos de los 50 alcanzaría tal éxito
al día de hoy. Fue discípulo del eminente neurocirujano, también sueco y uno de los
pioneros de la neurocirugía europea, Herbert Olivecrona, con quien trabajó y se formó en
el Instituto Karolinska de Estocolmo, y a quien Leksell sucedió como cabeza del servicio.
Su exitoso método basado en las tres dimensiones del espacio, le permitieron diseñar el
primer aparato para neurocirugía funcional en humanos en 1949, inspirándose en los
trabajos, primero de Sir Victor Horsley de 1908 del University College of London, pero, en
lugar de utilizar un marco de coordenadas cartesianas, usó coordenadas polares, creando
así el marco estereotáxico, el que sigue usándose hasta el día de hoy en el mundo entero,
siguiendo los primeros trabajos de los neurocirujanos americanos Spiegel y Wycis, quienes
habían desarrollado un proyecto en 1947 para experimentación animal.
Sistema de
posicionamiento
automático
Fuentes de Cobalto 60
Canal de radiación
Casco con colimadores
Blindaje
Soportes del casco
Cubierta plástica
Camilla
Paneles de
protección
Puertas
de
blindaje
Casco en posición
de tratamiento
Figura 1. Esquema general del Gamma Knife.
Nace entonces en 1951, tras grandes esfuerzos de Leksell junto al físico y radiobiólogo
Börje Larsson en la Universidad de Uppsala y, aprovechando el ciclotrón de ese centro
universitario, el concepto de radiocirugía: método poco invasivo para destruir discretamente
ciertas áreas dentro del cerebro, para lo cual Leksell primero empleó rayos protónicos,
provenientes desde muchas direcciones distintas pero simultáneas, las que convergían
finalmente en un determinado punto o target point, que no era otra cosa que la lesión o
área a tratar en el parénquima cerebral, minimizando las posibles lesiones secundarias
que pudiesen producirse en los tejidos circundantes o aledaños a dicha lesión o área.
Leksell llamó a esta técnica los “cuchillos de rayos Gamma”, del sueco "strålkniven", conocido
hoy como “el bisturí de rayos gamma”.
Más tarde en 1968, Leksell desarrolla su aparato conocido hasta el presente como Gamma
Knife, utilizando un casco que emite por múltiples fuentes rayos de Cobalto 60,
convergiendo en el lugar de la lesión a tratar.
76
El genio de Leksell fue aprovechado en 1955 en Berkeley, California por John Lawrence
y Cornelius Tobias, quienes emplearon el principio de haces convergentes para realizar
una hipofisectomía funcional en una paciente para conseguir una deprivación hormonal
para paliar casos con metástasis múltiples de cáncer de mama. Más tarde en 1967, tras un
tenaz trabajo, Leksell desarrolla y construye el primer aparato diseñado exclusivamente
para radiocirugía cerebral, la Unidad Gamma, el que contenía 179 pequeñas fuentes de
Co60 , todas colimadas para converger y dirigir esta radiación hacia un target point o
diana central en el espacio.
Se realizaba entonces el primer tratamiento con el Gamma unit en el Sofiahemmet de
Estocolmo, en el mes de octubre de 1967 en un paciente portador de un craneofaringioma.
Como era de esperar, esta genialidad algo inusual en la época, le costó a Leksell más de
una discusión con su formador el Profesor Olivecrona, el que le insinuó que estaba haciendo
cosas algo disparatadas lo que llevó a Leksell a radicarse en Lund. Años más tarde,
Olivecrona le comentaría a otro neurocirujano sueco radicado en Estados Unidos que si
él mismo contraía alguna patología intracraneana contemplada entre las indicaciones del
Gamma Knife, “le pidiera a Lars que le aplique su máquina”. Se instala en 1975 en el
Radiumhemmet del nuevo hospital Karolinska de Estocolmo, el segundo modelo del
equipo de Leksell, utilizándose ya el nombre de Gamma Knife y esta vez con una mayor
cantidad de fuentes emisoras de radiación de Co60 en número de 201 fuentes colimadas.
El Karolinska fue por muchos años el único lugar del mundo en donde se realizaba
radiocirugía con fotones. En Buenos Aires, el argentino Bunge fue el primero en instalar
un Gamma Knife fuera de Suecia en 1984, y luego en 1986 Forester en Sheffield, Inglaterra,
instalaría el segundo. Tras tres años de gestionar la compra del primer Gamma Knife, se
instala un tercer equipo en Pittsburgh en 1987.
Figura 2. Tratamiento de una metástasis cerebral. Situación antes y después de la intervención con Gamma Knife.
En síntesis, el éxito del Gamma Knife se centra en :
• Energía radiante focalizada sobre un pequeño y delicado volumen de tejido.
• Este volumen debe ser muy bien definido en cuanto a su localización, tamaño y volumen.
• Esta energía es entregada en una sola sesión radiante, generalmente menor a 100 min.
• A diferencia de otras terapias radiantes, entrega múltiples rayos angostos isocéntricos
(convergentes), lo cual provoca muy poca superposición de rayos, lo que minimiza el
daño a tejidos adyacentes a la lesión en tratamiento.
• Mínimo a nulo riesgo de complicaciones.
• Alta selectividad lograda.
• No es necesario abrir u operar el cráneo.
• Rápida reinserción laboral.
• Mínima hospitalización (si la hay, de un día solamente).
• Terapia altamente coste-efectiva.
77
Los equipos de radiocirugía Gamma Knife han evolucionado tecnológicamente alcanzando
hoy en día la sexta generación, desde el año 2006 con el modelo Perfexion. Sus limitaciones
en la aplicación están dadas fundamentalmente en el tamaño alcanzado por la lesión a
tratar. Con los últimos modelos pueden tratarse lesiones hasta 35 mm. de diámetro,
aunque lo que prima hoy por hoy más que el tamaño, es el volumen total de la lesión, sea
tumoral o vascular (MAV), pudiendo ser tratadas lesiones con un volumen de hasta unos
25 a 30 cc.
Hoy en día esta magnífica tecnología sanitaria, legado del Profesor Leksell, es utilizada
para tratar múltiples patologías intracraneanas tales como:
Trastornos vasculares: MAV (malformaciones arteriovenosas), aneurismas (muy escasos),
angiomas cavernosos y otros.
Tumores benignos: Schwanoma Vestibular (neurinoma del acústico), schwannoma
Trigeminal, otros Schwanomas, tumores gliales benignos (Grados I+II), meningiomas,
adenoma pituitario (Secretor), adenoma pituitario (No- Secretor), tumores de la región
Pineal, hemangioblastoma, hemangiopericitoma, craniofaringioma, cordomas, tumor
glómico y otros tumores benignos.
Tumores malignos: Glioma maligno
(Grados III+IV), tumor metastásico,
condrosarcoma, carcinoma NPH y otros
tumores malignos.
Tumores malignos 42%
Tumores benignos 35%
Trastornos Funcionales: Neuralgia del
trigémino, enfermedad de Parkinson,
dolor intratable, epilepsia, algunos
trastornos psiquiátricos y otros
funcionales.
Malformaciones
arteriovenosas 16%
Desórdenes funcionales 7%
Trastornos oculares: Melanoma Uveal,
glaucoma y otros trastornos funcionales.
¿Cómo actúa la radiocirugía con Gamma Knife?
La radiocirugía actúa de igual forma que otros tipos de radiología terapéutica: deforma
o destruye el ADN de las células tumorales, lo que les impide la reproducción y el
crecimiento. El tumor se reducirá de tamaño con el transcurso del tiempo. En algunas
lesiones de los vasos sanguíneos como la malformación arteriovenosa (MAV), los vasos
sanguíneos eventualmente se cierran después del tratamiento.
El tratamiento con Gamma Knife por lo
general comprende los pasos siguientes:
1. Instalación del marco esteretáxico en la
cabeza:
La cabeza queda fija durante la sesión
radiante, por medio del marco estereotáxico,
el cual se ajusta al cráneo mediante el uso de
clavijas especialmente diseñados para este
fin. El marco además sirve de guía para
focalizar los rayos gamma en el lugar exacto
de la lesión que se está tratando.
Figura 4. Fijación del marco.
78
2. Adquisición de imágenes para ubicar el tumor o la lesión:
Instalado el marco, se determinará la ubicación exacta de la lesión a tratar mediante un
scanner (TAC) o resonancia nuclear magnética (RNM).
3. Planeamiento de la dosis de radiación:
Realizadas la TAC o la RNM, el equipo de radioterapia y el neurocirujano planea el
tratamiento. El físico médico usará los resultados del estudio de imágenes, junto con otra
información, para determinar el mejor tratamiento.
4. Radioterapia:
Planeado el tratamiento y preparado el paciente, se instala una suerte de casco con cientos
de orificios sobre el marco (el último modelo, Perfexion consta de 192 orificios). Estos
orificios ayudan a focalizar los haces de radiación en el objetivo. El tratamiento durará
unos minutos o algunas horas, según el tipo y la ubicación del área que recibe tratamiento.
Por lo general, sólo se requiere una sesión de tratamiento por cada lesión.
Figura 5. Diagnóstico por imágenes, plan de tratamiento y tratamiento.
El procedimiento con Gamma Knife implica un enfoque de tratamiento en equipo. El
equipo de tratamiento en general incluye a un oncólogo radiólogo (un médico que se
especializa en radioterapia para el cáncer), un neurocirujano y/o un neurorradiólogo, un
radioterapeuta y una enfermera universitaria. Además, un físico médico y un dosimetrista
trabajan juntos para calcular la cantidad exacta de exposiciones y la colocación del haz
(o haces) necesarios para obtener la dosis de radiación indicada por el oncólogo radiólogo.
El equipo de tratamiento puede incluir a otros profesionales de la salud además de los
mencionados o en su lugar.
Actualmente, existen en el mundo 238 unidades de Leksell Gamma Knife instaladas y
funcionando. A modo de información solamente, existen equipos Gamma Knife en la
India 3, en Japón 46, en Corea 14, en Taiwan 7, en China 17 (incluyendo Hong Kong), en
Egipto 2, en el Reino Unido 5, en Turquía 3, en Rusia 2, en Estados Unidos 112, en Canadá
3, en México 2, en Alemania 4, en Italia 5, en Austria 2, como también en Singapur, Tailandia,
Vietnam, Bélgica, Croacia, República Checa, Francia, Grecia, Irán, Jordania, Marruecos,
Holanda, Noruega, Portugal, Rumania, Suiza, Argentina, Brasil y la misma Suecia cuentan
cada uno con un equipo Gamma Knife. Próximamente, a fines de abril de 2009 se agregará
también Chile con una unidad.
79
España cuenta con esta tecnología
desde el mes de agosto de 1993, en
que se usó un equipo Gamma Knife
de 201 fuentes hasta noviembre de
2007, año en que el Hospital Ruber
Internacional de Madrid adquirió el
último modelo conocido como
Gamma Knife Perfexion, de 192
fuentes, y altas mejoras en su
performance, permitiendo aún menos
tiempos de tratamiento para el
paciente, como también tratar a un
mayor número de pacientes en una
jornada y mayor comodidad para el
paciente, ya que este modelo ejecuta
per se las acomodaciones y
reposicionamientos que antes debía
realizar el equipo de profesionales.
Hasta el presente se han tratado
alrededor de 4.500 pacientes en dicho
centro. Asimismo, está clínicamente
documentado en más de 2.500
revisiones de artículos científicos.
Figura 6. El modelo "perfexion" de Gamma Knife.
La genialidad del Gamma Knife ha permitido también la génesis de otras importantes
tecnologías sanitarias, como fue el caso del neurocirujano norteamericano John R. Adler
Jr. para diseñar el Cyber Knife el que, a diferencia del Gamma Knife, no utiliza Co60 ni un
casco colimador, sino que emplea radiación de rayos X y un brazo colimador que cambia
rápidamente de posiciones para emitir en un blanco perfecto la radiación X guiada
computacionalmente por unos fiduciarios fijados en un plano inmóvil, generalmente las
apófisis espinosas, en lugar del marco estereotáxico de Leksell fijado al cráneo. Es utilizado
para tratar lesiones fuera del cráneo, tales como cuello, columna, tórax y abdomen.
Figura 7. Esquema del colimador del Gamma Knife "Perfexion".
Más de 400.000 Pacientes tratados a nivel mundial, sobre 40.000 al año.
Dr. Erick Strömbäck Cerda. Neurocirujano.
80
"El error humano en la transfusión
sanguínea se encuentra en un 50%
de los incidentes críticos"
¿ES NECESARIA LA AUTOMATIZACIÓN EN LA MEDICINA
TRANSFUSIONAL? Dra. Mª ASUNCIÓN MORA.
La sangre como órgano del cuerpo que posee funciones que le son propias y exclusivas,
es una terapia imprescindible para salvar vidas. La trasfusión de sangre se puede considerar
como un trasplante puesto que se basa en injertar el órgano sangre producido por un ser
humano en el precario torrente circulatorio de otro. Por tanto, en la actualidad, y a pesar
de los numerosos intentos de fabricar de manera industrial la “sangre artificial”
(perfluorocarbonos, etc) que hasta la fecha han resultado infructuosos, la única “casa
comercial” de sangre es el propio ser humano. Resulta paradójico que en el siglo XXI y
apuntados en nuestro país a la cabeza de las nuevas tecnologías en Medicina, sigamos
dependiendo de manera tan estrecha de este tratamiento de primera necesidad sin el que
no serían posibles otras terapias punteras ni el manejo vital de pacientes con problemas
hemorrágicos, y que depende finalmente de forma exclusiva del altruismo del propio ser
humano materializado en el acto de la donación de sangre.
Dra. Mª ASUNCIÓN MORA
En la actualidad disponemos de la sangre más segura de todos los tiempos, conseguida
a través de someterla a múltiples análisis de detección de patologías infecciosas, y a través
del rechazo preventivo de donantes con factores de riesgo que se van conociendo. En
cuanto a las detecciones serológicas, primero fueron los análisis para el sida y las hepatitis
y ahora incluso se dirige el estudio según el origen geográfico del donante, por ejemplo
en el caso de los originarios de zonas endémicas para determinadas enfermedades
transmitidas por la sangre como la enfermedad de Chagas. En cuanto al rechazo preventivo
de donantes de riesgo tenemos el ejemplo de la exclusión definitiva para la donación a
los residentes en Gran Bretaña durante más de 12 meses en el periodo de los años 1980
a 1996 por el riesgo de la transmisión de la variante humana del Creutfeld-Jakob.
Todos estos esfuerzos han resultado asombrosos. Si hace 20 años el riesgo de transmisión
del VIH era de 1:100 unidades de sangre en algunas zonas de EEUU, y la hepatitis C
postransfusional afectaba al 1% de los pacientes transfundidos en España, en la actualidad
este riesgo se estima en 1-2 casos por millón de unidades transfundidas. Las medidas que
inicialmente se implantaron para la detección del anti-VIH en 1985 y del anti-VHC en 1992
redundaron claramente en una reducción de costes sanitarios al prevenir un número
importante de infecciones . Posteriormente, el desarrollo de nuevas tecnologías para
escrutino de VIH, VHC y VHB por técnicas de biología molecular, las nuevas técnicas de
inactivación viral en plasma y la desleucocitación sistemática de la sangre a través de
filtros de última generación, han ido reduciendo al mínimo la posibilidad de transmisión
de infecciones a través de la sangre, aunque han provocado un gran aumento de costes
en la obtención de la sangre de tal manera que hay autores que ponen en tela de juicio
su coste-efectividad para la salud pública.
Lo que sí queda claro es que gracias a este gran despliegue tecnológico se está consiguiendo
una “sangre segura”, pero el objetivo de conseguir una “transfusión segura” está muy lejos
todavía. Así lo demuestran los datos comunicados a los diferentes sistemas de
Hemovigilancia, en los que se aprecia que la cifra de errores transfusionales por
incompatibilidad de grupo ABO prácticamente no ha variado en las últimas décadas.
Resulta incomprensible la desproporción entre los recursos y esfuerzos dedicados a
conseguir componentes sanguíneos más seguros y los escasos recursos empleados en
prevenir eventos no infecciosos a lo largo del proceso transfusional. La transfusión
sanguínea debería someterse continuamente a renovación puesto que se trata de un
81
procedimiento en cadena que implica transversalmente a varios servicios o secciones
clínicas, y a personal con diferente cualificación. Por tanto, la llamada “cadena transfusional”
hay que conocerla en todos sus eslabones para ser conscientes del posible error en cada
paso.
Por otro lado, los errores asociados a la transfusión sanguínea se comunican menos que
las reacciones transfusionales o las infecciones transmitidas por transfusión. Los sistemas
de hemovigilancia (como SHOT- Serious Hazard of Transfusion- en Gran Bretaña, el “Sangris
Group” belga, el “New York State Department of Health mandatory reporting program of
transfusion-related incidents, accidents and errors” el Sistema Francés de Hemovigilancia,
o el Sistema Español de Hemovigilancia) deberían registrar todos los incidentes de la
cadena transfusional, desde la selección del donante, extracción de la muestra al receptor,
procesamiento en el Banco de Sangre, salida de los componentes sanguíneos, transfusión
y efectos adversos posteriores. Incluso más allá de estos puntos, también deben registrar
los errores o incidentes sin consecuencias clínicas para el paciente, los casi-errores o casiincidentes, cuya frecuencia se estima muy elevada. Mientras que los errores por
incompatibilidad de grupo comunicados se estiman en 1:14.000 (en un estudio en el
estado de New York)-1:12.000 transfusiones (en un estudio canadiense), la incidencia de
los casi-errores es prácticamente desconocida y puede llegar a 1:400 (en un estudio
realizado en tres hospitales belgas).
Soportes básicos de la Cadena Transfusional.
¿Por qué es necesaria la innovación tecnológica en la Medicina Transfusional? En primer
lugar debemos tomar conciencia de todos los soportes que requiere el acto transfusional,
para valorar las posibles fuentes de error donde podría tener un importante papel el apoyo
de las nuevas tecnologías:
Jesús Mora comentó el artículo en
www.proyectonets.org:
Excelente revisión, en mi opinión, al
abordar desde un punto de vista
protocolizado cómo optimizar la
seguridad de las transfusiones de
hemoderivados. Con independencia de
las mejoras tecnológicas que han de
reflejarse sin duda en los indicadores de
actividad de los centros, habría que
hacer énfasis en la necesidad que los
clínicos como prescriptores, -y como
donantes también-, tenemos de estar
cada vez más seguros en este especial
acto médico. En este sentido, coincido
con la autora en que queda mucho que
mejorar en otros apartados: por
ejemplo, en mi experiencia, habría que
añadir a los protocolos otros puntos de
especial vigilancia como la adecuación
de la prescripción, el consentimiento
informado y la revisión de los
procedimientos de transfusión en
pacientes con especial comorbilidad
como ancianos o cardiópatas, cuyo
riesgo no se ha medido siempre con
cautela. Un trabajo multidisciplinar
debe aportar ventajas inequívocas en
este campo.
• Soporte humano: el paciente, el médico, el enfermero, el auxiliar de enfermería,
el celador, el técnico especialista de laboratorio (TEL).
• Soporte informático: la historia clínica, la solicitud de transfusión, las etiquetas
para identificar al paciente, a la muestra, al componente sanguíneo. Los sistemas
informáticos del Banco de Sangre.
• Soporte material: el material de identificación, de extracción, papel. Historia
clínica y solicitud si es en soporte papel. Los equipos autoanalizadores y el
material de laboratorio del Banco de Sangre.
• El entorno: tamaño del hospital, implicación de las diferentes unidades, formación
continuada, sistemas de hemovigilancia y de comunicación de incidencias,
difusión de los procedimientos y los cambios posteriores de los mismos, atención
continuada del Banco de Sangre.
Las fuentes de error en la Cadena Transfusional.
Las fuentes de error en la cadena transfusional se pueden resumir en los siguientes puntos
críticos:
•
•
•
•
•
•
•
Identificación errónea (del paciente, de las muestras, de la petición).
Técnicas erróneas en el laboratorio de Banco de Sangre.
Etiquetado erróneo de las bolsas.
Administración del componente sanguíneo erróneo.
Transfusión al paciente erróneo.
Error en la indicación de la Transfusión.
Los casi-errores en Transfusión Sanguínea.
El error humano en la transfusión sanguínea se encuentra en prácticamente un 50% de
los incidentes críticos relacionados con la Transfusión sanguínea, mientras que la otra
mitad se deben a problemas técnicos u organizativos del sistema. La mayor parte de los
errores transfusionales se concentran además en unas ciertas unidades: urgencias,
82
quirófanos y unidades de cuidados intensivos, lo que supondría elegir estos puntos diana
para implantar la aplicación de las nuevas tecnologías que puedan ayudar a paliar el error.
Según Dzick, el error transfusional puede aparecer en tres momentos clave del proceso
transfusional:
Momento 1: Toma de muestras para los test pretransfusionales. Linden et al (2000)
documentaron en esta fase el 14% de las transfusiones ABO incompatibles en el estado
de Nueva York. Supone el etiquetado erróneo del tubo o la muestra recogida a otro
paciente diferente al de la etiqueta.
Momento 2: Indicación de la transfusión Sanguínea. Es la decisión del médico de pautar
este tratamiento para un paciente dado. Debe basarse en Guías consenso de práctica
transfusional, emitidas por el hospital o por un centro acreditado o sociedad científica, y
nunca exclusivamente por resultados de laboratorio. Recordemos que transfundimos a
pacientes con su sintomatología clínica presente, no a cifras.
Momento 3: Administración de la sangre correcta para el paciente correcto. El caso
contrario, la administración de la sangre errónea a otro paciente supone un 40% de los
errores transfusionales. Esto resulta inadmisible en nuestros días cuando disponemos de
la más sofisticada tecnología para manufacturar la sangre y seguimos empleando en la
mayoría de los hospitales una simple comprobación visual de los números de una etiqueta
adherida a la unidad de sangre (¡a veces incluso escrita a mano!).
Tipos de automatización en la cadena transfusional: la automatización en cada eslabón
reduce el riesgo de error.
• Las etiquetadoras automáticas de pequeño tamaño y portátiles, con PDA incluida,
generan etiquetas a partir de los códigos de barras adjudicados a cada paciente
preferiblemente en una pulsera de lectura electrónica, que es única para cada uno de
ellos. La impresión de la etiqueta y la adhesión a su tubo de muestra se realiza en el
mismo momento de la extracción, a pie de cama del paciente.
• La pulsera de identificación automática, exclusiva de cada paciente lleva un código de
barras para lectura de una etiquetadora automática portátil con una PDA. Están
conectadas al sistema informático de Banco de Sangre de tal manera que a la llegada
del producto a transfundir (una vez que la unidad ha sido sometida a los estudios de
compatibilidad del Banco de Sangre y se ha reservado para ese paciente concreto), el
personal de enfermería debe realizar la lectura del código de la pulsera y la lectura del
código de la unidad de sangre para que el sistema autorice la transfusión
• Los autoanalizadores y el programa informático de Banco de Sangre son soportes
seguros para los test-pretransfusionales de los pacientes y las unidades de sangre a
transfundir. Realizan también etiquetado automático de las muestras y poseen lector
de código de barras para emisión de etiquetas automáticas para adherirlas a las unidades
a transfundir que relacionan de manera inequívoca un paciente con una unidad de
sangre. Se impide la salida de unidades del Banco de Sangre que no hayan sido registradas
en el programa informático. Estos programas incluso exigen una segunda muestra del
receptor antes de asignarle grupo definitivo y permitir la salida de la unidad de sangre.
Luis Quecedo comentó el artículo en
www.proyectonets.org:
Los filtros recuperadores, la
hemodilución normovolemica y demas
tecnicas de ahorro de sangre no dejan
de tener otras complicaciones. Si no es
muy necesario yo no me dejaría poner
sangre, aunque mía , que ha estado en
un circuito externo, activadas las
plaquetas, estressados los eritrocitos y
lo peor con trozos de cemento de las
protesis de caderas o rodilla. La
predonación aunque cara me parece
mejor opción y los hematologos la
llevan como se puede ver muy bien
organizadas con el minimo riesgo. Hoy
por hoy la mejor opción de ahorro es
concienciar a los médicos que la sangre
es un bien precioso e insistir en terapias
restrictivas y en un futuro los desarrollos
de sangre a partir de celulas madre, que
es por donde van los tiros ahora.
• La confirmación electrónica de la Transfusión Sanguínea, es una tarea fundamental para
cerrar el circuito transfusional. Supone el registro de la transfusión de una unidad
concreta a un paciente concreto, y debe quedar recogido en el programa informático
del Banco de Sangre. Si se dispone de sistema de pulsera electrónica se realiza desde
la PDA del personal de enfermería, si se dispone de programa informático conectado
a los servicios transfusores se realiza desde los mismos, y si el soporte es papel
(“documento de control transfusional”) debe ser igualmente cumplimentado por el
personal que ha completado la transfusión.
• Sistemas de radiofrecuencia (RFID), que consisten en colocar a una etiqueta RFID a cada
unidad de sangre desde la donación hasta el paciente, quien también lleva una etiqueta
83
Bibliografía:
1.-Dzik WH. New technology for
transfusión safety. British Journal of
Haematology, 2006. 136, 181-190
2.- Linden JV et al. Transfusion error in
New York state: an analysis of 10 years
experience. Transfusion 1990; 40, 12071213
3.- Robillard et al. ABO incompatible
transfusions, acute and delayed
haemolytic transfusion reactions in
Quebec. Transfusion 2002; 42, 25S.
4.- Baele et al. Bedside transfusion errors.
A prospective survey by the Belgium
Sanguis Group. Vox Sang. 1994; 66: 117121
5.- Callum JL et al. Reporting near-miss
events for transfusion medicine:
improving transfusion safety.
Transfusion 2001;41: 1204-1211
RFID. Permiten también monitorizar las variaciones de temperatura a lo largo de los
procesos y garantizar la cadena del frío. Consiguen un control en tiempo real de los
stocks de sangre en cada centro. El personal de enfermería que realiza la transfusión
debe realizar la lectura automática del RFID de la unidad de sangre y del paciente que
autorice la transfusión. Queda registrado por radiofrecuencia en el programa informático
del Banco de Sangre.
Equilibrio factor humano/automatización.
Todas estas medidas encaminadas a conseguir la Seguridad transfusional no deben
hacernos olvidar la necesidad de conseguir un equilibrio entre el factor humano y la
automatización. Es necesario integrar en el quehacer diario de los profesionales de la salud
la cultura de utilizar la tecnología al servicio del cuidado del paciente, empleando estas
herramientas con total conocimiento. En este proceso deben implicarse también los
gestores porque la verdadera estimación de los costes del error humano es difícil de
cuantificar.
Además las nuevas tecnologías por sí solas no bastan para mejorar la seguridad
transfusional. Los cursos de formación continuada y actualización de facultativos, enfermería
y agentes implicados en la transfusión, las sesiones interdisciplinarias y la puesta en marcha
de sistemas de comunicación de incidencias, así como el empleo de facultativos expertos
en medicina transfusional y profesionales expertos para la selección e implantación de
nuevas tecnologías ayudarán al objetivo final del bienestar del paciente.
Dra. Mª Asunción Mora. Sección de Hematología y Hemoterapia. Hospital Infanta Sofía
de San Sebastián de los Reyes.
visítanos en internet
www.proyectonets.org
84
"la aplicación de esta técnica se
realiza principalmente en el
carcinoma basocelular, el cáncer
más frecuente en la raza blanca"
AMPLIACIÓN: CIRUGÍA MICROGRÁFICA DE MOHS.
LA CIRUGÍA MÁS EFECTIVA EN EL TRATAMIENTO DEL CÁNCER DE PIEL.
Dr. JAVIER PEDRAZ Y Dr. EDUARDO LÓPEZ.
Dr. JAVIER PEDRAZ
La cirugía micrográfica de Mohs es una técnica de gran eficacia y muy especializada en
el tratamiento de tumores de piel no melanoma. Es una técnica vanguardista cada vez
más extendida en numerosos hospitales tanto extranjeros como españoles. Mientras que
en EEUU el 35% de los cánceres de piel se operan con esta técnica, en España tan sólo un
1% se benefician de los resultados de la misma. Esta técnica permite alcanzar porcentajes
de curación de la enfermedad de hasta un 98%. Con la cirugía convencional los porcentajes
de curación son muy variables, entre un 48 y un 83%, pero en cualquier caso menores que
en la cirugía de Mohs. La principal ventaja que presenta la cirugía de Mohs frente a la
cirugía dermatológica convencional es la posibilidad de asegurar en el mismo momento
de la operación la eliminación total del tumor y también la conservación de un mayor
porcentaje de tejido sano.
Este procedimiento se puede llevar a cabo gracias al análisis microscópico de todos los
bordes del tumor sobre muestras de piel procesadas en congelación, un hecho que no
era posible con la cirugía convencional. Esta técnica, desarrollada por el en aquella época
estudiante de medicina Frederic E. Mohs en 1932 en la Universidad de Wisconsin, evita al
paciente tener que acudir en varias ocasiones al quirófano y que vuelva a recidivar el
cáncer en la gran mayoría de los casos. En 1941 publicó su técnica remarcando las ventajas
de la utilización de cloruro de zinc para fijar los tejidos. Con el paso de los años esta técnica
se ha ido perfeccionando pero aún conserva su concepto básico original. El propio Frederic
Mohs comenzó en 1953 a utilizar tejidos en fresco para evitar el mayor dolor y sangrado
postoperatorio producidos al fijar la muestra con cloruro de zinc. Asimismo, la fijación en
fresco permitía una mayor rapidez de la técnica, la posibilidad de conservar más tejido
sano y la posibilidad de cerrar mediante sutura.
Dr. EDUARDO LÓPEZ
La cirugía de Mohs no está indicada en todos los cánceres de piel. La aplicación de esta
técnica se realiza principalmente en el carcinoma basocelular, el cáncer más frecuente en
la raza blanca. Se estima que aproximadamente un 50% de los pacientes mayores de 65
años desarrollará un cáncer de piel, en su mayor parte carcinomas basocelulares. Este
tumor habitualmente no origina metástasis pero puede volver a aparecer o, en ocasiones,
invadir en profundidad. Otras indicaciones de esta técnica serían el carcinoma espinocelular,
el dermatofibrosarcoma protuberans, el carcinoma anexial microquístico o el carcinoma
de células de Merkel. Sólo debe realizarse cuando después de uno o más tratamientos
previos aún queda tumor, cuando el tumor esté localizado en determinadas áreas con
riesgo de que vuelva a aparecer (alrededor de los ojos, boca, nariz y orejas) o cuando
queremos conservar la mayor parte de piel sana. También tiene su indicación esta técnica
en las variantes morfeiforme e infiltrante del carcinoma basocelular, en tumores mayores
de 2 centímetros y en pacientes inmunodeprimidos. Es una técnica que se realiza en la
mayor parte de los casos en la región de la cara, por ser en esta zona de gran importancia
la conservación de piel sana. También es en la cara donde aparecen la mayor parte de los
cánceres de piel. La cirugía de Mohs es, sin duda, el tratamiento de elección en tumores
con una tasa elevada de recurrencias.
La cirugía micrográfica de Mohs exige la coordinación de diversos especialistas para el
buen resultado de la técnica. La extirpación de la lesión, el corte de la misma y la
85
reconstrucción es habitualmente realizada por el dermatólogo, mientras que el análisis
de la pieza extirpada corresponde al patólogo. El procesamiento de la muestra debe ser
realizado por técnicos experimentados en la realización de la técnica. Esta técnica se debe
realizar en un centro médico debidamente preparado, habitualmente un hospital. La
realización de la técnica en fresco de la cirugía micrográfica de Mohs varía en función de
las prácticas individuales de algunos cirujanos pero el procedimiento básico en nuestro
servicio de Dermatología es el siguiente:
Paso 1: Se realiza una delimitación del tumor con un rotulador de tinta indeleble de forma
previa a la aplicación de anestesia local con mepivacaína al 2%. El marcaje previo de la
lesión es importante para evitar la distorsión anatómica y la pérdida de los límites de la
tumoración. Es muy importante la realización de una correcta asepsia y antisepsia durante
este tipo de cirugía.
Paso 2: Tras un tiempo de espera para que el anestésico haga su máximo efecto (5-10
minutos), se realiza una primera extirpación de la tumoración mediante curetaje (raspado
superficial de la zona) o escisión con bisturí. De esta primera zona extirpada se obtienen
cortes transversales que se observan al microscopio para tener una imagen de la morfología
que presenta la tumoración y así poder identificarla con mayor facilidad al realizar las
siguientes extirpaciones.
Paso 3: Se realiza una escisión del área peritumoral (1-2 mm) con un ángulo de 45º con
la piel para producir un borde angulado, continuando la escisión alrededor del tumor y
por debajo de éste de forma paralela a la superficie de la piel obteniendo una muestra en
forma de plato.
Paso 4: Se realiza un marcaje con escisiones superficiales en la periferia para la orientación
precisa de los bordes.
Figura 1. Ejemplo de uno de los
esquemas de zona anatómica
(mapas) utilizados habitualmente
en la realización de la cirugía de Mohs.
Paso 5: Se realiza un dibujo bidimensional del defecto incluyendo las marcas de piel para
la orientación de la muestra. Es habitual que el cirujano de Mohs utilice a menudo unos
esquemas de la zona anatómica donde esté localizado el tumor, denominados mapas,
para ir anotando sucesivamente las zonas de piel a extirpar en los sucesivos pases. (Fig.1).
Paso 6: La pieza se fragmenta siguiendo las líneas de marcaje y se invierte (colocando la
dermis hacia arriba), se numeran los fragmentos de forma ordenada utilizando números
arábigos. Los bordes de la muestra se colorean con diferentes colores para poder identificar
posteriormente la exacta localización del tumor. Una tinción habitualmente utilizada es
la tinta china.
Paso 7: Se monta el tejido como es presentado, aplanándolo en un plano horizontal
uniforme. Se procede a congelarlo y se obtienen cortes horizontales de 5-7 micras utilizando
el criostato (Figura 2). Estos cortes se obtienen de la parte profunda hacia arriba. Así en
un mismo corte se pueden observar simultáneamente los tejidos superficiales y profundos.
Paso 8: Las laminillas se tiñen con hematoxilina – eosina y son interpretadas por el
patólogo en el microscopio. El patólogo examina el 100% de los bordes de la muestra.
Figura 2. Criostato habitualmente
utilizado para realizar cortes en
congelación durante el procesamiento
de las muestras de cirugía de Mohs.
Paso 9: Si el tumor está completamente extirpado, se procederá a la reconstrucción del
defecto. Si se encuentra tejido tumoral residual, se marca con tinta roja en el mapa
previamente dibujado y sólo se extirpará la zona en la que exista tumor, y es esto lo que
permite un ahorro de tejido sano. Nunca se cerrará el defecto hasta tener la completa
seguridad de que el tumor está completamente extirpado. Al extirpar el tejido tumoral
residual, cada estadio es numerado sucesivamente con números romanos. Este proceso
se repetirá tantas veces como sea necesario hasta la completa extirpación del tumor.
Paso 10: El cierre del defecto se puede realizar con suturas (“cierre por primera intención”)
mediante la realización de colgajos, injertos o técnicas de cirugía estética; o bien mediante
el cierre de la heridas por sí sola (“cierre por segunda intención”), permitiendo a la herida
que cure progresivamente en el plazo de 3-4 semanas.
86
Para ilustrar esta técnica, presentamos uno de los casos de cirugía de Mohs intervenidos
en nuestro Servicio. Se trata de una paciente mujer de 74 años con un epitelioma basocelular
sólido localizado en la pared lateral derecha de la pirámide nasal (Figura 3a).
En el examen clínico el tumor estaba mal delimitado, con lo cual era muy complicado
distinguir los límites exactos del mismo. La paciente presentaba la tumoración desde hacía
varios años y había sido intervenida en dos ocasiones con resultado anatomopatológico
que afectaba los bordes laterales de resección. Dadas las dos extirpaciones previas con
bordes afectos y la mala delimitación del tumor en el examen clínico se decidió la indicación
de cirugía de Mohs, según el procedimiento descrito previamente.
Figura 3a. Epitelioma basocelular mal delimitado y localizado en la cara lateral derecha de la nariz.
Figura 3b. Marcaje de la cantidad de piel a extirpar en el primer pase de la cirugía.
Figura 3c. Defecto resultante tras la extirpación del tumor en 2 pases.
Según se observa en la Figura 3b, se procedió al marcaje del tumor con un rotulador de
tinta indeleble. El círculo central extirpado fue analizado por el patólogo para obtener
una imagen precisa de la forma del tumor y el círculo externo fue el primer pase extirpado
para su análisis. Tras la realización de 2 pases, el patólogo informó que la muestra se
encontraba libre de tumor (Figura 3c).
Tras haber extirpado completamente el tumor y valorando las distintas opciones de cierre
del defecto, se decidió realizar un colgajo bilobulado (Figura 3d). La paciente no presentó
complicaciones después de la intervención y el resultado estético a los 8 meses de la
intervención resultó muy bueno (Fig. 3e).
La duración de la técnica es muy variable. Dependerá del número de veces que haya que
realizar extirpación de tejido (número de pases), por lo que puede variar entre
87
aproximadamente una y varias horas. La duración de cada pase es de aproximadamente
30-45 minutos. Por término medio el número de pases es de 1 a 3, lo cual se traduce en
un tiempo de 2-4 horas.
Una variante de esta técnica es la cirugía de Mohs diferida. Esta variante consiste en
analizar la muestra de piel, no en el mismo día y en congelación, si no en el plazo de pocos
días y en parafina. Esto permite una mejor visualización al microscopio de determinados
tumores difíciles de ver en congelación o la realización de determinadas tinciones especiales
necesarias para identificar ciertos cánceres de piel como el dermatofibrosarcoma
protuberans.
Figura 3d. Cierre del defecto mediante
colgajo bilobulado.
Las principales ventajas que presenta esta técnica es que permite analizar en el mismo
momento de la intervención todos los márgenes del tumor, lo que facilita la extirpación
selectiva de zonas donde sólo hay tumor. Esto permite un ahorro de piel sana en
comparación con la cirugía convencional y una mayor facilidad para cerrar el defecto final
en piel. Con la cirugía convencional sólo se realizaban dos cortes sobre el tejido: uno
longitudinal y otro transversal con lo que quedaba una gran cantidad de tejido tumoral
sin analizar. Todas estas ventajas que se obtienen con la cirugía de Mohs se traducen en
un mejor resultado estético. El resultado final no se obtiene hasta 1 año después de la
realización de la cirugía.
En nuestro servicio de Dermatología del Hospital Clínico San Carlos se ha venido realizando
con éxito esta técnica que tan buenos resultados tiene tanto a nivel estético como de
eliminación del tumor y sin que todavía hayamos observado no hemos observado ningún
caso de recidiva tumoral tras extirpación tumoral con cirugía de Mohs. El periodo
habitualmente utilizado para la valoración de recidivas es de 5 años, periodo al que aún
no han llegado la totalidad de nuestros pacientes intervenidos con esta técnica.
Figura 3e. Resultado estético a los 8
meses de extirpación del tumor.
Dr. Javier Pedraz Muñoz. Dermatólogo. Hospital Clínico San Carlos.
Dr. Eduardo López Bran. Jefe de Servicio de Dermatología. Hospital Clínico San Carlos.
visitanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
88
"Los opioides empleados por vía
transdérmica son una buena
opción en los pacientes con
mucositis oral"
IMPORTANCIA DE UN ADECUADO TRATAMIENTO DEL DOLOR EN LA
MUCOSITIS ORAL PRODUCIDA POR LA IRRADIACIÓN. Dra. MAR SERRANO.
La mucositis oral es una inflamación de la mucosa bucal que puede aparecer como
resultado del tratamiento radioterápico al paciente oncológico. Está presente hasta en el
90% de los pacientes tratados con radioterapia y/o quimioterapia, y debido a que puede
cursar con dolor intenso, tiene un gran impacto sobre la calidad de vida de estos pacientes.
Dra. MAR SERRANO
En numerosas ocasiones la presencia de mucositis interfiere la ingesta alimentaria,
pudiendo ocasionar malnutrición. En éste caso, puede ser conveniente una interrupción
temporal del tratamiento radioterápico, con el consiguiente riesgo de recrecimiento
tumoral.
La mucositis oral se segmenta según la clasificación de la OMS en 4 grados. Esta clasificación
tiene en cuenta los síntomas clínicos (dolor, estado de la mucosidad bucal), así como la
posibilidad de nutrición oral (alimentación sólida, líquida y ningún tipo de alimentación).
En el grado 1 (mucositis leve) existe únicamente sequedad bucal y enrojecimiento de la
mucosa, que no impide la toma de alimentos. En el grado 2 (mucositis moderada) aparecen,
además, las primeras ulceraciones de la mucosa bucal. La toma de alimentos sólidos es
todavía posible. En el grado 3 (mucositis grave) se encuentra una ulceración marcada, y
únicamente se puede tomar alimentación líquida. El 4º grado se caracteriza por ser la
forma más grave y peligrosa de mucositis oral. En este grado no es posible la toma de
alimentos por vía oral.
En la actualidad no existe una directriz general válida para la terapia de la mucositis. Sin
embargo, para prevenir/retrasar su aparición se recomienda la utilización de radioterapia
altamente conformada, Bencidamina, Clorhexidina e higiene. Para disminuir su intensidad
y evolución se recomiendan analgésicos y antibióticos. El 30% de los afectados necesitan
analgésicos sistémicos de tercer escalón (opioide fuerte) según la escala de la OMS de
terapia contra el dolor.
La elección del opioide dependerá del tipo de dolor, de la duración de la acción, de la
toxicidad esperable y de la vía de administración. En estos pacientes adquiere especial
importancia elegir una vía de administración adecuada, ya que, dependiendo del grado
de mucositis, la deglución de analgésicos puede resultar dolorosa en si misma. En este
sentido, la terapia transdérmica aporta grandes ventajas en el tratamiento del dolor en
el paciente con mucositis. A demás del fácil manejo y la buena aceptación por parte del
paciente, encontraremos beneficios en el perfil de seguridad. Debido a la liberación
constante del principio activo durante periodos prolongados, no hay efectos adversos
ocasionados por las fluctuaciones plasmáticas. Por ello podemos considerar la vía
transdérmica es una forma óptima de tratar el dolor por mucositis, asociada o no a otros
tratamientos para el dolor irruptivo.
En 2007 se llevó a cabo el Estudio Mucodol, en el que se estudió la incidencia de mucositis
oral, así como el tratamiento administrado y el control del dolor en pacientes atendidos
en consulta de radioterapia.
Fue un estudio multicéntrico en el que participaron 55 centros hospitalarios de todo el
territorio nacional, y contó con la Dra. Ana Mañas y la Dra. Amalia Palacios como
coordinadoras.
89
El diseño del estudio cubrió dos fases: en la primera se evaluó la incidencia de la mucositis
oral en los SOR (Servicio de Oncología Radioterápica). En la segunda fase se realizó un
estudio prospectivo para evaluar el tratamiento del dolor de pacientes con mucositis oral
de grado 2 y 3 con un seguimiento de 2 meses.
Puedes encontrar este artículo en el
blog de la Fundación Grünenthal en
www.proyectonets.org. Recuerda que
en NETS puedes comentar los
artículos, dar tu opinión, participar en
debates y escribir nuevos artículos. El
blog de la Fundación Grünenthal tiene
varios artículos originales de diversos
temas comentados y discutidos por
los usuarios de NETS.
La fase 1 del estudio muestra que la incidencia de la mucositis oral se encuentra en un
16,4% de la población estudiada, siendo los niveles 1 y 2 los más frecuentes.
Para la segunda fase se reclutaron 282 pacientes con mucositis oral de grado 3 (95,7%) y
de grado 4 (4,3%), a los que se hizo un seguimiento de 3 meses.
Los resultados del estudio documentan que el 96,1% de los pacientes con mucositis oral
de grado 3 y 4 sufrían dolor. El dolor asociado a mucositis, según los pacientes era moderado
en el 37,9% de los casos, y era intenso o muy intenso en el 51,6% de los casos.
El 94,3% de los pacientes del estudio con mucositis oral de grado 3 y grado 4 tomaba
analgésicos, siendo en el 70,2% tratamientos opioides, destacando Buprenorfina, Fentanilo
y Tramadol. Tras una terapia de dos meses, el 62,4% de los pacientes mostró un alivio del
dolor significativo. El 83,2% de los pacientes presentaban, en la visita final, ausencia de
dolor o dolor leve.
El estudio concluye que los opioides, y especialmente los empleados por vía transdérmica,
son una buena opción terapéutica en los pacientes con mucositis oral.
Dra. Mar Serrano Sánchez. Grünenthal Pharma, S.A.
"La asociación de tramadol y
paracetamol aumenta la eficacia
del tratamiento del dolor y reduce
las reacciones adversas"
DOCUMENTO DE CONSENSO SOBRE UTILIDAD TERAPÉUTICA DE LA
ASOCIACIÓN FIJA DE TRAMADOL/PARACETAMOL. JUAN TAMARGO.
JUAN TAMARGO
Más de 9 millones de españoles padecen dolor crónico, lo que provoca el 53% de las
consultas médicas. Sin embargo, muchos de estos pacientes no encuentran un tratamiento
satisfactorio. La asociación a dosis fijas en una misma formulación de dos analgésicos,
tramadol y paracetamol, logra aumentar la eficacia del tratamiento, y reduce al mismo
tiempo la incidencia de las reacciones adversas.
El Documento de consenso sobre utilidad terapéutica de la asociación fija de
tramadol/paracetamol en el tratamiento del dolor moderado que se presentó en Madrid
el 4 de marzo de 2009 y que ha sido elaborado por especialistas de diversas sociedades
médicas recoge la evidencia científica que existe sobre la utilización de dicha asociación
en diferentes patologías.
90
La publicación de este consenso viene dada por la necesidad de plantear la utilidad de
la asociación de tramadol y paracetamol en el tratamiento del dolor moderado. En primer
lugar, porque el dolor moderado es algo muy frecuente en la sociedad actual y, en segundo
lugar, porque es tratado por distintos especialistas y resultaba adecuado que diversas
sociedades científicas abordaran la utilidad que cada una de ellas observa de esta asociación
farmacológica en diferentes situaciones clínicas.
La ventaja que tiene la asociación de tramadol y paracetamol es que se trata de compuestos
con mecanismos de acción complementarios que permiten atacar el dolor por múltiples
vías, tener más eficacia y reducir la dosis de cada fármaco (325 mg de paracetamol y 37,5
mg de tramadol), logrando además una menor incidencia de efectos adversos, que no
serán más importantes que los que puedan inducir ambos fármacos por separado.
A todas las ventajas ya expuestas, se puede añadir que las asociaciones a dosis fijas tienen
una ventaja adicional: la reducción del número de fármacos, que unida a la mejor
tolerabilidad, permite aumentar el porcentaje de pacientes que sigue el tratamiento
prescrito.
Para alcanzar estos objetivos es necesario asociar fármacos que presenten mecanismos
complementarios y cuyas propiedades farmacológicas y terapéuticas hayan sido
ampliamente evaluadas en ensayos clínicos controlados. En este caso, gracias a un estudio
de asociación medicamentosa basado en una técnica de análisis y representación gráfica,
denominada isobolograma, se ha determinado una sinergia de potenciación, es decir, que
la administración de estos dos fármacos conjuntamente y en el mismo momento resulta
en un mayor grado de analgesia que la simple suma de los efectos analgésicos de cada
uno de estos fármacos por separado.
Acerca del Consenso.
El documento de consenso, editado por Grünenthal Pharma S.A., ha sido fruto de la
colaboración entre expertos miembros de diversas sociedades científicas (el Grupo de
Estudio del Dolor de la Sociedad Española de Cirugía Ortopédica y Traumatología, la
Sociedad Española del Dolor, la Sociedad Española de Medicina de Urgencias y Emergencias,
la Sociedad Española de Médicos de Atención Primaria y la Sociedad Española de
Neurología), que han abordado el problema desde ángulos bien diversos, lo que permite
alcanzar una visión panorámica muy completa.
La obra revisa los conceptos generales relacionados con el área del dolor, así como las
bases fisiopatológicas, mecanismos implicados en la producción del dolor, y la valoración
del paciente con dolor leve-moderado.
El dolor ha sido uno de los temas más
tratados por los articulistas y
comentaristas en NETS. El blog de la
Fundación Grünenthal recoge algunas
aportaciones sobre el dolor que te
pueden resultar interesantes. Te
recomendamos IMPORTANCIA DE UN
ADECUADO TRATAMIENTO DEL
DOLOR EN LA MUCOSITIS ORAL
PRODUCIDA POR LA IRRADIACIÓN de
Mar Serrano que también puedes
encontrar en esta revista y LA
PLATAFORMA SinDOLOR de Guillermo
Castillo que puedes consultar en
www.proyectonets.org en la sección
"iniciativas y programas".
Como principal objetivo, se analiza la utilidad de la asociación de tramadol y paracetamol
en el dolor moderado por especialidades (urgencias, neurología, reumatología, atención
primaria y traumatología), y se realiza una revisión de la evidencia científica.
Profesor Juan Tamargo. Catedrático de Farmacología de la Facultad de Medicina de la
Universidad Complutense de Madrid. Coordinador del Documento de consenso sobre
utilidad terapéutica de la asociación fija de tramadol/paracetamol en el tratamiento del
dolor moderado.
www.proyectonets.org
91
"Sólo 45.000 pacientes, el 0,1% de
la población, consumen casi el
2,5% del gasto sanitario."
SOSTENIBILIDAD Y EQUIDAD EN EL TRATAMIENTO RENAL SUSTITUTIVO.
GRUPO PARA LA EVALUACIÓN DEL TRATAMIENTO RENAL.
La Enfermedad Renal Crónica Avanzada conduce a miles de pacientes cada año a la elección
de una modalidad de diálisis. Tan solo 45.000 pacientes, el 0,1% de la población, consumen
casi el 2,5% del gasto sanitario.
Dado que el trasplante renal solo está indicado para menos del 20% de los pacientes en
diálisis y que, mientras esperan un donante, también los pacientes en lista de espera
deben dializarse, casi todos los pacientes tendrán que elegir entre la Hemodiálisis
(modalidad atendida por especialistas en hospitales o centros de tratamiento especializados)
o la Diálisis Peritoneal (modalidad domiciliaria). La estructura sanitaria favorece la utilización
de la Hemodiálisis, a pesar de que es un 44% más costosa que la Diálisis Peritoneal
domiciliaria. El presente documento revisa la situación y propone acciones para equilibrar
las posibilidades de acceso a la Diálisis Peritoneal por parte de los pacientes y para
contribuir a la sostenibilidad de un tratamiento que continúa creciendo en número cada
año.
Antecedentes.
Cada año, casi 6.000 nuevos pacientes ven progresar su Insuficiencia Renal hasta la
necesidad de recibir uno de los tres tipos de tratamiento sustitutivo de la función renal:
1. Trasplante Renal (TX): Cada año se realizan alrededor de 2200 trasplantes renales y
hay algo más de 4000 pacientes en lista de espera. Por motivos clínicos, menos de 20%
de los pacientes que están en diálisis pueden acceder a un riñón. El 80% restante nunca
podrá trasplantarse y tiene que estar en diálisis para sobrevivir.
2. Hemodiálisis (HD): En esta modalidad, la sangre se depura empleando una máquina
que se la extrae, la filtra y se la devuelve al paciente, para lo cual tiene que desplazarse a
un hospital o centro especializado tres veces por semana como mínimo. Cada tratamiento,
conectado a la máquina, se prolongará unas cuatro horas. La inmensa mayoría de los
pacientes en diálisis usan esta modalidad.
3. Diálisis Peritoneal (DP): Esta modalidad de tratamiento es domiciliaria. La eliminación
de sustancias tóxicas se realiza a través de la membrana peritoneal del paciente, y se
puede realizar de forma manual o de manera automatizada, durante la noche, mientras
se duerme. El paciente solo acude al hospital para revisión uno o dos meses. Un escaso
porcentaje de pacientes se dializa en su hogar.
Situación actual.
Según datos del año 2007 de la Sociedad Española de Nefrología, la población en
tratamiento crece entre un 3% y un 4% cada año. En el registro nacional de pacientes
renales que coordina la Organización Nacional de Trasplantes, en España hay 45.000
pacientes en tratamiento renal sustitutivo, de los que casi la mitad están trasplantados.
• 48% están Trasplantados.
• 46% en Hemodiálisis.
• 6% en Diálisis Peritoneal.
92
2. Hemodiálisis (HD): En esta modalidad, la sangre se depura empleando una máquina
que se la extrae, la filtra y se la devuelve al paciente, para lo cual tiene que desplazarse a
un hospital o centro especializado tres veces por semana como mínimo. Cada tratamiento,
conectado a la máquina, se prolongará unas cuatro horas. La inmensa mayoría de los
pacientes en diálisis usan esta modalidad.
3. Diálisis Peritoneal (DP): Esta modalidad de tratamiento es domiciliaria. La eliminación
de sustancias tóxicas se realiza a través de la membrana peritoneal del paciente, y se
puede realizar de forma manual o de manera automatizada, durante la noche, mientras
se duerme. El paciente solo acude al hospital para revisión uno o dos meses. Un escaso
porcentaje de pacientes se dializa en su hogar.
Situación actual.
Según datos del año 2007 de la Sociedad Española de Nefrología, la población en
tratamiento crece entre un 3% y un 4% cada año. En el registro nacional de pacientes
renales que coordina la Organización Nacional de Trasplantes, en España hay 45.000
pacientes en tratamiento renal sustitutivo, de los que casi la mitad están trasplantados.
• 48% están Trasplantados.
• 46% en Hemodiálisis.
• 6% en Diálisis Peritoneal.
Paciente en diálisis peritoneal en su domicilio (izquierda) y paciente en hemodiálisis tradicional en hospital (derecha).
Las oportunidades de los pacientes para realizar tratamiento domiciliario (DP) varían
mucho entre las distintas Comunidades, e incluso dentro de cada una según su hospital
de referencia. Algunas Comunidades tratan en domicilio a una gran parte de los pacientes
que están en diálisis, mientras que en otras el porcentaje es casi anecdótico.
¿Por qué siendo la DP un tratamiento que ofrece igual o superior supervivencia que
la HD, la misma calidad de vida, muy pocas contraindicaciones y permite al paciente
realizar una vida más activa se produce esta desigualdad?
El diseño y las estructuras sanitarias favorecen la opción de Hemodiálisis:
1. Mientras que se dotan todos los hospitales con máquinas y personal para realizar
Hemodiálisis, a la vez que se abren muchos centros concertados para este fin, los
recursos materiales y humanos destinados a la Diálisis Peritoneal en los hospitales que
la realizan son escasísimos. A pesar de que un profesional de enfermería de Diálisis
Peritoneal puede tratar 20–25 pacientes, frente solo 4-5 que se pueden tratar en HD.
2. Falta de formación por parte de los nefrólogos prescriptores de diálisis ya que, por
ejemplo, en su periodo de rotación durante la especialidad lo hacen 7 meses en HD
mientras que en DP permanecen solo 2 meses.
Si te ha interesado este artículos te
recomendamos que leas LA
TELEMEDICINA COMO HERRAMIENTA
PARA LA SOSTENIBILIDAD DEL
TRATAMIENTO DE LOS ENFERMOS
CON INSUFICIENCIA RENAL CRÓNICA
de Ana Canalejo, que puedes
encontrar en el blog de Baxter en
www.proyectonets.org, LA
TELEDIABETES AYUDA AL PACIENTE
CON DIABETES A MEJORAR SU
CONTROL de Alberto Val y DONACIÓN
Y TRASPLANTE RENAL DE DONANTE
ANCIANO de Amado Andrés, ambos
publicados en la seccción "nuevas
tecnologías" de
www.proyectonets.org.
3. Muchas veces los pacientes no reciben la información adecuada sobre todas las opciones
posibles de tratamiento antes de iniciarlo. Sobre todo el grupo de pacientes que no
pueden programarse desde las consultas de Enfermedad Renal Crónica Avanzada, que
suponen casi el 50% del total. Según una encuesta promovida por la Asociación
Nacional de Pacientes ALCER en el año 2007, más del 65% de los pacientes conocen
bien o muy bien la técnica de Hemodiálisis mientras que solo alrededor del 20%
conocen bien la Diálisis Peritoneal en domicilio.
¿Por qué es importante emprender iniciativas para paliar esta situación?
1. Sostenibilidad del tratamiento:
• Se calcula que el gasto del tratamiento renal sustitutivo es casi el 2,5% del presupuesto
de sanidad para solo el 0,1% de la población. Por lo tanto, hay que tomar acciones para
que este tipo de tratamiento sea sostenible en el tiempo.
93
• Según un estudio realizado por la consultoría médica independiente BAP, especializada
en la Investigación de Resultados en Salud, el coste anual por paciente en tratamiento
con Hemodiálisis cuesta casi 50.000 euros. La HD es un 44% más costosa para el sistema
de salud y se puede generar un ahorro de 500 millones de euros en una proyección a
15 años.
2. Equidad para todos los pacientes:
• Según la literatura científica, cuando los pacientes reciben información adecuada y
suficiente, entre el 30% y el 50% eligen ser tratados en su domicilio. De igual manera,
según demuestra una reciente encuesta realizada en el año 2007, la mayoría de los
profesionales de la Nefrología también consideran que el mejor tratamiento de inicio
para un paciente tipo es la Diálisis Peritoneal en domicilio.
• Así mismo según la ley 41/2002 de 14 de noviembre, reguladora de la autonomía del
paciente y derechos y obligaciones en materia de información y documentación clínica,
los pacientes tienen el derecho de ser informados sobre todas las posibles opciones de
tratamiento para poder decidir el que mejor se adapte a su estilo de vida.
¿Qué se puede hacer para el desarrollo de la Diálisis Peritoneal?
Propuestas:
1. Nos encontramos ante una oportunidad política única para incluir la Diálisis Domiciliaria
en el Pacto por la Sanidad para garantizar la equidad en el acceso al tratamiento de
todos los pacientes que inician tratamiento sustitutivo de la función renal sea cual sea
la región en la que se resida y su hospital de referencia. Además, de esta forma se
contribuirá a la sostenibilidad del sistema y se garantizará el tratamiento a un número
cada vez mayor de pacientes que lo van a necesitar.
2. Debemos garantizar el derecho a la autonomía del paciente, promoviendo la figura del
informador del paciente, mediante el impulso de las consultas de Enfermedad Renal
Crónica Avanzada (Pre-diálisis) para conseguir mayor proporción de pacientes
Programados. Para conseguir que todos los pacientes posibles puedan ser revisados
convenientemente en consultas específicas hay que disponer de especialistas en
nefrología y, sobre todo, personal de enfermería especializado que pueda dedicar el
tiempo necesario para informar a estos pacientes. Añadir más consultas, además de
servir para facilitar los procesos de información sobre las opciones de diálisis entre las
que el paciente puede elegir y proceder a la firma del correspondiente consentimiento
informado, también contribuiría a retrasar y reducir la necesidad de entrada de pacientes
en diálisis.
3. Apostar abiertamente por la sostenibilidad de nuestro modelo de sanidad pública,
poniendo recursos para el tratamiento de los pacientes en su domicilio, que tal como
demuestra el estudio económico generaría importantes ahorros. Dicha evaluación
económica recomienda incrementar los pacientes tratados en Diálisis Peritoneal
domiciliaria. Para poder atender convenientemente a un número mayor de pacientes
en esta modalidad de Diálisis Peritoneal en domicilio, se plantea equilibrar las plantillas
actuales para garantizar que hay personal cualificado del mismo modo y el mismo
tiempo que lo está el de Hemodiálisis. Es decir, plantear una cobertura de ambas
modalidades de diálisis en función de la población atendida en cada hospital, dotando
los recursos estrictamente necesarios, sin favorecer la Hemodiálisis.
4. Siendo el trasplante la modalidad que presenta el mejor resultado de coste-efectividad,
las administraciones sanitarias deberían seguir garantizando que los profesionales
tienen a su disposición los medios necesarios para su buen funcionamiento. Mientras
el trasplante llega para los pacientes que pueden recibirlo, la Diálisis Peritoneal es una
excelente modalidad de inicio de tratamiento.
94
5. Involucrar activamente a los profesionales sanitarios, evaluando y adaptando un sistema
de incentivación similar al que tanto éxito ha proporcionado en el modelo público de
trasplantes.
Miembros del Grupo para la Evaluación del Tratamiento Renal:
Dr. Javier Arrieta. Jefe de Servicio de Nefrología del Hospital de Basurto (Vizcaya).
Dr. Juan Manuel Buades. Jefe de Servicio de Nefrología del Hospital Comarcal de Inca
(Mallorca).
Dra. Carmen Gómez Roldán. Jefa de Servicio de Nefrología del Complejo Hospitalario
Universitario de Albacete.
Dra. Teresa González. Presidenta de la Fundación Española de Diálisis (Barcelona).
Dr. Alfonso Miguel. Jefe de Servicio de Nefrología del Hospital Clínico Universitario de
Valencia.
Dr. Manuel Macía. Responsable de Diálisis del Hospital Universitario Nuestra Señora de
Candelaria (Tenerife)
Dr. Francisco Ortega. Coordinador de Área de Gestión Clínica de Nefrología y del
Metabolismo Óseo del Hospital Universitario Central de Asturias.
Dr. Mario Prieto. Responsable de Diálisis del Servicio de Nefrología del Hospital de León.
Dr. César Remón. Director de la Unidad de Gestión de Nefrología del Hospital Universitario
de Puerto Real (Cádiz).
Dra. Ana Rodríguez-Carmona de la Torre. Responsable de Diálisis del Hospital
Universitario de A Coruña.
Dr. José Antonio Sánchez Tomero. Jefe de Servicio de Nefrología del Hospital Universitario
de La Princesa (Madrid).
Dr. Rafael Selgas. Jefe de Servicio de Nefrología del Hospital Universitario La Paz (Madrid).
Dr. J. ARRIETA
Dr. F. ORTEGA
Dr. J. M. BUADES
Dra. A. RODRÍGUEZ
Dr. J. A. SÁNCHEZ
Dr. A. MIGUEL
Dr. M. MACÍA
Dr. R. SEGLAS
www.proyectonets.org
95
"creemos justificada la realización
de ablación intraoperatoria de la
FA como procedimiento asociado a
cualquier otra intervención cardiaca"
TRATAMIENTO QUIRÚRGICO INTRAOPERATORIO DE LA FIBRILACIÓN
AURICULAR. Dr. GONZALO ALDAMIZ.
Dr. GONZALO ALDAMIZ
La fibrilación auricular es la arrtimia más frecuente como causa de hospitalización y supone
más de un tercio de todos los ingresos por este motivo en USA.Varios estudios han
demostrado una incidencia entre el 1-2% entre la población general, con variaciones en
función del método de recogida de datos. Pese a ciertas diferencias entre los diversos
estudios, todos coinciden en un punto: La incidencia de la FA se incrementa con la edad:
es menor del 1% en las personas por debajo de los 50 años, produciéndose a partir de
aquí un incremento progresivo con cada década hasta afectar casi al 9% de la población
mayor de 80 años.
Figuras 1 y 2: diversas lesiones.
Etiología:
Aunque puede aparecer en un corazón “sano”, normalmente existe una cardiopatía
estructural de base.
• Aproximadamente un 25% de los pacientes tienen antecedentes de cardiopatía isquémica.
• La enfermedad reumática multiplica por 14 el riesgo de desarrollar FA, y la aparición
de ésta cuadruplica el riesgo de desarrollar un fenómeno trombo- embólico.
• Aproximadamente el 19% de los pacientes con disfunción ventricular izquierda
tienen FA.
• Tumores cardiacos como los mixomas, también se asocian a la aparición de esta arritmia.
• Otras patologías cardiacas que en menor grado se asocian a la FA serían la miocardiopatía
hipertrófica, pericarditis, valvulopatías de origen no reumático, otro tipo de arritmias
cardiacas (W-P-W, enfermedad del seno, flutter auricular....)
Pero la fibrilación auricular también puede aparecer como secuela cardiaca de otras
patologías no primariamente cardiacas: 45% de los pacientes en FA son hipertensos.
10% tienen diabetes. 2% de los pacientes padecen desórdenes del tiroides. 3% en EPOC.
Solo el 3% de las fibrilaciones auriculares se consideran idiopáticas, sin identificarse ningún
factor predisponente.
96
Figura 3: lesión.
Consecuencias clínicas:
Sus consecuencias clínicas son bien conocidas:
• pérdida de la sincronía auriculoventricular, la sensación subjetiva del paciente de latido
cardíaco irregular por un ritmo ventricular irregular.
• deterioro hemodinámico como consecuencia de la pérdida de la función contráctil
auricular.
• riesgo de tromboembolismo por la estasis sanguínea en las aurículas.
• instauración de una miocardiopatía de origen arritmogénico.
• disminución en la calidad y las expectativas de vida.
La existencia de fibrilación auricular crónica se asocia a una mortalidad el doble de alta
tanto por causas cardiovasculares como por otras causas. Después de ajustar el riesgo
para otras patologías cardiovasculares existentes, la fibrilación auricular persiste como un
factor de riesgo independiente de muerte. Asimismo, supone un riesgo 5-7 veces mayor
de presentar algún accidente cerebrovascular, y un gran coste económico para el Sistema
Nacional de Salud: en Estados Unidos, la fibrilación auricular supone 1,4 millones de
consultas externas y 227.000 hospitalizaciones (50% por urgencias) cada año.
Por todo ello, la posibilidad de encontrar un tratamiento efectivo y de bajo riesgo que
consiga hacer desaparecer la fibrilación auricular y restaurar el ritmo sinusal tendría unas
importantes implicaciones clínicas y económicas.
Carlos Polanco comentó el artículo en
www.proyectonets.org:
Acerca de la última frase del artículo del
Dr. Aldamiz-Echevarría, me gustaría
consultarle acerca del plazo más
relevante para la evaluación de la
efectividad de la intervención. Le indico
un estudio que evalúa los resultados en
salud de la ablación de la fibrilación
auricular a corto y medio plazo:
http://www.revespcardiol.org/cardio/
ctl_servlet?_f=40&ident=13066454
Cirugía cardiaca y fibrilación auricular:
Aproximadamente el 50% (USA) de los pacientes con valvulopatía mitral está en fibrilación
auricular (en nuestro medio, cerca del 80%). Durante más de 40 años los cirujanos han
tenido que ignorar esta patología por no disponer de los medios para un tratamiento
eficaz.
En los años 80 y 90, Cox desarrolló la técnica quirúrgica que hoy en día es considerada de
elección para el tratamiento de la fibrilación auricular. SE trata del denominado “Maze
quirúrgico” (laberinto); sin embargo, se trata de una técnica compleja, larga, y no exenta
de riesgo, por lo que su uso se restringió a unos pocos centros de referencia en el mundo.
Con la introducción y desarrollo de una serie de fuentes de energía variadas (microondas,
radiofrecuencia, crioablación, láser....) y la mejora en el diseño de los catéteres para su
aplicación, la técnica del Maze hoy en día pueden realizarse de una manera mucho más
simple y rápida, por lo que su aplicación se ha ido extendiendo.
97
Hoy en día, la aplicación del tratamiento de la fibrilación auricular a pacientes intervenidos
por otras patologías cardiovasculares supone 10-20 mins extras de cirugía.
En 2005 ha sido publicado el primer estudio randomizado de tratamiento intraoperatorio
de la FA con ultrasonidos de alta intensidad (HIFU). Los resultados iníciales a un año de
seguimiento han sido muy prometedores, con una tasa de éxito del 88%.
Este sistema (Epicor) permite realizar el procedimiento desde epicardio a endocardio, con
el corazón latiendo, sin prolongar el tiempo de circulación extracorpórea ni el de isquemia,
y sin requerir la apertura de cavidades cardiacas, por lo que no añade morbi-mortalidad
al procedimiento.
En nuestra Unidad de Cirugía Cardiaca llevamos 3 años de experiencia y han sido sometidos
al procedimiento de ablación un total de 50 pacientes. La tasa de mantenimiento del ritmo
sinusal a 6 meses es del 65%, sin haber observado ninguna complicación relacionada con
el sistema Epicor.
Conclusión:
Los resultados pioneros de Cox y cols con la técnica del Maze, recientes avances tecnológicos
(fuentes de energía y catéteres para su aplicación) y la simplificación del procedimiento
restringiéndolo a las cavidades cardiacas izquierdas han despertado un gran interés en
el tratamiento quirúrgico de la fibrilación auricular.
Hoy en día creemos plenamente justificada la realización de ablación intraoperatoria de
la FA como procedimiento asociado a cualquier otra interevención cardiaca. La ablación
con el sistema Epicor es un procedimiento seguro y con una alta tasa de éxito en el
seguimiento a corto plazo.
Dr. Gonzalo Aldamiz-Echevarría Castillo. Capio Fundación Jiménez Diaz.
visitanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
98
"el desarrollo de los equipos de
radioescopia (...), ha aumentado la
seguridad de los tratamientos
endovasculares"
LA ANGIOGRAFÍA TERAPÉUTICA EN NEUROLOGÍA. Dr. LEOPOLDO
GUIMARAENS, Dra. TERESA SOLA y Dr. ELIO VIVAS.
Las dos últimas décadas han visto el desarrollo de las aplicaciones básicas de la
Neurorradiología Intervencionista. Durante la última década, hemos sido testigos del
importante desarrollo de los equipos de radioescopia, de la aparición de medios de
contraste no iónicos, de los materiales de embolización y de las técnicas angiográficas
digitales, todo ello unido a una mejor comprensión de la anatomía neurovascular. Todo
ésto ha hecho que la seguridad de los tratamientos endovasculares aumente de forma
importantísima, y dichos procedimientos sean aceptados por otras especialidades como
son la Neurocirugía, Neurología, Cirugía Plástica, Cirugía Vascular, Cirugía Maxilo-Facial,
Oftalmología y Otorrinolaringología entre otras, llegando a ser en la actualidad el
tratamiento de elección en la mayoría de las lesiones vasculares.
Indicaciones.
Las principales indicaciones de la AT son: la embolización, la angioplastia extra e intracraneal,
las desobstrucciones vasculares y también las perfusiones medicamentosas in situ,
esencialmente quimioterapia y quimioembolización de los tumores.
La embolización consiste en la oclusión realizada por vía arterial , venosa y/o percutánea
de lesiones vasculares, tumorales o traumáticas, siendo sus principales indicaciones la
embolización de hemostasia, de las malformaciones vasculares y de las lesiones tumorales.
La embolización de hemostasia tiene poco sitio en el terreno neurológico propiamente
dicho, sin embargo, puede ser realizada en lesiones hemorrágicas del cráneo, en las
epistaxis (síndrome de Rendu-Osler), en los traumatismos de la base del cráneo con
sangrados que pueden ser externos o dentro de cavidades naturales; igualmente, en
lesiones traumáticas de los vasos del cuello. En todas esas circunstancias la arteriografía
puede localizar la lesión que sangra y en estos casos nos permite su hemostasis simplemente
con utilización de espongostán o material más duradero. Es importante recordar que dicha
hemostasis por embolización puede ser realizada en enfermos afectos de hemopatías,
con problemas de coagulación (hemofilia, tromboastenia, trombopatía) y en la coagulación
intravascular diseminada. Lo que es fundamental es conservar la arteria permeable ya que
puede ser necesario realizar un tratamiento posterior. Esta técnica permite salvar la vida
en la gran mayoría de los pacientes.
Tratamiento de las malformaciones vasculares cérvico-cefálicas.
Presentan hoy un importantísimo territorio de la angiografía terapéutica.
1. Malformaciones vasculares extracraneales. Se tratan esencialmente en el terreno
neurológico de malformaciones vasculares de la cara y del cráneo. Existen diferentes
tipos como son: angiomas Inmaduros del recién nacido, malformaciones linfáticas,
angiomas capilaro-venosos y malformaciones arteriovenosas; la AT puede actuar en
los tres últimos tipos. Las malformaciones arteriovenosas necesitan una oclusión del
lecho arterial displásico tan completa como sea posible, seguida si es posible de una
exéresis quirúrgica . Las malformaciones capilaro-venosas son fácilmente accesibles al
tratamiento por embolización percutánea utilizando alcohol gelificado mezclado con
alcohol absoluto y lipiodol ultrafluido.
99
2. Fístulas arteriovenosas meníngeas. Son anomalías arteriovenosas relativamente
frecuentes . Se sitúan en la pared de la duramadre y están alimentadas por arterias
meníngeas. Deben diferenciarse de las de las angiomatosis córticomeníngeas o de la
angiomatosis cerebral con participación arterial meníngea.
3. Fístulas durales del seno cavernoso. Son más frecuentes en mujeres. Los síntomas
aparecen frecuentemente en mujeres post-menopáusicas, asociados al embarazo y a
los cambios hormonales. Las lesiones durales post-traumáticas de la región del seno
cavernoso son muy raras. También es frecuente observar fístulas durales del seno
cavernoso en relación con sinusitis del senoesfenoidal que podría producir una
tromboflebitis asociada al seno adyacente y provocar de esta forma la formación de la
fístula dural.
La sintomatología, aunque es preferentemente orbitaria, exoftalmos uni o bilateral,
hiperemia conjuntival, parálisis oculomotoras y eventualmente un soplo intraocular,
intracraneal o retromastoideo, va a depender única y exclusivamente del drenaje
venoso de la fístula.
Elena de Miguel comentó el artículo
en www.proyectonets.org:
Agradezco a los autores su detallada
descripción de las indicaciones de la
angiografía terapéutica en Neurología.
Estaría interesada en conocer hasta qué
punto se complementan AT y TAC en su
servicio, si se puede prescindir de una
de ellas, o si prefieren emplear el TAC en
la fase diagnóstica y la angiografía
como parte de la terapia.
4. Fístulas arteriovenosas meníngeas del seno lateral. Son las más frecuentes, se sitúan en
el segmento premastoideo y existen 5 tipos diferentes. Las del tipo I se drenan
directamente en socorriente en el seno lateral homolateral, siendo la embolización el
mejor tratamiento. Se revelan por acúfenos pulsátiles y son benignas. Las de tipo II se
drenan a contracorriente en otro seno o con reflujo en venas corticales. Se revelan por
cefaleas, por un síndrome de hipertensión intracraneal o por problemas neurológicos
deficitarios o críticos. Las del tipo III se drenan en venas corticales. Es un grupo
completamente particular, revelado generalmente por una epilepsia o por un hematoma
intracerebral debido a la ruptura de la vena cortical de drenaje. Pueden ser tratadas
por embolización, pero su descubrimiento, si es debido a un hematoma, necesita a
menudo una intervención quirúrgica. Las de tipo IV son fístulas arteriovenosas meníngeas
puras con ectasia pseudotumoral. Se trata de una entidad rara. La sintomatología puede
ser secundaria a la fístula o a la propia ectasia intracraneal. Su tratamiento, es
imprescindible, mediante embolización. En las fístulas arteriovenosas con gran ectasia,
la embolización debe realizarse en varias etapas con el fin de permitir de forma paulatina
la autorregulación cerebral evitando de esta forma los cambios bruscos de presión.
En el tratamiento de estas fístulas están absolutamente contraindicadas las ligaduras
quirúrgicas. Las de tipo V son fístulas intracraneales que se drenan en venas medulares.
Se revelan por mielopatía ascendente. El tratamiento de elección es la embolización.
Existen otras patologías que se pueden revelar por acúfenos pulsátiles: fístulas carótidocavernosas durales o postraumáticas con drenaje únicamente hacia los senos petrosos
superior y/o inferior; fístulas vértebra-vertebrales; paraganglioma timpánico y/o yugular;
estenosis o aneurismas de la carótida interna cervical; carótida interna intratim-pánica
(trayecto aberrante); hipertrofia del golfo de la yugular
5. Fístulas arteriovenosas vértebro-vertebrales (FV-V). Pueden ser postraumáticas o
congénitas. Las postraumáticas se localizan en la región cervical baja y con frecuencia
son yatrogénicas, debido a la punción involuntaria de la arteria vertebral (lo más
frecuente) durante la colocación de un catéter venoso-yugular; las congénitas se
localizan generalmente en el segmento cervical C1-C2.. Lo más frecuente es que se
manifiesten por acúfenos, insoportables. El tratamiento consiste en la oclusión de la
fístula mediante un balón de látex largable, conservando permeable la arteria vertebral.
6. Fístulas carótido-cavernosas postraumáticas (FCC). El tratamiento endovascular de las
FCC postraumáticas representa el gran éxito de la AT (Debrun,1976). Se revelan después
de un traumatismo por la aparición de un exoftalmos frecuentemente bilateral, pulsátil
con hiperemia conjuntival y a menudo por una parálisis oculomotora y a veces por
acúfenos pulsátiles (si existe un drenaje posterior). El tratamiento consiste en la oclusión
de la fístula mediante un balón de látex largable, conservando la carótida permeable.
7. Aneurismas intracraneales. La incidencia de los aneurismas intracraneales en la población
general ha sido publicada entre el 1,5% y el 8% (Jellinger, Bannerman).
100
En aproximadamente el 77% de los casos publicados, la causa de la hemorragia
subaracnoidea (HSA) es la ruptura de un aneurisma. El pico de edad en la ruptura del
aneurisma está entre la 5ª y 6ª décadas de la vida. Sólo el 2% de los aneurismas menores
de 5 mm tienden a sangrar, sin embargo el porcentaje aumenta al 40% en los aneurismas
entre 6 y 10 mm. Los aneurismas pueden ser múltiples en el 20% de los casos. En cuanto
a la edad y al sexo, existe un cierto predominio de mujeres (56%) sobre los hombres,
siendo extremadamente raros en los niños.
El tratamiento endovascular «cirugía endovascular», es actualmente el tratamiento de
elección, siendo realizado en nuestro Servicio en la fase aguda (en las horas siguientes
a la hemorragia), permitiendo reducir de forma considerable las complicaciones así
como los índices de morbi-mortalidad. Si se tiene en cuenta que más del 60% de los
aneurismas son mortales en el momento de la hemorragia, lo deseable es que se
puedan detectar antes del sangrado.
8. Malformaciones arteriovenosas cerebrales. Existen 3 tipos: las malformaciones
arteriovenosas parenquimatosas, las fístulas arteriovenosas piales y por último,
las tulas arteriovenosas durales. Las malformaciones arteriovenosas se manifiestan
por: Hemorragias que pueden ser cerebro-meníngeas, puramente meníngeas o
puramente intraventriculares. Su pronóstico es menos grave, en general, que las
hemorragias por ruptura de aneurimas, quizás debido a la ausencia de vasoespasmo
asociado y a su débil tendencia a recidivar rápidamente; Epilepsia: con crisis comiciaies
frecuentemente focales. Cefaleas si no están en relación con los episodios hemorrágicos,
no tienen ninguna particularidad. Déficits neurológicos focales cuya aparición con
frecuencia es lentamente progresiva; son intermitentes y evolucionan sin remisión.
Se trata frecuentemente de malformaciones situadas en zona funcional.
Otros: movimientos anormales, hipertensión intracraneal, insuficiencia cardiaca en el
recién nacido, soplo intracraneal, problemas psiquiátricos y problemas psicomotores
en el niño.
Estas MAVs cerebrales se tratan en un equipo multidisciplinario entre Neurorradiólogos,
neurocirujanos y radiocirujanos. El tratamiento puede ser: Embolización solamente;
embolización y cirugía; embolización y radiocirugía; Radiocirugía solamente; Radiocirugía
y embolización. Las diferentes modalidades de tratamiento van a depender de la
sintomatología, localización y tamaño de la lesión.
Tratamiento prequirúrgico de los tumores craneoencefálicos.
La AT juega hoy un papel esencial prequirúrgico, facilitando enormemente la hemostasis
y la exéresis de los tumores difícilmente accesibles Se trata esencialmente de tumores
hipervascularres de la base del cráneo, meningiomas, tumores glómicos (extensiones
intracraneales de tumores O.R.L.), fibromas nasofaríngeos en particular en los cuales
necesitaban grandes transfusiones de sangre y generalmente unas exéresis muy
incompletas. Hoy día también es posible realizar el tratamiento percutáneo de éstos dos
últimos tipos (Casasco) mediante inyección de glubran. permitiendo unas exéresis
quirúrgicas excelentes.
Puedes encontrar este artículo en el
blog de Capio Sanidad en
www.proyectonets.org, donde
también han sido publicados
TRATAMIENTO QUIRÚRGICO
INTRAOPERATORIO DE LA
FIBRILACIÓN AURICULAR de Gonzalo
Aldámiz, AVANCES EN NEUROCIRUGIA
de Pedro Ruiz, INTRODUCCIÓN EN LA
CLÍNICA DEL DIAGNÓSTICO PRENATAL
NO INVASIVO de Carmen Ramos,
Marta Rodríguez, Ana Bustamante,
Cristina González y María José Trujillo,
HACIA LA HISTORIA CLÍNICA ÚNICA
DEL PACIENTE de Jorge Rangil y
COLONOSCOPIA VIRTUAL. HISTORIA,
QUÉ ES, CÓMO SE HACE, PAPEL,
REFLEXIONES de Ángeles Franco.
Quimioterapia intraarterial de los tumores cerebrales.
En numerosos pacientes la quimioterapia intraarterial se asocia a radioterapia y a cirugía.
Angioplastia transluminal percutánea carotídea con protección cerebral (ATP).
Es la técnica de elección en nuestro Servicio desde abril de 1994 desarrollada por el
Dr.Jacques THERON con el que llevamos colaborando desde entonces. La técnica consiste
en la colocación de una endoprótesis (Wallstent) a caballo entre la carótida interna y la
primitiva realizando la oclusión temporal de la carótida interna con un balón de látex
colocado en la parte distal de la endoprótesis evitando el espasmo arterial y los posibles
accidentes embólicos.
101
Fibrinolisis intraarterial cerebral.
La trombolisis en los accidentes vasculares cerebrales agudos representa hoy día uno de
los grandes avances de la neuroangiografía terapéutica. Los accidentes vasculares cerebrales
son hemorrágicos en 1/5 de los casos. Es preciso realizar siempre una TAC craneal antes
de realizar cualquier tratamiento para eliminar la existencia de un sangrado. A continuación
realizamos una angiografía con parenquimografía cerebral y una angiografía superselectiva
del territorio isquémico. En los ACV isquémicos del territorio carotídeo son fundamentales
dos nociones: la hora de aparición del accidente y la localización exacta de la oclusión
arterial. Si la oclusión afecta a las arterias lenticulo-estriadas (arterias terminales profundas),
cuya pared es muy sensible a la isquemia, el tratamiento trombolítico realizado después
de la sexta hora del inicio de los síntomas se acompaña en el 40% de los casos de una
hemorragia cerebral por ruptura de las paredes de estas arterias revascularizadas. Aunque
actualmente sí podemos colocamos un stent evitando la inyección de fibrinolíticos.
Servicio de Neurorradiología del Hospital General de Catalunya.
Dr. Leopoldo Guimaraens Martínez.
Dra. Teresa Sola Martínez.
Dr. Elio Vivas.
síguenos en internet
www.proyectonets.org
102
"Los avances en proteómica nos
permitirán disponer de tratamientos
más selectivos y eficaces para las
enfermedades cutáneas"
PROTEÓMICA: EL FUTURO DE LOS TRATAMIENTOS EN DERMATOLOGÍA.
Dr. JAVIER PEDRAZ y Dr. EDUARDO LÓPEZ.
La proteómica se puede definir como la genómica funcional a nivel de las proteínas. Es
la ciencia que correlaciona las proteínas con sus genes, al estudiar el conjunto completo
de proteínas que se puede obtener de un genoma. Para entenderlo mejor, podemos decir
que con la información que hay en los genes se construyen proteínas. Estas proteínas son
las responsables de las funciones que realiza habitualmente el organismo y, en el caso de
que funcionen mal, también son las responsables de la aparición de enfermedades. Por
tanto, el estudio de los genes nos proporciona información acerca del origen de
determinadas enfermedades pero el estudio de las proteínas nos proporciona una
información aún más precisa de este origen. El estudio de las proteínas en lugar de los
genes presenta otras ventajas como es conocer cómo determinados fármacos modifican
la estructura y/o función de determinadas proteínas. Si conocemos estos cambios podremos
llegar a obtener fármacos más eficaces para tratar determinadas enfermedades o mejorar
la eficacia de los ya existentes.
La proteómica no es un estudio tan sencillo como pudiera parecer en un primer momento
ya que cada célula del organismo expresa varios miles de proteínas diferentes y las proteínas
expresadas son diferentes según el tipo de célula, por lo cual habría que centrarse sólo
en el estudio de las proteínas que estuvieran relacionadas con una determinada enfermedad
o con un determinado tratamiento para una enfermedad.
Dr. JAVIER PEDRAZ
Dr. EDUARDO LÓPEZ
El estudio de las proteínas es un campo complejo ya que las proteínas tienen muchas
formas, se mueven de distintas maneras, desarrollan distintas funciones y en algún punto
se produce una modificación, se mueve a otro lugar, desarrolla otra función, vuelve atrás
o termina su función y es destruida. Así, el mundo de las proteínas es un proceso muy
dinámico. Según Meter Roepstorff, experto mundial en proteómica: “mientras que el
genoma es algo estático y definido, el proteoma cambia todo el tiempo. Depende de tu
humor. Si ves a una chica guapa, inmediatamente tu proteoma cambiará, cambia todo el
tiempo dependiendo de tu situación. Las proteínas actúan en todas las funciones del
organismo, y cambian constantemente dependiendo de las necesidades, y eso es lo que
las convierte en algo fascinante”. Asimismo, las proteínas actúan dentro de una red
bioquímica mucho más amplia y compleja, que es el metabolismo de las células. El estudio
general de las redes metabólicas se conoce como metabolómica. Genoma, proteoma y
metaboloma forman un entramado, cuyo estudio supone un salto cualitativo determinante
en las ciencias biomédicas.
De forma general, para llevar a cabo este estudio de proteínas o proteómica hace falta la
realización de dos pasos fundamentales:
• Separación de las proteínas que queremos estudiar: la técnica más utilizada es el SDSPAGE o electroforesis en gel de poliacrilamida.
• Identificación de proteínas: el método más utilizado es la espectrometría de masas o
bien mediante identificación por huella peptídica o bien por análisis MS/MS.
Con estos dos pasos obtenemos las proteínas que nos interesan para poder estudiarlas.
La proteómica va a permitir la separación de las proteínas en dos dimensiones que van
a venir definidas por dos de las características más representativas de una proteína, como
es el peso molecular (tamaño) y punto isoeléctrico (pH en el cual la carga neta de la
103
Alejandro Fueyo Casado comentó el
artículo en www.proyectonets.org:
Mi enhorabuena al Dr. Pedraz y el Dr.
López-Bran por poner en marcha el
proyecto de proteómica en el Hospital
Clínico San Carlos, comenzando por dos
de las enfermedades más comunes de
la dermatología, la psoriasis y la
alopecia androgenética. La primera es
clave en lo que en el futuro será
considerado un espectro de
enfermedades autoinmunes y
autoinflamatorias, y como tal es un
magnífico punto de partida para una
investigación de este tipo. Esperamos
ansiosos los frutos de este estudio. Y la
segunda no es tan importante a nivel
de salud, pero sí que es una de las
enfermedades que generan un defecto
estético muy importante para los
pacientes, y en el que hay muchos
intereses económicos en juego, por
parte del sector farmacéutico; ello
debería redundar en una mayor
inversión en investigación. Quisiera
preguntar a los autores si conocen cómo
está la situación nacional en
proteómica, qué grupos están
investigando y sobre qué, y si la industria
farmacéutica está mostrando algún
interés en la ciencia proteómica. Un
afectuoso saludo al foro.
En el Servicio de Dermatología del
Hospital Clínico San Carlos se está
llevando a cabo un importante estudio
sobre la aplicación que puede tener
la proteómica en dos enfermedades
dermatológicas tan prevalentes como
son la psoriasis y la alopecia
androgenética y las alteraciones
proteómicas producidas tras la
administración de determinados
tratamientos. Este estudio podría llevar
en un futuro no muy lejano a un mejor
conocimiento de estas dos
enfermedades y a optimizar el uso de
los tratamientos disponibles para las
mismas, así como el posible desarrollo
posterior de nuevas dianas
terapéuticas.
proteína es cero). Basándonos en estas dos características únicas y exclusivas de cada
proteína vamos a poder definir un mapa de expresión proteico en el que cada proteína
va a poder ser identificada según una coordenada de peso molecular y punto isoeléctrico.
La bioinformática aplicada a la proteómica es el conjunto de técnicas para el procesamiento
e interpretación de los datos obtenidos previamente. Existe un gran número de proteínas
descubiertas de las que aún no se dispone de información acerca de su función.
El descubrimiento de estas funciones forma parte del futuro de la proteómica.
Proteómica clínica.
La proteómica clínica se ha definido como la parte de la proteómica que aplica las técnicas
y estrategias de la proteómica en el campo de la Medicina. Los aportes de la proteómica
en el futuro van a ser muy importantes. Entender cual es el funcionamiento de un organismo
normal sano nos puede llevar a desarrollar tratamientos para curarlo cuando esté enfermo.
Cuando hay una enfermedad, se producen cambios en el proteoma o conjunto de proteínas
que pueden servir para entender el mecanismo de producción de la enfermedad que hay
detrás. Al estudiar estos cambios producidos en el proteoma cuando hay una enfermedad,
también podemos estudiar los cambios producidos en el proteoma cuando aplicamos un
determinado tratamiento y así poder ver si el tratamiento está siendo efectivo. En los
últimos años se está poniendo mucho esfuerzo en el desarrollo de biomarcadores o
marcadores biológicos que indican si una enfermedad está activa o no. Para conocer estos
biomarcadores es necesario conocer la proteómica de la enfermedad. En un primer momento, estos biomarcadores podrán proporcionar información de si el tratamiento está
siendo efectivo y de si la enfermedad está activa o no. En la práctica, la proteómica no
será la que se utilice en la aplicación clínica, pero dirá que biomarcadores es necesario buscar.
Las técnicas proteómicas se pueden aplicar tanto para el análisis de tejidos sólidos como
fluidos para estudiar situaciones fisiológicas o patológicas (cáncer, inmunidad,
infecciones,…). Estos estudios con tejidos y/o fluidos se han empleado con el objetivo de
identificar biomarcadores, búsqueda de dianas terapéuticas o en estudios de
farmacoproteómica. La utilización de tejidos sólidos en estudios de proteómica presenta
el inconveniente de la mayor dificultad de acceso a las muestras. Esta afirmación no resulta
tan cierta si la aplicamos al campo de la Dermatología, ya que la obtención de muestras
tisulares resulta mucho más sencilla que en otros campos. La mayor parte de los estudios
proteómicos realizados hasta ahora se han centrado fundamentalmente en el estudio de
patologías como el cáncer o enfermedades autoinmunes, donde se han realizado los
primeros intentos de aplicar la proteómica con propósitos tanto diagnósticos como
pronósticos. Además, tanto la identificación de las proteínas como la identificación de la
naturaleza y posición de las modificaciones que han sufrido es fundamental para lograr
entender su posible implicación en el desarrollo de cualquier enfermedad. Además, en la
actualidad es prácticamente nulo el conocimiento sobre las modificaciones en el nivel de
expresión de las diferentes isoformas de una proteína.
Aunque hoy en día son muy pocos los datos proteómicos existentes sobre las patologías
de origen dermatológico, es muy probable que en pocos años el conocimiento en este
área aumente de forma considerable permitiendo una mejor comprensión de la enfermedad.
En este sentido, la proteómica tiene o tendrá el potencial de revolucionar el modo de
diagnosticar, determinar el riesgo y el pronóstico clínico así como las estrategias terapéuticas
a seguir entre individuos. Asimismo, define una base biológica racional para lograr unir
directamente la influencia de los factores medioambientales con el producto final de la
expresión génica: las proteínas. La proteómica ofrece la posibilidad de comprender en
toda su complejidad las enfermedades de origen dermatológico, brindando así la posibilidad
de encontrar nuevas vías de actuación para corregir un estado patológico. La proteómica
no sólo tiene aplicaciones en Medicina, si no también en otros campos como la
biotecnología, campo en el que la proteómica hará una importante aportación para el
desarrollo de nuevos compuestos, plásticos, nuevos fármacos o procesos más respetuosos
con el medio ambiente, que es lo que la sociedad actual demanda.
Dr. Javier Pedraz Muñoz. Dermatólogo. Hospital Clínico San Carlos.
Dr. Eduardo López Bran. Jefe de Servicio de Dermatología. Hospital Clínico San Carlos.
104
"(...) permitirá dirigir las biopsias
para un diagnóstico más eficaz (...),
y monitorizar la respuesta al
tratamiento."
IMAGEN DE ELASTICIDAD POR ULTRASONIDOS: ¿PALPACIÓN O BIOPSIA
VIRTUAL? Dr. JUAN ARRAZAOLA.
Desde siempre la medida de la elasticidad de los tejidos ha sido utilizada por la práctica
médica como indicador de la aparición de patologías en los diversos órganos. Es un hecho
bien conocido que las propiedades mecánicas de los tejidos patológicos difieren de las
de los tejidos que los rodean. La práctica médica de la palpación lo ilustra con claridad.
Hipócrates describió la dureza del cáncer de mama hace casi dos mil quinientos años y
la palpación ha sido uno de los principales métodos para la detección y caracterización
de numerosas enfermedades antes de la aparición de la imagen diagnóstica.
Dr. JUAN ARRAZOLA
La imagen de elasticidad o elastografia es una extensión del antiguo arte de la palpación
como técnica que directamente revela las propiedades físicas de los tejidos y nos permite
determinar los cambios de rigidez y dureza tisulares causados por la enfermedad.
Las principales modalidades diagnósticas para realizar imagen de elasticidad son la
resonancia magnética (RM) y los ultrasonidos (US), siendo ésta última la que más ha
atraído la atención.
La física de la elasticidad se basa en la mecánica y está relacionada con la distorsión que
un tejido sufre cuando es sometido a una fuerza o presión externa. La medida de la
deformación tisular por el análisis de los ecos de los ultrasonidos durante la aplicación de
una fuerza fue descrita hace 20 años y, desde entonces, se han venido desarrollando
diferentes técnicas con el objetivo de medir y representar con imágenes la elasticidad de
los tejidos corporales.
Existen varias formas de realizar elastografia por US, siendo las principales la que calcula
el módulo elástico a partir de la deformación tisular resultante de la realización de una
compresión y la que utiliza el Doppler color para generar una imagen del movimiento
tisular en respuesta a las vibraciones externas.
La elastografia por US puede realizarse con transductores lineales para uso percutáneo,
con sondas endocavitarias rígidas y con endoscopios flexibles. En el caso de las técnicas
percutáneas, las sondas pueden utilizarse para comprimir el tejido, mientras que en la
ecografía endoscópica las pulsaciones cardíacas y arteriales o el movimiento respiratorio
causan la deformación tisular a partir de la cual se genera la imagen.
La imagen de elasticidad es posible para casi todos los tejidos. En la mama la elastografia
aumenta la eficacia de la ecografía y la mamografía para la detección del cáncer. En el
tiroides, en la próstata y en el páncreas han sido diagnosticadas lesiones con éxito usando
la elastografia. También ha demostrado ser útil para valorar los ganglios linfáticos. El
estudio de la enfermedad hepática difusa incluyendo la cirrosis también es posible con
este método. Así mismo, ha demostrado un gran potencial en la imagen vascular incluyendo
el miocardio, la pared de los vasos, la placa y el trombo venoso. Trabajos recientes utilizando
la elastografia para valorar materiales porosos sugieren que puede ser útil para monitorizar
la severidad del linfedema y estudios de simulación de melanomas demuestran su potencial
para usarse con imágenes de dermoscopia.
Ahora bien, a pesar de sus múltiples potenciales aplicaciones, su uso más extendido es
para la detección de tumores malignos. Cuando un tumor infiltra o crece en un tejido,
105
cambia las características de rigidez o dureza de dicho tejido, volviéndolo más duro por
el aumento de densidad celular o vascular. La gran sensibilidad a los cambios de rigidez
permite a la imagen de elasticidad demostrar cambios que no son visibles en la imagen
de ultrasonidos convencional. La patología que tiene el mismo patrón de ecos que los
tejidos que la rodean (isoecoica) puede ser identificada por ser ligeramente más rígida
incluso aunque todavía no pueda ser percibida por la exploración manual. Así, la elastografía
puede diferenciar entre tejidos duros y blandos, visualizando los blandos en un tono claro
y los duros como un área oscura. Ahora bien, como a veces en la imagen con escala de
grises las lesiones duras son casi indistinguibles, de forma similar a la ecografía con dopplercolor la dureza relativa de los tejidos aparece representada por colores sobre impuestos
sobre la imagen modo-B convencional y así es más fácil distinguir los tejidos elásticos de
los rígidos. El sistema visualiza a continuación la forma y posición del tumor en color,
donde el color verde indica un bulto benigno y el color rojo un tumor maligno (Fig 1).
Figura 1.- Carcinoma medular de tiroides. Imagen de US convencional modo-B (A) e imágenes de elasticidad en
escala de grises (B) y en color (C). En el lóbulo tiroideo izquierdo se aprecia un nódulo sólido cuya ecogenicidad
similar al parénquima tiroideo dificulta su delimitación. Las imágenes de elasticidad muestran que el tumor
es más duro (oscuro-rojo) que el parénquima normal circundante.
Por otra parte, trabajos recientes han confirmado que el cáncer tiende a aparecer más
grande en la imagen de elasticidad que en la imagen de ultrasonidos convencional mientras
las lesiones benignas tienden a aparecer más pequeñas. La extensión de la imagen de
elasticidad de las lesiones malignas refleja con mayor seguridad el tamaño del tumor que
la imagen convencional ya que puede demostrar áreas de rigidez en el tejido adyacente
relacionadas con el tumor.
Así pues, esta tecnología tiene la capacidad de proporcionar información sobre las distintas
texturas tisulares de acuerdo a sus características ecográficas, produciendo marcados
contrastes en las densidades de los tejidos estudiados y representarlas con colores diversos
que pueden sugerir y orientar sobre la presencia de tejido neoplásico maligno en los
órganos estudiados. La elastografía puede ser de gran utilidad para seleccionar áreas del
órgano o tejido estudiado con mayor sospecha de malignidad y dirigir la biopsia, o
determinar los ganglios linfáticos a muestrear en caso de adenopatías múltiples en
pacientes con neoplasias sospechosas para malignidad (Fig 2), características éstas que
han llevado a algunos autores a denominarla como “histología o biopsia virtual”.
Figura 2.- Adenopatía axilar en una paciente con carcinoma de mama. Imagen de US convencional modo-B (A)
e imágenes de elasticidad en escala de grises (B) y en color (C). Adenopatía con características ecográficas
sospechosas en la imagen de US convencional cuya apariencia en las imágenes de elasticidad (oscuro-rojo)
sugieren contenido neoplásico maligno.
106
En conclusión, utilizando imagen de elasticidad se pueden distinguir las lesiones malignas
de las benignas o del tejido normal. La imagen de elasticidad nos permitirá dirigir las
biopsias para un diagnóstico más eficaz del cáncer así como excluir malignidad con una
posible reducción del número de biopsias. También permitirá determinar la extensión
tumoral y monitorizar la respuesta al tratamiento. La imagen de elasticidad usada junto
con la imagen modo-B convencional y la imagen Doppler-color, puede mejorar la seguridad
diagnóstica.
Dr. Juan Arrazola. Jefe del Servicio de Radiodiágnostico del Hospital Clínico San Carlos.
"alimentar a los niños prematuros
con leche materna o leche humana
donada es superior a hacerlo con
fórmulas derivadas de leche de vaca"
UN BANCO DE LECHE HUMANA: PRIMER AÑO DE EXPERIENCIA EN EL
BANCO DE LECHE HUMANA DEL HOSPITAL 12 DE OCTUBRE.
Mª CARMEN MEDINA.
¿Para Qué Un Banco de Leche?
A medida que ha ido mejorando la supervivencia de los niños que nacen muy
prematuramente, se ha incrementado la preocupación por las secuelas que puedan tener
en la infancia, en la adolescencia e incluso en la edad adulta. Actualmente se pretende
alcanzar el mejor desarrollo posible para ellos. Los cuidados para mejorar ese desarrollo
consisten en crear un ambiente similar al de la vida intrauterina, procurar tiempos de
sueño tranquilo, evitar el dolor, fomentar que su alimentación sea con leche materna, y
facilitar la participación activa de los padres. (1,2). La leche materna es el alimento natural
idóneo para criar a los seres humanos y el alimento óptimo para el niño prematuro. La
OMS establece que “La leche humana es el alimento de elección durante los primeros 6
meses de vida para todos los niños, incluidos los gemelos, los prematuros y los niños
enfermos, salvo rarísimas excepciones.” (3). Está cientificamente probado que alimentar
a los niños prematuros con leche materna o leche humana donada es superior a hacerlo
con fórmulas derivadas de la leche de vaca, en cuanto a que mejora la tolerancia digestiva,
disminuye la frecuencia de enfermedades como la enterocolitis necrotizante, mejora el
desarrollo psicomotor en la primera infancia y disminuye los factores de riesgo
cardiovascular. (4,5,6,7) Su uso en pequeñas cantidades como trófico intestinal desde las
primeras horas de la vida se asocia también con un menor tiempo de utilización de
catéteres centrales, menor frecuencia de infección nosocomial y mayor supervivencia.8
Por todo ello, se debe hacer el esfuerzo necesario para que las madres de los neonatos
enfermos o prematuros consigan lactarlos a pesar de la dificultad que supone para ellas
tener a sus hijos hospitalizados.
Mª CARMEN MEDINA
Dada la extrema inmadurez de los niños muy prematuros y la situación anímica de los
padres, resulta especialmente difícil que reciban lactancia materna. Es fácil entender que
se retrase la disponibilidad de leche materna. Retrasar la alimentación enteral hasta
disponer de leche materna supone, en la práctica clínica, mantener mas tiempo los catéteres
centrales para nutrición parenteral, lo que aumenta el riesgo de infección nosocomial.
107
La OMS y UNICEF recomiendan que “Cuando no se disponga de leche de la propia madre,
la siguiente opción para la alimentación del niño es la leche pasteurizada de madres
donantes seleccionadas, sobre todo si se trata de niños enfermos o prematuros.” (3)
¿Qué es un Banco de Leche Humana?
Un Banco de Leche Humana (BLH) es un sistema para disponer de leche humana en
cualquier momento y poder iniciar así la alimentación trófica a todos los niños enfermos
o prematuros, a la espera de que sus madres les puedan dar su propia leche. (9). Un BLH
es un centro especializado donde la leche humana donada por madres seleccionadas, se
recibe, se procesa, se almacena y se distribuye a otros niños que no pueden recibirla de
su propia madre. La donación es altruista y la dispensación se hace bajo criterio médico. (10)
Un Poco de Historia.
El antecedente histórico de los BLH fueron las amas de cría que alimentaban
simultáneamente a sus hijos y a los de otras mujeres. Los bancos de leche nacieron en
Viena en 1909 y se desarrollaron a lo largo del siglo XX. Algunos hechos favorecieron su
desarrollo, como la sociedad industrializada con la incorporación de la mujer al mundo
laboral, el desarrollo de las técnicas de conservación en frío, o la necesidad social de
mejorar la supervivencia de los niños mas delicados tras las guerras mundiales que
diezmaron la población. En cambio, otros hechos entorpecieron su crecimiento, como la
industrialización de las fórmulas lácteas derivadas de la leche de vaca que desplazaron a
la lactancia materna, o la aparición del virus de la inmunodeficiencia humana que
infundieron el temor de su transmisión como estaba sucediendo con los bancos de sangre.
Coincidiendo con el inicio del siglo XXI, los BLH tienen un nuevo apogeo en paralelo al
reciente impulso de la lactancia materna.
Bancos de Leche Humana en el Mundo.
Mª José Jiménez comentó el artículo
en www.proyectonets.org:
Es un artículo muy interesante, por el
enorme trabajo que conlleva instaurar
un proceso tan complicado y,
especialmente por los resultados tan
llamativos, sobre todo en la disminución
de la estancia media, lo que sugiere que
es un esfuerzo que mejora la eficiencia
del servicio.
Parece evidente que las madres que son
posibles donantes no tienen problemas
para donar su leche para otors niños
con problemas, pero me surge la duda
de cómo es la aceptación de las madres
de los niños receptores, aunque al ser
por prescripción médica, supongo que
no plantean nigún problema.
Existen BLH en todo el mundo: Europa, Estados Unidos, Centroamérica Suramérica y
Australia. En los países escandinavos hay numerosos BLH mayoritariamente vinculados a
las unidades neonatales y prácticamente todos los niños prematuros o enfermos reciben
leche de su madre o leche humana donada. En Gran Bretaña y Estados Unidos se han
creado redes de BLH para unificar criterios y potenciar la creación de nuevos bancos.
Mención aparte merece la Red Brasileña de Bancos de Leche, la mas importante y prestigiosa,
constituida por 256 centros, con criterios comunes y estándares de calidad bien establecidos.
(9, 10, 11, 12, 13) A partir de la red brasileña se ha constituido la red iberoamericana que
incluye bancos de Argentina, Brasil, Paraguay, Venezuela, Bolivia, y Uruguay y a la que se
ha adherido el BLH del Hospital 12 de Octubre de Madrid. En España existe desde 2001
el BLH de las Islas Baleares que depende del Banco de Sangre y Tejidos de las Islas Baleares.
Durante la I Reunión Nacional de Bancos de Leche que tuvo lugar en Palma de Mallorca
en 2008 se constituyó la Asociación Española de Bancos de Leche Humana (A.E.B.L.H.).
Entre sus objetivos destacan fomentar la lactancia materna, crear unas guías españolas
y apoyar la creación de nuevos bancos de leche humana.
¿Cómo Funciona?
Un BLH trabaja para preservar al máximo la calidad y seguridad de la leche que ofrece a
niños enfermos o prematuros y se basa en tres pilares fundamentales:
a) las mujeres donantes,
b) el procesamiento de la leche.
c) los receptores.
Las donantes son mujeres sanas, de vida saludable, que lactan satisfactoriamente a su hijo
y que deciden además donar leche para beneficio de niños enfermos o prematuros. La
selección de donantes se realiza por entrevista personal y negatividad de una serología
actual de sífilis, VIH, Hepatitis B y C. La donación se puede iniciar en cualquier momento
de la lactancia, pero se recomienda esperar entre 3 y 8 semanas desde el parto para que
108
la lactancia de su propio hijo esté correctamente establecida. Es variable entre bancos
pero, en nuestra opinión, no hay límite superior en los meses que una mujer puede estar
donando. El procesamiento de la leche se inicia con la extracción, conservación y transporte.
Para mantener al máximo la calidad de la leche humana extraída, se ha de cuidar la higiene
en la extracción, la idoneidad de los recipientes y el manteniendo de la cadena de frío. En
todas las fases del procesamiento se evita escrupulosamente la contaminación microbiana
y las oscilaciones en la temperatura de conservación. La presencia de microorganismos
en la leche facilita la degradación de sus componentes básicos y conlleva la pérdida de
calidad. El BLH facilita a la donante los recipientes estériles y etiquetas identificativas para
rotular cada bote. Algunos bancos realizan recogida domiciliaria de la leche. Cuando la
leche donada se recibe en el banco, se registra y se almacena a –20ºC hasta su pasteurización.
La leche que se va a pasteurizar se descongela en forma controlada y se selecciona por
sus características organolépticas (color, aroma, cuerpos extraños) desechando aquellas
muestras que no cumplan los criterios establecidos. (Figura 1) Además, se suele hacer otra
selección previa para descartar leche muy contaminada, bien por cultivo microbiológico
o por determinación de acidez titulable que establece el nivel de calidad de la leche,
siendo rechazada la que tiene una acidez =8º Dornic. Ambos métodos de selección se
correlacionan estrechamente.(10,14) Se realiza tambien un crematocrito para conocer el
Figura 1: Técnico del Banco de Leche durante la selección previa a la pasteurización de la leche donada.
Figura 2: Botes de leche donada durante la pasteurización. El control de temperatura se realiza en un bote testigo.
contenido calórico de esa muestra concreta. La pasteurización se realiza por el método
Holter que persigue la inactivación del 100% de los microorganismos patógenos. Este
método consiste en someter la leche a 62,5ºC durante 30 minutos, seguido de enfriamiento
rápido a 5ºC. (Figura 2) Tras la pasteurización se toma una muestra de la leche para cultivo
microbiológico y se vuelve a congelar a -20ºC hasta su dispensación. El resultado del
cultivo postpasteurización debe ser estéril para dispensar la leche; en caso contrario, se
desecha. El tiempo máximo de almacenamiento postpasteurización suele establecerse
en 3 meses. Los receptores son neonatos con riesgo de enterocolitis necrotizante, como
los prematuros, los que tienen enfermedad quirúrgica abdominal o aquellos con
cardiopatías congénitas y bajo gasto. La leche humana donada y pasteurizada se administra
bajo prescripción médica. Al estar la leche clasificada en función de la acidez y el
crematocrito se elige la mas idónea para cada receptor en función de sus necesidades,
por ejemplo: máxima calidad y pocas calorías para alimentación trófica, o leche hipercalórica
para el proceso de engorde. (Figura 3)
Trazabilidad, Registros y Base de Datos.
Como parte fundamental de la seguridad en todos los procedimientos hay que garantizar
la trazabilidad de la leche desde la donación hasta su recepción, por lo que se requiere
un cuidadoso registro de las mujeres donantes, de las muestras de leche donada, de los
109
Figura 3: Niño prematuro de 24 semanas de gestación. Candidato prioritario para beneficiarse del Banco de Leche.
procedimientos de selección y pasteurización, del almacenamiento, de la dispensación y
de los receptores finales del producto, todo ello integrado y relacionado en una base de
datos creada con este fin que facilita el trabajo del banco.
Experiencia del 1º Año de Funcionamiento en el Hospital 12 de Octubre de Madrid.
En diciembre de 2007 se puso en marcha el BLH del Servicio de Neonatología del Hospital
12 de Octubre de Madrid. La experiencia del primer año de funcionamiento ha sido muy
positiva. Se han aceptado 83 mujeres donantes de entre 95 solicitantes; las causas de
rechazo han sido serologías positivas, haber recibido transfusiones o vacunas de virus
vivos en los meses previos a la donación, o hábitos de vida poco saludables. Algunas
donantes son mujeres con hijos ingresados en Neonatología que disponen de mucha
leche congelada y deciden donarla al banco cuando sus hijos reciben el alta; así se recibe
calostro y leche prematura, idóneas para los receptores prematuros. En el primer año se
han recibido 495 litros, se han llevado a cabo 215 procesos de pasteurización, y se han
dispensado 328 litros a 200 niños ingresados; 65% de los receptores eran menores de
1500 g o menores de 32 semanas de gestación. Un estudio piloto en niños muy prematuros
realizado en nuestro Servicio de Neonatología demostró que al disponer de leche humana
donada la alimentación enteral se inicia 14 horas antes (p<0,001), la alimentación enteral
completa se alcanza 36 horas antes y la estancia media disminuye en 6 días. También se
observó que el hecho de disponer de leche humana donada no modificaba la tasa de
lactancia materna al alta del niño, que se mantuvo en torno al 60%. (15)
Conclusión.
Por razones de extensión, la
bibliografía de este artículo no ha sido
publicada aquí, puedes encontrarla
en www.proyectonets.org o solicitarla
por correo electrónico en
[email protected].
Los beneficios de la leche humana donada y pasteurizada para la salud de los neonatos
enfermos está ampliamente demostrada. Ahora bien, muchos de los procedimientos que
se utilizan en los BLH se basan en opiniones de expertos, por lo que hay gran variabilidad
entre unas prácticas y otras, o entre unas guías y otras. Son necesarios más estudios de
investigación para determinar los procedimientos que mejor protejan la calidad de la
leche humana.
Mª Carmen Medina López. Neonatólogo. Jefe de Sección de Neonatología del Hospital
12 de Octubre. Responsable del proyecto y puesta en marcha del Banco de Leche Humana.
110
ADELÁNTATE AL FUTUR
net
"Cabe preguntarse si el impacto
de la secuenciación masiva
alcanzará (...) el diagnóstico
microbiológico."
SECUENCIACIÓN MASIVA EN MICROBIOLOGÍA CLÍNICA, O LA CIENCIA
DE ENCONTRAR UNA AGUJA EN UN PAJAR. Dr. JESÚS MINGORANCE.
Dr. JESÚS MINGORANCE
Mª José Jiménez comentó el artículo
en www.proyectonets.org:
Supongo que por su complejidad y coste
todavia nos puede parecer a los médicos
y a los gestores una técnica de "cienciaficción" para el diagnóstico clínico, pero
los dos ejemplos comentados en el
artículo (el del nuevo arenavirus en los
tres receptores de un mismo donante, y
el del poliomavirus relacionado con el
carcinoma de células de Merkel) son
muy ilustrativos de lo intersantísimo de
esta técnica, y del valor que puede
aportar para la resolución diagnóstica
de problemas que todavía se nos
escapan en la práctica diaria,
especialmente en este mundo
globalizado que cada cierto tiempo
"tiembla" ante la aparición de nuevos
virus que pueden a matar a miles de
personas, en cualquier parte y en poco
tiempo.
¿Cómo encontrar un microorganismo escondido entre miles de células humanas cuando
no puede cultivarse? ¿Cómo encontrar una pequeña secuencia de ADN entre miles de
megabases de ADN humano si no se conoce la secuencia buscada? No se trata, en absoluto,
de una situación tan rebuscada como pudiera parecer a primera vista, y dista mucho de
ser trivial. Sin embargo, parece que la solución está en camino... La última revolución en
Biología Molecular se llama Secuenciación Masiva, y parece que podría ser la herramienta
definitiva para encontrar agujas perdidas en pajares microbiológicos.
Lo que aquí llamamos Secuenciación Masiva incluye varias tecnologías diferentes capaces
de realizar de una sola vez cientos de miles de reacciones de secuenciación de ADN, y de
leer, por lo tanto, cientos de megabases ó gigabases de secuencia (una megabase es un
millón de pares de bases de secuencia, y una gigabase son mil millones). Existen, en este
momento, cuatro plataformas comerciales de secuenciación masiva, todas ellas diferentes,
pero todas ellas combinando exquisitos diseños bioquímicos, procesos de emulsificación
y microfluídicos y detectores de luz ultrasensibles. Todo ello sustentado en sistemas
informáticos con capacidad para almacenar y manejar enormes masas de datos, y programas
diseñados específicamente para leer y filtrar miles de secuencias, ensamblarlas, anotarlas
ó compararlas con bases de datos externas.
La Secuenciación Masiva supone un salto cuantitativo y cualitativo en cuanto a la capacidad
para buscar y analizar información genética, y en algunas áreas es un hito que marca un
antes y un después. El análisis metagenómico de comunidades microbianas, por ejemplo,
se ha transformado completamente, y ha pasado de apenas arañar algunos datos acerca
de alguna comunidad microbiana, a poder caracterizar en detalle y cuantitativamente su
composición, e incluso a describir flujos metabólicos y ensamblar los genomas más
representados utilizando ADN aislado directamente de las muestras. Sin cultivar un solo
microorganismo. Esto, que aún pone los pelos de punta a muchos microbiólogos, significa,
según los defensores de la metodología, que los resultados no están afectados por los
sesgos introducidos por los métodos de cultivo.
En el área de la microbiología clínica son relevantes la amplia, y creciente, colección de
genomas de microorganismos patógenos y la posibilidad de caracterizar floras bacterianas
completas y sus variaciones en relación con algunas patologías. Cabe preguntarse si el
impacto de la secuenciación masiva alcanzará, además, el área más directamente
relacionada con la clínica: el diagnóstico microbiológico. En principio existen todavía
limitaciones importantes, como el precio y la complejidad de las técnicas. Pero no son
dificultades insalvables, y seguramente ambas disminuirán conforme el uso de las
tecnologías se vaya extendiendo. La posibilidad de secuenciar todo el material genético
contenido en una muestra clínica es lo más parecido a una varita mágica capaz de separar
una por una todas las briznas de paja del proverbial pajar, clasificarlas según sus
propiedades, y encontrar la dichosa aguja perdida… Se trata de una herramienta capaz
de detectar e identificar el material genético de un microorganismo patógeno en cualquier
muestra, independientemente de su complejidad.
Uno de los primeros y más extraordinarios casos de aplicación de la secuenciación masiva
en microbiología clínica, ha sido la identificación de un nuevo arenavirus en muestras
obtenidas de tres receptores de órganos de un mismo donante que fallecieron varias
112
semanas después de recibir el transplante, las tres con fiebre y diversos grados de
encefalopatía que sugerían una enfermedad infecciosa (Palacios et al.). Para determinar
la causa de los fallecimientos se realizaron cultivos bacterianos y virales, y se investigó la
presencia de más de una veintena de virus, micobacterias, micoplasmas y toxoplasma
mediante PCR, sin obtener resultados positivos en ningún caso. Se analizaron las muestras
mediante microarrays que contenían diversas sondas virales y bacterianas, sin obtener,
tampoco, un resultado positivo. Los investigadores mezclaron entonces ARN purificado
de muestras de dos de los pacientes, lo retrotranscribieron a ADN y lo secuenciaron.
Obtuvieron algo más de 100.000 secuencias con un tamaño medio de 162 pares de bases.
Esta es una característica típica de las tecnologías de secuenciación masiva, producen
muchas secuencias, pero muy cortas, lo que supone una dificultad importante a la hora
de analizarlas. Después de un proceso de filtrado para eliminar secuencias repetitivas y
secuencias de ADN conservadas en vertebrados (y por lo tanto de indudable origen
humano), se realizaron búsquedas en bases de datos públicas que culminaron con la
identificación de 14 fragmentos similares a varias secuencias de arenavirus. Se analizaron,
de nuevo, las muestras originales mediante inmunohistoquímica y PCR, dirigidas ahora
a arenavirus, y se confirmó por ambos métodos la presencia de un miembro de este grupo.
Utilizando material extraído de las muestras se consiguió infectar una línea celular humana
y propagar en cultivo un virus con características morfológicas similares a las de los
arenavirus. Pese a estos sugestivos resultados, los autores reconocen que el trabajo no
satisface los postulados de Koch. Sin embargo, tanto el contexto clínico como las pruebas
moleculares concuerdan en implicar a un nuevo arenavirus en el fallecimiento de los tres
receptores del transplante.
Un abordaje similar se utilizó para identificar un poliomavirus asociado a carcinoma de
células de Merkel, un tipo de cáncer que se produce sobre todo en individuos
inmunodeprimidos, sugiriendo una patología infecciosa (Feng et al.). En este caso los
investigadores rebuscaron entre casi 400.000 secuencias, para encontrar finalmente dos
con cierta similitud a algunos poliomavirus. Una vez identificadas estas secuencias se
utilizaron como sondas que indicaron la presencia de secuencias similares en ocho de
diez muestras de carcinoma de células de Merkel, y en ninguno de los 59 controles (aunque
cinco muestras de origen gastrointestinal dieron una débil señal positiva). Tampoco aquí
se cumplieron los postulados de Koch, pero igual que en el caso anterior las pruebas
moleculares y los resultados de los controles negativos sugieren que el carcinoma de
células de Merkel es una enfermedad infecciosa producida por un poliomavirus.
Estos trabajos son pioneros, y los resultados son fascinantes, pero conviene recordar que
no existen aún criterios para interpretar correctamente los resultados obtenidos en este
tipo de análisis. Como contrapunto, cabe citar un trabajo cuyo objetivo era caracterizar
el ADN libre circulante en plasma de voluntarios sanos. Tanto la cantidad, como la identidad
y el estado de metilación del ADN libre circulante han sido utilizados como indicadores
en diversas enfermedades, pero su valor diagnóstico es aún controvertido. A partir de
muestras obtenidas de 50 voluntarios se generaron 450.000 secuencias (más de 75 millones
de pares de bases en total). De ellas, el 87% tenían correspondencia en las bases de datos,
y entre éstas el 0.16%, 0.02% y 0.01% eran de origen bacteriano, viral y fúngico
respectivamente (Beck et al.). Estos porcentajes no son despreciables, y subrayan la
necesidad de calibrar la técnica, secuenciar diversos tipos de muestras y cuantificar la
presencia de material de origen exógeno, para valorar su significación en cada contexto.
Esto es algo que llevará su tiempo, porque dadas las dificultades de índole tanto económica
como práctica, parece poco probable que se destinen recursos a estudios de validación
metodológica. Mientras tanto, hay que valorar los resultados con tanta prudencia como
entusiasmo.
La Secuenciación Masiva también puede realizarse de manera dirigida a un gen ó grupo
de genes. Por ejemplo, se ha utilizado para caracterizar la población bacteriana de una
muestra de pus extraído de un absceso cerebral polimicrobiano secuenciando únicamente
un gen bacteriano, y no todo el ADN contenido en la muestra (Al Masalma et al.). Mediante
cultivo se aislaron de esta muestra dos especies bacterianas, Streptococcus constellatus
y Gemella haemolysans. Los investigadores se dirigieron entonces al gen del ARN ribosomal
16S, que está presente en todas las bacterias, tiene zonas muy conservadas y zonas
113
variables que permiten identificar a la mayoría de especies bacterianas. La secuenciación
directa del gen del ARN ribosomal 16S amplificado mediante PCR indicaba la existencia
de una población mixta, y resultaba ilegible (la superposición de secuencias impide la
lectura). Mediante secuenciación masiva se obtuvieron 2612 secuencias que permitieron
identificar 16 especies bacterianas diferentes, incluyendo varias nunca cultivadas, y varias
nunca antes descritas en abscesos cerebrales. Este trabajo aporta una nueva visión de la
complejidad de los abscesos, pero la secuenciación masiva se realizó sobre una única
muestra, probablemente por las cuestiones económicas y prácticas ya mencionadas, y se
necesitarán series que incluyan mayores números de muestras para valorar la significación
clínica de esta complejidad.
La última revolución en secuenciación ya está en marcha, los resultados obtenidos hasta
ahora corroboran, una vez más, el valor de la información genética, y aunque parezca
sorprendente, más de 30 años después de los trabajos de Sanger, y de Maxam y Gilbert,
aún queda mucho por secuenciar.
Referencias:
1. Al Masalma M, Armougom F, Scheld
WM, Dufour H, Roche PH, Drancourt M,
Raoult D. The expansion of the
microbiological spectrum of brain
abscesses with use of multiple 16S
ribosomal DNA sequencing. Clin. Infect.
Dis. 2009 May 1;48(9):1169-78.
2. Beck J, Urnovitz HB, Riggert J, Clerici
M, Schütz E. Profile of the circulating
DNA in apparently healthy individuals.
Clin. Chem. 2009 Apr;55(4):730-8.
3. Feng H, Shuda M, Chang Y, Moore PS.
Clonal integration of a polyomavirus in
human Merkel cell carcinoma. Science.
2008 Feb 22;319(5866):1096-100.
4. Palacios G, Druce J, Du L, Tran T, Birch
C, Briese T, Conlan S, Quan PL, Hui J,
Marshall J, Simons JF, Egholm M,
Paddock CD, Shieh WJ, Goldsmith CS,
Zaki SR, Catton M, Lipkin WI. A new
arenavirus in a cluster of fatal
transplant-associated diseases. N. Engl.
J. Med. 2008 Mar 6;358(10):991-8.
Dr. Jesús Mingorance. Unidad de Investigación y Servicio de Microbiología Hospital
Universitario La Paz de Madrid.
Se busca nombre para nueva tecnología.
La traducción al castellano de los términos técnicos ingleses puede llegar a ser una tarea
ardua. La tecnología que se comenta en el texto tiene en inglés varios nombres, no todos
ellos equivalentes. Los términos “massive sequencing” y “massively parallel sequencing”
hacen referencia a la realización y detección de millares de reacciones de secuenciación
diferentes en un único recipiente. Probablemente son los más precisos, y el más breve es
el que se ha adoptado en este comentario, aunque su uso puede ser discutible. La expresión
“secuenciación de alto rendimiento” refleja también el carácter masivo de las técnicas,
pero puede dar lugar a confusión con otras técnicas de “alto rendimiento” (“high
throughput”). El término “ultra-deep sequencing”, hace referencia a la posibilidad de
“escarbar” ó “profundizar” en la muestra en busca de secuencias poco frecuentes, es el
que mejor refleja la idea de buscar una aguja en un pajar. En algunos foros se ha traducido
como “ultrasecuenciación”, que tiene un cierto aire de cómic y superpoderes, aunque es
mucho mejor que “secuenciación ultra-profunda”... Finalmente, el término “next-generation
sequencing”, traducido como “secuenciación de última generación” alude a la novedad
sin hacer referencia a ninguna otra característica, por lo que resulta más comercial que
preciso.
visítanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
114
"the social web has the potential
to improve global health greatly
and to solve complex problems in
health science"
GET WITH WEB 2.0 OR BECOME A YESTERDAY’S PERSON.
RICHARD SMITH.
Web 2.0—the social web—has the potential to improve global health greatly and to solve
complex problems in health science—as it has already done in particle physics. I heard
this message at a conference on global health in Geneva this week, but I also heard that
the barriers to these potential achievements are social and cultural not technological. The
machines we can fix. It’s the people—particularly old timers (that’s anybody over 40, I’m
56)—that are the problem.
RICHARD SMITH
I suspect that most readers of the BMJ couldn’t tell you much about Web 2.0—despite the
journal having had several editorials on the subject. The essence of Web 2.0 is that it’s
bottom up and participative: it’s created by the many not the few. Most websites are firmly
Web 1.0—the few wise guys attempting to inform the many. Bmj.com has its Web 2.0
components (blogs and rapid responses), but mostly it’s a few potentates pushing stuff
that they try and pass off as wisdom.
Web 2.0 can also be understood by listing its components—RSS feeds, blogs, wikis,
podcasts, social networking sites, mash up technology, etc—but the only way to really
understand Web 2.0, as to understand anything, is to jump in and start using it. As an
evangelist for Web 2.0 attracted to it by its anarchic, democratizing, iconoclastic potential,
I urge friends to start using Facebook. Most are reluctant. “My identity will be stolen.” “I
don’t want to waste time.” “My children will be horrified.” “I don’t want my life to be exposed:
it’ll be like being on Big Brother.”
My friends can chose to stay living in the old world, but I think that they are making a big
mistake—because the appearance of Web 2.0 seems to me a crucial step in entering the
information age, more crucial even than the invention of the world wide web. The invention
of the web was an essential technical development, but it’s the social and cultural change
that will have far more impact. Ten years ago we used to compare the early days of the
web with the early days of film—when directors used one camera fixed on actors on a
stage. It was theatre filmed. Later came outside locations, cutaways, rapid scene switches,
stuntmen, car chases, animation, and all the techniques we take for granted. We couldn’t
see ten years ago how the web would move by analogy from filmed theatre to films, but
now we are beginning to see. We also begin to see how Web 2.0 can help solve the really
big problems—like the gross inequalities in the world between rich and poor.
At the conference in Geneva we heard about the Peoples’ University, which aims to provide
free education for health workers in the poor world. Many cannot afford the fees of the
distance learning courses of Western universities, and so a group from Edinburgh has
started free learning based on using open access material. The amount of such material
is increasing rapidly, but its educational value is increased by adding teaching and
assessment based on the material. That’s what the Peoples University is doing. The university
is still a bit Web 1.0, confessed x. It’ll be more Web 2.0 when the students set the curriculum
and do the assessment. That will come.
Particle physicists have been among the first to grasp the potential of Web 2.0 to solve
previously insoluble scientific problems by linking computers around the world in the
Atlas project. E-science is not about technology but about global interaction: it’s a social
not a technological development. Biologists are using Web 2.0 capabilities to unravel the
115
human genome, but we’ve been slower in health to exploit the possibilities.
And our tardiness is social. The Global Fund for responding to AIDS, TB, and malaria has
tried to use Web 2.0 through Myglobalfundatwork, but the response has been slow. The
reasons, said the manager of the project, are generational, educational, cultural, linguistic,
and psychological. Many health workers come from very respectful cultures where the
young do not criticize the old. For many people it’s a huge and terrifying step to press a
button and potentially allow the whole world to read your words.
Doctors, I fear, are too fond of a top down world—because they are usually at the top. But
that top down world is crumbling. Think of Ceaucescu’s statue being hauled down and
smashed. That’s the old world of Web 1.0. Get with Web 2.0 in a serious way or become a
yesterday’s person.
Richard Smith, Former Editor BMJ.
"se requiere implantar la
investigación de resultados en
salud en los contextos clínicos"
¿PODEMOS CON TODO, PARA TODOS Y GRATIS?: A PROPÓSITO DE
LAS TECNOLOGÍAS “ÓMICAS” Dr. JUAN DEL LLANO y JOAN ROVIRA.
Dr. JUAN DEL LLANO
Las tensiones entre las expectativas de mejoras en la salud que generan los avances de
las tecnologías sanitarias y el coste que generan a los sistemas de salud no son un problema
reciente, sino que están situados de forma permanente en los debates sobre la política
sanitaria desde los años setenta del siglo pasado, coincidiendo con un conjunto de factores
que incluye un determinado nivel de madurez de los sistemas de salud públicos, el
envejecimiento de la población, y la crisis económica y fiscal asociada al alza de los precios
del petróleo y a la desregulación de los mercados financieros.
Las posturas sobre los conflictos entre innovación tecnológica y sostenibilidad de los
sistemas de salud van desde las predicciones apocalípticas respecto al inevitable colapso
financiero que generará el imparable incremento del coste sanitario asociado a la innovación
tecnológica y al envejecimiento de la población, a planteamientos pragmáticos que buscan
en el desarrollo y aplicación de herramientas de análisis y gestión y en la negociación y
la búsqueda de consensos entre objetivos conflictivos, la forma más racional posible de
abordar la situación.
JOAN ROVIRA
116
La innovación tecnológica es uno de los factores potenciales más importantes de mejora
de la salud de la población, aunque su desarrollo no está exento de riesgos y fracasos y
sus beneficios no parezcan justificar a menudo los costes adicionales que suponen. El
aumento de la renta y el crecimiento de los sistemas de salud públicos con vocación de
universalidad, que eliminan o reducen las barreras de acceso y permiten a la mayoría de
la población acceder a cualquier tratamiento por costoso que sea, independientemente
de su capacidad económica, son dos de los factores que explican esta tendencia, pues
liberan la incorporación de las nuevas tecnologías de la restricción que supone la renta
y la disponibilidad a pagar de los usuarios. Ante esta ausencia de restricción presupuestaria
por parte de la demanda, los sistemas de salud pueden optar por:
a) establecer prioridades y mecanismos de racionamiento transparentes que reflejen los
objetivos de la política de salud, o
b) dejar que actúen mecanismos de racionamientos espontáneos e implícitos, tales como
las listas de espera.
La segunda opción puede tener menos costes políticos que la primera, pero es sin duda
mucho más negativa en términos de equidad y eficiencia.
La evaluación de tecnologías sanitarias, concepto amplio en el que se inserta la evaluación
económica, constituye uno de los instrumentos clave para informar los procesos de
establecimiento de prioridades y asignación de recursos guiados por los objetivos de
equidad, efectividad y eficiencia.
Algunos de los retos y limitaciones para la aplicación de la evaluación económica en un
ámbito de la medicina estratificada, conocido coloquialmente como las tecnologías
“ómicas”, donde la perspectiva de aparición de nuevas opciones diagnósticas y terapéuticas
efectivas, pero también de elevado coste, parecen más inminentes. ¿Se precisa la
identificación de aspectos específicos en la valoración del impacto socioeconómico de
las “ómicas” que debieran tenerse en cuenta en la realización de los estudios de evaluación
económica y en el establecimiento de las correspondientes guías o estándares
metodológicos?. Pensamos que lo que se requiere es implantar la investigación de
resultados en salud en los contextos clínicos cómo se ha hecho desde hace quince años
con la medicina basada en la evidencia, demostrando su utilidad en las decisiones clínicas,
que va más allá de la demostración de eficacia, pues aborda efectividad y eficiencia,
teniendo un rol sustantivo en la evaluación económica que permite informar las decisiones
de asignación de recursos en salud. Todo ello, precisa de la necesaria estandarización de
la metodología de la evaluación económica para mejorar rigor, transparencia y replicabilidad
de los estudios de evaluación económica.
La Fundación Gaspar Casal ha
participado junto con el Grupo para
la Evaluación Económica de la
Medicina Individualizada del Instituto
Roche en un estudio que bajo el título
“La evaluación económica en
Farmacogenómica Oncológica y
Hematológica” recoge diversas
aportaciones de máximo interés sobre
farmacogenómica. El estudio ha sido
publicado por Medical Economics con
ISBN 978-84-95552-82-2.
La implantación de un modelo de crecimiento económico en nuestro país distinto al
ladrillo, donde la i+d+i, la adopción y la difusión de las innovaciones, vaya adquiriendo
masas crítica y presencia real en el mercado, requiere algo más que deseo y buena voluntad.
La aproximación a la ciencia como sistema, la clarificación de los papeles de las empresas
y de las gobiernos en la i+d+i, los incentivos como facilitadores, el conocimiento de las
barreras, el mantenimiento en el tiempo de políticas meditadas y sensatas, acordes a
nuestra cultura e idiosincrasia, se nos antojan como algunos factores clave.
Qué duda cabe que hay que transitar a un nuevo modelo biomédico con sus implicaciones
económicas y de regulación. La medicina estratificada empujará esta transición que
advertimos tendrá un impacto económico serio en los sistemas sanitarios y en la necesaria
adaptación de los sistemas de regulación. Aunque seamos precisos en la identificación
de dianas donde las terapias son ya más eficaces, no debemos obviar que, hay que seguir
atendiéndo a los enfermos no vulnerables a estas innovaciones procedentes del desarrollo
de las “ómicas”, que, por consiguiente, seguirán consumiendo recursos, cada vez más
escasos y competitivos en sus aplicaciones e indicaciones.
Las validaciones de test de cribado, muy relevante en la genómica en cuanto origen de
numerosos biomarcadores, tienen una enjundia epidemiológica en absoluto desdeñable
pero habitualmente descuidada, que si no se empieza a exigir, propiciará la aparición de
barreras administrativas para la su implantación y difusión extensa, por la no discriminación
eficaz de aquello que realmente merezca la pena frente a lo que no. La razón, sencilla, es
que no hay recursos para todo.
Seguramente, la medicina traslacional y los avances en los perfiles clínico de las innovaciones
provenientes del desarrollo de las “ómicas”, precisarán de cambios en la práctica clínica
por la radical afectación que tienen sobre paciente y enfermedad. También hay que poner
foco en el papel de la biología molecular de las enfermedades y su impacto en los modelos
117
de investigación. El diseño y desarrollo de ensayos clínicos requerirá de tiempos más
cortos y muestras más pequeñas, y de la pronta y precisa aprobación de nuevos fármacos
de origen biológico por las ventajas que suponen a pacientes con enfermedades hasta
hace poco letales. Obviamente, el papel a jugar por las autoridades sanitarias no puede
ser reactivo, como hasta ahora, de espera y ver. Se precisará de la implementación de
modelos basados en la terapia personalizada que ineludiblemente requieren de cambios
en la estructura de las unidades asistenciales. Los aspectos éticos de la medicina estratificada
adquirirán un peso específico mayor en el contexto de la sanidad pública.
Las agencias de evaluación de tecnologías sanitarias, han de ser una de las garantías para
la sostenibilidad del sistema sanitario. Estas organizaciones han de reseñar las necesidades
de mejora en la Investigación, a partir de análisis epidemiológicos que incluyan las métricas
adecuadas. La difusión y utilización de los marcadores y las barreras a la incorporación en
el contexto clínico tienen que ver con su difícil comprensión por parte de los médicos.
Llama la atención que al mismo tiempo que se está acelerando el proceso de descubrimiento
de nuevos biomarcadores diagnósticos, se están incrementando exponencialmente las
dificultades para que estos biomarcadores adquieran valor pronóstico o predictivo.
Por otra parte, es obvio que incluso con una adecuada aplicación de la evaluación de las
tecnologías sanitarias a las innovaciones, la presión social para incorporar rápidamente
dichas tecnologías a la práctica clínica, forzará a tomar decisiones de autorización y
financiación de las mismas bajo un nivel de incertidumbre considerable sobre su efectividad
y costes. Por ello, en vez de decisiones de “de todo o nada” en la financiación pública de
estas nuevas tecnologías parece razonable apostar por nuevas formas de financiación
condicionada o ligada a determinados resultados, como son los contratos de riesgo
compartido, que se basan en el criterio de pagar sólo por aquello que funciona o que, por
lo menos, se utiliza adecuadamente.
El futuro del tema que nos ocupa hay que situarlo en la tendencia a la cronificación de
enfermedades hasta hace poco letales. El impacto económico de la medicina estratificada
en un marco de precios administrados/intervenidos como el español, hará preciso análisis
coste-efectividad y análisis de impacto sobre la salud frente a otras alternativas pues lo
que está en juego es si será sostenible nuestro sistema sanitario. Para la industria será una
oportunidad de demostrar el valor de estos productos en términos de efectividad relativa.
Uno de los aspectos claves será la equidad en el acceso a todas estas nuevas prestaciones
que pondrán a prueba los sistemas públicos.
Finalmente, pero no en último lugar, la prudencia de los clínicos en la incorporación
incesante de nuevas tecnologías en el mercado deber ser el amortiguador saludable que
proteja la salud de los pacientes y la sostenibilidad financiera del sistema.
Dr. Juan del Llano. Director de la Fundación Gaspar Casal.
Joan Rovira Pons. Profesor Emérito de Economía Aplicada de la Universidad de Barcelona.
www.proyectonets.org
118
TRIBUNA PROFESIONAL
net
"no me parece la universidad el lugar
adecuado para innovar entre otras
cosas, porque existe un gap entre el
mundo teórico y el mundo real"
INNOVAR DESDE LA UNIVERSIDAD ESPAÑOLA: ¿ES POSIBLE?
FCO. JAVIER SEVILLANO.
FCO. JAVIER SEVILLANO
Tal vez uno tienda muchas veces a leer un determinado artículo, como lo pretende ser
éste, apoyado simplemente en un título cuando menos llamativo o que es capaz de atraer
la atención de un lector cuyo poco tiempo libre disponible le obligan a seleccionar entre
una muy amplia oferta.
Si entendemos que este autor, modestamente, lo que pretende es llamar la atención acerca
de una reflexión que puede o no ser compartida, la idea de buscar un título atrayente,
puede parecer necesaria de cara a lograr el objetivo perseguido.
Si uno hubiera optado por un título tan simple, pero claro como: “pienso que desde la
universidad española no se desarrollan los mecanismos necesarios para dotar a la sociedad
de una mayor cohesión entre investigadores y aplicación de la investigación a la vida
diaria” se habría definido una postura que posteriormente tan sólo tendría que tratar de
justificar con la mejor argumentación posible. Pero probablemente muchos de ustedes
ya hubieran abandonado la idea de continuar leyendo en tanto no les interesarían mucho
más mis, por otra parte, intranscendentes razonamientos.
Como están viendo, he “invertido” más de tres párrafos en tratar de justificar cómo, también
en el modesto ámbito de un artículo, hay que buscar mecanismos de innovación para
lograr un determinado objetivo.
Si quieren que les sea sincero, no acabo de entender muy bien por qué hace unos años
lo importante era el I+D (investigación y desarrollo) y nadie hablaba de la famosa i
minúscula (innovación), por qué después pasa a ser I+D+i y por qué hoy hablamos de
I+D+I situando a la innovación al mismo nivel de las anteriores. ¿Acaso antes no existía,
era menos importante, o no sabíamos apreciarla adecuadamente y por ello no le
concedíamos el valor que tiene, o que entendemos ahora que tiene?. Probablemente sea
un mero problema de concepto no soluble desde las fuentes tradicionales de definición
de términos, llámese diccionario o “wikipedia”.
Si lo que pretendemos es entrar de forma directa y sin ambages en materia, plantearé
que, desde mi punto de vista, la universidad debe ser entendida como un foro de
investigación básica mediante financiación directa, investigación aplicada mediante
contratos con empresas e instituciones privadas y, en menor medida, un centro de ideas
innovadoras a aplicar en un determinado ámbito. Trataré de justificar cada una de estas
premisas.
La investigación básica, entendida como aquella que aporta las fuentes para desarrollos
posteriores (entendidos como investigación aplicada) debe ser realizada desde órganos
donde: a) el personal esté debidamente cualificado, b) no debe perseguir finalidad lucrativa
inmediata por cuanto hay que asumir un largo periodo de tiempo de desarrollo y un
importante grado de fracaso, y c) la financiación del proyecto pueda ser garantizada a
largo plazo de una forma estable. Estas condiciones se cumplen básicamente en las
universidades (especialmente públicas) y grandes centros de investigación, y por ello
entiendo deben ser el núcleo de desarrollo. Resultado óptimo: la obtención de una patente
que permita, mediante posteriores evoluciones, su explotación económica. Resultado
habitual (al menos en la universidad española, en mi opinión): escasa obtención de patentes
y muy dudosa explotación económica de los procesos de investigación básica. El desarrollo
120
de importantes logros científicos, que sin duda se producen, tiende a ser inmediatamente
eclipsado por sistemas de gestión que, probablemente de forma no intencionada, tienden
a alejar esa posible fuente de ingresos del órgano que las genera, externalizándolos hacia
figuras cuando menos, tangenciales (llámese parques científicos, spin-offs, fundaciones,
etc).
Si hablamos de investigación aplicada, aquí si es cierto que es el campo principal de
desarrollo y gestión económica de las OTRIS (oficinas de transferencia de resultados de
investigación de las universidades). La explotación de los denominados contratos, permite
la “transformación” del investigador en un prestatario de servicios de consultoría,
asesoramiento científico o apoyo tecnológico, bajo el amparo legal de la universidad como
entre contratante frente al tercero. En teoría se trata de trasladar el resultado de la
investigación básica o del conocimiento específico al mundo empresarial, labor loable si
no fuera porque en este caso la universidad tan sólo ejerce una labor de intermediación
contractual dado que normalmente el mercado es buscado directamente por el
investigador-docente-consultor-miniempresario o por la empresa que recurre, no a la
institución, sino a la persona para la resolución del problema. En otras ocasiones lo que
se busca es la rentabilización de grandes inversiones en infraestructuras cobrando en
función de los servicios que se prestan a terceros, al crear importantes centros de servicios,
especialmente en el área médica y experimental. También aquí, cuando se consigue un
determinado volumen de actividad, se persigue la “independencia” jurídica del centro
mediante alguna de las figuras reseñadas en el párrafo anterior.
Y finalmente nos queda el tratamiento de la innovación. Y aquí debo reconocer que me
invade un dilema moral importante: cuando hablamos de innovación, una de las principales
acepciones que yo entiendo, lo constituye el adelantarse a los competidores en la búsqueda
de nuevos elementos de diferenciación competitiva que permitan obtener una determinada
rentabilidad adicional, cuya eficacia necesariamente ha de ser temporal por propia
definición, ya que antes o después, va a ser objeto de “benchmarking”, es decir, de
asimilación por los competidores, perdiendo gran parte de su eficacia inicial. Y mi pregunta
es: ¿debe ocuparse la universidad pública de favorecer a determinados competidores
frente a otros?. Bueno, si es contratada para ello, no entiendo por qué no. Pero estaríamos
en el párrafo anterior, no en el actual. Si la innovación puede ser entendida también en
sus aspectos de básica y aplicada, pues podemos aplicar el razonamiento ya descrito
anteriormente, pero lamento no ser filólogo para alcanzar la perfecta definición de los
términos que utilizo de una manera cuando menos atrevida.
En definitiva, aplíquese uno u otro término, de lo que se trata es de mejorar en el desarrollo
de productos o procedimientos que permitan un mayor grado de éxito en el objetivo
perseguido, llámese éste rentabilidad, mejora de resultados, mejora tecnológica o
contribución al desarrollo. Si nos centramos en el área de ciencias de la salud, por citar el
ejemplo, es obvio que tanto los procesos de investigación como de innovación y mejora
tecnológica no persiguen objetivos económicos primarios, sino de salud pública (mejora
de tratamientos, ahorro de tiempos de recuperación, aumento en el grado de éxito de
terminadas intervenciones) cuya medición se traduce en una estadística más o menos
discutible.
La investigación trata de alcanzar lo no conocido hasta el momento, la tecnología posibilita
en muchos casos un mejor conocimiento y una mayor precisión a la hora de actuar y la
innovación juega como el factor de mejora fruto de la capacidad del innovador para
aprovechar el conocimiento y la tecnología existentes para obtener un mejor rendimiento
y/o resultado. Innovar, en mi opinión, constituye así, uno de sus principales significados:
mejorar a partir de lo que ya se conoce, simplemente interpretando los conceptos de otra
manera, o aplicando lo que hasta ahora no se había aplicado a un determinado ámbito.
Supongo que a estas alturas ya ha quedado, más o menos clara, mi opinión al respecto:
creo que la innovación debe producirse allí donde está la experiencia y el conocimiento
en el desempeño de las funciones, no en el marco teórico del conocimiento, sino donde
se encuentra la aplicación práctica. Así no me parece la universidad el lugar adecuado
para “innovar” entre otras cosas, porque, no nos engañemos, aún existe un muy importante
121
“gap” entre el mundo teórico y el mundo real que imposibilita al docente-investigador la
visión práctica del asunto. Probablemente este distanciamiento se note más en el campo
de las ciencias sociales o experimentales que en el de las ciencias de la salud, pero en mi
opinión es indudable que también existe.
Las medidas adoptadas desde los poderes públicos, cuyos resultados habrán de ser
analizados cuando transcurra tiempo suficiente, buscan en mi criterio, dar soluciones al
problema mediante el distanciamiento del investigador del foco natural de la investigación
básica. Lo que se viene a potenciar es la separación real del docente hacia fuera de la
universidad, inicialmente llevándolo al campo de la práctica profesional donde es posible
(caso del sector sanitario) o buscando mecanismos de independencia más o menos
controlados (incorporación del investigador a estructuras tipo parques científicos, institutos
de investigación independientes, creación de spin-offs en las que la universidad mantiene
una leve participación accionarial, etc) o incluso, como un paso mayor, la reciente
autorización para que un investigador pueda obtener una excedencia de la universidad
con fines de lo que constituye su objeto, la investigación.
En fin, a mi me parece una absoluta contradicción todo esto. Resulta que para investigar
de manera genérica debo permanecer en la universidad o centro de investigación que es
donde se cuenta con la infraestructura y recursos adecuados (porque existe una muy
importante financiación pública para ello), pero cuando uno encuentra una aplicación
práctica que puede ser objeto de explotación económica inmediata y fuente de recursos
para la entidad generadora, es la propia entidad la que tiende a buscar la mejor fórmula
para “externalizar” dicha función y alejarla de sus cuentas de resultados. ¿Es este el modelo
científicamente adecuado? Lo desconozco porque me veo incapaz de interpretar sus
resultados.
¿Es la mejor fórmula para gestionar económicamente la investigación? Creo que no. Falta
una mayor decisión (y sin duda asumir un riesgo) que permita que gran parte del
presupuesto del sector universitario público provenga de sus propios logros comerciales.
También me gustaría que no hubiera dudas: la financiación pública es garante de equidad
y equilibrio, y es absolutamente necesaria para ofrecer un servicio de investigación básica,
fundamental y necesario. Lo que creo que falta es gestionar los resultados ya que muchas
veces los proyectos se justifican tan solo con el logro científico del que no se sabe muy
bien quién se aprovecha económicamente (cuando este resultado existe). Aquí si hay un
reto importante pendiente por delante y en el que creo que no es necesario innovar,
porque otros ya lo han hecho antes. Apliquemos el benchmarking y sigamos avanzando…
Fco. Javier Sevillano Martín. Profesor Titular del Dpto. de Economía Financiera y
Contabilidad II, Universidad Complutense de Madrid.
síguenos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
122
"(...) es bueno que actualicemos los
incentivos al desarrollo de nuevos
medicamentos de todos los agentes
implicados públicos y privados."
INCENTIVOS A LA INVESTIGACIÓN DE MEDICAMENTOS Y PRIORIDADES
EN SALUD. PALOMA FERNÁNDEZ.
Nunca la investigación en nuevos medicamentos ha sido tan intensa como en la actualidad.
Nunca se han invertido tantos recursos, ni se ha contado con investigadores tan cualificados
ni con tecnología tan avanzada. Sin embargo, a pesar de los avances que representan
muchos nuevos medicamentos, pacientes, médicos, instituciones sanitarias, inversores y
la propia industria farmacéutica, están insatisfechos con los resultados actuales. Por ello,
revisar los incentivos para la I+D de medicamentos no sólo es oportuno. Es una obligación
de todo el sector.
PALOMA FERNÁNDEZ
La investigación farmacéutica es una actividad altamente costosa y arriesgada y requiere
fuertes incentivos que hagan atractivas las inversiones necesarias. Los incentivos clásicos
a la I+D de medicamentos funcionan de dos maneras distintas: los que usan mecanismos
de empuje (push), están encaminados a reducir el coste de la I+D, generalmente mediante
fondos públicos para promover la ciencia e investigación básicas -de forma que el
conocimiento generado pueda ser utilizado posteriormente por la industria farmacéutica
y otros desarrolladores-, o en forma de consorcios público - privados, reducción de
impuestos o del coste del capital, o facilitando los procesos regulatorios. Por su parte, los
que se basan en mecanismos de tracción (pull), tienen como finalidad asegurar el mercado
y dar valor al producto desarrollado, generalmente en forma de patentes u otro tipo de
derechos de propiedad intelectual que aseguren la rentabilidad de la inversión.
Estos incentivos clásicos han venido funcionando con éxito durante décadas aplicados a
una industria farmacéutica formada por grandes compañías con una estructura monolítica,
en la que cada laboratorio desarrollaba prácticamente toda la cadena de valor desde el
descubrimiento de una molécula, hasta su desarrollo preclínico, clínico, proceso de registro
y posterior comercialización.
Pero la realidad actual es muy diferente. En sólo una década, la estructura de la industria
y su mercado han cambiado profundamente. La participación de pequeñas y medianas
empresas, principalmente de biotecnología, en el descubrimiento y primeras fases del
desarrollo de nuevas moléculas supera ya a la del gran laboratorio multinacional, habiéndose
establecido entre ellos un activo mercado de moléculas en desarrollo.
Además, nuevos agentes han irrumpido con fuerza en el campo de la I+D de fármacos:
Investigadores de hospitales, de universidades, de otros centros públicos de investigación,
ONGs o, cada vez más, asociaciones de pacientes han empezado a implicarse en el desarrollo
de medicamentos. Estos nuevos agentes traen consigo nuevas agendas de investigación
al enfocarse en medicamentos para enfermedades, en ocasiones, de escaso interés
comercial.
Dada la dificultad de la tarea, aparece otro signo característico de los nuevos tiempos: la
colaboración y cooperación entre investigadores, centros de investigación o empresas se
ha hecho imprescindible y florece la creación de partenariados y redes de investigación.
No sólo ha cambiado la actividad de la I+D. También se han producido cambios en el
mercado. La creciente exigencia de valor por parte del cliente, que cada vez más aplica
criterios de coste-efectividad con variables finales, está haciendo que las empresas
reconozcan que pequeñas mejoras no son suficientes y que se orienten hacia necesidades
123
médicas no cubiertas, a poblaciones menores o a modificaciones más radicales del curso
de la enfermedad, llegando incluso a consultar con sus clientes sobre qué productos de
su portfolio priorizar su desarrollo.
Juan del Llano comentó el artículo en
www.proyectonets.org:
Me ha encantado leer la aportación de
Paloma Fernández Cano por la claridad
de sus planteamientos. Me permito
añadir un aspecto posterior al proceso
de investigación-desarrollo-innovación
de nuevos medicamentos pero crucial
en la cadena de valor que apunta la
autora y es el de la diseminación. Es
razonable pensar que existen
numerosas barreras entre la
investigación y la clínica. Sin embargo,
hay notables excepciones que
demuestran que cuando no existen tales
barreras, la investigación mejora en
cantidad y calidad y la clínica mejora
sus resultados. De ahí el énfasis en poner
de manifiesto la necesidad de una
investigación que facilite la aplicación
clínica práctica de los conocimientos
adquiridos en la investigación básica. A
pesar de lo cual, la investigación clínica
aplicada sigue siendo un gran reto.
Por último, hay que destacar las tensiones inherentes a una actividad de requerimientos
científicos y tecnológicos tan exigentes, que conlleva que sólo organizaciones altamente
especializadas como la industria farmacéutica pueden acometerlas y que los incentivos
existentes sean inadecuados para que la industria desarrolle medicamentos para personas
y colectivos que no pueden pagarlos.
Es decir, la realidad de la I+D farmacéutica es hoy mucho más poliédrica y compleja que
hace una década. Se requiere, por tanto, actualizar los incentivos tradicionales a la
innovación farmacéutica frente a esa nueva realidad, si se quiere impulsar la obtención
de nuevos medicamentos del tipo y al ritmo que los pacientes y la sociedad global del
siglo XXI necesitan.
Pero no es algo sencillo. El declive de la productividad de la I+D farmacéutica (figura 1)
es una de las principales preocupaciones en los despachos del sector y está provocando
una nueva oleada de procesos de reestructuración de las compañías farmacéuticas y
biotecnológicas.
De la investigación básica a la clínica.
De la biotecnología sanitaria a la salud
de la población, pasando por los
enfermos y la enfermedad. Es la cadena
de valor, que requiere una visión
unitaria, sin solución de continuidad,
entre el conocimiento, su desarrollo, la
aplicación de la tecnología y la
consecución de las mejores y mayores
evidencias científicas. Es la secuencia
investigación-desarrollo-innovación.
Las estrategias innovadoras deben de
tener su recompensa y ésta ha de ser
proporcional al esfuerzo innovador. Ello
obligará, naturalmente, a reconocer
más el esfuerzo del promotor pero
también a contar más con el
destinatario y con quien, finalmente, la
aplicará.
Una paradoja, esperamos que
transitoria, es la coexistencia de un
aceptable desarrollo de la biotecnología
en el ámbito de las ciencias de la salud
junto a una muy limitada aplicación. La
rapidez del desarrollo tecnológico no
ha ido paralela a una rigurosa
valoración de la eficacia clínica y menos
aún al beneficio que reporta a la
sociedad.
En tal sentido, es preciso avanzar y
mejorar en tres aspectos: el rendimiento
terapéutico, la relevancia clínica y la
generalización de su uso.
En cualquier caso, un buen sistema
sanitario debería conciliar el acceso a
la tecnología con el impacto en la
calidad de los servicios prestados y el
coste de dichos servicios. Gastar más,
no implica, necesariamente, conseguir
una mejor asistencia o unos mejores
resultados en salud.
124
Figura 1. Nuevos medicamentos y productos biológicos aprobados por la FDA.
Nature Reviews Drug Discovery. Feb 2009. Vol 8; 94
Un informe de la GAO (Government Accountability Office) de los EEUU de 2006 (1) sobre
el desarrollo de nuevos medicamentos cita los principales obstáculos: las limitaciones en
el conocimiento sobre cómo aplicar los nuevos descubrimientos científicos y avances
tecnológicos al desarrollo de medicamentos eficaces y seguros; ciertas decisiones de la
industria farmacéutica durante la pasada década sobre el tipo de medicamentos en los
que invertir (enfocándose a los blockbusters o superventas), la incertidumbre del proceso
regulatorio y ciertas protecciones de la propiedad intelectual. Juntos, estos factores son
responsables del creciente coste y duración del desarrollo de nuevos medicamentos, así
como del número y tipo de nuevas moléculas que llegan a los pacientes.
Grandes obstáculos frente a los que diseñar una nueva generación de incentivos. Un
proceso largo, como la propia I+D de medicamentos, que ya ha comenzado. Por ejemplo,
para abordar la complejidad científica y, en cierta forma, la incertidumbre del proceso
regulatorio, se han lanzado sendos programas a ambos lados del Atlántico. En EEUU, la
FDA lanzó su "Critical Path Initiative", en 2004. En Europa, en 2007 se aprobó la "Innovative
Medicines Initiative" un Consorcio entre la Comisión Europea y la Industria Farmacéutica
Europea con un presupuesto de 2 billones de euros para 10 años compartido a partes
iguales entre los dos socios. Ambos proyectos van destinados a abordar los principales
obstáculos científicos de predicción de eficacia y seguridad (por ejemplo, desarrollo y
validación de biomarcadores) y comparten el ser iniciativas no competitivas, en las que
participan todos los agentes: industria farmacéutica y biotecnológica, centros públicos,
reguladores, academia y pacientes.
Un elemento esencial en la política de I+D de medicamentos es alinear los incentivos con
las prioridades en salud. Algo que hasta ahora no se ha abordado con la suficiente
determinación.
Existe una clamorosa necesidad de incentivos suficientemente eficaces para desarrollar
medicamentos de alto interés sanitario con baja o nula rentabilidad económica. Pero
incluso en el caso de medicamentos de alto interés sanitario y de alta rentabilidad
económica y que están cubiertos por la iniciativa privada, también es preciso revisar si los
incentivos existentes son adecuados y suficientes o es conveniente actualizarlos para
adaptarlos a la nueva realidad o crear nuevos incentivos complementarios. La Tabla 1
relaciona algunos de los nuevos incentivos que se están implementando o formulando.
Interés Rentabilidad
Sanitario Económica
Alto
Alto
Bajo
Situación actual
Nuevos Incentivos
Nuevas propuestas de Incentivos
Alta
- Consorcios destinados a abordar
- Cubiertos por la iniciativa los obstaculos cientificos y
privada.
regulatorios: Critical Path, IMI
(ver texto).
- Problemas de
productividad.
- Problemas Nacionales de I+D de
medicamentos.
- Necesidad de revisar /
refinar los incentivos
- Políticas de precios y reembolso
existentes.
según Valor Añadido para el
- Crear nuevos incentivos. cliente.
- Inversión Pública Intensiva.
- Separación de los mercados de la
innovación y de la producción.
- "Acciones" (shares) de propiedad
intelectual.
- Premios internacionales a la
innovación (ej: Health Impact Fund).
- Distinta duración de las patentes
según el valor terapéutico.
- Implementación de
recomendaciones del HLPF.
Escasa
- Legislación especifica:
(ej. medicamentos pediátricos).
- Inversión pública intensiva.
- Creación de Consorcios público- Déficit en su desarrollo
privados: MMV, DNDi, MoW.
actual.
- Creación de infraestructuras:
- Necesidad de incentivos ECRIN.
ad-hoc.
- Visados para Revisión Prioritaria
(normativa EEUU).
- Compromisos anticipados de
compra (vacuna del neumococo).
- Legislación especifica:
medicamentos para enfermedades
raras.
- Creación de mercados artificiales.
- Compromisos anticipados de
compra.
- Premios internacionales a la
innovación, asegurando el acceso
(ej: Health Impact Fund).
Incentivar su paso a otro tipo de
innovación.
Tabla 1. Incentivos a la I+D+i de Medicamentos y Prioridades en Salud.
Cada vez hay más evidencia sobre como determinados incentivos afectan la I+D de
medicamentos. En su informe sobre Políticas de precios farmacéuticos en un mercado
global (2), la OCDE afirma que "las políticas de precio y reembolso, al enviar señales del
grado de valoración de la innovación farmacéutica y del valor relativo que los compradores
atribuyen a los diferentes tipos de innovación, pueden incentivar o desincentivar las
inversiones en I+D, afectando su orientación". Así, precios de referencia de clase terapéutica
incentivan el desarrollo hacia la innovación incremental mientras que precios diferenciales
basados en el valor del producto deberían incentivar el desarrollo de innovaciones más
valiosas.
Puedes encontrar este artículo en el
blog de MSD en
www.proyectonets.org donde
también encontrarás el artículo LA
EVOLUCIÓN DE LA MBE EN ESPAÑA
de Joaquín Camprubí, publicado en
el numero 01 de la revista NETS
Innovación y Tecnología en la Salud.
Por ello, no es de extrañar la formulación de nuevos tipos de incentivos como la definición
de umbrales de coste-efectividad para orientar las inversiones en I+D o sistemas de
reembolso que incluyen la perspectiva social (no del pagador), añadiendo otros criterios
como prioridades de salud.
A este efecto, es de gran valor el informe final tras 3 años de trabajo del High Level
Pharmaceutical Forum (HLPF) (3), un grupo de representantes de la Comisión Europea,
los Estados Miembros, la Industria Farmacéutica y los Pacientes. En su recomendación 8,
el informe aboga por que los Estados Miembros establezcan expectativas claras y comunes
de lo que consideran innovación y estén dispuestos a reconocer, de forma que las
compañías puedan tener directrices claras de las prioridades de salud. Pide que las políticas
nacionales de precio y reembolso reflejen y reconozcan estas expectativas y den una
recompensa consistente a los resultados considerados valiosos, y que los sistemas nacionales
de precio y reembolso se alineen con los sistemas que evalúen el valor de los medicamentos.
Además, pide a las Compañías que desarrollen los medicamentos que la sociedad necesita.
125
Referencias:
1. New drug development. Report to
Congressional Requesters. United States
Government Accountability Office.
November 2006
Pero este breve repaso sobre incentivos a la I+D de medicamentos tendría poco interés
si no hiciera mención a iniciativas mas transformadoras. Quizá la más lúcida es la formulada
por Weisbrod en su reconocido artículo publicado en el Wall Street Journal en 2003 (4).
En poco mas de 800 palabras describe de forma magistral como las dos actividades
principales y de requerimientos tan diferentes que realiza la industria farmacéutica, la I+D
y la producción de medicamentos, comparten el mismo y único instrumento de recompensa:
el precio del medicamento, por lo que aboga por la separación de ambos procesos. La
I+D se financiaría mediante premios dinerarios masivos a quienes desarrollaran
medicamentos seguros y eficaces, y la producción mediante mecanismos de competencia
habituales en productos fuera de patente. Así se resolverían las tensiones crecientes entre
innovación y acceso a los nuevos medicamentos.
2. Pharmaceutical Pricing Policies in a
Global Market. OECD Health Policy
Studies. OECD 2008
Algo ciertamente más fácil de formular que de implementar de forma eficaz. Sin embargo,
no ha caído en saco roto. Y la propuesta de otorgar premios de cuantía suficiente a quienes
desarrollen nuevos medicamentos de acuerdo a estándares preestablecidos cediendo sus
patentes para facilitar precios asequibles, de forma voluntaria y alternativa al sistema de
patentes, va ganando adeptos. Recientemente se ha publicado el informe "Health Impact
Fund: Making New Medicines Accesible for All", que desarrolla esa propuesta.
3. High Level Pharmaceutical Forum.
2005-2008. Final Conclusions and
Recommendations. October 2008
4. Burton A. Weisbrod. Solving the Drug
Dilemma. Institute for Policy Research.
Northwestern University. Winter 2004,
volume 26, number1.
Algo se está moviendo en este campo. Y aunque sería temerario olvidar que en el desarrollo
de nuevos medicamentos existen escollos formidables de tipo científico, tecnológico y
regulatorio que hay que abordar de forma paralela, es bueno que actualicemos los
incentivos de todos los agentes públicos y privados que intervienen en el proceso. Por la
cuenta que nos tiene.
Paloma Fernández Cano. Gerente de Relaciones Externas. MSD España.
"con la desaparición de los servicios
de logofoniatría lo que vamos a
conseguir es segregar a los pacientes
por su condición económica"
SERVICIO DE LOGOPEDIA EN LOS HOSPITALES MADRILEÑOS, ¿EN
PELIGRO DE EXTINCIÓN? MARGARITA DURAN.
Antes de adentrarnos en esta lamentable pregunta, aclararé la utilidad del Logopeda
dentro de un centro hospitalario.
MARGARITA DURAN
Pertenecemos al Servicio de Rehabilitación, Sección de Foniatría, y tenemos como finalidad
“la prevención, evaluación e intervención en aquellos trastornos relacionados con la
comunicación, ya sean de voz, de lenguaje o de audición, así como su evaluación pronóstica”.
Intervenimos directamente en problemas orofaciales, maxilofaciales y trastornos de la
deglución.
El tratamiento de Rehabilitación de cada paciente debe enfocarse desde un punto de vista
multidisciplinar. El Médico responsable del paciente se pone en contacto con el Médico
Rehabilitador. Éste se encarga de evaluar al paciente e indicar el tratamiento rehabilitador
de acuerdo con su patología específica. Desde aquí, se deriva al paciente al Fisioterapeuta,
126
al Terapeuta Ocupacional, al Ortopeda, al Protésico, al Psicólogo, etc, que llevarán a cabo
la intervención adecuada. Cuando la patología está relacionada con lenguaje, comunicación
y voz, el médico especializado - Foníatra- se encarga de derivar al paciente al logopeda
el cual valorará, evaluará e intervendrá en dicha patología. El momento en el que se inicia
dicha intervención es crítico. Retrasos en la intervención pueden resultar catastróficos en
el pronóstico y evolución de la recuperación del paciente, y por tanto repercutirán
directamente en la calidad de vida final conseguida. Por ello, desde el momento en el que
el paciente se encuentra en condiciones físicas y psicológicas suficientes para tolerar el
tratamiento, se inicia el mismo, incluso durante su estancia en el propio centro sanitario.
Como puede verse, el equipo puede ser tan amplio como compleja sea la patología del
enfermo.
A la Unidad de Logofoniatría llegan diariamente pacientes derivados de múltiples
especialidades hospitalarias. Algunas de ellas, dado el tipo de patología que atienden,
como por ejemplo Neurología u ORL, son más demandantes de nuestra colaboración. Sin
embargo, no se puede descartar la colaboración más o menos esporádica con ningún
especialista que en cualquier momento durante su relación médico-paciente, se encuentre
con alguna patología asociada o derivada del proceso principal que aqueja al paciente y
necesite de nuestra colaboración como parte del tratamiento integral que requiere cada
paciente.
Hagamos un breve repaso de nuestra historia dentro de los Servicios de Salud. Deberíamos
saber que el profesional de la logopedia existe en los centros hospitalarios madrileños
dependientes de la Sanidad Pública desde hace más de cuarenta años. Hasta la Ley de las
Profesiones Sanitarias LOPS (Ley 44/2003 de 21 de Noviembre) el logopeda era considerado
Profesional No Sanitario o Educativo. Esta consideración era totalmente ilógica, si tenemos
en cuenta el carácter asistencial derivado de nuestro trato directo con el paciente. Desde
la promulgación de dicha ley, el Logopeda es considerado Personal Sanitario, acabando
con la calificación anterior y normalizando nuestra situación dentro del Organigrama de
los Servicios de Salud.
¿Qué está ocurriendo en Madrid con la asistencia logopédica hospitalaria?, me pregunto.
Se han creado nuevos hospitales en la Comunidad de Madrid y no se han dotado de
personal relacionado con el Servicio de Logopedia. Es más, este servicio no existe. ¿Ya no
es necesaria nuestra atención?, ¿no existen patologías relacionadas con nuestra formación?,
¿ya no es necesaria nuestra intervención en los problemas de la comunicación humana,
en terapias miofuncionales y de deglución?. ¿Qué va a ocurrir con esta rehabilitación
clínica tan importante?. ¿Dónde van a ir los pacientes a recibir su tratamiento, por ejemplo
después de un ictus o de la extirpación de un tumor cerebral?.
Los facultativos especializados en cada una de estas patologías (neurólogos, neurocirujanos,
oncólogos…) salvarán la vida al paciente y le enviarán a su casa con la capacidad
comunicativa limitada (afasia). ¿Qué calidad de vida tendrá esa persona a la que se le priva
de su capacidad de comunicarse con el mundo que le rodea?.
Con la desaparición de este servicio lo que vamos a conseguir es segregar a los pacientes
por su condición económica. Aquel que tenga dinero podrá pagar su rehabilitación privada
y saldrá adelante. Mejorará su capacidad de hablar y podrá volver a comunicarse. Aquel
que tenga un nivel económico inferior no volverá a comunicarse, pero tampoco podrá
quejarse porque habrán salvado su vida, aun a costa de su capacidad de comunicación,
con menor calidad de vida y en silencio.
Emilio Vílches comentó el artículo en
www.proyectonets.org:
Este es un nuevo caso, tras el que expuso
el Dr. López Arrieta acerca de la situación
de los servicios hospitalarios de
geriatría, en el que nos encontramos
con actividades que dejan de prestarse
en los centros públicos. Ambas se tratan
de actividades asistenciales con obvias
implicaciones sociosanitarias, pero se
dejan al ámbito privado. El hecho de
que Madrid disponga de un buen
número de nuevos hospitales y de que
vayamos conociendo su estructura y
carencias, parece mostrar un nuevo
esquema en el que se invierte en nuevas
tecnologías pero no tanto en recursos
humanos o mantener todos los servicios
que hasta hace poco se prestaban.
Si en un momento determinado existe un problema con un paciente y el Neurólogo, el
Cardiólogo, el Otorrino, el Cirujano Maxilofacial, el Oncólogo, el Neonatólogo o el Psiquiatra,
tan sólo por citar alguna de las especialidades con las que el Servicio de Logopedia puede
colaborar, quieren derivar a un paciente para una intervención logopédica en los nuevos
hospitales ¿qué hará?. ¿Les dará a los pacientes un listado de los centros concertados con
la Sanidad Pública Madrileña para que hagan su tratamiento de forma externalizada y así
se olvidan del problema?.
127
Y cuando el paciente esté ingresado, ¿qué ocurrirá?. ¿Vendrá un logopeda al hospital (ya
que en los nuevos centros hospitalarios no existe ese servicio) a intervenir en el tratamiento
de dicho paciente?. Mejor aún, no se realizará el tratamiento y se enviará al paciente a su
casa. El problema ya no es del Hospital.
Si se envía al enfermo susceptible de ser tratado en un Servicio de Logopedia de alta a su
domicilio sin haber sido valorado por nuestro servicio, obviamente tampoco habrá iniciado
su tratamiento. Habrá estado ingresado dejando transcurrir un tiempo precioso para su
rehabilitación que se podía haber aprovechado mientras estaba hospitalizado y haber
mejorado considerablemente su salud. Este tiempo ya no se podrá recuperar. Habrá
transcurrido en contra del paciente, que se verá perjudicado tanto en cuanto que habrá
retrasado su recuperación como que, probablemente, habrá empeorado su pronóstico.
En los hospitales madrileños “más antiguos”, dependientes del IMSALUD y de la Comunidad
de Madrid, sí existe esta oferta dentro del Servicio de Rehabilitación, junto a la fisioterapia
y la terapia ocupacional. Parece que, con todos los defectos que se les atribuye (muchos
justamente, no lo voy a negar), en los hospitales “antiguos” aún se tiene en cuenta no sólo
la cantidad, sino también la calidad de vida con la que los pacientes son enviados de alta
a su domicilio.
Me gustaría, con todo lo anteriormente expuesto, lograr que a quien corresponda hacer
valoraciones económicas de cantidad se detuviera un momento y añadiera a esas
valoraciones cuantitativas valoraciones de calidad y de resultados de sus servicios,
incluyendo en la valoración de resultados la valiosa opinión de los pacientes, que al fin
y al cabo, son el único y principal destinatario de los servicios de salud.
Sin duda esto significaría una mejora, y ayudaría a tener un “Servicio Público de Salud”
Saludable y de Calidad.
Margarita Duran Limas. Pedagoga y Logopeda. Unidad de Logofoniatria del Hospital 12
de Octubre de Madrid.
"Es tiempo de responder a las
preguntas sobre la rentabilidad costebeneficio de la implantación de las
unidades hospitalarias de geriatría."
ESPECIALIDADES MÉDICAS DE SEGUNDA FILA. Dr. JESÚS MORA.
Dr. JESÚS MORA
128
Cuántas veces hemos oído hablar de la atención gerontológica como aquella que se
dispensa en los centros residenciales por profesionales de la rama sanitaria, y ¡qué necesaria
es!. Sin embargo, la asistencia geriátrica no está en boca de los usuarios de servicios
sanitarios con tanto énfasis ni grado de conocimiento. Los médicos con especialización
en Geriatría son profesionales formados en el ámbito hospitalario que conocen bien sus
tareas en el diagnóstico y en la aproximación terapéutica holística del anciano con
problemas serios de salud o riesgo de enfermar. Pero los geriatras, no siempre han podido
poner en marcha su abanico de conocimientos en el lugar adecuado o preferido, siendo
desplazados por la oferta laboral al aparentemente menos interesante sector gerontológico.
Esta situación se ha producido con mucha frecuencia en muchos otros ámbitos profesionales
en los que los licenciados están ocupando puestos de responsabilidad en lugares
científicamente alejados de su formación inicial. Para los geriatras, en particular, se ha
argumentado que “están destinados a atender ancianos que ya no pueden estar en su
domicilio”, convirtiendo a nuestra especialidad en una rama de segunda fila en la actividad
asistencial de la población y, por lo tanto, en un reducto con escaso valor científico-técnico.
Nada más lejos de la realidad. Es posible que el grueso de las “nuevas especialidades”
surgidas en las últimas décadas del siglo XX, hayan sufrido periodos de crecimiento y
posterior dificultad en su implantación en el sistema sanitario, quedando encuadradas
como de segunda fila cuando se les ha comparado con las grandes ramas de la medicina
y cirugía hospitalaria. Se aprecia en las preferencias de los jóvenes especialistas a la hora
de elegir plaza en los hospitales docentes de nuestro medio.
Pero probablemente hay, de fondo, una serie de razones de índole estructural que explican
la diferente visión que el usuario y, por ende, el profesional tienen de las specialidades de
segunda fila y, en particular de la Geriatría:
• En primer lugar, se debe señalar que en la génesis de los embriones de esta primariamente
sub-especialidad han participado personas con máximo grado de interés y conocimiento
en la materia que, en numerosas ocasiones, han chocado con la asunción del coste de
oportunidad de permitir la apertura de unidades nuevas, aun habiendo excluido
razonablemente la duplicidad de servicios. Esta lucha inicial se ha resuelto casi siempre
por la buena voluntad de muchos gestores que han confiado en la evidencia científica
aportada. Sin embargo, tras los primeros pasos, se llega a la indiferencia de las autoridades
sanitarias probablemente por la ausencia de resultados favorables en términos de
investigación, beneficios marginales o justificación adecuada de una mayor inversión
(aumentos de plantilla o mejora de medios técnicos), - como también ha señalado
recientemente en esta misma publicación el Dr. López Arrieta-.
• En segundo lugar, los planes de estudios no han incluido históricamente los créditos
necesarios en sus curricula de pregrado de Medicina para hacer llegar al estudiante las
bases fisiológicas del envejecimiento abordadas por la biogerontología, ni la evaluación
multidimensional del individuo que explica la complejidad del enfermar, ni la presencia
de problemas geriátricos específicos que justifican una progresiva desadaptación
natural del sujeto dependiente a su entorno hasta el momento de la muerte. Tampoco
se explican con detalle las bases de la atención integrada, la continuidad de cuidados
o los primeros pasos del tratamiento de los problemas específicos del paciente geriátrico
(demencia, caídas, alteraciones funcionales, cambios psicofísicos, incontinencia o
trastornos de alimentación). Estos hechos aparecen directamente relacionados con el
escaso interés que el licenciado muestra por la especialización en geriatría a pesar de
su inequívoca vocación médica.
• Finalmente, los hechos demográficos y asistenciales han llevado a un crecimiento
progresivo de la presencia de ancianos en los servicios hospitalarios y de urgencias que
“obligan” a gestores y profesionales a encontrar soluciones rápidas que eviten el colapso
de los dispositivos asistenciales que, fundamentalmente, han perjudicado al sector más
envejecido. Los mayores enfermos finalizan con frecuencia sus episodios agudos en
lugares poco adecuados para su complejidad como hospitales de apoyo e, incluso,
residencias que carecen de los medios suficientes para el proceso diagnóstico inicial y
que, razonablemente ocupan sus camas con patologías de dudosa adecuación, mientras
carecen de oferta de camas de atención continuada para procesos complejos relacionados
con la recuperación funcional a ancianos con difícil salida de los hospitales de agudos.
Ángela Aizaga comentó el artículo en
www.proyectonets.org:
Comparto buena parte de lo que
presenta Jesús, pero al leerle me quedo
con la duda de si acaso todos no
creemos que nuestra especialidad
merece más peso en la estructura del
hospital o más reconocimiento. Todas
aportan salud a los pacientes y seguro
que evitan cargas a la sociedad y los
familiares, pero no me parece el mejor
camino para mejorar lo que falla.
Pocos o muy pocos profesionales relacionados con la sanidad (gestores, médicos o
políticos) son capaces de asumir la necesidad de variar los criterios para atender a la
población anciana cuando es preciso, siendo remarcable la ausencia de información sobre
tasa de no-ingresos de ancianos en urgencias, altas fallidas y/o reingresos en menos de
30 días, por no mencionar la ausencia de dispositivos de seguimiento de la enfermedad
que faciliten su atención post-hospitalización por Atención Primaria, como el conocimiento
del pronóstico y mortalidad inmediata de aquellos que no disponen de una asistencia
geriátrica integrada.
129
A la vista de la experiencia personal se podría intuir que los ancianos que no llegan a
beneficiarse de la asistencia especializada son muchos y poco conocidos, finalizando
muchos de ellos en el ámbito residencial (si disponen de medios económicos) o falleciendo
en su domicilio (los más pobres), sin que hayan podido beneficiarse de una oportunidad
de valoración geriátrica que permita establecer un adecuado pronóstico y recibir un
correcto tratamiento rehabilitador.
Y con este comentario previo, podríamos adentrarnos en el terreno de la ética y de la
discriminación que las poblaciones de ancianos han sufrido históricamente en la asistencia
sanitaria en los países de nuestro entorno (1). Como ejemplo, se puede citar que los
ancianos no han figurado en los ensayos clínicos más importantes de la historia reciente,
por lo que se están prescribiendo en muchas ocasiones fármacos sin evidencia científica
de su utilidad en estas edades. De modo similar, han sido excluidos por edad para
beneficiarse de determinadas técnicas diagnósticas o procedimientos terapéuticos invasivos
(angiografías, diálisis, stent), hasta que se ha comprendido que en numerosas ocasiones
son estos procedimientos los adecuados para corregir de modo paliativo algunos problemas
sin solución por la vía clásica. Para finalizar, debe ser superada definitivamente la barrera
de la edad para ser incluido en la lista de espera de determinados trasplantes que
afortunadamente han demostrado ser bien tolerados en este segmento de edad.
Mª José Jiménez comentó el artículo
en www.proyectonets.org:
Me parece interesantísimo el artículo,
especialmente porque me ha
sorprendido que una especialidad que
yo consideraba no sólo imprescindible,
sino con un futuro envidiable por el
envejecimiento de la población, pueda
estar cuestionada por determinadas
administraciones y políticas
sanitarias.Incluso en mi especialidad
(medicina intensiva) que
tradicionalmente ha planteado los
problemas éticos de futilidad y
limitación de esfuerzo terapéutico en
pacientes terminales y/o con edades
muy avanzadas, se ve forzada por
nuestra realidad sociodemográfica a
replantearse esta actitud y es muy
frecuente hoy en día que un gran
porcentaje de nuestro pacientes sean
octogenarios e incluso mayores de 90
años: Los estudios realizados sobre la
supervivencia y calidad de vida al año
y a los tres años en pacientes
octogenarios en nuestra unidad de
postoperatorio de cirugía cardiaca
revelan una mayor mortalidad
hospitalaria con respecto a pacientes
de menos de 80 años, pero los que
sobreviven (en un porcentaje elevado)
presentan una mejoría en su calidad de
vida a largo plazo.
130
En síntesis, lo comentado hasta este momento, nos describe una situación negativa en
términos de valoración que otros han hecho del curso de los acontecimientos en Geriatría
en los últimos 30 años. Sin embargo, también nos ilustra sobre cómo afrontar el futuro de
la misma explorando otras áreas de interés en la salud del anciano, valorando estas
oportunidades como catalizadoras de un nuevo concepto de la Geriatría como especialidad
de primera línea. Necesaria y plenamente justificada.
Es tiempo, por lo tanto, de pelear porque en la Facultades se enseñe ampliamente la
disciplina. Esto ya está resuelto curiosamente en las especialidades sanitarias que colaboran
con los geriatras en los equipos multidisciplinares (enfermería, terapia ocupacional,
fisioterapia, trabajo social, nutrición), sin que se cuestione en ningún caso la
superespecialización de estas personas en su ámbito profesional. Además, muchas veces
son estos profesionales los que van a disponer de mayor grado de conocimiento sobre la
patología del anciano que los propios médicos o cirujanos, ayudando indirectamente a
superar ciertas carencias asistenciales. Si no es así, difícilmente los profesionales de la
medicina van a reconocer al geriatra como especialista de primer nivel.
Es tiempo también de que las sociedades científicas respondan a las habituales preguntas
sobre la rentabilidad en términos de coste-beneficio de la implantación de las unidades
hospitalarias de geriatría. Si bien diversos autores han centrado sus investigaciones más
recientes en metaanálisis sobre la evidencia de la efectividad de los diferentes niveles
asistenciales geriátricos (2,3), parece necesario poner en marcha estudios que aborden
en primer lugar la eficiencia de las mismas y, en segundo lugar, que se centren en los
ancianos de nuestro entorno, muy distintos a los que se estudian en grandes estudios
longitudinales americanos. Esto requiere del esfuerzo de todos los pequeños grupos de
investigación que operan en nuestro país en el ámbito de la geriatría, con multicéntricos
no demasiado ambiciosos que concluyan en resultados rápidos y extrapolables a cualquier
ámbito sanitario de las distintas comunidades autónomas. Sin ser suficiente, a continuación
se exige la innovación dentro de la propia especialidad; toda vez que otros colectivos de
profesionales han visto en el anciano un potencial cliente de sus servicios médicos, como
ocurre con el aumento progresivo de pacientes de mayor edad en los centros hospitalarios.
Dicha innovación, marca de autenticidad de la especialidad, ha de centrarse en mejorar
el producto ofrecido al paciente y al sistema sanitario y, hoy por hoy, consiste en desarrollar
nuevos dispositivos de colaboración con Atención Primaria, centros gerontológicos y
servicios médicos y quirúrgicos dentro del hospital. Desde luego, alejados del
enfrentamiento y buscando siempre la colaboración entre distintos proveedores de salud,
sean estos del ámbito público o privado. También se debe exigir la presencia de un
profesional como el geriatra en la valoración de la dependencia, donde se da por supuesto
que el anciano ha alcanzado un punto de inflexión en el que las necesidades de otros son
inexcusables, sin determinar muchas veces si existe la oportunidad de mejora que permita
devolver a este sujeto a situaciones de mayor autonomía y, por lo tanto, de menor necesidad
de terceras personas. El sistema en sí mismo conduce a arrinconar al anciano en un lugar
que muchas veces no le correspondería y que, sin embargo, en su posición de debilidad
sociofamiliar, ha de asumir al estilo de la antiguas civilizaciones.
Es tiempo, en definitiva, de reivindicar la autenticidad de la especialidad desde un punto
de vista filosófico, técnico y científico, sin olvidar los aspectos éticos de las tomas de
decisión, la correcta clasificación de los pacientes en términos de pronóstico funcional,
la consideración de los elementos que definen el límite del esfuerzo terapéutico y que,
en todo caso, siempre consideren la valoración subjetiva que este usuario tan especial
hace de su calidad de vida percibida.
Dr. Jesús Mora Fernández. Área de Calidad de la Unidad de Gestión Clínica de Geriatría.
Hospital Clínico San Carlos de Madrid.
Referencias bibliográficas:
1. Jagger C, Gillies C, Mascane F,
Cambais E, Van Oyen H, Nusselder W, et
al. Inequalities in healthy life years in
the 25 countries of the European Union
in 2005: a cross-national metaregression analysis. BMJ 2008; 372:
2124-31.
2. Baztán JJ, Suárez-García FM, LópezArrieta J, Rodríguez-Mañas L,
Rodríguez-Artalejo F. Effectiveness of
acute geriatric units on functional
decline, living at home, and case fatality
among older patients admitted to
hospital for acute medical disorders:
meta-analysis. BMJ 2009; 338b:50 doi.
3. Stuck AE, Siu AL, Wieland GD, Adams
J, Rubenstein LZ. Comprehensive
geriatric assessment: a meta-analysis
of controlled trials. Lancet 1993; 342:
1032-6.
"en el dolor neuropático es necesario
la utilización de fármacos adyuvantes
que se pueden implementar con una
adecuada utilización de los opioides"
LA ESCALERA ANALGÉSICA DEL SIGLO XXI: ¿UNA HERRAMIENTA
OBSOLETA? Dr. OSCAR A. DE LEÓN.
La escalera analgésica fue introducida por la Organización Mundial de la Salud (OMS) en
1990, con la idea de crear una herramienta a nivel mundial que fuera eficaz y sencilla para
implementar terapias que hicieran frente al dolor por causas oncológicas, si bien después
ha sido utilizada también para otros tipos de dolor no relacionados con el cáncer. Sin
embargo, estudios recientes han demostrado que si no se usa esta escalera de una manera
responsable puede ser peligrosa para el propio paciente.
Dr. OSCAR A. DE LEÓN
El objetivo de este artículo es ver las diferencias que existen entre las recomendaciones
de la escalera analgésica y los tratamientos actuales para aliviar el dolor. Por otra parte,
diversos artículos publicados recientemente sugieren que la implantación de los principios
de la escalera analgésica sin tener en cuenta el historial médico del paciente ni las
interacciones que puedan tener con otros medicamentos, puede dar lugar a una morbilidad
alta, así como un gran coste económico. En estos momentos, es posible prevenir hasta el
28% de las reacciones adversas relacionadas con el consumo de fármacos, siendo los más
frecuentes los debidos a fármacos cardiovasculares, diuréticos, analgésicos opioides,
antidiabéticos y anticoagulantes.
Además, la disponibilidad de nuevos sistemas de administración (como los analgésicos
tópicos), el desarrollo de guías médicas para el manejo de ciertos tipos de dolor (como
el dolor neuropático) y el desarrollo de técnicas intervencionistas (como la
neuromodulación), han llevado a la conclusión de que el uso de la escalera analgésica no
es el adecuado para tratar a todos los pacientes de la misma forma. Para argumentar estos
puntos, el artículo se va a dividir en diferentes patologías clínicas.
131
1. Habitualmente, el primer tratamiento que se da a un paciente con osteoartritis es
paracetamol. A medida que la enfermedad progresa, el paciente deja de responder a
esta medicación, necesitando la administración de analgésicos más potentes. Si nos
basamos estrictamente en la escalera analgésica, el tratamiento con el que debería
continuar sería un analgésico antiinflamatorio no esteroideo (AINEs) o un inhibidor de
la ciclo-oxigenasa (COX2), pero el uso indiscriminado de estos fármacos pueden
desencadenar un fallo renal o una enfermedad gástrica. La disfunción renal es más
probable en pacientes mayores de 65 años, con antecedentes de enfermedad renal o
de gota. Por lo tanto, no es aconsejable administrar un AINE en pacientes con disfunción
renal.
Al mismo tiempo, los pacientes que están en tratamiento con AINEs tienen un mayor
riesgo de padecer una úlcera gastrointestinal, siendo los de mayor riesgo los siguientes
casos:
• Pacientes con historia previa de perforaciones, úlceras o sangrados gástricos.
• Pacientes con terapia concomitante anticoagulante.
• Pacientes en tratamiento con corticoides orales.
• Pacientes en tratamiento a largo plazo con AINEs.
• Edad avanzada.
• Pacientes con mal estado de salud.
Por otro lado, en pacientes de más de 65 años la posibilidad de desarrollar enfermedades
cardiovasculares es igual de alta que la de presentar complicaciones gástricas. La incidencia
es mayor con el uso de piroxam, naproxeno y tenoxicam. De hecho, cuando estos AINEs
son utilizados en pacientes con un historial previo de enfermedades cardiacas, la posibilidad
de desarrollar una molestia cardiovascular es de un 25%. Por todo ello, los pacientes con
fallo renal crónico, con niveles altos de creatinina plasmática y con un historial previo de
problemas gástricos o cardiacos no deberían ser tratados con AINEs.
Otra situación clínica a considerar es la co-administración en pacientes con osteoartritis
de una dosis de aspirina asociada a un AINE o a un inhibidor de COX-2. . Hay evidencias
que sugieren que la co-administración de aspirina con ibuprofeno puede acabar
produciendo una inhibición de tromboxano en un porcentaje mayor del 95%, lo que lleva
a la pérdida del efecto anti-agregación de la aspirina sobre las plaquetas. No está claro si
esta interacción también puede ocurrir con otros AINEs, pero al menos en teoría, podría
ocurrir. Además, también existen evidencias de que la coadministración de aspirina con
un COX2 puede originar una pérdida del efecto gastro-protector de los inhibidores COX2. Las implicaciones médicas de estos problemas son importantes ya que la población con
osteoartritis tiende a ser mayores de 65 años y, como resultado de ello, la mayoría reciben
pequeñas dosis de aspirina para la profilaxis vascular. De este modo, uno tiene la opción
de iniciar el tratamiento con un inhibidor COX-2, o directamente con un opioide.
Por consiguiente, la escalera analgésica simplifica el tratamiento del dolor de pacientes
con osteoartritis y con complicaciones médicas que suelen estar presentes en la mayoría
de la población afectada por esta enfermedad. Además, el uso de AINEs tópicos no entra
dentro de esta escala analgésica, ya que esta terapia no existía cuando se hizo. Esto hace
que la escalera analgésica esté obsoleta o que incluso sea peligrosa para pacientes con
osteoartritis.
2. Las líneas generales para el tratamiento del dolor neuropático periférico sugieren la
utilización de parches de lidocaína como primer paso, si esto no es efectivo, se sugiere
la utilización de antidepresivos tricíclicos o, como alternativa, se podría usar los
antidepresivos duales. Si la combinación sigue sin ser exitosa después del ajuste de
una dosis apropiada, se recomienda la utilización de un anticonvulsionante y, si después
del uso de estos tres agentes en sus dosis máximas sigue sin dar resultados, se debe
añadir tramadol o un opioide potente. En líneas generales se sugiere que para el
tratamiento del dolor neuropático central se debe seguir con los mismos métodos que
para el dolor neuropático periférico, con la excepción de que la lidocaína tópica que
no se incluirá en el primer paso. Todo ello nos sirve para resaltar que en la escalera
132
analgésica no están incluidos estos fármacos coadyuvantes que son fundamentales en el
tratamiento adecuado del dolor neuropático.
3. La escalera analgésica tampoco incluye la realización de ningún proceso intervencionista
en el tratamiento del dolor de cáncer. Hoy se acepta la existencia de una serie de
alternativas intervencionistas para tratar de forma correcta determinados pacientes
con esta patología:
• Neurólisis del simpático. Se puede recurrir a ella en pacientes con cáncer de páncreas
sin evidencia de que se haya extendido; el uso de neurólisis del plexo celiaca o neurólisis
del nervio esplácnico es una buena alternativa a los opioides potentes y tienen un
buen efecto analgésico, si bien con una menor incidencia en efectos secundarios.
Asimismo, en pacientes con carcinoma de pelvis, la realización de neurólisis del plexo
hipogástrico sirve como analgésico reduciéndose la administración de opioides.
• Tratamiento por vía intratecal. Un estudio reciente donde se analizaban dos grupos de
pacientes, -uno con tratamiento analgésico por vía intratecal y otro con tratamiento
médico integral-, se ha puesto en evidencia la existencia de una mejor analgesia y un
aumento del índice de supervivencia en el grupo de los pacientes en tratamiento por
vía intratecal, si bien esta diferencia no era estadísticamente significativa. En cambio,
si había un aumento significativo de los efectos secundarios en el grupo de pacientes
en tratamiento intratecal. El incremento del ratio de supervivencia en los pacientes
observados pertenecientes al grupo de pacientes en tratamiento intratecal, abre las
especulaciones sobre la conveniencia de administrar opioides durante un largo periodo
de tiempo en la población con cáncer, debido a las inmuno-depresiones asociadas que
conlleva el tratamiento con opioides por vía oral.
• Vertebroplastia. Muchos pacientes con fracturas vertebrales producidas por metástasis
u osteoporosis avanzada presentan dolor de espalda. La Vertebroplastia Percutánea es
un procedimiento por el cual se inyecta cemento óseo dentro de la fractura vertebral
para aliviar el dolor y para mejorar la estabilidad estructural. Se ha demostrado que el
vertebroplastia es eficaz para tratar cuadros de dolor en enfermos de cáncer. En este
punto, el uso de la vertebroplastia es adecuado para pacientes con metástasis óseas y
puede ser utilizado sin la administración previa de opioides potentes. Sin embargo,
aquellos pacientes a los cuales se les apliquen las pautas de la escalera analgésica no
se van a poder beneficiar de esta técnica de una forma rápida, con lo que puede existir
un aumento de la morbilidad y de la mortalidad secundaria al dolor y la inmovilidad.
4. Síndrome postlaminectomía.
Varios estudios a largo plazo han demostrado la eficacia de la neuroestimulación de
cordones posteriores (SCS) para reducir la administración de opioides y los tratamientos
adyuvantes en estos pacientes. Además, se ha demostrado una mejoría en la calidad
de vida de los pacientes que les permitía continuar con las actividades diarias. Por ello,
su utilización la debemos ver como una ayuda en el manejo de estos pacientes que nos
permite obtener las metas de mejorar la analgesia, si bien esta técnica no está presente
en las pautas de la escalera de la OMS.
Si te ha interesado este artículo te
recomendamos que leas también LA
FORMACIÓN MÉDICA EN EL CAMPO
DEL DOLOR: DE LA REALIDAD A LA
NECESIDAD de Javier Vidal, DOLOR E
IMPLICACIONES GENÉTICAS de
Clemente Muriel y Rogelio González
y DOCUMENTO DE CONSENSO SOBRE
UTILIDAD TERAPÉUTICA DE LA
ASOCIACIÓN FIJA DE
TRAMADOL/PARACETAMOL de Juan
Tamargo que puedes encontrar en la
sección "tribuna profesional" de
www.proyectonets.org.
Conclusiones.
La escalera analgésica de la OMS fue muy útil en sus orígenes como tratamiento que
permitía hacer frente al dolor en pacientes tanto oncológicos como no oncológicos. Sin
embargo, estudios recientes sugieren que aquellos pacientes que siguen sus
recomendaciones de una manera rígida podrían sufrir algunas consecuencias. Un
conocimiento adecuado de la co-morbilidad y de las interacciones de los fármacos en
cada uno de los pacientes es importante para elegir el mejor tratamiento, es decir, la
individualización del tratamiento en cada paciente es fundamental con el fin de aliviar el
dolor.
Además, es necesario tener en cuenta que en la gestión farmacológica del dolor neuropático
es necesario la utilización de fármacos adyuvantes que se pueden implementar con una
133
adecuada utilización de los opioides. En este aspecto, también debemos potenciar la
utilización de técnicas invasivas tanto en el dolor oncológico como de cualquier otro tipo,
ya que estos están asociados a altos niveles de analgesia y una baja incidencia de efectos
secundarios cuando son realizados por médicos con pleno conocimiento de ellas.
Dr. Oscar A. de León-Casasola. Profesor y Vicedirector para asuntos clínicos, Departamento
de Anestesiología de la Universidad de Buffalo, Jefe del departamento del dolor y profesor
de oncología, Roswell Park Cancer Institute.
"(...) el médico observa, espera,
acompaña a la familia, sentado en una
silla al pie de la cama de la niña enferma,
pensando ¿cuál es su dolencia?."
DE LA MEDICINA COMO UNA VOCACION A LA MEDICINA COMO UN
FUNCIONARIADO. Dr. ENRIQUE MORALES.
Dr. ENRIQUE MORALES
Es difícil aceptarlo pero, como en los dramas televisivos, el final resulta una realidad
inevitable. Durante los últimos años, asistimos asombrados, desilusionados, contrariados,
decepcionados y a veces resignados a una nueva forma de entender la medicina, aunque
yo iría más allá, una forma nueva de entender y vivir la vida, si bien es cierto este último
aspecto debería ser motivo para otro tipo de debate.
No hace tanto tiempo, unos quince años atrás, cualquiera podía asomarse al balcón de la
medicina hospitalaria, con cierto optimismo e ilusión, aunque no carente de crítica y
podíamos observar cómo existía (me preocupa hablar en pasado), una figura fundamental
en el engranaje hospitalario, “el MIR”. No está de más, recordar qué significa la palabra
MIR, Médico Interno Residente, pues bien, hoy día cabría preguntarse; cuánto queda de
interno y de residente en el actual médico MIR. No resultaba extraño observar cómo el
MIR, alma y conciencia del hospital, permanecía y residía allí, planeaba por los rincones
más inhóspitos de las plantas, desarrollaba la curiosidad científica y la responsabilidad en
su aprendizaje de sus residentes mayores, allí estaba durante prácticamente todo el día.
Pero no sólo estaba presente físicamente, sino que era el que realmente se ocupaba del
paciente; estudiaba y escribía con esmero su historia clínica, la comentaba con sus médicos
adjuntos, se encargaba de solicitar y recopilar sus pruebas diagnósticas y finalmente
presentaba su caso clínico en las sesiones hospitalarias.
Se percibía una sensación, aunque yo creo que más que una sensación era una realidad,
la realidad de que el paciente (su historia, su vida) formaba parte de la del médico que se
encargaba de él, la famosa empatía. ¿Dónde quedaron las preguntas iniciáticas de la
medicina?, ¿qué le ocurre?, ¿desde cuándo? y ¿a qué lo atribuye?. Estas eran las preguntas
claves para iniciar la búsqueda en el mundo de las etiologías, posteriormente uno solicitaba
las pruebas necesarias que resultaban valiosos medios para llegar al ansiado y buscado
diagnóstico.
Aunque me cueste admitirlo, hoy me atrevo a decir que esas preguntas quedaron
probablemente en el olvido, en algún lugar recóndito de nuestra mente resultando más
134
aceptable solicitar un sinfín de pruebas (por favor, coloque usted una cruz en todo aquello
que usted quiera solicitar) y al final decir: oiga, ¿porqué tiene usted una velocidad de
sedimentación elevada?, no lo entiendo, y esta adenopatía, ¿a qué es debido?. Es
indudablemente otra forma de ver, hacer y entender la medicina, en el más estricto sentido
de la palabra, uno pide y pide y luego pregunta. Antes, tras la interminable jornada, uno
se llevaba el caso del paciente a su casa, lo rumiaba, lo estudiaba, lo consultaba en los
libros y curioseaba por Internet (el famoso Pubmed) las posibilidades diagnósticas y
terapéuticas, por último soñaba con el caso para poder llegar hasta el diagnóstico de
presunción.
Si realizamos un pequeño análisis de la realidad actual podemos encontrar una cierta
lógica en lo que esta ocurriendo en el mundo de la medicina. Los jóvenes no sólo se
independizan más tarde de sus hogares sino que cuando eligen una profesión, en este
caso, la medicina especializada, se les apoya con reales decretos que retrasan más aún su
maduración profesional, derivándoles al irremediable síndrome de Peter Pan. Tras terminar
el tiempo dedicado a la carrera de Medicina y después de aprobar el examen para acceder
a ser un médico especialista, se les coloca el título del mal llamado M.I.R., (pues ya no es
interno y para nada reside en el hospital), y comienza sus vivencias médicas en un mundo
lleno de contradicciones. El primer año de residencia se ha convertido en una prolongación
de su carrera universitaria, claro está con el apoyo indiscutible del ilustre real decreto, un
año alejado de la responsabilidad, de la implicación pero no exento de todos y cada uno
de los derechos laborables que le corresponden. En definitiva, dentro del mundo hospitalario
se escuchan voces que demandan cada vez más, cuestiones distintas de la propia medicina:
“¿qué hago con esta analítica?, lo siento por aquí no he rotado, acabó mi turno, bueno
me voy a la guardia (siempre con un tono similar al que se va a la guerra), y al final, mañana
no vengo, libro la guardia,…”, como si la enfermedad librara o tuviera turnos. No se, no sé,
creo que me estoy haciendo mayor, pero no me gusta esta forma de entender y vivir la
medicina. Cada vez resulta más difícil vivirla como renuncia, como sacrificio, como
responsabilidad, como vocación. Creo que debemos evitar que esta bella y noble profesión
se convierta en un funcionariado, en una rutina hastía y oscura.
Este artículo ha sido uno de los más
comentados y leidos de
www.proyectonets.org. Ha suscitado
gran debate y participación, por
razones de extensión no podemos
adjuntar todos los comentarios, os
dejamos uno para ir abriendo boca:
Rafael Olalde Quintana comentó el
artículo en www.proyectonets.org:
Con todos los respetos. Un enfoque de
los problemas actuales de la profesión
en pleno siglo XXI apelando a la
vocación me ha sonado a algo arcaico
y dejá vu. En el colectivo hay, hubo y
habrá de todo como en botica. La
vocación no tiene nada que ver con ser
o no un buen profesional. Los
carpinteros también puieden ser
vocacionales. La RAE define vocación,
tan sólo como una inclinación a
cualquier estado, profesión o carrera y
esto por si sólo no garantiza ni impide
cualquier actitud posterior
No sé cuáles son vuestros pensamientos pero creo que deberíamos rescatar, ensalzar la
figura de aquel médico del famoso cuadro “The Doctor” de Sir Lukes Field de 1891, donde
el médico observa atentamente, espera, acompaña a la familia, sentado en una silla al pie
de la cama de la niña enferma, pensando ¿cuál es su dolencia?.
Dr. Enrique Morales Ruiz. Médico Adjunto del Servicio de Nefrología. Hospital 12 de
Octubre de Madrid.
visítanos en internet
www.proyectonets.org
nets
Innovación y Tecnología en la Salud
135
"invertimos muchos recursos sin
desarrollar soluciones organizativas o
tecnológicas que hagan más resolutivo
el encuentro médico-paciente."
MEJORA CONTINUA EN LA CALIDAD DE LA CONSULTA EXTERNA. EL
PROFESIONAL SANITARIO COMO PROMOTOR DEL CAMBIO.
Dr. CARLOS PEÑA.
Dr. CARLOS PEÑA
En los últimos años la medicina ha experimentado un gran desarrollo gracias a los
numerosos avances diagnósticos y terapéuticos. Sin embargo la forma de ejercerla, la
clínica ambulatoria, no ha experimentado apenas cambios organizativos. Seguimos
invirtiendo cantidades ingentes de recursos en el desarrollo de nuevos tratamientos y
tecnologías, aumentando las carteras de servicios, sin desarrollar soluciones organizativas
o tecnológicas que hagan más resolutivo “el encuentro médico-paciente”.
El objetivo de la medicina asistencial es prestar a nuestros pacientes una asistencia de
calidad de acuerdo con la evidencia científica disponible. Ello supone conseguir una
atención uniforme entre facultativos y centros, de una forma ágil y de acuerdo a estándares
y las recomendaciones de las guías de práctica clínica. Los facultativos son corresponsables
de mejorar la calidad de los procesos asistenciales en los que intervienen y de los que son
protagonistas. En la estructura piramidal del mando de la organización sanitaria se ha
obviado la capacidad de transformación que desde la base tienen miles de profesionales
altamente cualificados y que actualmente no tienen entre sus atribuciones el mejorar la
eficacia y calidad de los procesos en los que intervienen.
El modelo convencional de asistencia ambulatoria.
El modelo convencional de organización asistencial ambulatoria que hemos heredado
esta basado en la génesis de una lista de trabajo por médico, pacientes que serán vistos
de forma consecutiva. La organización de este encuentro ha permanecido prácticamente
inalterada en los últimos 50 años con la única mejora de cambiar un dietario de papel por
un programa informático de citación. Este modelo ha entendido que el fin último de la
asistencia es el encuentro del paciente con el facultativo y no el solucionar correctamente
las necesidades del paciente individual. Así, en la mayoría de las consultas ambulatorias
de especialistas y médicos de familia se atienden de forma consecutiva pacientes con
diferentes patologías y que acuden por diferentes motivos. Sin embargo, la estructura de
la atención y sus tiempos son comunes y rara vez siguen un plan predefinido, un esquema
protocolizado. Llama poderosamente la atención que el encuentro médico paciente, dónde
se toman decisiones tan importantes, carezca de cualquier tipo de control, cosa que no
ocurre en otros procesos empresariales de prestación de servicios. La percepción en la
mayoría de las ocasiones tanto de sanitarios como de pacientes es que la clínica ambulatoria,
que consume múltiples recursos, presenta una baja eficiencia. Trabajar en procesos
ineficientes, de los que uno no se enorgullece, es una fuente de insatisfacción laboral y
esto una merma en la calidad del servicio desempeñado. El desprestigio es aún mayor
entre los especialistas jóvenes, que identifican las consultas externas como “un castigo”
frente a la realización de técnicas diagnósticas o terapéuticas.
El momento de la mejora. El profesional como motor del cambio.
Para conseguir una mejora en la calidad es necesario desarrollar cambios en la organización
con el fin de optimizar la atención dispensada al paciente. Son necesarias pues innovadoras
estrategias organizativas que aumenten la eficiencia del acto médico y nos aseguren
mejores resultados. Para ello se han de desarrollar herramientas que controlen, monitoricen
136
e informen de la evolución del proceso sanitario. En el sistema de atención convencional,
el profesional no recibe de forma activa ninguna información del resultado de sus
actuaciones, impidiendo de esta manera que aprenda de sus errores o aciertos.
Hasta ahora las iniciativas de mejora han sido en la mayoría de las ocasiones promovidas
por las autoridades sanitarias y muchas veces impuestas al profesional, trasladando
modelos aplicados en otros entornos. Esta imposición de la cultura de “los grandes
cambios y los grandes planes” y que normalmente son acompañados de grandes titulares,
partidas presupuestarias e inauguraciones son en muchos casos vividas por el profesional
como iniciativas ajenas a su realidad asistencial.
Frente a este paradigma defendemos un modelo de mejora continua, que utilice todo el
conocimiento y potencialidad de los profesionales de los que dispone el sistema. Se trata
de permitir que el profesional ponga en marcha pequeñas mejoras en los procesos en los
que interviene. Las mejoras han de partir del análisis crítico de los procesos asistenciales
en los que intervenimos, el convencimiento de nuestra responsabilidad en ellos y la
convicción de que todos son susceptibles de ser mejorados. Para ello es necesario dotar
al facultativo de autonomía de decisión, soporte metodológico y tecnología apropiada
para catalizar dicho cambio.
La sistemática de la mejora. Una herramienta para el profesional.
Mejorar los procesos en los que intervenimos se puede lograr de una forma intuitiva o a
través de una metodología sistemática. La mejora continua es un proceso de análisis de
la situación con el fin de adoptar decisiones tendentes a la mejora de procesos y servicios.
Las herramientas de mejora continua de la calidad han demostrado su beneficio en
modelos industriales y en otros procesos de prestación de servicio, sin embargo apenas
han tenido desarrollo en los procesos asistenciales sanitarios. Este modelo es aplicable
por profesionales individuales y por colectivos, siguiendo una serie de etapas que permiten
en un círculo sin fin ir implantando pequeñas mejoras de forma progresiva y continua.
Si mejoramos los procesos en los que intervenimos, haciéndolos más ágiles, resolutivos
y controlados, aseguramos que los resultados sean de mayor calidad. La mejora en los
procesos afecta a todos los pacientes atendidos por ellos, en contra de soluciones puntuales
(planes de choque, consultas para rebajar la lista de espera) que no producen ningun
beneficio mantenido.
Para mejorar el proceso asistencial en el que trabajamos, antes debemos concentrarnos
en él, definirlo (¿Qué es lo que hacemos?) y analizarlo de una forma crítica (¿Cómo lo
hacemos?). Así, el proceso asistencial de una consulta externa consta de una secuencia
de acciones e interacciones entre el paciente y administrativos, auxiliares, enfermería y
facultativos, con el fin de solucionar una necesidad. Es importante definir y representar
quienes incorporan pacientes al proceso, la ruta que siguen los pacientes hasta llegar a
ser atendidos y la ruta tras la primera atención hasta que se les soluciona el problema.
En esta ruta que recorren los pacientes hemos de crear indicadores que representen el
funcionamiento de las diferentes fases del proceso e indicadores de la calidad del resultado
del servicio prestado, incluyendo si las decisiones medicas han sido acertadas o no.
El conocimiento de este proceso se debería de obtener con herramientas informáticas
específicas adaptadas a las individualidades de cada proceso y gestionadas directamente
por los profesionales involucrados. De poco vale que alguien conozca cuantos pacientes
fueron vistos y dados de alta, si el profesional no sabe si fueron correctamente
diagnosticados.
Puedes encontrar este artículo en el
blog de Bet en www.proyectonets.org,
en este blog puedes encontrar varios
artículos relacionados con gestión del
conocimiento e innovación, te
recomendamos los artículos de
Alfonso Díez MÁS INTELIGENCIA Y
MENOS MATERIA: LA GESTIÓN DE
PROCESOS SOCIO-SANITARIOS DESDE
EL CONOCIMIENTO y ¿EXISTEN
TECNOLOGÍAS PARA POSIBILITAR UNA
GESTIÓN INTELIGENTE DEL
CONOCIMIENTO?¿QUÉ ALCANCE
TIENEN?, puede interesarte también
el artículo GESTIÓN FOSBURY O
GESTIÓN ANTIGÉNICA de María José
Jiménez, que encontrarás en la sección
"gestionando conocimiento" de esta
revista.
Una vez definido el proceso en el que desarrollamos nuestra actividad, debemos de
preguntarnos cual es el valor que aportamos al paciente y qué paciente se beneficia más
de contactar con nosotros. En el ejemplo de una primera visita al cardiólogo por una
fibrilación auricular, lo que aporta valor es la indicación de un tratamiento antitrombótico,
porque la probabilidad que tiene el paciente de presentar una embolia es menor después
de iniciado el tratamiento. Existen otros elementos del proceso asistencial, como acudir
al hospital para solicitar una cita, las horas de espera en ser atendido, que no aportan
137
ningún beneficio para el paciente, para ser claros, no modifican su riesgo de embolia.
También bajo este prisma podemos priorizar que pacientes se benefician más y cuales,
a los que tras la consulta no se les indica ningún tratamiento, se benefician menos.
Una vez que hemos definido el proceso en el que trabajamos y conocemos lo que realmente
lo que aportamos al paciente, debemos diseñar planes de mejora. De forma genérica estos
planes de acción se debe sustentar en tres puntos: 1. Simplificar al máximo el proceso, 2.
Potenciar los puntos que aportan valor al proceso y 3. Eliminar el resto prescindible. Un
ejemplo representativo y sencillo son las consultas llamadas de alta resolución o acto
único: si sabemos que a la mitad de las pacientes que acuden a una primera cita de
ginecología se les va a solicitar una ecografía esta debería poder realizarse sobre la marcha,
ese mismo día. Simplificamos el proceso y aumentamos el valor añadido. Los planes de
mejora, deben de evitar cambios drásticos y que involucren a gran número de personas,
por el contrario han de buscar pequeños cambios pero sucesivos, con objetivos claros y
que se puedan poner en marcha de una forma rápida sin necesidad de asignación de
nuevos recursos.
Durante la implementación del plan de mejora es necesario cuantificar y analizar las
modificaciones en los indicadores utilizados en el análisis, así como la percepción de
profesionales y usuarios sobre el plan. Trabajar en procesos “eficientes” incrementa el
grado de satisfacción del profesional y la identificación del mismo con el sistema, también
es un estímulo que actúa de promotor de otras mejoras en cadena en el entorno.
Aliados para la mejora.
La inercia de la tradición es la mayor resistencia para modificar una forma de trabajo
heredada. Los programas de mejora han de ser promovidos por los profesionales implicados
tendiendo en cuenta las realidades individuales de dónde se promueven. Aliados para la
mejora son el conjunto de personal sanitario y no sanitario implicados en el proceso,
celadores, auxiliares, administrativos y enfermeros, a quienes en muchas ocasiones no se
les da la responsabilidad que podrían desempañar y en otras no se les pregunta a la hora
de rediseñar procesos, siendo todos motor de cambio. Otro aliado, es la tecnología que
puesta al servicio del profesional permite desarrollar soluciones innovadoras a los problemas
que se plantean en la asistencia médica. Las herramientas informáticas pueden monitorizar
el proceso asistencial y generar informes de atención que se incorporen a las historias
clínicas electrónicas. Pero además pueden actuar como asistentes de conocimiento durante
el encuentro médico-paciente y controladores de la adecuación de la atención a los
estándares y a las recomendaciones de las guías de práctica clínica, pudiendo además
convertirse en herramientas para la disminución del error médico.
Dr. Carlos Peña Gil. Cardiológo. Complexo Hospitalario Xeral-Calde (Lugo).
www.proyectonets.org
138
"el paciente ha pasado de creer la
valoración del médico a elaborar
su diagnóstico usando la red"
LA SALUD, EN MANOS DE LOS PACIENTES. ANA CÉSPEDES.
El cambio cultural que vive nuestra sociedad se refleja en el sistema sanitario a través del
papel cada vez más importante que están adquiriendo los pacientes. Un papel que los
transforma en usuarios activos que quieren estar siempre informados de forma
comprensible y transparente sobre todo lo relacionado con la salud.
El paciente ha pasado de creer la valoración del profesional sanitario, a prácticamente
elaborar su propio diagnóstico mediante sus consultas en la red. De esta forma, el paciente
tradicional ha confiado siempre en su médico, e incluso ha llegado a tener con él una
relación prácticamente paternal. Sin embargo, el nuevo paciente informado participa
activamente en las decisiones médicas sobre su enfermedad y tratamiento, siendo incluso
algunas veces, crítico con la actitud del facultativo.
ANA CÉSPEDES
Por tanto, la relación médico- paciente también va, ahora, más allá del diagnóstico y el
tratamiento y ofrece un valor añadido a la consulta. El médico ha de establecer un consenso
y un diálogo con el paciente para, entre los dos, encontrar el mejor tratamiento a la
enfermedad y formarle en sus conocimientos de salud, aconsejando sobre cuáles son los
medios idóneos para recabar información sobre su enfermedad.
Instrumentos de información para pacientes:
La relación médico-paciente ha evolucionado, entre otras cosas, por la creciente información
sobre salud disponible tanto en los medios de comunicación como en Internet.
La salud es, sin duda, una de las áreas que más se ha desarrollado en beneficio de la
sociedad y se ha convertido en uno de los temas que más preocupan a los ciudadanos.
De hecho, los medios de comunicación otorgan un lugar cada vez más destacado a los
temas de salud y a los avances médicos que contribuyen al bienestar de la población.
Tanto es así que los suplementos específicos de salud y farmacia se han consolidado en
los medios y los periodistas se especializan cada día más en materia sanitaria.
Para transmitir la información sanitaria a la población, dichos periodistas se hacen eco de
la información que generan los diferentes Agentes Sanitarios, como Hospitales,
Administraciones, Sociedades Científicas y Universidades, a través de la celebración de
Conferencias, Congresos, Jornadas o Eventos Profesionales. Pero, sobre todo, lo que más
interesa a los medios, es la divulgación de las patologías, así como los estudios relevantes
y los avances científicos, que suponen una manera eficaz de formar a la población.
Pero el punto de inflexión en el proceso de información al paciente ha sido la aparición
y generalización de Internet: la red adquiere día a día mayor peso como fuente informativa
de salud. Sin embargo, hay que tener especial cuidado con la información, pues no toda
está avalada científicamente y puede llevar al paciente a errores importantes. Es
fundamental, igualmente, tener en cuenta que la búsqueda de información en la red nunca
sustituye la consulta con el facultativo.
Casi el 85% de los pacientes consultan la red antes de acudir al médico, según un estudio
de Microsoft. La información más buscada en Internet se centra en temas relacionados
con hábitos de vida saludable, las patologías, para aclarar dudas respecto al diagnóstico
o tratamiento del facultativo, además de la consulta de los fármacos recetados por el
médico.
139
El uso creciente de Internet para consultar temas de salud, ofrece al paciente un amplio
elenco de posibilidades. Así, por ejemplo, puede obtener información de las asociaciones
de pacientes de una enfermedad concreta o bien de webs especializadas en contenidos
sobre dicha patología. El paciente puede además suscribirse a boletines vía correo
electrónico sobre temas médicos, e incluso puede acceder a los diferentes canales de Chat
para compartir la información sobre una misma enfermedad. Los encuentros digitales con
facultativos es otra de las herramientas que están cobrando protagonismo en Internet.
Toda esta información hace que el paciente esté bien informado y que manifieste una
conducta de responsabilidad con respecto al cuidado de su salud, facilitando el trabajo
de los profesionales, y por lo tanto, de la relación médico- paciente.
La corresponsabilidad de los agentes en el ámbito de la salud:
Los principales generadores de información fiable y contrastada son los distintos agentes
que intervienen en el ámbito de la salud, desde la administración pública, las sociedades
científicas, hasta la empresa privada. Éstos tienen la responsabilidad de avanzar en la
promoción de la salud con rigor, responsabilidad y total transparencia. Deben asimismo
fomentar el conocimiento sobre las diferentes patologías y hacer especial hincapié en el
impulso de campañas de salud pública.
Merck como compañía farmacéutica y en concreto en la Fundación Salud 2000, entendemos
la comunicación como un recurso, un activo de enorme relevancia que debemos gestionar
de acuerdo con nuestra misión y nuestros objetivos, porque de ella dependerá la percepción
que nuestro público tenga de la organización. La comunicación es un intangible, pero
tangibles sí son los beneficios que de ella obtenemos, lo que nos hace considerarla un
elemento estratégico para la Fundación. Por todo ello, desde nuestros inicios hasta hoy,
la Fundación Salud 2000 ha mantenido una relación fluida con los medios de comunicación,
pues son ellos la herramienta adecuada para acercarnos a la sociedad y hacerles llegar el
conocimiento científico, que durante años ha sido tan endogámico y exclusivo del núcleo
investigador.
El paso de los años y el desarrollo progresivo de las nuevas tecnologías ha hecho de
Internet uno de los canales más empleados para la difusión de información. La Fundación
ha tenido siempre claro la necesidad de apostar por este desarrollo tecnológico y a través
de nuestra web www.fundacionsalud2000.com ofrecemos, en castellano y también en
inglés, información detallada de todas las actividades que ponemos en marcha (Encuentros
Salud 2000, foros de debate, edición de monografías, convocatorias de Ayudas y becas),
así como un servicio de asesoría jurídica a profesionales sanitarios mediante un simple
registro de solicitud a través de la web.
Estamos convencidos del valor de la comunicación y de los beneficios que ésta nos aporta,
por eso desde la Fundación Salud 2000 vamos a seguir trabajando en esta línea, poniendo
empeño en lograr esta meta que nos hemos marcado de acercar el conocimiento científico
a la sociedad. Con nuestra ilusión continua y las herramientas de comunicación que están
a nuestro alcance, no dudo que seremos capaces de alcanzar este objetivo.
Ana Céspedes. Directora de Comunicación y Asuntos Corporativos de Merck y
Directora de la Fundación Salud 2000.
www.proyectonets.org
140
"Sin la existencia de las unidades de
cuidados intensivos, muchos de los
avances de la medicina hospitalaria
(...) no habrían sido posibles."
LA MEDICINA INTENSIVA, TAN NECESARIA COMO DESCONOCIDA.
Dr. MIGUEL SÁNCHEZ.
La especialidad médica de Medicina Intensiva tiene como objetivo la atención de pacientes
graves cuya vida corre peligro. Para ello se emplean sistemas de vigilancia o monitorización
intensiva y de soporte de la función de sistemas y órganos como el cardiovascular, el
respiratorio, el renal o el neurológico. Los ejemplos más conocidos de estos dos aspectos
de la función de una unidad de cuidados intensivos (UCI) son la monitorización
electrocardiográfica continua y el soporte de la función respiratoria o respiración artificial
mediante el empleo de respiradores o ventiladores.
Dr. MIGUEL SÁNCHEZ
La Medicina Intensiva fue reconocida como especialidad médica en España en el año 1976,
aunque ya para entonces existían en España unidades de cuidados intensivos (UCI) a pleno
rendimiento en varias ciudades del país. Entre las primeras UCIs se encuentran los Servicios
de Medicina Intensiva de la Fundación Jiménez Díaz y del Hospital Clínico San Carlos, este
último en funcionamiento desde 1971. Los primeros médicos españoles dedicados a
atender pacientes críticos procedían de las especialidades de Medicina Interna y de
Anestesiología. Pronto se pudo comprobar que el ejercicio de la medicina intensiva requiere
conocimientos especializados para poder atender pacientes con enfermedades agudas
que amenazan su vida. La práctica de la Medicina Intensiva requiere, por lo tanto, un
entrenamiento específico, como ocurre con otras especialidades médicas. Hoy en día es
posible acceder al título de especialista en medicina intensiva por el sistema de residencia
MIR tras un periodo de formación de 5 años en un Servicio acreditado por el Ministerio
de Sanidad para la docencia especializada. Mientras que en España “Medicina Intensiva”
es una especialidad “primaria”, en muchos otros países el acceso a la práctica en cuidados
intensivos se realiza como una sub-especialización a partir de especialidades como
anestesiología, neumología o cirugía.
Foto 1. Paciente con fracaso
multiorgánico tras una intervención
urgente de sustitución valvular
mitral, que precisa soporte
respiratorio y técnicas artificiales de
depuración extrarrenal.
141
La práctica de la medicina intensiva se basa actualmente en la mejor evidencia científica
procedente de ensayos clínicos. Como consecuencia de la realización de ensayos clínicos
en pacientes críticos, se han producido modificaciones relevantes a lo largo de las dos
últimas décadas de algunos tratamientos antiguamente considerados “estándar”. Así, se
han producido importantes avances que conllevan mejores resultados para el paciente
crítico, incluido reducciones significativas de la mortalidad. Algunos de los cambios
conciernen aspectos tan fundamentales como la ventilación mecánica, la aplicación de
esta mediante un tubo de plástico que se coloca por la boca y llega a la traquea (tubo
endotraqueal) o bien una mascarilla facial especial en determinados pacientes, los nuevos
antibióticos y el tratamiento antibiótico en general, la nutrición del paciente crítico, las
trasfusiones de glóbulos rojos y otros elementos de la sangre, la sustitución de algunas
de las funciones del riñón mediante máquinas de hemofiltración continua, etc (Foto 1).
Además, los pacientes críticos se han beneficiado, al igual que los pacientes de otras
especialidades, de la mejora de técnicas diagnósticas cada vez menos agresivas,
relativamente inocuas, como la ecografía y la tomografía axial computerizada (TAC).
Los Servicios de Medicina Intensiva no son estructuras independientes, sino que están
plenamente integradas en el funcionamiento de los hospitales. Por lo tanto, están bajo
la influencia del funcionamiento, a su vez, de otros Servicios como las Urgencias, de las
plantas de hospitalización y de las características de la actividad quirúrgica del centro. De
hecho, los pacientes críticos pueden acudir al Servicio de Urgencias y requerir ingreso en
la UCI al poco tiempo, proceder de alguna de las plantas de hospitalización como
consecuencia de una complicación de su enfermedad, o bien ser trasladados desde
quirófano tras una intervención quirúrgica urgente o programada. Los criterios de ingreso
generales, aunque puede haber diferencias locales y/o personales, tratan de definir a un
paciente al que conviene vigilar porque puede sufrir una complicación que compromete
su vida y al paciente que ya presenta una disfunción que amenaza su vida y necesita ser
sustituida o soportada. Ejemplos de estos tipos de paciente son el paciente estable que
acaba de sufrir un infarto agudo de miocardio y puede presentar bruscamente una arritmia
(Foto 2) y el paciente con una neumonía que necesita respiración artificial.
Foto 2. Paciente ingresado en el
Servicio de Medicina Intensiva tras
sufrir un infarto agudo de miocardio,
parada cardiaca por fibrilación
ventricular recuperada y choque
cardiogénico, que precisa
monitorización ECG continua,
ventilación mecánica, balón de
contra pulsación intraaórtica, y un
sistema intravascular de hipotermia
terapéutica.
Por otra parte, existe un aspecto inherente a cualquier ingreso en UCI, que hace referencia
a la reversibilidad de la situación que compromete la vida del paciente. Fuera de las UCIs,
los intensivistas frecuentemente son los encargados de atender las paradas cardiacas que
se producen en pacientes ingresados en plantas de hospitalización. Otra tarea frecuente
es la valoración en Urgencias o en planta de pacientes candidatos a ingresar. A este tipo
142
de actividad recientemente se ha pretendido darle formato estable, definiendo el tipo de
paciente que provoca el aviso al intensivista y ampliándola a pacientes que se dan de alta
de UCI a planta, proporcionando de esta manera la llamada “continuidad asistencial”.
Aunque las autoridades sanitarias de todos los niveles, incluidas las direcciones de los
centros, reconocen que la medicina intensiva correctamente practicada puede salvar vidas
y dinero, son frecuentes las limitaciones de recursos humanos y materiales con las que
desarrollan su actividad las UCIs. Particularmente acuciante parece la falta crónica de
camas en muchas unidades, que se expresa como una elevada ocupación (nº de pacientes
x días de estancia/nº de camas de la UCI x días del año). Mientras que se considera que
para un correcto funcionamiento la ocupación media no debe sobrepasar el 80%, no son
infrecuentes ocupaciones medias del 95%, lo que significa que existen muchos días con
ocupación superior al 100%. La consiguiente sobrecarga de trabajo para el personal
sanitario de las UCIs se ha demostrado que conlleva un aumento de los errores. Las
recomendaciones de las sociedades científicas de disponer de un 10% de camas de UCI
del total del hospital son ciertamente matizables. La media en España, sin embargo, con
el 3% parece claramente mejorable. El aumento de la demanda, es decir, del número de
ingresos de pacientes, tanto médicos como quirúrgicos, junto a la reducción de la oferta,
por la creciente gravedad de los pacientes y el correspondiente aumento de la estancia
media, han llevado a agravar el mencionado problema de la falta de camas para ingresar
pacientes.
En el mundo existen a grandes rasgos dos tipos de gestión y organización de los cuidados
intensivos, llamados “abiertos” y “cerrados”. En las unidades con un sistema abierto un
médico solicita ingresar a su paciente y continúa siendo el responsable del mismo a lo
largo de la estancia en cuidados intensivos. De esta manera, por ejemplo, un cirujano
solicita cama en UCI para los cuidados postoperatorios de su paciente y continúa pasando
visita a diario, tomando decisiones sobre el tratamiento, las pruebas diagnósticas a realizar,
el alta, etc. Lógicamente, en este tipo de organización no hay médico de presencia física,
que pueda acudir a atender una complicación aguda y los tiempos de respuesta son largos
o inexistentes. Este sistema es el habitual en muchos países como por ejemplo los Estados
Unidos. El sistema de UCIs “cerradas” es el común en países como España y Australia. En
estas unidades hay médicos especialistas en medicina intensiva presentes las 24 horas
del día, que pasan a ser los principales responsables de los pacientes que ingresan en la
unidad. En estas unidades cerradas, además, se trabaja en equipo y se realizan
habitualmente dos sesiones diarias en las que se discuten los casos de los pacientes. Estos
elementos de comunicación han sido identificados como herramientas que garantizan la
calidad asistencial y la formación continuada de los Servicios. En los últimos años se ha
podido demostrar lo que, por otra parte, parece de sentido común, que las UCIs cerradas
tienen mejores resultados y menor mortalidad que las UCIs abiertas. Esta noción ha llevado
a que en Estados Unidos grupos de directores o gestores de hospitales como el grupo
“Leapfrog” ejerza presión sobre los responsables de los centros para que contraten
intensivistas “full-time”. Esta característica de los hospitales en el futuro tendrá consecuencias
en la obtención de recursos de financiación.
Sin la existencia de las unidades de cuidados intensivos, muchos de los avances de la
medicina hospitalaria, como los trasplantes o la cirugía cardiaca, no habrían sido posibles.
Por lo tanto, es seguro que la demanda de servicios de cuidados intensivos en los hospitales
crecerá en los próximos años debido al aumento de las expectativas de vida de la población,
que incrementará la edad de nuestros pacientes, así como a consecuencia de los avances
tecnológicos. Asimismo, la población general tiene un conocimiento cada vez mayor de
la estructura y función de las UCIs. Las consecuencias de esta mejor información serán 1)
que los familiares entienden que los pacientes no ingresan para morir, sino que en estas
unidades es posible aplicar cuidados que permitan sobrevivir a una enfermedad con
riesgo vital y 2) que las expectativas y exigencias de que se apliquen cuidados de calidad
y según “estado del arte” serán cada vez mayores para los intensivistas.
Dr. Miguel Sánchez García. Jefe de Servicio de Medicina Intensiva del Hospital Clínico
San Carlos de Madrid.
143
INICIATIVAS Y PROGRAMAS
net
"¿Quién dijo que el tratamiento
con oxigenoterapia suponía estar
encerrado en casa? (...) Quien
fuera… se equivocó."
LA OXIGENOTERAPIA MÓVIL, TODO UN ABANICO DE POSIBILIDADES
PARA LOS PACIENTES CRÓNICOS. PAUL GARCÍA.
PAUL GARCÍA
¿Quién dijo que el tratamiento con oxigenoterapia suponía estar encerrado en casa?
¿Quién dijo que estos pacientes no podían desarrollar una vida activa? Quien fuera… se
equivocó. Cada vez más personas con enfermedades respiratorias y necesidad de recibir
oxigenoterapia para seguir viviendo demuestran que sus vidas pueden ser activas, que
pueden ser independientes y autónomos. Un buen ejemplo de ello fueron los 25 pacientes
y sus familiares que la semana pasada se dieron cita en Madrid para participar en una
Jornada de convivencia de pacientes con oxigenoterapia móvil. Acompañados en todo
momento por personal médico y técnico, los participantes pudieron disfrutar de un “Tour
Turístico” por las calles de Madrid. De este modo, algunos de los afectados que
habitualmente no “se animan a realizar actividades fuera de sus domicilios debido a sus
limitaciones físicas, han podido hacerlo ahora acompañados de personal médico”, destacó
Javier de la Cruz, psicólogo de Carburos Médica que ha participado en la Jornada con
pacientes. Y es que “las personas con enfermedades respiratorias crónicas que reciben
oxigenoterapia domiciliaria ven mermada notablemente su calidad de vida, tendiendo,
en ocasiones, al aislamiento y a la pérdida de relaciones y actividades placenteras”.
Los participantes fueron, en su mayoría, afectados de Enfermedad Pulmonar Obstructiva
Crónica (EPOC). Se estima que en nuestro país, el 9 por ciento de la población entre 40 y
60 años padece esta patología, cifra que aumenta hasta un 20 por ciento cuando se trata
de pacientes que superan esas edades. Aunque muchos de ellos consiguen controlar la
evolución de la enfermedad gracias a un diagnóstico y tratamiento adecuados, otros
evolucionan de tal manera que la enfermedad deriva en una insuficiencia respiratoria u
otras complicaciones. “Cuando los niveles de oxígeno en la sangre descienden por debajo
de 60 mmHg estaría indicada la oxigenoterapia crónica domiciliaria”, explica el doctor
Salvador Díaz Lobato, jefe de Urgencias del Hospital Ramón y Cajal, en Madrid. Se estima
que la prevalencia de la oxigenoterapia en España es de 115 por 100.000 habitantes, lo
que implica que 60.000 pacientes con EPOC reciben tratamiento con oxigenoterapia.
Participantes en la jornada sobre EPOC en Madrid.
146
En estos casos, el paciente debe recibir un suministro de oxígeno durante un tiempo
mínimo estimado en 16 horas al día para que la terapia sea efectiva. En este punto, la
oxigenoterapia móvil supone “una importante mejora en la calidad de vida de los pacientes,
ya que les permiten salir de su casa y aumentar su movilidad, manteniendo siempre una
buena oxigenación”, asegura el doctor Díaz Lobato. El encuentro, que tenía como objetivo
mostrar tanto a los pacientes como al resto de la población que es posible hacer compatible
un tratamiento con oxígeno y una vida prácticamente normal, ha sido organizado Carburos
Médica y el Hospital Ramón y Cajal de Madrid.
Oxigenoterapia móvil.
Actividades como ésta son posibles a la colaboración de entidades que facilitan a los
pacientes todo el equipamiento médico y técnico necesario. En este caso, los pacientes
que participaron dispusieron de las últimas incorporaciones tecnológicas en los tratamientos
con oxígeno, que están permitiendo que los pacientes ya puedan plantearse este tipo de
actividades. La oxigenoterapia móvil, suministrada tanto mediante contenedor de oxígeno
líquido portátil como a través de un concentrador portátil, aporta a los pacientes grandes
beneficios ya que la movilidad es algo muy importante para cuando se precisa estar
conectado a una fuente de oxígeno durante más de 16 horas al día para poder respirar.
La elección de un tipo u otro de oxigenoterapia depende, fundamentalmente, del tipo de
vida activa que el paciente es capaz de realizar. La oxigenoterapia móvil permite al paciente
desplazarse con oxígeno fuera de su domicilio y la movilidad obtenida puede ser de varias
horas o total dependiendo de la fuente de suministro.
En el caso del concentrador portátil, su tecnología le hace asemejarse al funcionamiento
de un teléfono móvil ya que se recarga fácilmente en una fuente eléctrica y, además,
dispone de baterías externas recargables. En este punto, los sistemas de oxigenoterapia
móvil suponen “una importante mejora en la calidad de vida de los pacientes, ya que les
permiten salir de su casa y aumentar su movilidad, manteniendo siempre una buena
oxigenación”, ha asegurado Javier de la Cruz. Aunque sus ventajas en cuanto a la mejora
de la calidad de vida y de la libertad son claras, aún hay muchos pacientes que desconocen
esta opción o piensan que “no está hecha para ellos”. Sin embargo, cualquier paciente que
necesite oxígeno y que lleve una vida activa es susceptible de utilizar este tipo de
tratamiento.
¿Qué es la EPOC?
Puedes encontrar este artículo en
EL BLOG QUE RESPIRA, el blog de
Carburos Médica en
www.proyectonets.org. Recuerda
que en NETS puedes comentar los
artículos, dar tu opinión, participar en
debates y escribir nuevos artículos.
La mayoría de los pacientes que precisan oxigenoterapia están diagnosticados de
Enfermedad Pulmonar Obstructiva Crónica (EPOC), una afección pulmonar que se caracteriza
fundamentalmente por la disminución de los flujos ventilatorios, dando así lugar a una
obstrucción bronquial que, a la larga, conduce a la aparición de unos síntomas, entre los
que el fundamental es la falta de aire o disnea. “Si la enfermedad avanza a unos niveles
en los que el aparato respiratorio es incapaz de mantener una adecuada cantidad de
oxígeno en la sangre, será preciso el uso de oxigenoterapia”, explica el experto. El paciente
con EPOC que recibe oxigenoterapia suele ser varón, con una larga historia de fumador
y con unos 55 ó 60 años de edad. “Este perfil puede variar en los próximos años debido
al aumento del número de mujeres fumadoras”. Cuando a estos aspectos se añaden otros
problemas o patologías asociadas, como obesidad o alguna cardiopatía, entonces, puede
adelantarse la edad de indicación de la terapia.
La primera medida terapéutica en todos los pacientes es el abandono del hábito tabáquico,
responsable de la gran mayoría de los casos de EPOC. Además, antes de comenzar con la
oxigenoterapia, está indicada la rehabilitación respiratoria para mejorar la condición
ventilatoria y el uso correcto de broncodilatadores y corticoides inhalados. “Sólo cuando
estas medidas no son suficientes para mantener una adecuada oxigenación de la sangre,
ha de plantearse dar un paso más y comenzar con el tratamiento con oxígeno crónico
domiciliario”, concluye el doctor Díaz Lobato.
Paul García de Oteyza. Director de Marketing de Carburos Médica - Grupo Air Products.
147
"Las medidas preventivas son técnicas
pero requieren de la connivencia de
todas las instituciones y personas con
responsabilidades sociales"
ALIANZA PARA LA PREVENCIÓN DEL CÁNCER DE COLON: UNA
AVENTURA COMPARTIDA. Dr. ANTONI CASTELLS.
Dr. ANTONI CASTELLS
El cáncer colorrectal es un problema de salud que nos concierne a todos. Sin duda, en una
primera lectura, esta aseveración se justifica por la demografía y las características
epidemiológicas de esta neoplasia. Así, en el momento actual, es ya el tumor más frecuente
en España, con más de 25.000 nuevos casos al año. Además, a pesar de los grandes avances
alcanzados en su tratamiento en las últimas décadas, continúa siendo la segunda causa
de muerte por cáncer, falleciendo en nuestro país más de 13.000 personas cada año como
consecuencia del mismo. La paridad entre géneros y el crecimiento exponencial de su
incidencia a partir de los 50 años de edad hace que una proporción muy significativa de
la población deba considerarse a riesgo de presentar esta enfermedad, una circunstancia
reforzada por la inquietante implicación de los factores ambientales y genéticos en su
patogenia.
Más allá de los aspectos demográficos y epidemiológicos señalados, la relevancia del
cáncer colorrectal a nivel personal, social y económico viene dada por las enormes
posibilidades que tenemos para evitarlo. Hoy en día, nadie cuestiona la importancia de
una dieta sana o del ejercicio en la prevención de las enfermedades cardiovasculares, o
la eficacia de la mamografía en la detección precoz del cáncer de mama. Sin embargo, a
pesar de la demostración inequívoca de la efectividad y eficiencia de las medidas de
cribado del cáncer de colon y recto, aun se discute la necesidad o la conveniencia de
instaurarlas.
Muchos son los factores que pueden justificar esta inconsistencia y, a bien seguro, nadie
está libre de culpa. Las autoridades y los gestores sanitarios han sido, durante muchos
años, reticentes a la puesta en marcha de programas de cribado, en parte por el elevado
coste que supone su puesta en marcha. La bondad de un sistema público, universal y
gratuito, obliga a evaluar con precisión el retorno que va a tener la inversión que comporta
cualquier nueva prestación, aunque en el caso que nos ocupa el balance a medio y largo
plazo es favorable a todas luces. Los profesionales sanitarios tampoco estamos en
condiciones de tirar la primera piedra, pues la formación cada vez más específica hace, en
ocasiones, que desconozcamos algunos de los avances más sobresalientes de la Medicina
contemporánea. Es deber de las sociedades científicas, a través de una formación continuada
de calidad, y de los docentes con responsabilidades en ciencias de la salud, por lo que
concierne a la enseñanza de pregrado, dar a conocer la evidencia científica que hoy se
dispone. Por último, el ciudadano también es partícipe, en su parte alícuota, en la dilación
a instaurar determinadas actuaciones, en ocasiones escudado en la política del “a mi no
me ocurrirᔠy, en otras, por la reticencia en asumir medidas –dietéticas o modificaciones
de ciertos hábitos, en su mayoría– que obligan a modificar, aunque sólo sea discretamente,
“nuestro irrenunciable estilo de vida”.
La prevención del cáncer de colon es un deber común. Cada uno de nosotros, en calidad
de profesionales, gestores sanitarios implicados en salud pública o ciudadanos de a pié,
tenemos alguna responsabilidad en la solución de este importante problema. Los beneficios
los podremos medir en escalas de valores personales, evitando a nuestros hijos el amargo
acontecer de la orfandad o, más importante aun en nuestra condición de padres,
previniendo en ellos la aparición de la cruel enfermedad que condicionó el devenir de la
148
propia familia. Los beneficios alcanzan significación macroeconómica, no tan sólo por el
sustancial ahorro de recursos económicos, técnicos y humanos que el cribado del cáncer
colorrectal lleva parejo a medio plazo –un periodo no demasiado largo pero, en cualquier
caso, superior a los cuatrienios en los que “debe” visualizarse cualquier nueva actuación
impulsada por nuestros responsables políticos–, sino también por el impacto
sociodemográfico asociado.
Con el fin de dar a conocer y difundir la importancia del cáncer de colon y recto, así como
promocionar las medidas encaminadas a su prevención, recientemente cinco sociedades
científicas –Asociación Española de Gastroenterología (AEG), Sociedad Española de
Epidemiología (SEE), Sociedad Española de Medicina Familiar y Comunitaria (SEMFyC),
Sociedad Española de Oncología Médica (SEOM), y Sociedad Española de Oncología
Radioterápica (SEOR)–, la Asociación Española Contra el Cáncer (AECC), y la Asociación de
pacientes Europacolon-España, han decidido unir esfuerzos y constituir la “Alianza para
la Prevención del Cáncer Colorrectal en España”.
En su primer año de existencia, este consorcio ha llevado a cabo diferentes actos y
actividades científicas, sociales y mediáticas en toda España a lo largo del pasado mes de
marzo, coincidiendo con la celebración del mes internacional del cáncer colorrectal.
Algunas de estas actividades han tenido un carácter central, entre las que destacan la
presentación de la Alianza ante la Comisión de Sanidad del Congreso de Diputados, la
Jornada para la prevención del cáncer de colon en España en el medio laboral (coorganizada
por la Fundación Tejerina), la Jornada “Implicación de enfermería en la prevención del
cáncer de colon” (coorganizada por el Consejo General de Colegios de Enfermería) y la
Jornada para la Prevención del Cáncer de Colon en España (coorganizado por el Ministerio
de Sanidad y Consumo). Además, se han llevado a cabo más de 100 actos y actividades
más en la mayoría de Comunidades Autónomas, para los que se han contado con la
colaboración de sus respectivas consejerías de sanidad. Para más información,
recomendamos consultar la página de la Alianza: www.alianzaprevencioncolon.es
El cáncer colorrectal es un problema que nos concierne a todos, y su prevención, un deber
común. Las medidas preventivas son técnicas, pero para llevarlas a cabo se necesita la
connivencia de todas las instituciones y personas con responsabilidades sociales. No
dejemos que el discurso político o ideológico monopolice esta importante labor. La
colaboración entre todos los implicados –gestores sanitarios, profesionales de la salud,
ciudadanos comprometidos, y pacientes– es crucial para el pleno desarrollo de esta
campaña, cuyo objetivo final es dar a conocer que esta grave y frecuente enfermedad
puede, no tan sólo curarse, sino incluso prevenirse. En las manos de todos nosotros,
administraciones, entidades científicas, sociedad civil y asociaciones de pacientes, está
que lo consigamos.
Organismos y entidades mencionadas:
Comisión de Sanidad del Congreso de
Diputados www.congreso.es
Consejo General de Colegios Oficiales
de Enfermería de España
www.cge.enfermundi.com
Fundación Tejerina
www.fundaciontejerina.es
Ministerio de Sanidad y Consumo
www.msc.es
Dr. Antoni Castells i Garangou. Jefe del Servicio de Gastroenterología del Hospital Clínic
de Barcelona, IDIBAPS-CIBERehd.
Coordinador nacional de la Alianza para la Prevención del Cáncer de Colon.
Enlaces a páginas Web:
Alianza para la Prevención del Cáncer Colorrectal en España www.alianzaprevencioncolon.es
Fundadores:
Asociación Española Contra el Cáncer (AECC) www.todocancer.com
Asociación Española de Gastroenterología (AEG) www.aegastro.es
Sociedad Española de Medicina de Familia y Comunitaria (SEMFyC) www.semfyc.es
Sociedad Española de Oncología Médica (SEOM) www.seom.org
Sociedad Española de Oncología Radioterápica (SEOR) www.seor.es
Sociedad Española de Epidemiología (SEE) www.seepidemiologia.es
Asociación de pacientes Europacolon-España www.europacolonespana.org
149
Proyecto NETS es un proyecto vivo gracias a la participación
activa de muchas personas e instituciones. Queremos hacer
una mención especial a Alfonso Díez y su equipo en Bet Value,
a Javier Marín y a los profesionales de Dialcom Networks por
sus aportaciones técnicas a www.proyectonets.org. A todos
los autores que han colaborado desinteresadamente en este
número, a las organizaciones e instituciones, públicas y privadas
que se han adherido a NETS y especialmente a Paul García de
Oteyza, Javier Gago, Inmaculata Ramos, Jan Möller, Javier Lorite,
Pedro Tellería, Julio Fernández Llamazares, Fran Marín, Enrique
Gavilán, Antonio Villafaina, Fernando Comas, Javier Valera,
Jesús Aguilar, Laura González-Molero, Ana Céspedes, Santiago
Almazán, Xavier Carbonell, Werner Knuth, Concha Marzo, Mary
Carmen Muiños, Guillermo Castillo, Paloma Fernández-Cano y
Joaquím Camprubí. A la Agencia de Calidad del SNS y la Agència
d´Avaluació de Tecnologia i Recerca Mèdiques por reconocer
a NETS como herramienta de interés para el sector sanitario,
y a todos los usuarios de www.proyectonets.org.
Nicolás Villar. Director de Proyecto NETS. Octubre de 2009.
nets continúa en...
www.proyectonets.org
nets está integrada en la Red de Información y Comunicación de Tecnología aplicada a la Salud