Download Los retos de la Biología estructural

Document related concepts

Bacteriófago wikipedia , lookup

Resistencia a antibióticos wikipedia , lookup

Antibiótico wikipedia , lookup

Acinetobacter wikipedia , lookup

Transcript
nº16
mayo 2016
CIENCIA Y TECNOLOGÍA
Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco
John Pendry
Javiez Aizpurua entrevista al
catedrático del Departamento de
Física del Imperial College London
Industria e
investigación
Mesa de ideas
¿Dos realidades cada vez más
cercanas?
Los retos de
la Biología
estructural
Artículos de David Albesa-Jove,
Javier O. Cifuente, Marcelo E. Guerin
y Jesús Jiménez Barbero
Contenidos
Editorial 04
Jesús Jiménez Barbero, director científico de CIC bioGUNE nos cuenta
los retos de la biología estructural
Diálogos científicos 06
Javier Aizpurua entrevista a John Pendry, catedrático del Departamento
de Física del Imperial College London
Ciencia en abierto 12
Albert López Amor, periodista de divulgación científica, escribe sobre el
fin de la resistencia bacteriana.
Cristina Juesas, experta en comunicación de la ciencia por la UNED, nos
enseña a comunicar ciencia de una manera efectiva
Investigación en vivo 20
La ingeniería biomédica: de la pata de palo hasta las interfaces
neuronales, artículo de Ander Ramos-Murguialday, Andrea Sarasola,
Nerea Irastorza, Manuel Montejo, Goran Bijelic, Niels Birbaumer, Thierry
Keller y Joe McIntyre
Biología Estructural: contribución al descubrimiento y desarrollo de
nuevos antibióticos, artículo de David Albesa-Jove, Javier O. Cifuente y
Marcelo E. Guerin
Entorno CIC 33
Mesa de ideas
Industria e investigación: ¿Dos realidades cada vez más cercanas? Con
José Ignacio Hormaeche, María José Aranguren, Antonio Martínez, Amaia
Maseda, Arrate Olaitz y Azucena Castro. Modera: José Esmoris
Artículos de
M.C. Morant-Miñana, A. Rodríguez, A. Zuzuarregui, Elena C. Gonzalo, A.
Rubio, O. Pereira, F.Veiga, A. Rodríguez, A. Rivero, L.N. López de Lacalle
Científicos ilustres 68
Pedro Gómez-Romero, Nikola Tesla, creador de futuro
Retos en biología estructural
Empiezo este artículo agradeciendo la confianza de los responsables de CIC
Network al incluirme en el nuevo Comité Editorial de la revista y pedirme que
escribiese este editorial. Desde su comienzo, CIC Network ha estado siempre en mi despacho y su lectura me ha permitido conocer, paso a paso, los
avances científicos que se han producido en los CICs. Las entrevistas y mesas
redondas siempre han representado una fuente de conocimiento y de inspiración para mí, a todos niveles. Además, durante estos años, siempre había
sentido cierta “envidia sana” hacia el sistema de investigación en Euskadi y
disfrutado del papel de los CICs, especialmente de los “bioCICs”, más relacionados con mi trabajo investigador, en el desarrollo de este sistema.
Hace casi un año que acepté la dirección científica de CIC bioGUNE, el CIC
más veterano, aunque sólo con diez años de existencia. Estos diez meses
han sido muy intensos, en todos los aspectos de mi vida. He asumido esta
tarea con mucha ilusión y entusiasmo. Me siento muy orgulloso de formar
parte de esta sociedad.
En estos primeros meses, nos hemos empleado a fondo en emprender nuevas acciones, complementando las ya existentes, y así acometer con garantía
los retos que nos propone el nuevo Plan de Ciencia, Tecnología e Innovación
Euskadi 2020. Siempre enmarcados dentro de las Ciencias de la Vida, y teniendo en cuenta el excelente plantel investigador y las infraestructuras ya
existentes, los dos programas de investigación de CIC bioGUNE se dirigen a
la investigación en Metabolismo y Enfermedad, incluyendo mecanismos de
señalización celular, y al estudio de procesos de reconocimiento molecular,
muy especialmente aquellos relacionados con interacciones entre patógeno
y huésped. Y es en este último aspecto en el que incide uno de los temas de
este número de CIC Network, los avances en Biología Estructural. Esta disci-
Jesús Jiménez-Barbero,
CIC bioGUNE
plina, que tiene raíces profundas en la biología molecular, la bioquímica, la
química biológica y la biofísica, está dirigida al estudio de la estructura de las
moléculas biológicas (proteínas, ácidos nucleicos, glicoconjugados, lípidos)
con el objeto de conocer los fundamentos que conducen al establecimiento de esta estructura y cómo la estructura está relacionada con su función
biológica. Dentro de los objetivos de la biología estructural se incluyen la
comprensión de cómo las distintas moléculas se relacionan con su entorno,
cómo se mueven, cómo se reconocen entre sí y cómo transmiten la información específica que se requiere para producir el efecto correspondiente.
Existen diversas técnicas que permiten acceder a este conocimiento. Entre
ellas, merecen mención especial la espectroscopía de resonancia magnética nuclear (RMN), la difracción de Rayos X y la crio-microscopía electronica.
Estas técnicas tienen distintos rangos de aplicabilidad, dependiendo del tamaño molecular, la dinámica del sistema y el grado de resolución requerido
para alcanzar las objetivos perseguidos. Estas herramientas, si bien están
perfectamente establecidas, están experimentando continuamente nuevos
desarrollos tecnológicos y básicos que permiten su aplicación, con éxito, al
estudio de muy diversos problemas de gran interés en biología y en biomedicina. De hecho, en lo que llevamos de siglo XXI, varios científicos que han desarrollado y aplicado métodos de esta disciplina han sido galardonados con
el Premio Nobel de Química. Entre ellos se encuentran Robert J. Lefkowitz
y Brian K. Kobilka (2012) por sus estudios sobre receptores acoplados a la
proteína G, Venkatraman Ramakrishnan, Thomas A. Steitz y Ada E. Yonath
(2009) por sus estudios sobre la estructura y función del ribosoma, Roger
D. Kornberg (2006) por sus aportaciones sobre las bases moleculares de la
transcripción eucariota, Peter Agre y Roderick MacKinnon (2003) por sus estudios sobre canales en membranas celulares, Kurt Wüthrich (2002) por el
desarrollo de los métodos de RMN para el estudio de macromoleculas biológicas.
Otros están también relacionados, en mayor o menor medida, como los galardones a Martin Karplus, Michael Levitt y Arieh Warshel (2013) por el desarrollo de
modelos multi-escala para describir sistemas químicos complejos o también a Eric
Betzig, Stefan W. Hell y William E. Moerner (2014) por el desarrollo de la microscopía de fluorescencia de súper resolución.
La investigación realizada por estos científicos tiene relevancia especial en salud y
revela, una vez más, cómo el desarrollo de conocimiento básico de calidad puede
transferirse a la sociedad, trascendiendo los aspectos meramente fundamentales
para llegar a mejorar nuestra calidad de vida.
Como comentaba más arriba, la investigación en el desarrollo de las técnicas de
RMN, Difracción de Rayos X y crio-microscopía ha alcanzado cotas espectaculares
en lo llevamos de este siglo. Merece la pena resaltar los últimos avances tecnológicos en crio-microscopía electrónica, que están permitiendo monitorizar estructuras e interacciones entre biomoléculas con una resolución que era inalcanzable
hace muy pocos años con esta técnica. Es posible comprender cómo se producen
las interacciones entre moléculas y otras entidades, incluyendo virus y otros patógenos, casi a nivel atómico. Este conocimiento debe conducir al desarrollo de
moléculas que modulen estas interacciones para potenciar efectos beneficiosos
o impedir efectos nocivos para la salud. En múltiples laboratorios del mundo que
trabajan en este campo, incluyendo los de CIC bioGUNE y otros dentro de Euskadi,
estos avances en biología estructural, enfocados al estudio de procesos de reconocimiento molecular, están permitiendo orientar la investigación hacia problemas
científicos directamente relacionados con la salud, como los que se presentan en
este número por parte de grupos de investigación liderados por investigadores
jóvenes. Estos grupos cuentan ya con una trayectoria reconocida y destacada. No
me cabe que a lo largo de su carrera continuarán realizando aportaciones espectaculares de gran trascendencia, tanto a escala científica como social.
Espero que este ejemplar de CIC Network os sirva de disfrute e inspiración, tanto o
más de la que me proporcionaron muchos de los números anteriores.
Consejo Editorial
Aurkene Alzua-Sorzabal
Eduardo Anitua
Pedro Miguel Etxenike
Félix M. Goñi
Joseba Jauregizar
Luis Liz Marzán
Xabier de Maidagan
José María Mato
José María Pitarke
Ana Zubiaga
Nuria Gisbert Trejo
Jesús Jiménez Barbero
Director
Jesús María Goiri Basterra
Colaboran
Jesús Jiménez Barbero
Javier Aizpurua
Albert López Amor
Cristina Juesas
Ander Ramos-Murguialday
Andrea Sarasola
Nerea Irastorza
Manuel Montejo
Goran Bijelic
Niels Birbaumer
Thierry Keller
Joe McIntyre
David Albesa-Jove
Javier O. Cifuente
Marcelo E. Guerin
M.C. Morant-Miñana
A. Rodríguez
A. Zuzuarregui
Elena C. Gonzalo
A. Rubio
O. Pereira
F.Veiga
A. Rodríguez
A. Rivero
L.N. López de Lacalle
Coordinación
Sara Ortiz
Prismaglobal
Diseño y maquetación
Prismaglobal
Reportajes fotográficos
Xabi Aranburu
Nuria González
Edita
CIC Network
Asoc. Red de Centros de Investigación Cooperativa
del País Vasco
Parque Tecnológico de Bizkaia, Ed. 800
48160 Derio (Bizkaia)
[email protected]
Depósito legal
SS-1228-2006
Esta revista no se hace responsable de las opiniones emitidas
por sus colaboradores. Queda prohibida la reproducción total
o parcial de los textos y elementos gráficos aquí publicados.
OS
ÍFIC
ENT
S CI
LOG
O
DIÁ
“La Nanofotónica es un
área nueva donde somos
capaces de controlar la luz
en una pequeña escala sin
precedentes”
John Pendry, catedrático de Física Teórica del Estado Sólido en el Departamento
de Física del Imperial College London es entrevistado por Javier Aizpurua,
profesor de investigación del CSIC en el Centro de Física de Materiales de San
Sebastián (CSIC-UPV/EHU) y DIPC.
No hay mucha gente que pueda decir que ha sido compañero de estudios de
Stephen Hawking y todavía hay mucha menos que reconozca que competir
con este genio le llevó a cambiar su carrera científica. John Pendry es uno
de ellos. Dejó de lado el campo de la relatividad para convertirse en una de
las referencias mundiales de la nanofotónica y de la física de superficies. El
investigador británico señala que la teoría de la óptica de transformación y los
metamateriales han pasado hace tiempo al campo experimental e incluso ya
se está empezando a crear producto.
DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua
John Pendry, Profesor de Física Teórica en el Imperial College
de Londres, es una de las referencias mundiales en el campo de la
física de superficies y de la nanofotónica. Ha desarrollado conceptos
como el índice de refracción negativo, la óptica de transformación y es
uno de los pioneros en el ámbito de los metamateriales. A lo largo de
su extensa carrera ha recibido premios tan importantes como el Kavli
Prize en nanociencias, la Royal Medal y la Isaac Newton Medal.
John, usted es una de las referencias mundiales en el campo de la nanofotónica, y querríamos tener una conversación acerca de su increíble
carrera científica. En primer lugar querríamos saber, ¿qué es la nanofotónica?
La fotónica se centra en controlar la luz. Habitualmente, la forma de controlar la luz está limitada por la longitud de onda. La longitud de onda se mide
en micras, que es la millonésima parte del metro. Pero la luz también tiene
una estructura mucho menor, de difícil acceso, una estructura en la nanoescala. Y esta estructura se revela cuando la luz se encuentra con las nanoestructuras, tales como las estructuras metálicas, donde la luz puede excitar
estados de oscilación electrónica llamados plasmones. En consecuencia, la
nanoiluminación es un área nueva donde somos capaces de controlar la luz
en una pequeña escala sin precedentes. Y para ello necesitamos nuevas técnicas; nuevas técnicas teóricas y también nuevas técnicas experimentales. Es
muy emocionante.
Antes de comenzar a estudiar la nanofotónica, ¿qué hizo en su infancia?
¿Y cuándo empezó a estudiar? ¿Qué le llevó a desarrollar este interés en
general por la ciencia, especialmente en el campo de la física?
No lo sé, siempre he tenido interés por la física, fui un niño curioso, quería
saber por qué ocurrían las cosas, le preguntaba a mi padre por qué ardían
las llamas en la chimenea... supongo que mi curiosidad se veía estimulada
por el hecho de que mi familia tenía un negocio de electricidad, de ahí mi
interés por las partes eléctricas. Cuando yo nací ya habían dejado ese área
de trabajo, pero los antiguos aparatos eléctricos estaban aún en el sótano. Y
solía bajar allí y jugaba con todos esos cables y enchufes, bombillas y cosas
así. Era muy divertido Había muchas otras cosas allí abajo también, pero
solo me interesaba lo eléctrico.
A pesar de ser un físico teórico, ¿fue por tanto la curiosidad práctica de
las cosas la que le motivó al principio?
De hecho, mi primera titulación fue en Física Experimental y no en Física
Teórica. Soy un teórico no porque no pueda hacer experimentos, me sentiría
insultado si alguien me dijera eso, pero gracias a la teoría puedo extenderme
hacia un área más amplia de la ciencia que mediante un experimento.
Y entonces, dentro de esta curiosidad por los aparatos eléctricos, ¿qué
le llevó a la física de las superficies, a los fotones, a la luz? ¿Cómo evolucionó hacia estos temas con todas las posibilidades que ofrece la física?
Bueno, fue por un accidente desafortunado y a la par afortunado. Lo desafortunado fue que fastidié el último año de mi primera titulación. Por lo que
no tenía ni nivel ni la titulación necesaria para garantizarme un puesto de
investigador. Como mucha gente en esos momentos, quería hacer investigación en el campo de la relatividad general, pero cuando se compite con
personas de la talla de Stephen Hawking como compañero de estudios, uno
no tiene muchas posibilidades si no eres de sobresaliente. Por lo que me vi
forzado a hacer lo que estuviera disponible, y lo que estaba disponible era
un doctorado en Ciencia de las Superficies sobre difracción de electrones,
y eso resultó ser estupendo para mí. No era un tema glamuroso en aquel
momento, pero era un campo que planteaba muchos retos.
Yo diría que probablemente Stephen Hawking se afianzó con la teoría
de la relatividad; pero usted se ha hecho con el sitio de Stephen Hawking en el campo de la física de superficies. Por lo que no fue una mala
decisión... aunque le obligaran a ello. Tras hacer el doctorado en Cambridge, mantiene una carrera muy conectada con el Reino Unido, y a
continuación acepta un puesto en Bell Labs. ¿Cómo fue esa trayectoria?
Sí, fue muy importante para mi carrera ver cómo funcionaban las cosas fuera
del ambiente universitario y también que fuera en un gran laboratorio. En
aquel momento, Bell Labs era quizá el laboratorio más puntero del mundo,
tanto en la ciencia de superficies como en la teoría de materia condensada,
aunque también en otras áreas. Y era un ambiente muy estimulante, al estar
entre verdaderos expertos.
Una vez que desarrolló esta parte de su formación durante esos dos
años en Bell Labs, siguió su carrera volviendo al Reino Unido, regresando cerca de Manchester...,
De hecho, volví para ocupar una posición de profesor junior en Cambridge.
No estaba muy contento con este puesto porque Cambridge, especialmente
Cavendish, es un laboratorio muy distinguido y alguien tiene que hacer el
trabajo y, ese era el Profesor Junior. Aunque cierta parte del trabajo de la
enseñanza era divertido, había más cosas que hacer, como exámenes... Y me
vi enterrado en todo eso. Estaba deseando obtener un puesto que me permitiera proseguir con mi investigación sin muchos impedimentos. Un día, mi
antiguo director de tesis, Volker Heine, vino a mi despacho y me dijo: “Hay un
7
puesto en el nuevo laboratorio de sincrotrón para dirigir un grupo teórico. ¿A
quién podemos recomendar para este puesto?” Mi respuesta fue: “¿Por qué
no me recomienda a mí?” Y así es como fui a Daresbury.
Y tras ello le dan una Cátedra en el Imperial College. Esta ha sido la última fase de su carrera, por así decirlo.
Si lo ha sido. Llevo mucho tiempo en ello, desde 1981. Debería haberme movido, soy un gran defensor de moverse, pero mi esposa también trabajaba
en aquel momento y tenía un buen trabajo en Londres, lo que redujo las
posibilidades de mudarnos. Dado que el Imperial College es claramente la
mejor universidad de Londres, en mi opinión, en realidad, no había más sitios a los que ir. He sido muy feliz ahí durante todo este tiempo.
Entonces, considerando toda su trayectoria, ¿se definiría como un científico británico, que está muy influenciado por la cultura de la ciencia y
el ambiente británicos? ¿Habría sido muy diferente desde un punto de
vista científico si hubiera estado unido a cualquier otra sociedad?
No lo sé porque la ciencia es muy internacional hoy en día. Todos estamos
mezclados, y vemos la ciencia de una forma parecida. La gente habla de la
tradición científica británica. Creo que probablemente sería más apropiado
para referirse al siglo XIX y principios del siglo XX, más que al siglo XXI. La
tradición británica está muy guiada por los científicos experimentales y es
así; por lo que como físico británico, interactúo mucho con los experimentos,
es algo que disfruto y algo que creo es muy importante para que un teórico
tenga impacto con su trabajo.
Considerando su propia experiencia ¿qué cree usted que es más importante?, unos antecedentes sólidos con una base científica muy fuerte,
en este caso de física, que se puedan desarrollar progresivamente, o
sería mejor intentar un desarrollo científico basado en ideas brillantes?
¿Es más de formación o de “Eureka!”?
En versión resumida, diría que es más Eureka, porque es muy importante
poder resolver un problema concreto. Esto se ve cuando se seleccionan a
los doctorandos, que se hace en base a su capacidad de resolver problemas
establecidos y no por su habilidad para plantear problemas interesantes o
importantes. Y son talentos muy diferentes: la habilidad para resolver problemas se puede aprender. Sin embargo, sospecho que uno nace con la habilidad de plantearlos. Es algo que siempre sentí que hacía bien desde los
primeros días en ese sótano con los equipos eléctricos. Nunca me faltaban
ideas para hacer cosas con esos equipos.
“Para encontrar la naturaleza cuántica
de la luz tenemos que investigar más
a fondo, y esto se hace observando sus
fluctuaciones”
Así que diría que en sus propias ideas brillantes hay mucha inspiración,
aunque seguro que hay mucha formación detrás.
Absolutamente, es la base de todo. Si no hay un problema interesante sobre
el que trabajar, no importa lo listo que uno sea para resolverlo, es un maldito
problema y tendrá una maldita respuesta.
¿Le aconsejaría a un joven científico que se enfrentara a problemas
científicos muy complejos o mejor que intentara resolver pequeños
problemas que pasaron desapercibidos a sus antecesores?
Creo que los jóvenes que piensan en la ciencia deberían plantearse si tienen
una verdadera pasión por ella. Porque, de no ser así, no van a pensar en ella
día y noche, evidentemente. Y, si la tienen, deberían familiarizarse con tanta
DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua
ciencia como puedan y cubrir un área lo más extensa posible: leyendo mucho en Internet, e informándose mucho. La ciencia me ha interesado toda la
vida, como desgraciadamente le diría mi mujer. A veces hay cosas en las que
debería haber invertido más tiempo. Como resultado, tengo un sorprendente trasfondo de conocimientos perdidos por ahí. La mayoría pueden resultar
inútiles, pero en ocasiones te das cuenta que cuando afrontas un nuevo problema, algo que estaba almacenado por ahí que casi ni recuerdas, puede ser
de utilidad. Se dice que un teórico, o un matemático, hacen su mejor trabajo
antes de los treinta y se olvidan de ello después. Pero esto es falso, porque la
riqueza de nuestra experiencia y esa mezcla se vuelve más y más completa
según nos hacemos mayores. Uno tiene acceso a más cosas.
“Un índice de refracción negativo sería
como si aplastásemos tanto el espacio
como para darle la vuelta sobre sí
mismo, un espacio con una métrica
negativa”
Usted es buena prueba de ello.
Sí, estoy haciendo mi mejor obra a los 60.
Hablemos un poco del método científico, Antes ha mencionado que colabora y está especialmente abierto a trabajar con físicos experimentales a pesar de ser un físico teórico. Creo que es muy importante que
haya una relación entre físicos experimentales y teóricos. En su caso,
¿es antes su teoría que el experimento, o es el experimento el que lidera
el esfuerzo teórico?
No empiezo con la teoría. Empiezo con un área o un problema que me resulta interesante, que me cautiva. Por alguna razón podría ser una teoría, pero
habitualmente es un experimento. Y si me interesa, y para interesarme tiene
que tener alguna relación intrínseca y - con suerte - profunda con el experimento, y además tiene que ser un área en el que crea que pueda aportar
algo. No tiene sentido observar el problema y decir: “No sé nada acerca del
cambio climático”, y obviamente es un gran problema. Pero tengo muy pocas
habilidades que pueda traer a la palestra en el campo del cambio climático,
por lo que no tiendo a pronunciarme sobre él.
En el año 2013 se celebró el centenario del modelo atómico. El modelo
atómico de Bohr que establece que la materia está formada por átomos y que los átomos tienen una estructura particular con electrones
que giran en órbitas cuánticas. Y esto finalmente evolucionaría hacia la
mecánica cuántica. El año 2015 ha sido el año de la luz. Usted trabaja en
el campo de la luz y los aspectos cuánticos también afectan a la óptica.
¿Qué diferencia hay entre la luz y un fotón?
Es interesante comparar la mecánica cuántica en el campo de la óptica con la
mecánica cuántica en la física de los electrones. Le responderé a su pregunta
pero antes repasaré unos antecedentes. En el caso de los electrones, se trata
de una partícula, la clásica partícula newtoniana, tiene masa y en ocasiones
reproduce las leyes de Newton sobre movimiento. Pero, al tener masa y ser
tan pequeña, tiene una naturaleza de onda y esto es parte de su carácter
cuántico. Y así, cuando se comienza a estudiar el electrón, nos encontramos
con su naturaleza cuántica; de hecho, las primeras indicaciones sobre la teoría cuántica nacieron de la difracción de electrones. Davisson, Germer y G.P
Thomson fueron tres personas involucradas en descubrir la naturaleza ondulatoria del electrón. En contraste, cuando nos adentramos en el campo de
la óptica, el fotón es una partícula sin masa por lo que se trata directamente
de una onda. Por ello, la forma más elemental de la mecánica cuántica no
entra en el fotón porque es una onda, no tiene masa, difracta siguiendo las
ecuaciones de Maxwell. Por tanto, para encontrar la naturaleza cuántica de
la luz tenemos que investigar más a fondo, y esto se hace observando las
fluctuaciones de la luz. Maxwell planteó la luz a una frecuencia determinada
como una corriente constante y uniforme que fluye como el agua; pero la na-
turaleza cuántica indica que no es así. La primera indicación de su naturaleza
cuántica se reveló en el efecto fotoeléctrico, donde resultaba evidente que la
luz solamente cedería su energía en ciertos múltiplos de la frecuencia, concretamente de 8 veces la frecuencia. Por tanto, los efectos cuánticos sobre
la luz están profundamente relacionados con su interacción con la materia.
Solo desde que hemos entrado en la era del láser hemos podido explorarlos
con mayor profundidad.
Así que todos estos desarrollos del láser y todos los conceptos de la
nanofotónica han evolucionado muchísimo en los últimos años. Realmente, usted es uno de los pioneros de la nanofotónica, tanto a nivel
conceptual como en un sentido amplio. En la nanofotónica ha desarrollado conceptos como el índice de refracción negativo, el desarrollo de
metamateriales, la óptica de trasformación... que han dado lugar a muchas aplicaciones, derivaciones en las que entraremos en detalle más
adelante. Pero si quiere, para empezar, ¿nos puede decir qué es el índice de refracción negativo en óptica?
Le diré por qué es tan especial. El término negativo procede del hecho de
asociarlo a un material con un índice de refracción. Cuando la luz penetra en
un material, se desvía, cambia su dirección y lo habitual es que cambie esa
dirección en un sentido positivo. Pero en un material con refracción negativa,
a causa de su extraña anti-respuesta al magnetismo y a la electricidad, la luz
se desvía en sentido contrario. Y, como tal, positivo / negativo, ¿qué más da?
Salvo porque existe una asociación muy extraña en la ecuación de Maxwell. Si lo comparamos con Einstein, Einstein no pensaba en espacios vacíos.
Pensaba en algo que podía aplastarse o estirarse. Describió este estiramiento en términos de métrica, y la métrica suele ser constante, pero cambia si
estamos cerca de un objeto con alto nivel gravitacional como el sol, el agua
o un agujero negro. Y en las ecuaciones de Maxwell, si fuéramos a escribirlas como lo hiciera Einstein, esta métrica aparecería en el mismo lugar que
el índice de refracción. Por lo que un cambio en la métrica sería como un
cambio en el índice de refracción. Para decirlo de otra forma, un índice de
refracción negativo sería como si aplastásemos el espacio tanto como para
darle la vuelta sobre sí mismo, un espacio con una métrica negativa. Y por
eso ocurren cosas tan extrañas con el índice de refracción negativo.
Y, ¿qué clase de materiales pueden provocar este comportamiento?
¿Podemos encontrarlos en la naturaleza? Usted es uno de los pioneros
en el campo de los metamateriales ¿Qué son los metamateriales?
En primer lugar, debemos reconocer el mérito de Victor Veselago, la persona
que señaló por primera vez que estos índices negativos eran interesantes y
que tenían propiedades muy especiales. Victor investigó mucho para encontrar materiales en los que este efecto ocurriera naturalmente, que tuvieran
esta respuesta eléctrica negativa, una respuesta magnética negativa que, a
su vez, mostrara un índice de refracción negativo. Pero no encontró ninguno.
Hizo su búsqueda en 1968, o unos años después, y como no tuvo éxito el
tema murió. Esta es la norma para los teóricos, y también una lección. No
fue hasta mucho más tarde, cuando estuve trabajando como consultor para
una empresa de radares que di con una forma de hacer materiales artificiales cuyas propiedades se reducen a la estructura física interna más que a la
estructura química. Me percaté de que podía hacer un material que tuviera una respuesta magnética negativa y una respuesta eléctrica negativa. En
esos momentos, no sabía nada acerca del índice de refracción. De hecho, fue
el equipo de Shelly Schultz, David Smith y Willy Padilla, en San Diego, el que
hizo esta asociación con el índice de refracción negativo, y tomaron mis ideas
para hacer estos materiales en los que realmente se podría hacer coincidir
ambas respuestas eléctrica y magnética negativas e hicieron los primeros
experimentos con materiales con refracción negativa. Esto fue un gran momento y generó mucho debate, digámoslo así.
¿Cómo se siente cuando algunas de sus ideas se materializan en un experimento, y por tanto se validan?
Siento una gran satisfacción por un trabajo bien hecho. Realmente es parte del cariz profesional del trabajo. Con frecuencia, la gente, especialmente
9
antiguamente, pintaba una imagen en la que el científico, especialmente el
teórico, era alguien que trabajaba solo, con sus ideas propias... pero así no
avanza la ciencia. Hay que involucrar a más gente. Y si hay un experimento
confirmando la teoría que teníamos, como en el caso del trabajo de la refracción negativa, entonces valida la teoría. Esto llama al interés de otro teórico y
de otro físico experimental, y así el tema despega.
Son más que eso. Usted y sus colaboraciones experimentales han abierto un nuevo campo, el de los metamateriales. Otros aspectos de su investigación también han sido muy destacados y han impactado mucho
a la comunidad. Podemos mencionar, por ejemplo, las lentes perfectas,
la óptica de transformación como una derivada de la conexión entre la
respuesta eléctrica y la transformación del espacio... ¿Cómo le explicaría a la gente lo que hace con estos conceptos en nanofotónica?
Partiendo de las ideas de Einstein, en las que se podía distorsionar el espacio,
nos planteamos si podemos hacer que este espacio esté distorsionado, introduciendo un índice de refracción que tenga la forma adecuada. Lo que hacemos realmente es imaginar que estamos distorsionando el espacio y luego
llevamos los campos de la luz por ellos, para que estas líneas de fuerza, como
las llamamos, se aplasten o se estiren a nuestra voluntad. Lo que tenemos
que hacer es formar un espacio artificial creando un índice de refracción que
tenga la misma densidad que tendría el espacio artificial. Esta es la base de
la óptica de transformación. Si se puede pensar en la distorsión del espacio
como una transformación de coordenadas, como la describiría un matemático. Y, partiendo de dicha transformación, puede encontrar la receta para
el índice de refracción. Y esto tiene dos consecuencias en la forma en la que
observamos la óptica: una es si pensamos en un índice de refracción negativo, ¿qué implica en términos de la métrica del espacio? ¿Se puede tener un
espacio negativo? No, no se puede. Pero en la óptica, en lo que se refriere
a la luz, tenemos una parte del espacio, de un material, que se comporta
como un espacio negativo. Es la antimateria óptica. Una parte de este material de refracción negativa, un trozo de espacio a su lado. Es como si algún
objeto que estuviera lejos, al poner el efecto negativo, se acercara. En otras
palabras, funciona como una lente pero lo hace de una forma muy distinta
a una lente normal que enfoca haces de luz y demás. Estas propiedades negativas realmente traen al objeto en su forma perfecta a una nueva posición.
Por lo que la lente es perfecta. Por esta razón, no hay que discutir sobre las
ecuaciones de Maxwell y ese tipo de cosas, simplemente lo sabemos porque
gracias a esta transformación la lente es perfecta. Esta es una de las formas
de entender la refracción negativa. Pero la óptica de transformación también
puede hacer otra cosa. Si se quiere controlar la luz, la forma en la que ésta
se propaga, podemos distorsionar el espacio, el lugar donde se dirigen todos
los campos de luz, y ésto nos permite diseñar una especie de capaóptica, que
es una de las cosas que hemos hecho con la óptica de transformación. Para
diseñar, por ejemplo, una capa de invisibilidad, queremos que la luz entre
en la capa, se aleje del objeto que estamos intentando esconder para que
no llegue a tocarlo y que continúe con su trayectoria original. La óptica de
transformación es una herramienta para hacer la capa, en la que se define
una esfera en la cual se crea dicha capa. Entonces hacemos un agujero en la
esfera y comprimimos el espacio en una cáscara por lo que no hay espacio
dentro de la capa y la luz no puede entrar. Pero fuera de la cáscara no se ha
modificado el espacio por lo que no se juega con la luz. Y cualquiera que esté
fuera de esa cáscara es completamente ajeno a lo que se ha hecho con la luz
dentro de la capa. Así que la óptica de transformación nos permite esconder un objeto de los rayos de luz, y hacer que aparezca como invisible ante
nuestros ojos para un determinado color. Y estas dos cosas probablemente
sean las consecuencias más impresionantes de la óptica de transformación
para un científico.
La lista de sus logros científicos es impresionante. ¿Qué viene ahora?
¿Qué es lo siguiente para usted?
¿Qué viene ahora? La teoría tiene que ser más que una teoría. La teoría de
la óptica de transformación y los metamateriales han pasado hace tiempo
al campo experimental. Hay muchos físicos experimentales haciendo capas,
haciendo lentes y todas estas cosas con los metamateriales. El próximo paso
sería crear un producto, y está ocurriendo ahora mismo. Hay productos basados en el uso de los metamateriales para construir no lentes perfectas,
sino lentes normales para focalizar la radiación de terahercios para radares
de prevención de colisiones en vehículos, por ejemplo. Cosas muy modestas, se hace lo que se puede, pero en muchas ocasiones se puede hacer
mejor, más ligero e, incluso, más barato. El ejemplo más reciente es una
empresa llamada Kymeta que ha estado utilizando los principios de los metamateriales. Metamateriales con los que podemos afinar las propiedades
de la corriente continua para poder modificar cómo refractan la radiación
y este receptor de telecomunicaciones está diseñado para comunicarse con
los satélites. Tiene que producir un haz que siga al satélite por el cielo. Hay
receptores de telecomunicaciones en forma de plato orientable de manera
mecánica que son pesados, caros y requieren mucha energía. Kymeta puede
fabricar un receptor de satélite que cuesta solo unos pocos cientos de dólares, es ligero y se puede conectar al puerto USB de un portátil.
En resumen, cree que el siguiente paso es ir del concepto a la funcionalidad.
Creo que tenemos que hacerlo porque el trabajo ha sido muy emocionante
desde el punto de vista científico y creo que se ha entrado en una fase en la
que la gente ve el aspecto anecdótico de nuestros hallazgos, refiriéndose a la
capa de invisibilidad de Harry Potter y tal. Y eso está bien hasta cierto punto.
Pero tenemos que demostrar a la gente que no se trata de hallazgos de feria,
sino que es una cosa que puede aportarle algo útil a la sociedad. La sociedad
ha invertido mucho dinero en el desarrollo de los metamateriales, y la gente
que está aportando este dinero quiere ver resultados, y los va a tener.
DIÁLOGOS CIENTÍFICOS - John Pendry y Javier Aizpurua
John, ha formado y ha enseñado a muchos buenos científicos a lo largo
de su carrera. Gente que, a su vez, se han convertido en grandes científicos, doctores, post-doctorados, y otros colaboradores.... ¿Podemos
hablar de un estilo Pendry de hacer ciencia, un estilo que ha seguido
la gente?
Es muy difícil hablar del estilo propio, porque uno piensa que es normal.
Igual le tiene que formular la pregunta a otra persona. ¿Por qué no se la hace
a Pedro Etxenike?
“Es importante reservar recursos para
trabajos a pequeña escala, ahí es donde
empiezan las cosas”
Probaré con varios, porque hay muchos que han sido influidos por usted que creo que podrán responder a esta pregunta. ¿Debe concentrarse un científico en su trabajo y aislarse del resto del mundo o intenta
estar conectado con los asuntos políticos, económicos y sociales e involucrarse en ellos hasta cierto punto?
Estoy muy interesado en los asuntos políticos. Los sociales no me interesan
tanto. Soy muy convencional en mi vida social, no me gusta extender los
límites demasiado. Está bien que la gente lo haga, pero no va conmigo. La
política, sin embargo, es algo importante. No soy muy competente en política, pero me interesa, especialmente cuando afecta a la economía. Devoro
The Economist cada semana, por lo que me considero bien informado en
ese campo.
Actualmente hay una tendencia de las políticas científicas de organizar
las estrategias y los objetivos científicos de los grupos de investigación.
¿apoya este tipo de iniciativas de política científica o valora los esfuerzos individuales de las mentes científicas y sus investigaciones particulares? ¿Cómo ve esta agenda científica estratégica a la que obligan
nuestros organismos públicos?
No creo que haya una receta sencilla para la organización exitosa ni para la
financiación de la ciencia. Es un asunto muy complejo. En algunas fases de
los proyectos o desarrollos es necesario un gran equipo, y muchas veces ese
equipo tiene que estar bien coordinado. Por ejemplo, en la ciencia a gran
escala es importante trabajar en equipo, como en la construcción del gran
colisionador de hadrones en el que se han involucrado algunos compañeros
míos del Imperial College. Pero eso es trabajar con tecnología, en un campo
muy maduro. Las tecnologías de aceleración llevan bastante tiempo y se han
desarrollado hasta el punto en el que existen grandes equipos trabajando a
la vez. Pero si se quieren proporcionar nuevas áreas con nuevos proyectos,
tenemos que prestar atención a las bases. El problema es que creo que los
políticos prefieren los problemas resumidos en una sola cara de un papel A4.
Y ayuda si esa cara del A4 dice que si se gasta un billón de dólares o de euros
se obtendrá un colisionador de hadrones más grande, porque eso es algo
que de alguna manera pueden comprender. Pero, para los políticos es muy
complejo entender si hay que asistir a una conferencia sobre Ciencia de los
Materiales y ver las miles de cosas que están ocurriendo ahí, muchas de ellas
completamente inconexas. Pero, tras esta fase inicial, básica, surgirán algunas ideas que pasarán a la siguiente fase y requerirán equipos más grandes.
Creo que el péndulo ha oscilado muy lejos hacia las grandes colaboraciones
en estos momentos. Y es importante que reservemos algunos recursos para
los trabajos a pequeña escala, porque es donde empiezan las cosas. En mi
propio caso, en el de los metamateriales, se han invertido cientos de billones
de dólares cada año. Pero todo empezó en una pequeña consultoría entre
varios chicos de una empresa de radares.
¿Le debe algo a alguien? ¿Quién es la primera persona que le viene a la
cabeza cuando piensa en ser agradecido?
Oh, claro que sí. A muchísima gente. Al comienzo de mi interés por la ciencia,
cuando era un niño en realidad, tenía un tío que era maestro en una escuela
técnica. Enseñaba Ingeniería Eléctrica. Me ayudó mucho, me enseñó los laboratorios de la escuela, me dio libros que versaban principalmente sobre
Electrónica y demás. Era un hombre muy amable. Más adelante, los profesores de la escuela rellenaron esos huecos que se habían formado con mi
avidez por aprender sobre ciencias. En esos momentos te puede el interés,
no tenemos una imagen completa pero mi colegio me ayudó en ese aspecto.
Y luego otros profesores. Por ejemplo, en la universidad, mi tutor del doctorado Heine, quería que siempre tuviera un experimento en la mente cuando
escribiera un artículo, fue una gran influencia en mi forma de escribir y de
enseñar. Así que sí, debo mucho a muchos. Como todo el mundo.
¿Puede tener aún ambiciones una persona como usted, que ha alcanzado casi todo en su campo?
La ambición nunca muere.
¿Cuáles son los próximos retos para John Pendry, el hombre? Si nos los
puede confesar.
Me gustaría tocar mejor el piano. Un reto que jamás lograré alcanzar. Pero
tengo algunos problemas que me gustaría retomar, problemas en los que
trabajé en el pasado y que tuve que aparcar. Y ahora veo la forma de llevarlos adelante. Creo que uno de los grandes retos de la ciencia donde espero
poder aportar algo es la vuelta a las bases de la mecánica cuántica. La mecánica cuántica ha tenido tanto éxito, esencialmente en la ecuación que la
gobierna, una fórmula para predecir qué ocurrirá, que hemos dejado a un
lado el comprender por qué ocurre. Seguimos luchando contra los misterios
de la no localidad en la mecánica cuántica e intentamos comprenderla de
una forma racional. Hay mucho trabajo en la computación cuántica, que es
muy interesante, pero que a mi entender no regresa al misterio físico en el
corazón de la mecánica cuántica. Creo que alguien debería abordar algún
día este tema, no sé si seré yo o no, no lo sé, pero es un bonito problema.
La última pregunta. Si está viendo el atardecer en una terraza, probablemente con su mujer, y están disfrutando de ese atardecer, ¿piensa
en la belleza de los colores o los analiza en términos de la longitud de
onda?
Por supuesto que no. El color es un sentimiento. Respondo mucho al color.
Una de mis aficiones es la fotografía, para mí se trata de jugar con la luz. El
color de la luz es lo que más me fascina de la fotografía.
11
RTO
BIE
NA
AE
NCI
CIE
¿Fin de la resistencia
bacteriana?
Albert López-Amor
Periodista y redactor freelance. Colabora con medios de comunicación, instituciones y
organizaciones del ámbito de la salud como la editorial Edikamed, la consultora británica
LionsDen y el Hospital de Sant Joan de Déu de Barcelona.
Con recientes avances terapéuticos como el desarrollo de fagémidos y de
nuevos bacteriófagos, se vislumbra una solución favorable a uno de los
grandes retos de la salud pública mundial: la creciente resistencia de las
bacterias a los antibióticos.
El aumento de la incidencia de infecciones bacterianas resistentes al tratamiento con antibióticos es uno de los grandes desafíos de la atención médica y de la
salud pública contemporáneas. Se trata de un problema real que afecta a hospitales y al ámbito extrahospitalario de todo el mundo, y que está comprometiendo gravemente la capacidad de los sistemas de salud para tratar infecciones
comunes. Según la Organización Mundial de la Salud, sin una acción urgente
y coordinada, el mundo se dirige hacia una era post-antibióticos en la que infecciones corrientes y lesiones menores que hemos tratado satisfactoriamente
durante décadas pueden volver a resultar mortales.
Los avances en el descubrimiento de nuevos antibióticos han sido bastante parcos en los últimos años. Y lo que es peor, no han podido seguir el ritmo del
incremento de la resistencia bacteriana. Es casi un clamor que se trata de una
guerra perdida, por lo que en los últimos tiempos el esfuerzo en I+D se ha adentrado en ámbitos alternativos. En los últimos meses, sendas investigaciones
conducidas en Estados Unidos y en Israel apuntan a que la solución puede venir
de la nanotecnología aplicada a la salud. En concreto, el desarrollo de partículas
artificiales conocidas como fagémidos, que proceden de virus bacteriófagos, se
revelaría como una respuesta adecuada y eficaz para avanzar hacia el objetivo
fundamental: acabar con una amenaza, la resistencia de las bacterias, que cobra dimensiones de auténtica emergencia mundial.
Un problema de alcance global
Cada año, más de 50.000 personas en Europa y Estados Unidos, y cientos de
miles más en todo el mundo, fallecen a causa de las infecciones microbianas
resistentes a los fármacos. En todas las regiones del mundo se viene dando
una elevada y creciente proporción de infecciones provocadas por bacterias
capaces de resistir la acción concreta de los antibióticos. Es el caso de muchas
bacterias que causan neumonías e infecciones del sistema sanguíneo y de las
vías urinarias. Entre las infecciones nosocomiales –infecciones contraídas en
CIENCIA EN ABIERTO - ¿Fin de la resistencia bacteriana?
un medio hospitalario–, un alto porcentaje es causado por bacterias muy resistentes, como la Staphylococcus aureus resistente a la meticilina y las bacterias
gramnegativas multirresistentes.
Otro ejemplo: según se recoge en el informe de 2014 de la Organización Mundial de la Salud sobre la vigilancia mundial de la resistencia a los antimicrobianos, en varios países se han dado casos de ineficacia del tratamiento de la gonorrea con cefalosporinas de tercera generación, la clase de antibióticos utilizados
como último recurso contra esta infección. Además, las infecciones gonocócicas resistentes a los tratamientos actuales han dado lugar a un aumento de la
morbilidad y de complicaciones como la infertilidad, los desenlaces adversos
del embarazo y la ceguera del recién nacido. La resistencia bacteriana podrían
revertir los progresos logrados a lo largo de muchos años en la lucha contra
esta infección de transmisión sexual. En el peor de los escenarios, puede que
en poco tiempo ni siquiera sea posible tratarla, pues no se están desarrollando
vacunas o fármacos nuevos.
En el caso de infecciones de las vías urinarias causadas por E. coli, han proliferado considerablemente las bacterias resistentes a las fluoroquinolonas, unos
de los antibacterianos más utilizados en el tratamiento oral de dichos procesos.
También está muy extendida la resistencia a los fármacos de primera elección
para el tratamiento de infecciones potencialmente mortales causadas por bacterias intestinales habituales. Se registrado en casi todo el mundo una resistencia progresiva a los carbapenémicos, antibióticos utilizados como último recurso para tratar estas infecciones
En general, los pacientes que contraen infecciones causadas por bacterias farmacorresistentes tienen peor pronóstico y un mayor riesgo mortal que los
individuos infectados con bacterias de la misma especie que no presenten
esas resistencias. Además, necesitan más recursos médicos. Los programas
básicos de seguimiento, que permitirían controlar el problema, suelen tener
carencias considerables en casi todos los países; en muchos lugares, ni siquiera existen.
La resistencia es capacidad de adaptación
Las bacterias son organismos con una enorme capacidad de adaptación. Por
ello, son capaces de desarrollar mecanismos de resistencia. Existe una resistencia natural o intrínseca en las bacterias si carecen de diana para un antibiótico
(como la falta de pared en el Mycoplasma en relación con los betalactámicos),
pero el mecanismo resistente realmente importante desde un punto de vista
clínico es el adquirido, causado por la modificación de la carga genética de la
bacteria.
Aparecida bien por mutación cromosómica, bien por mecanismos de transferencia genética, la resistencia adquirida consiste fundamentalmente en uno de
estos tres factores: la producción de enzimas bacterianas que inactivan los antibióticos; la aparición de modificaciones que impiden la llegada del fármaco al
punto diana; y la alteración del propio punto diana.
Una cepa bacteriana puede desarrollar varios mecanismos de resistencia frente
a uno o muchos antibióticos y del mismo modo un antibiótico puede ser inactivado por distintos mecanismos por diversas especies bacterianas. La forma de
adquirir el mecanismo de resistencia por parte de la bacteria condiciona decisivamente la elección del tratamiento antibiótico en la práctica médica.
Como está demostrado, el consumo –entendido como uso y abuso– de los antibióticos influye en las resistencias, no sólo de las bacterias patógenas, sino
también de las saprofitas y oportunistas. Las cepas resistentes se hacen predominantes por la presión selectiva de los antibióticos que hacen desaparecer las
bacterias sensibles. En estas circunstancias, no están implicados solamente los
antibióticos utilizados en medicina, sino también y de forma muy importante
los empleados en veterinaria, que pasan al organismo humano a través de la
ingesta de alimentos.
Fagos: una alternativa natural
Los bacteriófagos, también llamados “fagos”, son virus que infectan y matan
las bacterias por lisis celular, el proceso de ruptura de la membrana celular.
Descubiertos y bautizados entre 1910 y 1917 por el investigador canadiense
Felix d’Herelle, constituyen una alternativa natural a los antibióticos. La idea de
utilizarlos como fármacos antibacterianos no es nueva. Las primeras terapias
con bacteriófagos fueron propuestas por primera vez a principios del siglo XX,
pero tuvieron una trayectoria desigual. Los fagos fueron empleados con notable
profusión en países como la antigua Unión Soviética –donde ya desde los años
1940 se implantó la terapia fágica–, pero en Occidente fueron relegados por
diversos motivos, entre ellos el fulgurante éxito de los antibióticos químicos y
los posibles efectos secundarios de la lisis celular, que puede liberar toxinas
malignas y acabar causando una sepsis potencialmente mortal.
Los fagos desempeñan un papel clave en el mantenimiento del equilibrio natural por su relación depredador-presa con las bacterias. A diferencia de los
tradicionales antibióticos de amplio espectro, se dirigen a bacterias objetivo
13
sin dañar la microflora normal del cuerpo. Están constituidos por una cubierta
proteica o cápside en cuyo interior está contenido su material genético, que
puede ser ADN, de 5.000 a 500.000 pares de bases. El tamaño de los fagos oscila entre 20 y 200 nanómetros aproximadamente. Son ubicuos y pueden ser
encontrados en diversas poblaciones de bacterias, tanto en el suelo como en la
flora intestinal de los animales. Uno de los ambientes más poblados por fagos
y otros virus es el agua de mar, donde se estima que puede haber en torno a
109 partículas virales por mililitro, pudiendo estar infectadas por fagos el 70%
de las bacterias marinas.
Nuevas terapias fágicas
En los últimos tiempos parece estar resurgiendo con fuerza el interés por los
bacteriófagos, con diversas, y prometedoras, líneas de investigación impulsadas
por instituciones científicas de todo el mundo. Es el caso del relevante estudio
realizado por científicos de la Facultad de Medicina Dental de la Universidad
Hebrea de Jerusalén y publicado a principios de 2015 en Applied and Environmental Biotechnology. Este equipo ha conseguido aislar un bacteriófago capaz
de actuar con eficacia contra la bacteria Enterococcus faecalis (E. faecalis), importante patógeno que habita en el tracto gastrointestinal y se encuentra en el
origen de muchas infecciones: desde la endocarditis (infección cardíaca potencialmente mortal) a la bacteriemia (descarga de bacterias nocivas en la sangre),
pasando por la meningitis, la infección de las vías urinarias y la infección del canal radicular tras un tratamiento dental. Se trata de una cepa muy persistente, y
especialmente difícil de tratar cuando se integra en grupos llamados biofilms o
biopelículas, microsistemas bacterianos complejos y de gran robustez.
“Cientos de miles de personas fallecen
cada año por infecciones provocadas
por bacterias que han desarrollado
resistencias debido al abuso de
antibióticos”
La importancia de la E. faecalis impulsó decisivamente la investigación de la Universidad de Jerusalén, que identificó el fago antagonista llamado EFDG1, procedente de cultivos en depósitos de aguas residuales de la capital israelí. El fago
se visualizó mediante microscopia electrónica. Sus secuencias de codificación y
filogenia se determinaron mediante la secuenciación de todo el genoma, revelando que pertenece a la subfamilia de los fagos Spounavirinae Myoviridae, que
incluye buenos candidatos para la terapia contra patógenos Gram-positivos.
El EFDG1 es capaz de infectar y potencialmente erradicar la cepa V583 de E.
faecalis, que es resistente a la vancomicina, el antibiótico usado comúnmente
contra la bacteria. Su eficacia antibacteriana se evaluó in vitro frente a cultivos
planctónicos y de biopelícula, mostrando una actividad lítica eficaz contra diversos E. faecalis y E. faecium, independientemente de su perfil de resistencia
a los antibióticos. Además, el EFDG1 previene eficazmente la infección ex-vivo
del conducto radicular.
Otro aspecto favorable es el relativo a la seguridad: el análisis mostró que el
genoma EFDG1 no contiene genes perjudiciales aparentes, lo que refuerza su
idoneidad. Por todo ello, los hallazgos sugieren que la terapia de fagos usando
EFDG1 podría ser eficaz para prevenir la infección por E. faecalis después de un
tratamiento de conducto radicular.
Fagémidos contra bacterias diana
Hace unos años un equipo de investigación dependiente del Massachussetts
Institute of Technology desarrolló bacteriófagos que actuaban sobre la carga
de proteína de las células sin romperlas, y aumentaban así la eficacia de los
antibióticos cuando se administraban a la vez. Recientemente, ese mismo equipo, dirigido por James Collins, profesor Termeer de Ingeniería Médica y Ciencia
del Departamento de Ingeniería Biológica y el Instituto de Ingeniería Médica y
Ciencia del MIT, ha publicado en la revista Nano Letters, editada por la American Chemical Society, un estudio fundamental: presenta el último desarrollo
de fagémidos llamados a convertirse en la alternativa de referencia frente a las
infecciones bacterianas.
Aprovechando sus descubrimientos previos, el equipo del profesor Collins se
propuso desarrollar una tecnología relacionada que atacara y matara bacterias
específicas sin hacer estallar las células y, por lo tanto, que fuera capaz de evitar
la liberación de su contenido. Los investigadores utilizaron técnicas de biología
sintética para crear una plataforma de partículas, los fagémidos, que pudieran
infectar a las bacterias por medio de pequeñas moléculas de ADN conocidas
como plásmidos, capaces de replicarse de forma independiente dentro de una
célula huésped.
Una vez dentro de la célula, los plásmidos están diseñados para extraer diferentes proteínas o péptidos (moléculas formadas por cadenas cortas de aminoácidos) que son tóxicos para las bacterias. Estas toxinas extraídas pueden
interrumpir diferentes procesos celulares, tales como la replicación bacteriana,
CIENCIA EN ABIERTO - ¿Fin de la resistencia bacteriana?
causando la muerte de la célula sin hacerla estallar. Según comenta Collins en el
artículo, “hemos probado sistemáticamente diferentes péptidos antimicrobianos y toxinas bacterianas, y demostramos que cuando se combinan una serie
de éstos dentro de los fagémidos, puede matar a la gran mayoría de las células
de un cultivo”.
Una de las grandes ventajas de estos fagémidos es que solo infectan a especies
de bacterias concretas, lo que resulta en un sistema muy selectivo que, por otro
lado, respeta el resto del microbioma. Cuando los investigadores monitorizaron la respuesta de las bacterias a la reinfección repetida con los fagémidos,
no observaron signos de resistencia significativa a las partículas, lo que podría
significar, sostienen, que para conseguir una terapia aún más eficaz es posible
administrar varias rondas de fagémidos. El contraste con la resistencia que las
bacterias desarrollan frente a los bacteriófagos convencionales es claro: aunque
toda bacteria, en última instancia, desarrolla resistencia a cualquier tensión o intervención que sobre ella se aplique, la investigación del equipo del MIT sugiere
que es probable que dicha resistencia tarde mucho más tiempo en manifestarse, en comparación con una terapia corriente basada en los bacteriófagos.
En lo que se refiere a infecciones no clasificadas, podría llegar a administrarse
al paciente un “cóctel” de diferentes fagémidos, de forma similar a las combinaciones de antibióticos de amplio espectro que se utilizan comúnmente en la
actualidad. Con todo, seguramente será preferible usar los fagémidos en conjunción con herramientas de diagnóstico rápido, actualmente en desarrollo. En
este sentido, primero se realizaría una prueba de diagnóstico rápido para identificar la bacteria que afecta al paciente, y luego se proporcionaría el fagémido
más adecuado para acabar con el agente patógeno en cuestión.
“Un equipo del MIT ha desarrollado unas
partículas sintéticas muy avanzadas, los
llamados fagémidos, capaces de infectar
especies concretas de bacterias nocivas”
Los investigadores planean ampliar su proyecto con el desarrollo de una gama
más amplia de fagémidos. Hasta ahora han experimentado con un conjunto de
fagémidos específicos para tratar la bacteria E. coli, pero actualmente se está
abriendo la puerta para obtener partículas capaces de acabar con patógenos
como el Clostridium difficile y la bacteria Vibrio cholerea, causante del cólera.
El estudio demuestra que el uso de la biología sintética para modificar un gen
en un fago con la finalidad de que sea más tóxico para un patógeno, puede dar
lugar a partículas antimicrobianas más eficaces que los enfoques clásicos. Según sostiene Alfonso Jaramillo, profesor de biología sintética en la Universidad
de Warwick (Reino Unido), “la combinación de dispositivos genéticos sintéticos
con fagos como vehículos de suministro permite un enfoque sistemático para
reprogramar las bacterias patógenas para su muerte”. El foco de la investigación se centra ahora en fagos no replicantes, lo que resulta muy apropiado ya
que esas partículas son más factibles para su uso en las personas, pues no se
consideran organismos genéticamente modificados. A partir de ello, los investigadores pueden trabajar formas mejoradas de terapia de fagos que pueden
convertirse en los antibióticos del futuro.
Conclusión
La investigación biotecnológica tiene abiertos varios frentes favorables para
resolver en el futuro uno de los grandes problemas de salud pública a los que
se enfrentan los sistemas sanitarios de todo el mundo: la resistencia, cada vez
mayor, de las bacterias a los tratamientos de infecciones mediante antibióticos.
Este 2015 se han publicado dos estudios clave que ofrecen respuestas de sumo
interés. Por un lado, desde Israel, llegan noticias de avances en el campo de bacteriófagos seguros, virus presentes en la naturaleza que son capaces de infectar
y matar las bacterias sin que ello, y eso es lo más novedoso, implique riesgos
graves para la salud del paciente. Por otra parte, la innovación de mayor impacto se encuentra en los últimos desarrollos de fagémidos, partículas ideadas
para acabar de forma selectiva con bacterias patógenas específicas y seleccionadas, esto eso, sin provocar el estallido de las células y, por tanto, evitando el
peligro de liberar algunas de las sustancias tóxicas contenidas en el interior de
la bacteria. Un equipo del MIT, en Estados Unidos, ha publicado recientemente
sus descubrimientos en este sentido. Representan todo un nuevo umbral de
esperanza.
Referencias
Targeting Enterococcus faecalis biofilms with phage therapy
- Khalifa L., Brosh Y., Gelman D., Coppenhagen-Glazer S., Beyth S.,
Poradosu-Cohen R., Que Y-A., Beyth N., Hazan R.
- Applied and Environmental Microbioly, 6/02/2015.
Engineered Phagemids for Nonlytic, Targeted Antibacterial Therapies
- Krom R., Bhargava P., Lobritz M., Collins J.
- Nano Letters, 8/06/2015.
Resistencia bacteriana a antimicrobianos: su importancia en la toma de decisiones en la
práctica diaria
- Daza Pérez R. M.
- Ministerio de Sanidad, Servicios Sociales e Igualdad. Gobierno de España, 1998.
Resistencia a los antimicrobianos
- Organización Mundial de la Salud, Nota descriptiva núm. 194. Abril 2015.
15
RTO
BIE
NA
AE
NCI
CIE
Comunicar ciencia de
forma efectiva
Cristina Juesas.
Ha sido responsable de comunicación en Euskampus Fundazioa. Experta en Comunicación de la
Ciencia por la UNED. Trabaja en la transformación digital de organizaciones desde la perspectiva
de la comunicación.
“Una sociedad científicamente informada es una sociedad más libre, más
culta para tomar decisiones que configurarán su futuro, y menos susceptible
de manipulación por grupos de presión.” Estas palabras de Pedro Miguel
Etxenike invitan a la reflexión sobre cómo se informa sobre cuestiones
científicas a la sociedad. ¿Quién ha de hacerlo? ¿A través de qué vías o con
qué formatos? ¿Cómo se mide el impacto de la información?
Si preguntamos a una persona ajena al mundo investigador por nombres de
divulgadores de la ciencia, muchos conocerán a científicos que han aparecido
en programas o documentales de televisión: Richard Attenborough, Carl Sagan,
Jacques Cousteau o Félix Rodríguez de la Fuente. Quizá algunos pocos mencionen a Michio Kaku o Neil DeGrasse-Tyson.
Hasta ahora, parece claro que ha sido la televisión la que ha acercado la ciencia al gran público, pero, ¿es esta la misión de la divulgación?, ¿llegar al gran
público?, ¿mantiene la televisión este poder?. La apertura de canales temáticos
ha ahondado la brecha que ya existía entre la televisión y el interés general.
Con contadas excepciones, es difícil encontrar programas de calidad que hagan
divulgación científica.
La prensa escrita tampoco está pasando por su mejor momento. Así pues es
obligatorio rehacer la pregunta ¿qué debe hacer la divulgación para encender la
mecha de la curiosidad en la sociedad?
Indudablemente, y retomando la cita de Etxenike; sí, necesitamos que la sociedad esté informada y formada en ciencia. Y para ello, tenemos que ser conscientes de quiénes somos, y a quién y cómo informamos.
Partimos de unos datos nada alentadores. Según el estudio internacional de
cultura científica realizado por la Fundación BBVA en el año 2011, el 57% de los
adultos españoles presenta un bajo nivel de conocimiento científico, porcentaje
que se reduce en un 10% entre los más jóvenes.
La especialista en comunicación científica Ana Ribera habla de tallas en divulgación. Existirían las tallas XXL y XL, de par a par (XXL para los que trabajan en la
mismo campo y XL para los que comparten especialidad); aquí tenemos los pa-
CIENCIA EN ABIERTO - Comunicar ciencia de forma efectiva
pers, las comunicaciones en congresos, los pósteres. Luego vendría la talla L, de
investigadores a personas con formación científica pero de campos diferentes;
podemos pensar en blogs o agregadores de blogs, o incluso en algunas páginas
web de centros de investigación y universidades, o en algunos podcasts. La talla
M estaría destinada al gran público con estudios universitarios, de investigador
a público, o de medio de comunicación especializado a público (algunas revistas
o podcasts). La talla S es para la gente que no sabe ni que la ciencia existe, es
una talla compleja, pues ellos nunca van a salir a buscar información sino que
hay que ir a su encuentro. Finalmente, la talla XS es la divulgación hecha para
niños, y debe fomentar su infinita curiosidad. La talla XS es clave para inculcar
el interés por la ciencia en la infancia, para que de adultos, los niños posean esa
necesaria cultura científica.
abstract que realmente condense la esencia de su trabajo y suscite el interés
de los pares y los potenciales lectores, cómo realizar presentaciones efectivas o
cómo hablar en público. Y cada vez más universidades ofertan, entre su forma-
“La apertura de canales temáticos ha
ahondado la brecha que ya existía entre
la televisión y el interés general”
Todas estas tallas divulgadoras son importantes y deben existir porque, si algo
es imprescindible cuando nos planteamos la comunicación científica es segmentar a nuestra audiencia, es decir, dividir a nuestros posibles públicos en “tallas”. Esta segmentación dependerá de quiénes somos: no es lo mismo ser una
corporación tecnológica que una universidad, ni es lo mismo ser un centro de
investigación cooperativa que un grupo de investigación o que un investigador
individual. Y no es lo mismo porque sus misiones son diferentes; así pues, es imprescindible, cuando se realiza el manual de comunicación, planificar el alcance de la divulgación que se va a hacer y los medios que se van a utilizar para ello.
La FECYT realiza cada año una encuesta de percepción social de la ciencia,
que es un buen punto de partida para elaborar nuestra estrategia de comunicación, pues nos facilita una radiografía bastante acertada de cómo y dónde está
la sociedad con respecto a la divulgación. En el último estudio realizado (de fecha abril de 2015) encontramos datos tan interesantes como que para el 39,8%
de la ciudadanía (este porcentaje se eleva al 84,4% en la franja de edad entre
los 15 a los 24 años), internet es la primera fuente de información científica.
También vemos cómo Wikipedia es la primera fuente de información científica
en internet, seguida por los medios generalistas. Además, de las personas que
eligen las redes sociales para informarse sobre ciencia, casi el 92% lo hacen en
Facebook, mientras que a través de Twitter lo hace el 48% y un creciente 21,5%
a través de Instagram. Pero lo más destacable es que la ciudadanía considera
que internet es el único medio que presta suficiente atención a la información científica.
ción de postgrado, cursos sobre comunicación de la ciencia, valorados tanto por
jóvenes investigadores como por periodistas que buscan una especialización
en este ámbito.
“La ciudadanía considera que internet
es el único medio que presta suficiente
atención a la información científica”
Pero volviendo a Internet; además de proporcionarnos el medio, tiene ventajas
que, como divulgadores, no podemos desdeñar:
Con estos datos en mente parece evidente que es en internet donde tenemos
que centrar nuestros esfuerzos, aunque no sea la única vía. Cada vez más investigadores realizan cursos sobre redacción efectiva de papers: cómo escribir un
Gran variedad de formatos.
Desde los más básicos, como son la página web —puerta de entrada a nuestra
casa online— donde podemos tener un repositorio de toda nuestra actividad
off y online, hasta los más innovadores: de texto, vídeo o fotografías, a cómics,
monólogos, podcasts (programas de radio en internet), juegos para todos los
públicos...
Y es que, ¿hay mejor forma de comprender cómo se descubre un nuevo planeta
que descubriéndolo nosotros mismos? ¿Por qué no convertir la astronomía en
un juego?
La fundación Zooniverse ha creado la página web Planet Hunters (http://
www.planethunters.org/) en la que aficionados a la astronomía o personas
17
con curiosidad de todo el mundo pueden ayudar a clasificar objetos celestes,
¿quién sabe si alguno de estos planetas por descubrir puede llevar el nombre
de uno?
Más cerca, Azti Tecnalia ha creado The Food Mirror (http://thefoodmirror.com/
en). Aparentemente es un juego donde internautas de todo el mundo comparten fotografías sobre innovación culinaria, pero en realidad es un lugar donde
se identifican tendencias y oportunidades de negocio.
Depende exclusivamente de nosotros.
Es frustrante escribir notas de prensa y que no reciban cobertura mediática.
En nuestra web, por el contrario, somos los amos y señores de la finca. Elegimos cómo presentarnos, elegimos qué presentar y elegimos cuándo hacerlo.
No estamos expuestos a ningún agente externo que nos condicione, más allá
de las preferencias de nuestro propio público. Podemos crear apartados con
información técnica y tener una ventana abierta al gran público o a la audiencia
infantil o juvenil. Y lo mismo pasa con las redes sociales. Es cierto que éstas no
son “nuestra casa” y que jugamos a domicilio y con las normas de otros, pero
somos nosotros quienes decidimos en qué redes queremos tener presencia, las
historias que queremos contar en ellas y la forma en la que hacemos que estas
historias lleguen a nuestra(s) audiencia(s).
“Cada vez hay más guías de estilo
en redes sociales específicas para
instituciones científicas o para centros
educativos y la mayoría de ellas se
pueden reutilizar”
La audiencia se autosegmenta.
Aunque internet es tan amplio como el mundo entero, las personas suelen
agruparse en torno a sus propios intereses y afinidades. Uno no sale a internet
a ver qué pesca, a internet se va con nasa, o con mosca, o con red, o con pincho.
Incluso en las redes sociales más generalistas —como Facebook— los usuarios
son fans de unas u otras páginas, dependiendo de sus gustos, aficiones o, incluso, de sus necesidades. Así, si alguien es fan de la página de, por ejemplo, el
BERC Achucarro, será evidente que le interesan las neurociencias.
mación que ya empieza a saturar a los usuarios. Debemos ajustar nuestra estrategia y plasmar, aunque sea de forma somera, cuáles son nuestras intenciones:
si vamos a tener una cuenta oficial para la institución o varias, en qué redes, cuál
va a ser nuestro tono, que variará según a quién pretendamos dirigirnos. Cada
vez hay más guías de estilo en redes sociales específicas para instituciones
científicas o para centros educativos y la mayoría de ellas se pueden reutilizar.
Como decía el eslogan, “busque, compare y...” quédate con la que más se ajuste a las necesidades que tenga el centro, adaptándola según el criterio que se
determine.
Dependiendo de nuestra estrategia, optaremos por tener presencia en unas u
otras redes sociales. Facebook o Twitter son más generalistas, mientras que un
blog puede estar dirigido a la comunidad investigadora. Siempre teniendo en
mente que una vez que creamos un perfil en una red social, estamos obligados
a mantenerlo y que las redes sociales funcionan 24/7 y que internet es una
carrera de fondo. Nadie puede pretender abrir una cuenta en una red social y
tener, al día siguiente, mil seguidores. No somos una estrella del rock.
“El vocabulario científico-técnico es
complejo y, dependiendo del público al
que nos dirigimos, tenemos que tender
a simplificarlo sin perder objetividad y
exactitud”
En nuestra estrategia de comunicación, debemos tener en cuenta las nuevas
narrativas que nos ofrecen los formatos multimedia, como los vídeos, los podcasts o, incluso, las infografías.
Todos los puntos anteriores, toda la estrategia debe basarse en la elaboración
de una historia, nuestra historia. ¿Qué queremos transmitir? ¿Qué somos? Todos tenemos una historia personal y todas las instituciones tienen su propia
historia personal que contar. Cuando conocemos un tema en profundidad, la
tendencia natural es a querer contarlo todo, o a dar por hecho que todo el mun-
Experimentar es sencillo.
No hablo de hacer tests, que también se pueden hacer. Hablo de la facilidad
que nos ofrece el medio online para, de una forma sencilla, actualizar nuestro
contenido de forma que siempre estemos a la última. Podemos probar nuevas
herramientas, nuevos formatos, sin que ello vaya a suponer un sobreesfuerzo
para nuestro equipo de comunicación.
Sin embargo, antes de aventurarnos en internet, debemos tener en cuenta que
no estamos solos, que será difícil hacernos nuestro hueco en el océano de infor-
CIENCIA EN ABIERTO - Comunicar ciencia de forma efectiva
do sabe. Pero esto no es así. Hay que simplificar las historias y reducirlas a una
idea, que es la debemos desarrollar.
“Las redes de personas hay que
trabajarlas y fomentarlas”
Además, debemos tener en cuenta el lenguaje que empleamos. En un centro
de investigación, peer review, factor de impacto o cuartil, son términos de uso
frecuente, pero si pensamos en una audiencia no especializada, es evidente que
tenemos que pensar si es imprescindible este tipo de jerga o si, por el contrario,
no aportan nada a la historia que queremos contar. El vocabulario científico-técnico es complejo y, dependiendo del público al que nos dirigimos, tenemos que
tender a simplificarlo sin perder objetividad y exactitud. Por ejemplo, si estás comunicando a una audiencia de pares, es lógico que emplees la palabra
colgajo cuando te refieres a la parte de la encía que rodea a los dientes. Sin
embargo, si tu público es generalista, tendrás que ser consciente de que, para
la mayoría, colgajo es algo que cuelga y explicarlo con otras palabras para decir
inequívocamente lo que quieres sin perder precisión. Es muy importante no
utilizar jerga porque a la segunda palabra “extraña” que un profano lea, le distraerá y le hará perder interés. Es conveniente, sobre todo al principio, tener
un editor, una persona que revisa lo que se escribe. No hace falta recurrir a
varios países (y en varias ciudades dentro de cada país) una serie de investigadores cuentan, en charlas breves de unos 10 minutos, sus investigaciones. La
audiencia es variopinta, desde familias con hijos hasta otros investigadores. ¿El
resultado? Cientos de personas en todo el Estado asistieron a estas charlas y
pudieron hacer preguntas, tocar y charlar con los investigadores, alejando, de
esta forma, los estereotipos de la ciencia de élite que suele tener el gran público.
También en esta línea, y motivado por el auge de los monólogos en televisión,
han surgido iniciativas como Famelab (https://www.famelab.es/es), un concurso de monólogos sobre ciencia a nivel europeo. En cada país se organiza un
concurso nacional (en España está promovido por la FECYT) del que sale una
persona ganadora que representa a su país en el concurso europeo. También
de monólogos va la iniciativa The Big Van Theory (http://www.thebigvantheory.
com/), que surgió a raíz del primer Famelab en 2013 y que reúne a científicos
de diversos campos (Física, Química o Matemáticas, entre otros) para divulgar
desde el humor y el rigor. Además de los monólogos, realizan talleres, cursos,
monográficos y otras actividades.
Más allá de medir el impacto de una publicación concreta por el número de
ejemplares vendidos o descargados, o el éxito de un vídeo o de una acción en
internet por el número de visualizaciones, clics, o “me gustas”, a largo plazo podremos medir la forma en la que una sociedad está científicamente informada,
pues en ella se desarrollarán más vocaciones científicas y será una sociedad
más innovadora y más justa.
Y es que, comunicar la ciencia de forma cercana y adecuada a cada uno de los
públicos es fundamental para el desarrollo pleno de nuestra sociedad. Como
muestra, la inclusión de un apartado específico de comunicación dentro del
subprograma Science for and with society (Ciencia por y para la sociedad) del
Programa Marco Horizon 2020 de la Unión Europea, que pretende lograr la colaboración efectiva entre la ciencia y la sociedad, el reclutamiento de talento
científico y aunar la excelencia con la conciencia y con la responsabilidad social.
la edición profesional, aunque también es posible, un par o las personas que
compongan el departamento de comunicación pueden hacer las veces de editores. Una tercera opción es utilizar a una persona de prueba con un perfil que
responda al segmento al que nos dirigimos, con el fin de verificar si el nivel de
lenguaje científico utilizado es el adecuado.
Tampoco podemos perder de vista las redes de contactos preexistentes. Los
contactos que tienen los investigadores (tanto a nivel local como nacional o internacional) y los contactos que tiene el personal administrativo y de servicios
de los centros de investigación e innovación deben tenerse en cuenta y valorarse como un activo. Juntos forman una red que puede y debe ayudarse en
la difusión de las actividades y novedades de los demás para contribuir de una
forma más efectiva a su propia comunidad. De hecho, en nuestro entorno, son
habituales estas colaboraciones a la hora de difundir jornadas o noticias. Pero
las redes de personas hay que trabajarlas y fomentarlas, por lo que es importante recoger en nuestro plan de comunicación algún evento que haga de caldo
de cultivo para facilitar estas relaciones.
Por último, conviene también hablar de la proliferación, en los últimos años,
de los eventos de comunicación científica amateur. Amateur no porque no
sean rigurosos o porque quienes participen no sean científicos o que quienes
no lo son no tengan la cualificación para poder hablar con exactitud sobre el
tema de su ponencia. Este amateurismo dota a estos eventos de la frescura
necesaria para que el gran público se acerque a ellos sin temor. Así, tenemos
los recientes Pint of Science (http://pintofscience.es), que acercan la ciencia a
los bares con un formato divertido. Durante tres días, de forma simultánea en
Sin ciencia, no hay avance social. Este avance no debe ser méramente económico en el sentido de productividad y competitividad, sino que debe poder medirse también en términos humanos; la cultura científica y el espíritu crítico son
algunas de las cualificaciones imprescindibles para el ejercicio de la ciudadanía
en democracia. Y para que la ciencia sea posible, es necesario comunicarla de
forma efectiva pues, volviendo a Etxenike, “la ciencia, por encima de todo, es
creatividad y en segundo lugar es comunicación.”
Referencias
[1] Diario de Noticias de Navarra, entrevista a Pedro Miguel Etxenike, 17/4/2015:
http://www.noticiasdenavarra.com/2015/04/17/sociedad/navarra/una-sociedadcientificamente-informada-es-mas-libre-y-mas-culta-y-menos-susceptible-de-manipular
[2] Cosas que me pasan, Queridos Científicos III, 3/3/2013: http://www.
cosasqmepasan.com/2013/03/queridos-cientificos-iii.html#.VafVaxPtmko
[3] Fundación BBVA. Estudio internacional de Cultura Científica, 2011: http://
www.fbbva.es/TLFU/tlfu/esp/investigacion/fichainves/index.jsp?codigo=380
[4] FECYT, Encuesta de percepción social de la ciencia, 2015: http://www.fecyt.
es/es/noticia/la-imagen-de-la-ciencia-mejora-en-los-ultimos-dos-anos-un-122
[5] Unadocenade.com, Una docena de webs de divulgación científica en español
para todos los públicos. 30/5/2012: http://unadocenade.com/una-docenade-webs-de-divulgacion-cientifica-en-espanol-para-todos-los-publicos/
[6] Cristina Juesas. Comunicar la I+D+i de forma efectiva, 19/5/2015: http://
www.slideshare.net/maripuchi/comunicar-la-idi-de-forma-efectiva
[7] Iñaki Gorostidi, 12 errores habituales en la comunicación de
los proyectos de I+D, 6/7/2015: http://blog.guk.es/12-erroreshabituales-en-la-comunicacion-de-los-proyectos-de-id
[8] Guía de usos y estilo en redes sociales de la UPV/EHU, 2015: http://
www.ehu.eus/es/komunikazio-bulegoa/sare-sozialen-gida
19
IVO
NV
NE
IGA
CIÓ
EST
INV
La ingeniería biomédica:
de la pata de palo hasta
las interfaces neuronales
Ander Ramos-Murguialday1-2, Andrea Sarasola2-3, Nerea Irastorza2-4, Manuel
Montejo1, Goran Bijelic6, Niels Birbaumer2, Joe McIntyre7 y Thierry Keller8.
TECNALIA Health Technologies Division. 2 Neurotechnology Laboratory & Institute of Medical Psychology
and Behavioral Neurobiology, Neuroprosthetics Group, University of Tubingen. 3 DAAD-La Caixa PhD
Fellowship. 4 Basque Government PhD Fellowship. 5 TECNALIA Health Technologies Division. 6 TECNALIA Health
Technologies Division, Biomaterials Area. 7 TECNALIA Health Technologies Division, Medical Robotics Laboratory
& Ikerbasque Professorship. 8TECNALIA Health Technologies Division, Neurorehabilitation Area
1
La ingeniería biomédica es la fusión de prácticamente todas las ciencias en
una sola disciplina. Se agrupan desde química, física y matemática hasta
biología y medicina. La convergencia de todos estos campos, hasta hace
poco acostumbrados a su aislamiento, ha supuesto un avance en calidad de
vida importante y el auge de grupos multidisciplinares que juntos intentan
resolver muchos de los problemas clínicos. Hasta hace bien poco nadie
pensaba que se iban a resolver estos problemas, o por lo menos no tan pronto.
El mejor investigador joven de Alemania en 2014, el vasco Ander Ramos,
nos introduce en este apasionante mundo y nos explica uno de sus mayores
logros dentro de las interfaces neuronales.
Hoy en día la gran importancia de la ingeniería biomédica es reconocida y es
relativamente normal que las grandes universidades tenga una titulación de ingeniería biomédica. Los campus se unen gracias a titulaciones como estas que
tejen puentes de unión entre facultades aparentemente divergentes. Cada una,
aportando su punto de vista y su “idioma”. Por este motivo, el problema principal de la ingeniería biomédica en sus inicios era el “idioma” común entre las
especialidades. No es fácil que un ingeniero de telecomunicaciones se siente en
la sesión clínica de neuroradiología y sea capaz de entender todo lo que se dice,
e incluso aportar soluciones. Hoy en día, cada vez es más frecuente ver técnicos
especialistas trabajando en hospitales y más médicos o biólogos trabajando en
industrias tradicionalmente más orientadas a la ingeniería. Gracias a estas interacciones, existen los marcapasos, las prótesis de rodilla y cadera, las maquinas
analizadoras de sangre y de tejidos, resonancias magnéticas, aparatos de rayos
X, aplicaciones del móvil que nos indican el nivel de glucosa en sangre y nos
alarman si tenemos que llamar a nuestro médico, prótesis que devuelven el
oído, la vista o la capacidad de moverse a los que no la tienen o la han perdido.
Todo esto es la ingeniería biomédica, y nos esperan unos años muy apasionan-
INVESTIGACIÓN EN VIVO - La ingeniería biomédica
liza el efecto “Doppler” con un emisor y un receptor que capta el rebote de las
ondas de ultrasonidos y las transforma en imágenes en 2- o 3-D de nuestro
interior para poder ver los diferentes tejidos e incluso el movimiento y flujo
dentro de ellos.
También muy conocida y una pionera dentro de esta rama, son los rayos-X descubiertos por el físico alemán Roentgen y que hoy en día, a pesar de los efectos
de sus radiaciones, son utilizados rutinariamente en hospitales y clínicas.
tes viendo como las demás ingenierías (electrónica, materiales, telecomunicaciones etc.) y la famosa ley de Moore (la tecnología avanza a un ritmo exponencial al que suponemos, porque cada avance acelera el crecimiento del siguiente
paso) consiguen que veamos como enfermedades o condiciones clínicas hoy en
día sin solución, sean básicamente erradicadas.
Los avances en este campo son tan abrumadores y rápidos, que la propia ética
que los rige se queda muchas veces obsoleta nada más ser aprobada.
La Comisión Europea en su Estrategia 2020 apuesta por mejorar la Salud y la
Calidad de Vida de las personas, mencionando principalmente las Tecnologías
Médicas.
Otras técnica más actual es la resonancia magnética nuclear. A pesar de que
el descubrimiento del principio físico fue en 1938 por Isidor Rabi, no fue hasta
Marzo de 1972 cuando Raymond Damadian creó la primera máquina de imágenes por resonancia magnética. Las imágenes se obtienen dependiendo de la
reacción de los núcleos atómicos al alinearlos a un campo magnético constante
para posteriormente perturbar este alineamiento con el uso de un campo magnético alterno, de orientación ortogonal. Dependiendo de cómo se manipulan
los parámetros de estas perturbaciones se han conseguido observar multitud
de funciones y estructuras como por ejemplo composiciones moleculares de
tejidos, estructuras de las redes neuronales y la actividad cerebral en zonas profundas con mucha precisión espacial en tiempo real. Este último caso es la denominada resonancia magnética funcional o fMRI en sus siglas en inglés, que es
una técnica de registro de imágenes funcionales que puede, por ejemplo, medir
la actividad de las neuronas en el cerebro mediante la detección de los cambios
en el nivel de oxigenación o deoxigenación del flujo sanguíneo. Cuando un área
específica del cerebro está en uso, el riego sanguíneo y el uso del oxigeno en esa
región aumenta, es decir, los cambios en el riego sanguíneo pueden utilizarse
como marcadores indirectos de la actividad cerebral. Por lo tanto, esta técnica
es capaz de obtener imágenes funcionales con alta resolución espacial mediante la utilización de los cambios en magnetización de la sangre rica y pobre en
oxígeno. Sin embargo, su resolución temporal en el rango de varios segundos
o minutos hace que en ocasiones esta técnica se registre en combinación con
otras como la electroencefalografía (EEG) o magnetoencefalografía (MEG), que
poseen una mayor resolución temporal (del orden de milisegundos) registrando
campos electromagnéticos producidos por los cambios de potencial eléctrico
(intercambios de iones entre células; neuronas en este caso) cuando se comunican entre ellas.
Estamos hablando de responder a las necesidades clínicas que se generan en
una sociedad envejecida con baja natalidad, más sedentaria, más estresada y
que cada vez tiene una esperanza de vida mayor. Este “cocktail socioeconóomico” y una mejora en las herramientas de diagnóstico y en conocimiento, hacen
florecer cada vez más pacientes con enfermedades neurodegenerativas o con
disfunciones de todo tipo. Las tecnologías médicas están ahí para poder prevenirlas, combatirlas, aminorar los síntomas, retrasar su desarrollo, ayudar en el
diagnóstico, mejorar las herramientas clínicas, asistir en la atención y cuidado
a los terapeutas y cuidadores, rehabilitar y por ende mejorar la calidad de vida.
La ingeniería biomédica se podría dividir en prácticamente infinitas ramas, pero
en este artículo vamos a describir brevemente las que consideramos principales
en nuestro entorno, principalmente desde TECNALIA, finalizando con la rama
en la que tenemos más experiencia en nuestro entorno definiendo el potencial
dentro del ecosistema de ciencia-tecnología-empresa vasco.
Imagenología médica
Esta rama utiliza técnicas de registro diferentes para poder observar estructuras y funciones dentro de nuestro cuerpo para realizar un diagnóstico o una
terapia o una intervención quirúrgica con mayor seguridad o de una manera
mínimamente invasiva entre otras muchas aplicaciones.
En esta rama tenemos tecnologías como los ultrasonidos ya utilizados para el
diagnóstico en 1942 por el psiquiatra austriaco Karl Dussik. Esta tecnología uti-
21
Salud electrónica:
Los principales elementos de la revolución en la salud electrónica incluyen sensores y dispositivos conectados, sin cables, electrónica vestible, tecnologías móviles, redes de sensores corporales, que junto al software inteligente basado en
algoritmos de inteligencia artificial (machine learning) y la analítica de datos (big
data), están revolucionando sobre todo los campos de la prevención, el seguimiento y el diagnostico. La revolución digital en la salud supone, por un lado,
empoderar a los ciudadanos para que monitoricen y gestionen mejor su salud, y
por otro, mejorar los servicios de salud reduciendo costes, mejorando el acceso
y la calidad, y proporcionando una medicina más personalizada.
Gracias a la era digital y a internet se espera un crecimiento exponencial en
los datos y en la necesidad de establecer nuevas formas gestionar estos datos
éticamente y de guardar, reducir dimensionalidades en los datos que puedan
proveer a los especialistas o a los mismos usuarios de información o datos relevantes de una manera sencilla y rápida sin perderse en detalles.
En este campo, se están desarrollando muchos dispositivos “wearables” y aplicaciones para móviles basados en algoritmos avanzados para soluciones de salud digital, como por ejemplo una aplicación móvil para el análisis de patologías
cardiacas a través de los sonidos cardíacos o un dispositivo “vestible” para la
predicción de crisis epilépticas.
La tomografía de emisión de positrones denominada PET, es una técnica de imagen funcional basada en medicina nuclear utilizada por primera vez en pacientes
en 1976 por Abass Alavi en Pennsylvania. Para obtener una imagen tridimensional de los procesos funcionales de nuestro cuerpo es necesaria la introducción
de un radionucleido emisor de positrones, el cual a su vez emite rayos gamma
que son detectados por el escáner. En numerosas ocasiones la reconstrucción
de la imagen funcional se hace en combinación con un escáner de rayos X una
resonancia magnética para así obtener simultáneamente información anatómica y metabólica, algo que puede ser útil especialmente para el registro de la actividad de órganos que están en movimiento o cuya estructura anatómica varía.
Sin embargo, su alto coste y la exposición del paciente a radiación ionizante, ha
hecho que su utilización sea limitada y principalmente utilizada para el diagnóstico de enfermedades cerebrales como las demencias y para la detección de
tumores cancerígenos o metástasis.
Una de las técnicas más novedosas es la espectrografía de luz infrarroja cercana
(NIRS), que es una técnica no invasiva que utiliza luz infrarroja para determinar
el grado de activación de áreas específicas del cerebro a base de medir la oxigenación, el riego sanguíneo y el estado metabólico de dichas áreas. Algunas
de las ventajas de esta técnica son su simplicidad, flexibilidad y la alta relación
señal/ruido. fNIRS graba señales con un alta resolución temporal, es transportable y menos costosa que comparada con técnicas como el fMRI. Sin embargo,
sólo puede grabarse la actividad de tejidos cerebrales a profundidades de unos
1-3cm, lo que restringe su utilidad a la corteza cerebral.
Electrodos o microelectrodos implantados dentro o sobre la corteza cerebral,
sobre músculos, sobre la medula o en el sistema nervioso periférico son también métodos cada vez más comunes en patologías como la enfermedad de Parkinson y la epilepsia o durante neurocirugía para la resección de un tumor para
determinar la funcionalidad de zonas cerebrales responsables de la disfunción.
Todas estas técnicas se utilizan actualmente para el estudio de enfermedades
como Alzheimer o depresión, el estudio de los efectos provocados por tumores cerebrales y el testeo del efecto de diferentes terapias comportamentales
o medicamentos. Así mismo, es una técnica útil para identificar regiones relacionadas con funciones de gran importancia como las sensoriales, el habla o el
movimiento, por ejemplo, antes de someter al paciente a una operación quirúrgica cerebral.
Tecnología quirúrgica
Dentro de esta rama se incluyen desde bisturís, separadores, cauterizadores,
pasando por camillas, navegadores, aparatajes de monitorización fisiológica,
hasta robótica quirúrgica para cirugías mínimamente invasivas. La medicina
quirúrgica, puede que sea la primera expresión de la ingeniería biomédica. La
aplicación de soluciones existentes como cuchillos, aguja e hilo, conjuntamente
con nociones de anatomía y funcionalidad, es el mejor ejemplo del desarrollo del
ingenio en el campo de la biomedicina o ingeniería biomédica.
El diseño, la ergonomía, los materiales quirúrgicos esterilizables, su unión con
la electrónica, monitrorización y la disminución de la invasividad nos han permitido solucionar problemas médicos hasta hace pocas décadas impensables
reduciendo drásticamente el riesgo de cualquier cirugía.
Tecnologías de realidad aumentada aportando más información sobre anatomía y funcionalidad, y los robots quirúrgicos con asistencia háptica son unos de
los avances más destacables en este campo. Probablemente los micro-robots
externamente controlados sean el siguiente paso evolutivo en este campo tan
apasionante.
INVESTIGACIÓN EN VIVO - La ingeniería biomédica
Biomateriales
de soportar fuerzas muy superiores a las necesarias para su función ortésica.
Esta rama relativamente reciente (apareció hace aproximadamente 50 años)
trata del uso de cualquier material en la biología y la medicina. Esta definición
tan amplia ha evolucionado y se ha diversificado en cientos de áreas y sub-áreas
de investigación. El primer “biomaterial” podría haber sido un material hibrido
compuesto por el diente de un animal unido a los dientes del paciente gracias
a un hilo de oro, como describe Véronique Migonney en su libro “Historia de los
Biomateriales”.
Dentro del área de la protésica se podrían incluir la robótica asistencial o para
la rehabilitación. Esta tecnología robótica debe jugar un papel importante en
un futuro cercano sobre todo en el aspecto rehabilitador o asistencial debido
a la inversión de la pirámide social que representa el descenso de la natalidad
y el descenso del numero de potenciales cuidadores para personas cada vez
mayores.
Hoy en día los podemos encontrar de manera estandarizada en implantes mamarios, válvulas cardiacas, lentillas, implantes dentales o en recubrimientos de
prótesis de rodilla o cadera y mas recientemente en la generación de tejido celular o incluso órganos a partir de células del propio paciente receptor o de incluso
animales. La ingeniería de los biomateriales está determinada y depende de la
respuesta fisiológica de acogida en diferentes modelos in-vitro e in-vivo, en soluciones celulares o directamente en celular sustraídas de animales o humanos
o directamente implantándolas en animales y humanos para ver las reacciones
celulares. El primer registro escrito de reacciones celulares in-vivo data de 1829,
cuando H.S. Levert escribió sus estudios sobre la respuesta celular cuando una
pieza de metal era implantada en un perro. Estudios recientes han identificado
la maduración o progreso de aceptación celular de los biomateriales como uno
de los principales retos en el diseño, fabricación, seguridad y en los procedimientos regulatorios. Estos retos son también compartidos en el ámbito de los
nanobiomateriales y aplicaciones nanobiotecnologías. En la última década, ha
habido un progreso importante surgiendo nuevas áreas de investigación, como
los materiales inteligentes derivados de macromololéculas naturales, donde
compuestos híbridos naturales y artificiales están ayudando a cerrar el bucle
de control en nuevas fórmulas de diagnóstico implantables y en el suministro
ultrapreciso de fármacos.
Los desarrollos en el área de biomateriales abarcan desde la química de superficies y procesamiento de los biomateriales para estudios en modelos animales,
hasta pruebas de biocompatibilidad necesarias para los procesos regulatorios
internacionales. Ensayos de biofuncionalidad de materiales porosos para la mejora de la aceptación y anclaje de implantes (por ejemplo de cadera) o para la
liberación controlada de fármacos en cualquier tipo de implante (por ejemplo
stents) está actualmente a la orden del día. Otras aplicaciones combinando los
biomateriales y el uso de campos magnéticos o eléctricos para la transferencia
de fármacos a través de diferentes tejidos (como la transmisión percutánea de
fármacos) se están acercando a unos niveles de precisión importantes mejorando el suministro farmacológico en precisión espacial y temporal y reduciendo
efectos adversos presentes en otro tipo de administración de fármacos (por
ejemplo oral).
Prótesis
La protésica, del griego prosthesis “aplicación añadida o adjunta”, es una de las
ramas iniciales de la ingeniería biomédica, aplicando directamente la mecánica
a la restauración de funciones motoras. El primer documento describiendo el
uso de una de ellas (1700-1100 a.C.), apunta a la reina guerrera india Vishpala, como la primera portadora conocida de una de estas prótesis. Las prótesis
mecánicas son mencionadas incluso en la mitología griega pero no fue hasta
el siglo pasado cuando se produjo una revolución y un avance considerable en
ellas. Las prótesis funcionales pueden ser implantables o externas. Las prótesis
mecánicas mas conocidas son las famosas extremidades piratas como la “pata
de palo” o el “garfio”. Con un diseño lo mas ergonómico posible, amputaciones
eran compensadas por soluciones básicas pero funcionales. Hoy en día estas
prótesis externas han evolucionado bastante incluyendo robótica en su diseño,
aunque todavía son las basadas en mecánica pasiva (órtesis mecánicas para el
soporte mecánico de articulaciones etc.) las más utilizadas debido al peso y a su
estética. Recientemente, se han desarrollado aplicaciones novedosas, como por
ejemplo, órtesis cuyas propiedades mecánicas pueden cambiarse instantáneamente, pasando de ser flexibles y fácilmente ajustables a un estado rígido capaz
Las prótesis implantables que restauran funciones son cada vez mas comunes
y engloban desde prótesis de rodilla y cadera, pasando por prótesis dentales,
hasta neuroprótesis como el marcapasos, las neuroprótesis visuales, auditivas
o motoras como la estimulación cerebral profunda utilizada en pacientes con
Parkinson.
Estas últimas prótesis interactuado con el sistema nervioso central, son las que
abren la siguiente sección de este artículo. Una aplicación nueva, que agrupa
muchas de las áreas que hemos comentado sobre estas líneas y que puede resultar en uno de los mayores avances médicos de las últimas décadas.
La Neuroingeniería
Dentro de este campo, merecen especial atención las interfaces neuronales y
su aplicación dentro de la rehabilitación de una función perdida o comprometida por algún tipo de enfermedad o accidente. Es decir, utilizar las señales que
podemos registrar del sistema nervioso relativos a una función y utilizarlos para
volver a excitar el sistema nervioso de tal manera que podamos generar un
cambio en las conexiones o redes neuronales (neuroplasticidad) y así conseguir
que la función se pueda restaurar. Es decir, hacemos bypasses en el sistema
nervioso utilizando la tecnología para corregir o cambiar una función. Como es
el sistema nervioso el que regula mucha de las funciones de nuestro cuerpo,
este campo está recibiendo actualmente mucha atención y las grandes compañías denominan a estas soluciones neurotecnológicas para interactuar y modelar partes del sistema nervioso electroceuticals (alternativa a medicamentos).
Estimulando de una manera inteligente el sistema nervioso se podría llegar a
regular funciones de cualquier órgano.
La tecnología de interfaces neuronales para cambiar comportamiento o funciones de algunos órganos, comenzó durante la década de 1950-60 con el científico español José Manuel Rodríguez Delgado, parando a través de un mando a
distancia a un toro que se dirigía hacia él a toda velocidad estimulándole con un
electrodo en el cerebro. Este tipo de interfaces neurales se denominan de bucle
abierto, ya que no hay una estimulación que dependa de ninguna otra señal.
Las interfaces en bucle cerrado, son las que utilizan información del sistema
nervioso para controlar la estimulación del mismo. Esta estimulación del sistema nervioso se puede producir indirectamente a través del sistema sensorial
(vista, oído, tacto, gusto y olfato).
La primera demostración del uso de una interfaz-cerebro-máquina en bucle
cerrado la realizo por primera vez en 1999 el Prof Niels Birbaumer. Un paciente
casi completamente paralizado por la esclerosis lateral amiotrófica (ELA) escribió una carta utilizando únicamente el control de su actividad cerebral.
Hace dos años se produjo la primera comunicación entre un paciente que llevaba años incomunicado por una ELA y su familia gracias a un nuevo sistema
del Profesor Birbaumer.
La manera en la que se emplea esta técnica es la siguiente: se presentan una
serie de preguntas a estos pacientes mientras se registra su actividad cerebral.
Los pacientes se concentran y piensan en la respuesta que quieren dar, generalmente Sí o No, y la interfaz es capaz, con un cierto margen de error, de
decodificar la respuesta del paciente estableciendo una comunicación entre el
paciente completamente paralizado y bloqueado y el mundo exterior.
23
Esta neurotecnología asistiva se ha llegado a optimizar hasta el punto de poder
controlar con única y exclusivamente actividad de unas cuantas neuronas, un
cursor en una pantalla o un brazo robot. La primera demostración de control
mental con un par de neuronas de un cursor en una pantalla, fue en 2003, cuando Jose Carmena y Miguel Nicolelis consiguieron hacer que uno de sus primates
controlara el movimiento de un cursor y no ha sido hasta 2011 hasta que dos
grupos estadounidenses de la Universidad de Brown y de Pittsburg consiguieran
hacerlo en humanos.
Una nueva aplicación de la neuroingeniería trata el uso de la neuroingeniería en
la rehabilitación, también denominada neurorehabilitación, que se basa en la
promoción de la neuroplasticidad como motor para regenerar y construir nuevas conexiones neuronales.
sensorial y propioceptiva que le ayuda a modular la bioseñal utilizada produciendo así ciertos cambios funcionales y estructurales que pueden dar lugar a
un re-aprendizaje motor. Se ha demostrado en varios estudios que la existencia
de un bucle cerrado que establezca un enlace entre la intención de movimiento
y el movimiento real realizado por un actuador que mueva la extremidad paralizada del paciente es clave para lograr una terapia de rehabilitación lo más
efectiva posible.
En las interfaces neuronales también llamadas interfaces cerebro-maquina o
BMI por su nombre en inglés brain-machine interface, la actividad cerebral se
utiliza como señal de control y puede ser grabada con distintas técnicas que se
han ido desarrollando y mejorando en las últimas décadas y que ya hemos men-
La neurorehabilitación es un término muy general, que puede englobar desde
el uso de estimulación eléctrica de los músculos para producir movimientos,
pasando por un videojuego para trabajar la memoria, hasta interfaces cerebro-maquina que permiten controlar ordenadores con actividad cerebral.
Uno de los mayores logros dentro de las interfaces neuronales para la neurorehabilitación, se ha conseguido recientemente en 2013, cuando Ander Ramos-Murguialday y Niels Birbaumer consiguieron recuperar la movilidad de un
miembro paralizado durante varios años tras un infarto cerebral, utilizando una
interfaz-cerebro-máquina y un exoesqueleto robótico.
Para conseguir este logro, se registra la actividad cerebral en pacientes paralizados por un infarto cerebral cuando intentan mover su mano paralizada. Esta
información eléctrica la procesamos y la decodificamos con unos algoritmos,
con los que somos capaces de saber (con un cierto margen de error) cuando
el paciente quiere mover su mano. Esta información la utilizamos para mover
un exoesqueleto robótico muy simple, cerrando así el bucle entre la intención
de producir un movimiento y ese mismo movimiento. Como los pacientes ven
y sienten el movimiento, la red neuronal encargada de una tarea visuomotora
(ej. Agarrar una manzana) se excita de una manera bidireccional: motor y sensorial. A través de hacer esto durante 4 semanas consecutivas todos los días,
se produce un aprendizaje y una plasticidad cerebral funcional. Es decir, tras la
rehabilitación con nuestra interfaz neuronal, conseguimos que la mayoría de
los pacientes, que llevan meses y la mayoría de los casos años, vuelvan a mover su miembro paralizado. Unos milímetros, no mucho, pero el resultado es
esperanzador.
Por lo tanto, esta tecnología rehabilitativa consta de tres partes que constituyen
un bucle cerrado que promueve y facilita el reaprendizaje y la recuperación de
las funciones perdidas: el primer paso consiste en grabar una bioseñal, como
puede ser la actividad cerebral, que se utiliza para interpretar la intención de
movimiento del paciente. Seguidamente, en el segundo paso la interfaz decodifica la intención del paciente por medio de unos algoritmos que han sido entrenados para esa función. Finalmente, en el último paso se ejecuta el movimiento
decodificado por medio de un actuador, como puede ser un exoesqueleto sujeto al brazo parésico del paciente, la estimulación eléctrica funcional aplicada
en los músculos paralizados, etc. De esta forma, el paciente recibe información
cionado en este artículo. Una de las más comunes es la encefalografía (EEG),
que registra de forma no invasiva la actividad eléctrica espontanea del cerebro.
Más en detalle, la técnica registra las fluctuaciones en el voltaje debidas a las
corrientes de iones que fluyen entre las neuronas en nuestro cerebro. Las señales EEG han sido ampliamente empleadas para el diagnóstico de enfermedades
como la epilepsia o en varias áreas de investigación como son el sueño, la neurorehabilitación, etc. debido a su bajo coste, su alta resolución temporal y a su
relativa facilidad de uso. Sin embargo, la EEG presenta varias desventajas con
respecto a otras técnicas: posee una baja resolución temporal, la calidad de la
señal (relación señal/ruido) es pobre y la cantidad de información que se puede
extraer sobre la actividad de áreas cerebrales no superficiales es limitada.
Técnicas invasivas como la electrocorticografía (registro de actividad mediante
electrodos intracraneales sobre la corteza cerebral) y la utilización de microelectrodos depositados en la corteza cerebral ofrecen una mayor resolución y calidad de la señal al no tener la barrera impuesta por el cráneo, que reduce la
calidad de la señal en técnicas no invasivas como la EEG debido a la baja conductividad del tejido óseo.
Otro tipo de interfaces son las electromiográficas, que utilizan la actividad electromiográfica (EMG) de los músculos del paciente por ejemplo para controlar
el movimiento de un robot o para activar una serie de estímulos eléctricos que
produzcan contracciones musculares en la extremidad paralizada. El entrenamiento con este tipo de terapias rehabilitativas puede ayudar al paciente a
aprender a generar de nuevo los patrones sanos y naturales de actividad muscular, los cuales han quedado afectados por la enfermedad o accidente. Estas
interfaces son empleadas también con fines asistivos, es decir, como sustitución de funciones o extremidades perdidas para pacientes amputados o para
pacientes con paresis en los cuales las terapias de rehabilitación existentes no
son aplicables o no han sido completamente exitosas. Un ejemplo de estas son
las prótesis de extremidad superior o inferior. Las prótesis han permitido a amputados realizar tareas y movimientos que les eran imposibles de llevar a cabo
anteriormente. Sin embargo, existen aún una serie de limitaciones como son
INVESTIGACIÓN EN VIVO - La ingeniería biomédica
la relativa estabilidad de las señales de control EMG a lo largo del tiempo y la
limitación de no poder controlar más de un grado de libertad al mismo tiempo.
En los últimos años se ha concentrado un gran esfuerzo en este campo para desarrollar prótesis que permitieran realizar movimientos de la forma más natural
e intuitiva posible incluyendo múltiples grados de libertad del miembro superior
al mismo tiempo. Sin embargo, la falta de robustez y fiabilidad en el control de
prótesis tan avanzadas es entre otras comentadas anteriormente, una de las
razones por las que los usuarios prefieren las prótesis más robustas aunque
también más sencillas y limitadas y por lo que aún no se han establecido en el
mercado dichos dispositivos.
Como hemos mencionado antes, el tercer paso de las interfaces cerebro-maquina con fines rehabilitativos consiste en que un actuador transforme la intención de movimiento del paciente en el movimiento real de su extremidad
paralizada. Es aquí donde entra en juego el campo de la robótica rehabilitativa.
Hasta hoy en día tanto exosesqueletos como órtesis han sido utilizados para
producir el movimiento que el paciente desea pero es incapaz de realizar. Es
decir, estos actuadores proporcionan una retroalimentación, o a menudo llamado con su nombre en inglés, feedback sensorial y propioceptivo al paciente
de forma que este último sepa en todo momento si la actividad cerebral que
está generando es la correcta para producir el movimiento deseado. Basándose en esta información, el paciente adapta su actividad cerebral para lograr
que el actuador realice el movimiento que desea y es así como poco a poco el
paciente aprende a modular su actividad cerebral pudiendo llegar a recuperar
las funciones motoras perdidas. Por lo tanto, los robots pueden ser utilizados
para ofrecer terapias de rehabilitación seguras, intensivas y orientadas hacia
una tarea específica a pacientes incluso con incapacidades motoras severas. Los
robots permiten incrementar la intensidad de la terapia sin que esto conlleve un
gran coste adicional. Así mismo incluye las siguientes ventajas: i) el movimiento
se puede asistir y controlar de una forma sencilla y precisa; ii) se puede repetir
el mismo movimiento un gran número de veces sin introducir gran variabilidad; iii) el feedback proporcionado al paciente por medio del movimiento de su
brazo parésico incrementa su motivación; iv) proporciona medidas objetivas y
cuantificables, como datos cinéticos y cinemáticos para calcular la evolución del
rendimiento y del aprendizaje motor del paciente; v) reduce el nivel de asistencia fisioterapéutica necesaria para realizar la terapia de rehabilitación, lo que a
su vez reduce los costes de atención médica. En conclusión, los robots permiten
al paciente llevar a cabo una terapia de rehabilitación intensiva, con un gran
número de repeticiones y de forma cuasi-independiente. Se ha demostrado que
un entrenamiento repetitivo, progresivo y capaz de motivar e involucrar al paciente en la tarea puede inducir cambios plásticos en las redes neuronales encargadas del control y aprendizaje motor. Estos cambios pueden ser de carácter
funcional y anatómico-estructural y se dan como resultado de unos procesos
denominados neuroplásticos. La neuroplasticidad, en el nivel más básico, consiste principalmente en cambios moleculares en la excitabilidad y transmisión
de las sinapsis neuronales. Esto produce una reorganización de las redes neuronales que puede ocurrir en los hemisferios cerebrales, a lo largo de la medula
espinal y finalmente incluir todo el sistema central nervioso. Por lo tanto, las terapias de neurorehabilitación repetitivas, intensivas y motivacionales realizadas
con la ayuda de robots de rehabilitación constituyen ser un buen método para
promover la recuperación de las funciones motoras perdidas, como ya ha sido
demostrado en estudios recientes.
El feedback en las interfaces cerebro-maquina se puede dar también mediante
técnicas como la estimulación eléctrica funcional (EEF), que consiste en la aplicación de estímulos eléctricos a los músculos los cuales producen potenciales
de acción en los nervios periféricos generando así contracciones musculares.
EEF se ha utilizado para la corrección de drop-foot (pie caído/pendular/equino),
dorsiflexión de piernas afectadas por una hemipáresis, etc. Se ha demostrado
que la EEF mejora la fuerza del musculo parésico y la circulación sanguínea y
cada vez son mas convincentes los indicios de que también ejerce una cierta
influencia en la organización cortical. Así mismo algunos estudios han mostrado
que combinada con otras estrategias de rehabilitación puede producir mejoras
de la marcha y acelerar el proceso de rehabilitación.
Euskadi y la ingeniería biomédica
Sabiendo que el mercado de la ingeniería biomédica está llamado a alcanzar
los 228.700 millones de dólares en 2020, creciendo a 13.4% durante el periodo de 2015 to 2020, nos hace ver la relevancia de este sector no solo en la
sociedad, la ciencia, y la calidad de vida, si no en nuestra economía.
Como ya hemos comentado, en las tecnologías médicas se necesitan los
mismos conocimientos básicos y muchas de las tecnologías que se usan en
otro tipo de industrias como las de nuestro país. Electrónica, informática,
materiales, energía, robótica, telecomunicación, química, física…toda esa tecnología y principalmente los recursos humanos que la desarrollan, mantienen y diseñan, se puede reorientar prácticamente sin esfuerzo a desarrollar
tecnologías médicas. Evidentemente hace falta una interacción directa desde
el inicio con la clínica, que afortunadamente también es excelente en nuestro
país, y una serie de personas que sirvan de puente y sepan combinar esos
recursos para obtener un resultado importante y de impacto. Hacen falta,
como ya tenemos, titulaciones universitarias que generen la próxima ola de
investigadores y desarrolladores de tecnología médica. Es decir, estamos capacitados de sobra para jugar un papel relevante a nivel internacional en
este campo si jugamos bien nuestras cartas. Es una cuestión de estrategia a
largo plazo ya que nosotros seremos los primeros beneficiados de esa tecnología y cuanto mejor queramos vivir en el futuro, más se debería de invertir
en tecnología/ciencia/investigación.
25
IVO
NV
NE
IGA
CIÓ
EST
INV
Biología Estructural:
contribución
al descubrimiento y
desarrollo de nuevos
antibióticos
David Albesa-Jove1, Javier O. Cifuente2 y Marcelo E. Guerin3
Investigador Ikerbasque Fellow, en el Grupo de Glicobiología Estructural, UPV
Investigador Post-doctoral, en el Grupo de Glicobiología Estructural, UPV
3
Profesor de Investigación Ikerbasque, y lider del Grupo de Glicobiología Estructural, UPV
1
2
Alexandre Yersin no lo dudó. El padre Bernardo Vigano pagó por los cuerpos y
él corrió con su bisturí en mano. Abrió uno de ellos y, decidido, extrajo un bubón. Allí debía estar la respuesta. Y subió. Subió rápido hasta su laboratorio del
Kennedy Town Hospital de Hong Kong, muy lejos de casa. Hizo un preparado y
lo montó en su microscopio. Ese que siempre viajaba a su lado, a todas partes
en su caja de madera. Miró ansioso. Un puré de microbios, todos parecidos con
forma de bastones y extremos redondeados. Yersin descubría así al bacilo de
la peste que haría honor a su nombre, Yersinia pestis. Esa plaga que hasta entonces había diezmado la población mundial en varias ocasiones (Camus, 1947).
Quizás al encontrarse luego con el padre Vigano lo abrazó. Quizás solo se dieron
la mano. O quizás se sumió en un profundo silencio. No lo sabemos. Pero lo que
sí sabemos es que el padre Vigano hizo construir para Yersin, un hombre de una
energía inagotable, una precaria choza de bambú recubierta de paja cerca del
Alice Memorial Hospital, también en Hong Kong, para que éste pudiera avanzar
en sus investigaciones con total libertad. En una habitación Yersin instaló sus
tubos de cultivo y sus animales de experimentación. En la otra, contigua, dormía
él en una cama de campaña. Junto a su inseparable microscopio óptico. Así era
Yersin (Mollaret y Brossollet, 1985; Deville, 2014; Figura 1).
Un año mas tarde Yersin se alojó en el mismo Instituto Pasteur de Paris, para
intentar desarrollar la vacuna y el primer suero anti pestífero. Ya en Hong Kong
intuyó que la inoculación de cepas poco o no virulentas, serían capaces de generar inmunidad contra la peste. Y en esa dirección trabajó muy duro junto con
Émile Roux y Albert Calmette, consiguiendo establecer sus bases en poco más
de tres meses. Tres años más tarde, muy lejos de allí, Paul-Louis Simond, que no
las tenía todas consigo, se las ingenió en el Hotel Reynolds de Karachi (Simond
et al., 1998), para descubrir que la pulga era la transmisora de la epidemia, cerrando así el circulo de su etiología. Yersin, que era un científico noble, felicitó
a Simond. El descubrimiento de Yersin se sumaba al de muchos otros investigadores de la época, incluyendo el de Filippo Pacini y la bacteria que causaba el
cólera en 1854, el de Robert Koch y el bacilo de la tuberculosis, en 1882 (Zumla
et al., 2013a).
El microscopio óptico le permitió a Yersin responder a la pregunta acerca del
origen de la peste. Sin embargo, ¿qué había mas allá? ¿Cómo estaba estructurada esa bacteria que acababa de descubrir? ¿Por qué podía causarle la muerte
a una persona? ¿Qué es lo que la diferenciaba de aquella que causaba la tuber-
INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos
átomos en un cristal y el patrón de difracción que se desprende del mismo al ser
irradiado con rayos X. En un artículo seminal titulado ‘The Reflection of X-rays by
Crystals’ (Bragg y Bragg, 1913), describen el primer difractómetro de rayos X, por
el cual fueron merecedores en 1915 del Premio Nobel en Física. Sin embargo,
este concepto no hubiese sido posible sin el descubrimiento de los rayos X y su
capacidad de ser difractados mediante cristales.
“El conocimiento de la estructura
tridimensional de dianas terapéuticas
permite el diseño racional de fármacos”
Figura 1. A. Esquema de Yersinia pestis tras ser visualizada con el microscopio óptico. B. Y.
pestis visualizada mediante el microscopio electrónico actual. C. Esquema de Mycobacterium
tuberculosis tras ser visualizada con el microscopio óptico. D. M. tuberculosis visualizada
mediante el microscopio electrónico actual.
culosis descripta por Koch? ¿Por qué no se movía, a diferencia de lo que ocurría
con la que causaba el cólera? ¿Qué es lo que la diferenciaba de una célula humana? No había dudas. Había que mirar más en profundidad. Adentrarse en la
estructura de aquellas bacterias. Pero ¿cómo? Afortunadamente, la curiosidad,
las ilusiones y la energía de muchos otros científicos que trabajaron a lo largo
de los años permitieron desarrollar técnicas que nos han permitido ver mas
allá de lo que Yersin pudo ver aquel 20 de Junio de 1894, bien entrada la tarde,
cuando descubrió el bacilo de la peste. Dichas técnicas nos permitieron conocer
que las bacterias están esencialmente compuestas de tres tipos de moléculas:
los lípidos, los glicanos y las proteínas. Y que la variabilidad de sus estructuras
químicas, su disposición en el espacio y su relación con el tiempo y su entorno,
las diferencian unas de otras. Dentro de las técnicas que nos han permitido ver
estas estructuras a nivel molecular, encontramos a la microscopia electrónica, la
resonancia magnética nuclear, y otra particularmente fascinante que permitió
un avance fundamental en el entendimiento de la estructura molecular de la
materia viva: la cristalografía de rayos X (Blundell y Johnson, 1976; Figura 2).
“La biología estructural permite avanzar
en el descubrimiento, desarrollo y
comprensión de los mecanismos de
acción de los antibióticos”
¿Que es la cristalografía de rayos X?
‘The technique explains why blood is red and grass is green; why diamond
is hard and wax is soft; why glaciers flow and iron gets hard when you hammer it; how muscles contract; how sunlight makes plants grow and how living organisms have been able to evolve into ever more complex forms?
… The answers to all these problems have come from structural analysis.’
Max Perutz, Julio de 1996, Churchill College, Cambridge
Estas fueron las palabras que Max Perutz escribió para poner de relevancia la
importancia de la cristalografía de rayos X y su impacto en el conocimiento humano. La cristalografía de rayos X es el estudio de la estructura de los solidos
cristalinos y ha dado lugar al desarrollo de nuevas disciplinas como la Biología
Molecular y la Biología Estructural. William Bragg y su hijo Lawrence Bragg fueron pioneros en el análisis de estructuras cristalinas mediante el uso de rayos
X. En 1913 formularon la relación geométrica existente entre la posición de los
Durante 1895, es decir un año después del descubrimiento de Yersin, Wilhelm
Röntgen estudiaba los efectos de los rayos catódicos en tubos de vacío. Para
ello había oscurecido su laboratorio. En concreto, Röntgen descubrió, de una
forma fortuita, que al aplicar la corriente eléctrica al tubo de vacío, una tenue
luz era emitida sobre una poyata apartada del tubo sellado. Esta luz provenía de
un trozo de papel cubierto con sal de platino-cianuro de bario, material fluorescente con el que Röntgen realizaba dichas experiencias. Se dió cuenta de que la
intensidad de luz emitida por la sal aumentaba al aproximarla al tubo sellado,
por lo que era claro que el estímulo del brillo procedía de algún tipo de radicación emitida en el tubo de vacío. Durante las semanas que siguieron, Röntgen
estudió en detalle las propiedades de esta radiación invisible y desconocida que
bautizó como rayos X — siguiendo la notación matemática de la X para lo desconocido. Descubrió que los materiales densos absorbían más radiación que
aquellos menos densos, y que dicha radiación volvía negro el papel fotográfico.
Justo antes de Navidades decidió tomar una radiografía de la mano de su esposa, donde se observaban con claridad los huesos y el anillo de oro en su dedo
anular, estableciendo el nacimiento de la radiología médica. El 28 de diciembre
de 1895 publicó ‘On A New Kind Of Rays’ describiendo su descubrimiento, un
logro que le valió en 1901 el primer Premio Nobel en Física.
Röntgen intentó luego sin éxito reflejar los rayos X o focalizarlos con lentes ópticas. El desarrollo de la cristalografía tuvo que esperar hasta que otro físico alemán, Max von Laue, se preguntara esencialmente si los rayos X eran partículas u
ondas. Si fuesen ondas deberían poder ser difractadas, al igual que la luz visible.
Fue entonces cuando un alumno de Laue le habló acerca de los cristales, que se
pensaba estaban compuestos por átomos dispuestos en forma ordenada. Laue
intuyó que quizás ese orden cristalino pudiese ser capaz de permitir la difracción de los rayos X. Diseñó así el primer experimento de difracción de rayos X
a partir de cristales de sulfato de cobre. Estas primeras imágenes fotográficas
demostraron no solo que los rayos X son ondas, sino también que los átomos
que forman los cristales se encuentran ordenados. Por el descubrimiento de
la difracción de rayos X mediante el uso de cristales, Laue consiguió en 1914 el
Premio Nobel en Física.
Los tiempos que siguieron fueron fascinantes. Max Perutz, un joven refugiado austríaco recién licenciado que llegó a Cambridge en 1936, fue persuadido
con el enorme reto de resolver la estructura cristalina de una proteína, uno de
los principales componentes de la célula, bajo la supervisión de John Desmond
Bernal, quien a su vez fuera discípulo de William Bragg. Poco después, Bernal
dejó Cambridge para trasladarse al Birkbeck College en Londres, dejando atrás
a Perutz, quien fue a discutir su proyecto con Lawrence Bragg. Su proyecto representaba para la época una verdadera tarea de soñadores, ya que la estructura cristalina más compleja resuelta hasta la fecha, 1937, estaba compuesta por
solo 40 átomos. ¡Perutz pretendía resolver una estructura cristalina de aproximadamente 5.000 átomos! Lawrence Bragg decidió apoyar a Perutz en este
gigantesco y maravilloso esfuerzo, que culminó 25 años más tarde con la resolución de la estructura de la hemoglobina, por lo cual recibió el Premio Nobel en
Química en 1962. Este logro representó a su vez el esfuerzo colectivo de muchos
otros científicos, incluyendo el de Dorothy Hodgkin, quien colectó los primeros
datos de difracción de rayos X a partir de cristales de proteínas en 1934. Es interesante mencionar que en 1951, Linus Pauling y Robert Corey (Pauling y Corey,
27
Figura 2. Biología estructural en el contexto del conocimiento científico
La importancia de la
Biología Estructural
Las ciencias experimentales nacen de la curiosidad del ser humano por entender el universo que lo rodea. Mediante la observación
sistemática y el análisis racional, la ciencia permite la conceptualización, clasificación y el ordenamiento del conocimiento científico.
Esto lleva al planteamiento de modelos, que sometidos a permanente revaluación, tratan de explicar los fenómenos observados.
En este marco se genera el concepto de estructura que surge de
observar el orden interno de las entidades-objeto, los patrones
que forman y en sumatoria resultan en un modelo de arquitectura del cosmos. Estas estructuras se clasifican, desde el punto
de vista del tamaño, dentro de un rango que va desde los límites
del universo conocible hasta la medición de las partículas subatómicas. Para el ser humano, dentro de la estructura del universo,
el evento llamado vida es uno de los objetos de estudio de mayor
atracción a su curiosidad, no solo por su singularidad y total centralidad en el espacio existencial del hombre, sino porque el avance
1951) propusieron que los péptidos que conforman las proteínas se encuentran
mayormente formando estructuras helicoidales (hélices- ) o planas (hebras-β).
Dichos modelos, pudieron ser visualizados por primera vez gracias a la resolución de las estructuras de la mioglobina y de la hemoglobina en 1959, sentando
las bases de la Biología Estructural.
⍺
en el conocimiento de la ciencia de la vida, la biología, impacta
en el desarrollo de la humanidad. Un ejemplo de buen uso de
este conocimiento puede corroborarse en cómo se ha afectado
positivamente la calidad y el aumento de la esperanza de vida del
ser humano al surgir la era antibiótica. El campo biológico actual
esta enmarcado en un rango de tamaño que va desde la biosfera a la biofísico-química, y es a este nivel, el de la interacción
de los átomos y moléculas donde se genera mucho del conocimiento fundamental. Ésta última región del estudio biológico,
corresponde a las estructuras que no se pueden observar por
medio de instrumentos ópticos del rango visible y es donde se
define la biología estructural. La elucidación de estructuras biológicas se puede obtener por medio de diferentes técnicas. Las
tres principales son la cristalografía de rayos X, la microscopía
electrónica y la resonancia magnética nuclear. Estas técnicas son
complementarias, ya que cada una aporta diferentes visiones de
los objetos tanto por limitación de escala, resolución, flexibilidad
o condición de preparación de la muestra de estudio. La biología
estructural nace con la cristalografía de moléculas biológicas.
Su fundamento es la iluminación de éstas moléculas ordenadas periódicamente, por ejemplo con rayos X, para obtener el
patrón de difracción de cuyo análisis se extraen las posiciones
atómicas de la molécula. Por medio de esta poderosa técnica
se estudian maquinarias biológicas completas como el ribosoma (complejos supramacromoleculares), proteínas en diversos
estados conformacionales como PimA, complejos enzima-sustrato como los complejos de Michaelis de la enzima GpgS. La
técnica sigue avanzando y últimamente el desarrollo de métodos de colecta de difracción de un flujo de cristales en solución
(Time resolved crystallography) ha permitido observar cambios
conformacionales en tiempo real, como el del centro reactivo
de los fotosistemas tras la excitación por luz. Otra técnica importante en el campo es la microscopía electrónica, que usa
haces de electrones que viajan enfocados por lentes magnéticas a través de la muestra interpuesta, soportada a una rejilla,
análogamente a rayos de luz en un microscopio óptico. En su
origen la muestra biológica necesitaba ser teñida con metales
pesados para poder ser observada, actualmente, con el desarrollo de la microscopía en fase criogénica, la muestra se mantiene en una fase acuosa vítrea a temperaturas de nitrógeno
liquido, con lo cual las moléculas biológicas se hallan en estado nativo. Esta técnica también permite estudiar complejos
supramacromoleculares, como complejos virus receptor, así
como proteínas de mediano peso molecular. Hoy con esta técnica ya se pueden obtener estructuras atómicas. Por último, la
resonancia magnética nuclear (NMR) usa la propiedad de ciertos núcleos atómicos de desdoblar sus estados energéticos
en presencia de un potente campo magnético externo y al ser
excitados, usando un pulso de radiofrecuencia, provocan una
respuesta de resonancia cuya resultante es el espectro NMR,
que a partir de su análisis permite obtener información de la
estructura, su entorno químico y su dinámica molecular, esto
último característica sobresaliente de la técnica.
El campo de la cristalografía ha evolucionando desde sus orígenes, en forma
extraordinaria. Las fuentes de radiación de rayos X han sido perfeccionadas y
robotizadas. Se han construido los sincrotrones (Figura 3). Los detectores han
evolucionado drásticamente, siendo capaces en la actualidad de contar fotones
con una exactitud absoluta. Se han desarrollado nuevos métodos de resolución
y análisis estructural automatizados, en gran medida gracias al progreso en pa-
INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos
Figura 3. A. Imagen aérea del sincrotron Diamond Light Source en Reino Unido. El edificio posee unos 738 metros de circunferencia. B. Un esquema de su interior, donde se muestra en la parte
superior el gran anillo central por el cual viajan partículas aceleradas a velocidades cercanas a la luz, lo que genera emisión de haces de luz de alta energía (rayos X) con un brillo millones de veces
mayor que el sol. Estos rayos X son dirigidos dentro de la linea experimental (enmarcada en rojo). Dentro de la linea, confinado en una habitación blindada a la radiación, el cristal, soportado en un
goniómetro y enfriado por un flujo de nitrógeno a temperaturas criogénicas, es irradiado por la fuente de rayos X y su difracción colectada en un detector (enmarcado en naranja). C. El experimento
en estos sincrotrones avanzados se realiza usando robots de última tecnología que manipulan desde cristales individuales (izquierda) hasta placas conteniendo cientos de cristales (derecha). Imágenes por cortesía de Diamond Light Source.
ralelo de la informática. Todos estos avances hacen hoy de la cristalografía de
rayos X una técnica que impacta marcadamente en nuestro conocimiento de
la vida a nivel molecular. Un ejemplo claro es el impacto que ha tenido en el
descubrimiento y desarrollo de los antibióticos.
El aporte de la biología estructural al
descubrimiento, desarrollo y comprensión
de los mecanismos de acción de los
antibióticos.
La era de la quimioterapia antibacteriana comenzó en la primera década del
1900 con el descubrimiento de la arsfenamina por el bacteriólogo alemán Paul
Ehrlich (Dougherty y Pucci, 2012). Convencido de que el arsénico era clave para
curar la sífilis, sintetizó a aparición del segundo antibiótico, esta vez de la mano
del patólogo y bacteriólogo Gerhard Domagk, el cual testó en ratones la molécula sulfanilamida, derivada de la sulfonamida, dándose cuenta de que protegía
a los ratones del ataque de los estreptococos de la especie Streptoccocus pyogenes. Alexander Fleming descubrió el primer antibiótico natural, la penicilina,
que fue crucial para salvar muchas vidas durante el período más sangriento de
la historia de Europa. El descubrimiento de la penicilina fue completamente accidental, ya que lo que realmente estaba investigando Fleming eran las propiedades del Staphylococcus. En 1928, al volver de sus vacaciones observó como
una de sus placas de petri había sido contaminada con un hongo, habiendo
destruido casi completamente las colonias de Staphylococcus a su alrededor.
Con el tiempo identificó que el hongo pertenecía a la familia Penicillium y, más
tarde, identificó la sustancia llamándola penicilina (Figura 4). En 1945, Dorothy
Hodgkin determinó su estructura, la primera de un antibiótico, por cristalografía
de rayos X. Los científicos que descubrieron los tres primeros antibióticos obtuvieron el premio Nobel de Medicina, viéndose recompensado el gran aporte
que hicieron al aumento de la esperanza de vida.
Hoy en día existen antibióticos con estructuras químicas de naturaleza muy diversa lo que da a lugar a mecanismos de acción diferentes. Pero ¿por qué son
efectivos? Estos modos de acción esencialmente impactan negativamente en
el metabolismo bacteriano de manera que el individuo puede controlar la infección. A grandes rasgos se pueden clasificar a los antibióticos en dos grupos:
los bacteriostáticos, en el caso que impidan la multiplicación de las bacterias, y
los bactericidas, que directamente matan al microorganismo. Las sulfonamidas
son un ejemplo de acción bacteriostática, ya que al interrumpir el metabolismo
normal del ADN bacteriano inhibiendo la enzima dihidropteroato sintetasa, impiden su replicación y por tanto la división bacteriana. Un clásico ejemplo de
un antibiótico bactericida es la penicilina y sus derivados que interrumpen la
síntesis normal de la pared bacteriana, inhibiendo la enzima DD-transpeptidasa, generando una gran vulnerabilidad en la bacteria lo que provoca su muerte
(Figura 4). Estos son algunos de los modos en que un antibiótico interrumpe
funciones en los circuitos fisiológicos y metabólicos de las bacterias, funciones
que en su gran mayoría están ligadas a proteínas que llevan a cabo una función
29
de resistencia. Dichas estructuras han originado un volumen de conocimiento
que resulta fundamental para la comprensión del funcionamiento de los antibióticos, permitiéndonos introducir mejoras en su actividad (Figura 4).
Descubrimiento y desarrollo de
antibióticos contra Mycobacterium
tuberculosis: un desafío mayor.
Figura 4. A. Las proteínas con función fisiológica esencial para la vida de la bacteria son diana de antibióticos que las inhiben o impiden su normal función. Aquí mostramos la proteína
PBP6 de Escherichia coli, involucrada en la construcción de la pared bacteriana (síntesis de
peptidoglicano), que puede ser inhibida irreversiblemente con antibióticos beta lactámicos,
como la penicilina. B. Los microorganismos, bajo la presión selectiva de estos antibióticos,
son seleccionados en base a su resistencia, que viene dada por mutaciones en la proteína
diana, o por poseer proteínas que puedan de algún modo neutralizar el antibiótico, como
es el caso de las enzimas beta lactamasas que hidrolizan los beta lactamicos, haciendo al
Mycobacterium tuberculosis, el agente causal de la tuberculosis, es el segundo
agente infeccioso que más muertes causa en el mundo por detrás del HIV. La
tuberculosis continúa siendo un grave problema sanitario a nivel mundial, causando la muerte de aproximadamente 1.5 millones de personas al año. A su
vez, se estima que la tercera parte de la población mundial esta infectada y es
portadora de la forma latente de la bacteria. El tratamiento de la enfermedad
es un proceso lento y laborioso, que requiere la administración de dos a cuatro
fármacos de primera línea, incluyendo rifampicina, isoniazida, etambutol y pirazinamida, a lo largo de seis meses, y cuya adherencia por parte del paciente
suele ser baja. Muy recientemente se ha detectado un marcado aumento en
el número de cepas resistentes (MDR) y de cepas extremadamente-resistentes
(XDR) de la bacteria en todo el mundo. La aparición de estas últimas es un hecho
alarmante ya que presentan resistencia no sólo a la rifampicina e isoniazida,
sino también a tres o más de las seis clases de antibióticos de segunda línea
con los cuales la tuberculosis es tratable, lo que ha convertido en una necesidad
urgente el descubrimiento de nuevos fármacos (WHO Report 2014).
microorganismo invulnerable al antibiótico. Para revertir esta resistencia, actualmente se administran inhibidores de beta lactamasas durante el tratamiento, impidiendo la actividad de
éstas enzimas por lo cual se rescata la acción del antibiótico. La biología estructural aporta
información para entender el modo de acción de éstos fármacos y a partir de la información
de la estructura atómica mejorar y diseñar nuevos fármacos.
específica. En resumen, a nivel molecular, los antibióticos interactúan mayormente con proteínas diana específicas alterando su actividad, lo que finalmente
afecta la capacidad de supervivencia de las bacterias.
“Las plataformas de biología estructural
producen beneficios directos para
el avance de la ciencia y tienen
implicaciones directas en la sociedad,
como motor económico y como
herramientas para la mejora de la calidad
de vida”
¿Por qué emergen las bacterias resistentes a los antibióticos? El uso de nuevos
conocimientos científicos ha requerido, en ciertas ocasiones, de un período de
aprendizaje para su buen uso. Con poco más de un siglo de experiencia en el
manejo de antibióticos resultados indeseables e inesperados han surgido. Quizás el más grave de ellos haya sido la aparición de bacterias que, originalmente
vulnerables a tratamientos quimioterápicos, han devenido resistentes (Figura
4). Este proceso tiene su origen en la selección natural de aquellos microorganismos resistentes a los antibióticos, siendo estos últimos una nueva presión de
selección. Este fenómeno se ve exacerbado por el uso irracional de antibióticos,
como se ha observado desde casi el despertar de la era antibiótica cuando, por
ejemplo, el uso generalizado e indiscriminado de sulfonamidas en los frentes
de batalla dió lugar a los primeros casos de cepas de Streptococcus pyogenes
resistentes en hospitales militares. Este es un fenómeno muy preocupante en
la actualidad, ya que representa un retroceso en nuestra capacidad de combatir las enfermedades infecciosas, corriendo el riesgo de volver a una virtual
era pre-antibiótica. La cristalografía de rayos X ha contribuido de una manera
excepcional en la determinación no solo de las estructuras de antibióticos, sino
también de las proteínas diana y de aquellas involucradas en los mecanismos
“Los nuevos avances en crio-microscopía
electrónica tienen implicaciones directas
en biomedicina y salud”
La envoltura celular de M. tuberculosis es particularmente robusta, basada en
glicanos y lípidos de estructura excepcional que juegan un papel esencial en el
mantenimiento y la compartimentación celular al igual que en la patogénesis
de la tuberculosis. Esta estructura química compleja le confiere a la bacteria
una escasa permeabilidad celular, siendo responsable de la ineficacia de múltiples agentes antimicrobianos utilizados comúnmente para el tratamiento in-
Figura 5. Grupo de Glicobiologia Estructural. Arriba de izquierda a derecha: Ander Eguskiza,
Itziar Gonzalez-Moro, Javier Cifuente, David Albesa-Jove, Marcelo Guerin (head), Aritz Durana
y Enea Sancho-Vaello. Abajo de izquierda a derecha: Mikel Garcia, Ane Rodrigo-Unzueta, Natalia Comino y Montse Tersa.
INVESTIGACIÓN EN VIVO - Biología estructural y desarrollo de nuevos antibióticos
Figura 6. Reordenamientos estructurales de tipo hebra-β-a-hélice-α y hélice-α-a-hebra-β
en la enzima PimA, visualizados en sus distintas estructuras obtenidas por cristalografia de
rayos X.
fecciones causadas por bacterias Gram positivas y Gram negativas (Zumla et al.
2013b). Por consecuencia, la pared celular es un foco de estudio muy intenso
con el objetivo de identificar nuevas proteínas dianas para el descubrimiento y
desarrollo de agentes anti-micobacterianos (Jackson et al. 2013). La pared celular micobacteriana se compone de tres segmentos principales. En la parte más
interna se encuentra la membrana plasmática. La parte central de la pared, es
conocida como el complejo micolil arabinogalactan-peptidoglicano. El ácido micólico forma la parte interna de la membrana asimétrica externa, mientras que
la parte externa está compuesta por (glico)lípidos, lipoglicanos y (lipo)proteínas.
La capa más externa de la pared celular consiste en una estructura de bajo
empaquetamiento denominada cápsula, que principalmente se compone de
polisacáridos y proteínas con un porcentaje minoritario de lípidos. El objetivo a
largo plazo de nuestro grupo de investigación, el grupo de Glicobiología Estructural (Figura 5), es el de contribuir en el estudio de los determinantes estructurales y la modulación de la especificidad de sustrato de proteínas involucradas
en la biosíntesis y modificación de glicanos. La búsqueda de alternativas terapéuticas que permitan combatir la tuberculosis nos ha llevado a interesarnos en
proteínas involucradas en la síntesis de la envoltura celular de M. tuberculosis.
En particular, aquellas que participan de la biosíntesis de fosfatidilinositol manosidos (PIMs) y sus derivados, lipomanano (LM) y lipoarabinomanano (LAM).
Los PIMs se encuentran unidos de forma no covalente mediante su residuo fosfatidilinositol a la membrana plasmática y a la membrana externa de la pared
celular (Guerin et al., 2010). Pueden contener de uno a seis residuos de manosa
y hasta cuatro cadenas alquílicas, siendo el fosfatidilinositol dimanosido (PIM2)
y el hexamanosido (PIM6) tri- o tetra-acilados las especies mayoritarias in vivo.
Hemos avanzado marcadamente en el conocimiento molecular de PimA, una
enzima esencial para el crecimiento de M. tuberculosis y responsable de catalizar el primer paso en la ruta de síntesis de los PIMs (Boldrin et al., 2014). PimA
es una glicosiltransferasa que cataliza la transferencia del primer residuo de
manosa a un lipido aceptor, que se encuentra anclado en la membrana, el fosfatidilinositol (Albesa-Jove et al. 2014). Evidencias experimentales sugieren que
la reacción se lleva a cabo en la interfaz entre la membrana y el citosol, gracias
a la capacidad estructural de la enzima de acceder tanto a un sustrato hidrofílico, en este caso el GDP-Manosa que se encuentra en solución, como también
al sustrato hidrofóbico embebido en la membrana. La estructura cristalina de
PimA reveló que está compuesta de dos dominios con un plegamiento de tipo
Rossmann, separados por un surco central importante donde se unen los sustratos y se lleva a cabo la catálisis (Guerin et al., 2007; Guerin et al., 2009; Giganti
et al., 2013). Recientemente, hemos observado que esta enzima adopta diferentes estados conformacionales sin precedentes, un hallazgo que representa un
avance en el conocimiento no sólo del mecanismo molecular de PimA, sino de
proteínas que se asocian a membrana en general. Por primera vez hemos podido observar como una glicosiltransferasa es capaz de cambiar su conformacion
mediante transiciones en su estructura secundaria de tipo β-strand–to–α-helix
y α-helix–to–β-strand (Giganti et al., 2015; Figura 6). Estos cambios estructurales
parecen modular la catálisis y estar promovidos por su interacción con los sustratos y/o con la membrana.
El Grupo de Glicobiología Estructural participa activamente en el proyecto
MM4TB - More Medicines for Tuberculosis, financiado por el VII Programa Marco de la Unión Europea, con un presupuesto de 16 millones de euros. MM4TB
se ha constituido con el objetivo de contribuir al descubrimiento de nuevos
fármacos que permitan combatir la tuberculosis. En concreto, el consorcio se
plantea validar farmacológicamente al menos cinco nuevas dianas y descubrir
al menos una familia de candidatos a fármacos susceptibles de ser transferidos
a compañías biotecnológicas y farmacéuticas asociadas, para su futuro desarrollo. La obtención de inhibidores contra la enzima PimA representa un desafío sin
precedentes. El equipo que se ha reunido en torno a MM4TB utiliza un enfoque
multidisciplinar e integral, incluyendo estrategias de screening tripartito y química medicinal, genómica funcional y biología estructural. En dicho consorcio
participan, además de nuestro grupo, más de 20 grupos punteros de investigación europeos, entre los cuales se encuentran las Universidades de Cambridge
(UK), Uppsala (Suecia) y Pavia (Italia), el Instituto Pasteur de Paris (Francia), el
ETH (Suiza) la École Polytechnique Fédérale de Lausanne (Suiza), y tres compañías farmacéuticas lideres en el mercado, AstraZeneca, Sanofi-Aventis y Allere
Tech GmbH, Dicho consorcio, se consolidó a partir del descubrimiento de una
nueva serie de compuestos, las benzotiazinonas (BTZ), actualmente en fase de
desarrollo preclínico.
Referencias
[1] Camus A. La Peste (1947).
[2] Mollaret HH y Brossollet J. Yersin. Un pasteurien en Indochine (1985).
[3] Deville P. Peste y Cólera. (2014).
[4] Simond M et al. Paul-Louis Simond and his discovery of plague
transmission by rat fleas: a centenary. J. R. Soc. Med. 91, 101-104 (1998).
[5] Zumla A et al. Tuberculosis. N. Engl. J. Med. 368, 745-55 (2013). Review.
[6] Blundell TL y Johnson LN. Protein Crystallography (1976).
[7] Bragg WH y Bragg WL. The Reflection of X-rays by Crystals.
Proceedings of the Royal Society of London A: Mathematical,
Physical and Engineering Sciences, 88, 428–438 (1913).
[8] Pauling L. y Corey RB. Configurations of Polypeptide Chains
With Favored Orientations Around Single Bonds: Two New Pleated
Sheets. Proc Natl Acad Sci U S A., 37, 729–40 (1951).
[9] Dougherty TJ y Pucci MJ. Antibiotic discovery and development (2012).
[10] WHO | Global tuberculosis report 2014.
[11] Zumla A et al. Advances in the development of new tuberculosis drugs
and treatment regimens. Nat. Rev. Drug Discov. 12, 388–404 (2013).
[12] Jackson M, McNeil MR y Brennan PJ. Progress in targeting cell envelope
biogenesis in Mycobacterium tuberculosis. Future Microbiol. 8, 855–75 (2013).
[13] Guerin ME et al. Molecular basis of phosphatidyl-myo-inositol mannoside
biosynthesis and regulation in mycobacteria. J. Biol. Chem. 285, 33577-83 (2010). Review.
[14] Boldrin F et al. The phosphatidyl-myo-inositol mannosyltransferase
PimA is essential for Mycobacterium tuberculosis growth in
vitro and in vivo. J. Bacteriol. 196, 3441–51 (2014).
[15] Albesa-Jové D, Giganti D, Jackson M, Alzari PM, Guerin ME.
Structure-function relationships of membrane-associated GT-B
glycosyltransferases. Glycobiology 24, 108–124 (2014).
[16] Guerin ME et al. 2007. Molecular recognition and interfacial
catalysis by the essential phosphatidylinositol mannosyltransferase
PimA from mycobacteria. J. Biol. Chem. 282, 20705–20714 (2007).
[17] Guerin ME et al. Substrate-induced conformational changes in the essential
peripheral membrane-associated mannosyltransferase PimA from mycobacteria:
implications for catalysis. J. Biol. Chem. 284, 21613–21625 (2009).
[18] Giganti D et al. Conformational plasticity of the essential membrane-associated
mannosyltransferase PimA from mycobacteria. J. Biol. Chem. 288, 29797–808 (2013).
[20] Giganti D et al. Secondary structure reshuffling modulates glycosyltransferase
function at the membrane. Nat. Chem. Biol. 11, 16–18 (2014).
31
Entorno CIC
Mesa de ideas 34
Industria e investigación, ¿dos realidades cada vez más cercanas?
Con Jose Ignacio Hormaeche, Amaia Maseda, Antonio Martínez, Arrate
Olaiz, Azucena Castro y María José Aranguren
Modera: José Esmoris
Proyectos de Investigación 42
Nuevas oportunidades en el desarrollo de recubrimientos funcionales
M.C. Morant-Miñana, A. Rodríguez y A. Zuzuarregui
Baterías de ion-sodio: una alternativa más que factible para
resolver los problemas energéticos futuros
Elena C. Gonzalo
Mecanizado criogénico, el beneficio que surge del frío
A. Rubio, O. Pereira, F. Veiga, A. Rodríguez, A. Rivero
y L.N. López de Lacalle
Euskadi en breve 56
AS
IDE
DE
SA
ME
Industria e Investigación,
¿dos realidades cada vez
más cercanas?
Mesa de Ideas con José Ignacio Hormaeche, Antonio Martínez, Arrate Olaiz, Azucena
Castro, Amaia Maseda y María José Aranguren. Moderador: José Esmoris
¿Líneas paralelas o convergentes? Siete destacados miembros de los sectores
de la Industria y la Investigación en Euskadi nos dan su opinión sobre la
relación pasada, presente y futura de estos dos mundos, que no siempre han
caminado de la mano. El Edificio Barco del Parque Tecnológico de Bizkaia fue
el lugar de este interesante debate organizado por CICNetwork con el objetivo
de conocer de primera mano los retos a los que se enfrentan ambas realidades.
La Red Vasca de Ciencia, Tecnología e Innovación (RVCTI) fue creada el 29 de
abril de 1997, con el fin de desarrollar una infraestructura tecnológicamente
inteligente, que trabajara en red de forma complementaria y coordinada. En
la actualidad, el Gobierno Vasco ha liderado un proceso de reordenación de la
RVCTI. Esta reordenación propiciará la generación de una actividad más cercana al mercado, la obtención de mayores resultados para la empresa y la sociedad, para situar al País Vasco dentro del grupo de cabeza en territorios de alta
innovación. En todo este proceso, investigación y empresa han hecho grandes
esfuerzos para ir de la mano, aunque en ocasiones no siempre han remado
juntas, y han podido llegar a ser espacios paralelos que no acababan de encontrarse. En cualquier caso, cada vez más industrias colaboran con agentes del
ámbito de la investigación.
El pasado 16 de diciembre CICNetwork organizó una Mesa de Ideas con el objetivo de conocer la realidad de esta relación. El debate, moderado por José Esmoris, Presidente de CIC MarGUNE y Director de I+D de CIE Automotive, contó
con la participación de 6 destacados representantes de estos 2 ámbitos: José Ignacio Hormaeche, Director General del Clúster de la Energía, Antonio Martínez,
CEO de Progenika, Azucena Castro, Directora General de OWL Metabolomics,
Arrate Olaiz, Directora de Innovación de Ibarmia, Amaia Maseda, Vicerrectora
de Proyección y Transferencia de la UPV/EHU y María José Aranguren, Directora
General del Instituto Vasco de Competitividad-Orkestra.
José Esmoris:
Da la sensación de que ha llegado la hora de colaborar de una forma más activa
y para eso quiero empezar preguntándole a José Ignacio Hormaeche, Director
General del Clúster de la Energía, si es verdad que la industria y la universidad
no siempre han remado juntas y si ha cambiado la relación entre ellas durante los últimos años. ¿Crees que estamos cada vez más cerca unos de otros o
seguimos en mundo paralelos? ¿Se está coordinando suficientemente bien la
colaboración entre los dos entes?
José Ignacio Hormaeche:
Afortunadamente en este país tenemos una larga tradición industrial, una cultura de lo que es la colaboración entre el mundo de la industria y las diferentes
entidades que integran el mundo de la investigación. Son muchos años de la
MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?
Los participantes en la Mesa de Ideas. De izquierda a derecha; María José Aranguren, Directora General del Instituto Vasco de Competitividad-Orkestra, José Ignacio
Hormaeche, Director General del Clúster de la Energía, Arrate Olaiz, Directora de Innovación de Ibarmia, José Esmoris, Presidente de CIC MarGUNE y Director de
I+D de CIE Automotive (moderador), Amaia Maseda, Vicerrectora de Proyección y Transferencia de la UPV/EHU, Azucena Castro, Directora General de OWL Metabolomics y Antonio Martínez, CEO de Progenika.
red vasca, pero todavía más años de la existencia de los centros tecnológicos
que forman parte de esa red y que ya existían y colaboraban con la empresa,
prácticamente son 35 años de modelo de relación con una evolución positiva. En este sentido, hablar sólo de industria e investigación es excesivamente
simple, con ese enfoque nos perderíamos muchos matices. Creo que afortunadamente hemos tenido una relación entre industria e investigación lo suficientemente compleja para que hoy estemos hablando de una red amplia y
sofisticada, para ver que esos modelos de relación pueden ser muy diferentes
según la tipología de empresa. En nuestro sector, en la evolución en los últimos
años de las empresas a partir de 200 empleados, la I+D es algo que ya está
interiorizado como una parte importante de la estrategia de la empresa, y está
internalizado el desarrollo de una parte importante de ese esfuerzo investigador. En las pequeñas, sin embargo, hay una amplia variedad pero yo hablaría de dos tipos: la empresa de alta intensidad tecnológica, donde claramente
necesita a la universidad y al centro tecnológico externo para su desarrollo y
para mantener su nivel tecnológico, y luego, otra tipología de empresa más de
proceso, de resolver problemas más que hablar de estrategias de I+D. El mundo
de la investigación tiene también una variedad lo suficientemente rica; los CICs,
la Universidad, etc y esto hace que la variedad y posibilidades de colaboración
entre empresas e investigación sea muy amplia. Donde quizás está el reto es
en si es necesario seguir afinando ese modelo, en esas diferentes tipologías y
entidades de investigación básica, más inmediata, más aplicada, largo y medio
plazo. En que cada entidad encuentre o defina su modelo de relación y casi su
modelo de negocio, ese modelo que les permita mantenerse, quizás en líneas
paralelas su relación con la industria pero, desde luego, que no sea en líneas
divergentes. Se pueden mantener líneas paralelas con una interrelación permanente y ahí es donde está el esfuerzo que tiene que hacer ese colectivo de entidades de investigación, las empresas bastante tienen con desenvolverse en el
incierto mundo que les toca vivir. No partimos de cero pero creo que está en el
tejado de las entidades de investigación seguir mejorando esa línea de relación.
José Esmoris:
José Ignacio Hormaeche habla de líneas que no sean divergentes con el mundo
universitario y seguro que Amaia Maseda, vicerrectora de Proyección y Transferencia de la UPV/EHU tiene una opinión al respecto. ¿Crees que además de la
convergencia de esos dos mundos no tenemos una necesidad, casi obligación,
de entendernos entre el mundo universitario y el mundo empresarial y de ver
cómo somos capaces de remar juntos?
Amaia Maseda:
Comparto todo lo que ha dicho José Ignacio Hormaeche, no se puede introducir
en un pool la industria como un todo ni a la investigación como un todo. Yo creo
que la coordinación ha sido muy certera. Llevamos 35 años de relación y en este
país, por sus propias dimensiones, hace que vivamos muy relacionados y que
tengamos una experiencia muy intensa. Si bien es cierto que últimamente se ha
producido un acercamiento natural, trabajamos en lo que se llama la sociedad
del conocimiento y por supuesto necesitamos una industria más intensa en
conocimiento, esto lleva irremediablemente a que haya que acercarse a los cen-
35
nos dice que hay un problema en la interacción entre ambos y es que entre la
empresa y la universidad los tiempos y los intereses no coinciden. La empresa
tiene sus tiempos y son importantes porque de eso depende su financiación
y supervivencia. Por otra parte, está también el desajuste de intereses, la empresa cuando identifica una gran idea la tiene que desarrollar y ese desarrollo,
por lo menos en el sector biotecnológico, es muy largo. Esta situación provoca
que esa idea deje de ser de interés para la universidad, aunque para nosotros
sigue siendo innovación. Es en este período de tiempo cuando se pierde la vinculación entre universidad y empresa. ¿Cómo podemos hacer que los intereses
coincidan? Mi hipótesis es que la universidad debe ser la generadora de ideas
y esas ideas que se traduzcan en spin offs, esta es la forma de exportar esta investigación básica, que en mi opinión deber hacerse en la universidad porque la
empresa difícilmente puede abordarla, ya que es muy caro. Tenemos que crear
normas, facilidades, entornos para que los universitarios vean que pueden lanzar una spin off, tenemos que enseñarles el concepto de emprendizaje y que
existen herramientas para crear esa empresa y poder sacar ese conocimiento
de la universidad. Durante los primeros años, tiene que haber alguien en la universidad que los tutele científicamente y proporcione plataformas tecnológicas,
necesitan ese apoyo que la empresa joven no se puede permitir.
Luego ya tenemos el otro escenario, el de la empresa lanzada y que ya tiene
sus proyectos de I+D, ¿y ahí cómo hacemos la relación?, es más difícil porque
lo intereses no coinciden. La empresa tienen que validar esos productos, hacer
estudios de mercados, registros, etc y eso a la universidad le interesa poco y,
“Hay una sensación de que las
empresas no hemos sabido transmitir
bien nuestras necesidades de
investigación a la universidad y los
centros tecnológicos”
José Esmoris
tros de investigación a compartir ese conocimiento, a que ese conocimiento se
transfiera y que llegue a productos, servicios, en definitiva, que llegue a nuestra
sociedad. Necesitamos cada vez personas más formadas, no sólo con carreras
universitarias. Este nuevo modelo lleva una necesidad de formación permanente y de actualización continua. Necesitamos unas infraestructuras científico-tecnológicas cada vez más avanzadas porque, si nosotros corremos, en el resto del
mundo corren más deprisa, sobre todo, en algunos entornos y sectores. Por lo
tanto, nos necesitamos y eso es una realidad. Y haber sido conscientes de esa
realidad ha sido uno de los mayores avances, todos somos necesarios pero no
podemos ir de una manera independiente. Uno de los retos que tenemos es el
acercamiento a las pymes. Creo que las empresas que tienen departamento de
I+D más activo, más capacidad y más diversificación pueden hacer frente a esos
retos pero hay que buscar modelos de relación con pymes.
José Esmoris:
Amaia nos hablaba de las empresas intensivas en I+D y la necesidad de trabajar
con las pymes, tenemos en la Mesa a Antonio Martínez, el CEO de Progenika,
una empresa que entiendo que es muy intensiva en I+D y me gustaría conocer
su visión. En los foros en los que coincidimos existe siempre el eterno comentario del gap que hay entre la investigación básica y la investigación que se realiza
más a nivel de empresa ¿Cómo puede cubrirse ese gap, crees que existe un modelo que permita dar respuesta a esos retos de futuro y organizar esa relación
empresa, universidad, investigación para que funcione mejor?
Antonio Martínez:
Yo creo que es importante aprender de la experiencia. Suena muy bien la colaboración en investigación entre la empresa y la universidad pero hay que
aprender la lección de lo que ha ocurrido en los últimos años y esta lección
“Tenemos que crear entornos más
sistemáticos de relación y encontrar
puntos de encuentro para que la
investigación sea más cercana a las
necesidades del mercado”
José Ignacio Hormaeche
MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?
dor al mercado y se produzca un producto. Desde la parte de la empresa, este
es el reto desde la otra parte creo que hay que saber leer el tema de tiempos e
intereses que ya se ha comentado. No es sencillo, somos ritmos muy diferentes
pero creo que se pueden hacer cosas y ver que papel tenemos que jugar cada
uno. Creo que va a haber trabajo en el sector biotecnológico y que la industria
tradicional va a demandar servicios e investigación para no quedar obsoleta,
fuera del mercado. Los sectores son los actuales y tenemos que esforzarnos
por no perderlos.
José Esmoris:
Tenemos la visión de una empresa más tradicional, quizás la visión de Azucena
Castro, Directora General de OWL Metabolomics puede ser diferente por ser
una empresa más joven que viene de un mundo totalmente diferente como la
biotecnología. ¿Cuál es tu opinión Azucena?
Azucena Castro:
Estoy de acuerdo con todo lo que se dicho hasta el momento. Es fundamental
hacer inversiones en investigación en todos los sectores, pero también hay que
poner foco a la inversión y en el País Vasco dentro de la estrategia RIS3 uno
de esos sectores es el de las biociencias. Para el crecimiento de este sector,
es necesario captar conocimiento y nuevas ideas de universidades y centros
de investigación. Una de las vías para canalizar el conocimiento, es la creación
de “spin off” para que nuevos productos y servicios puedan llegar al mercado.
En las empresas del sector de biosalud, que es el en que trabaja nuestra empresa, el desarrollo de productos, es largo y requiere mucha inversión. Hay fases
“Debemos ser capaces de definir
modelos mixtos de investigación
orientada y no orientada. Apostar por
el conocimiento frontera permitirá
traccionar nuestra industria”
Amaia Maseda
sin embargo, en mi balance sigue siendo I+D. En este caso la interacción es que
la universidad pueda prestar servicios o actuaciones muy concretas en determinadas fases del proyecto.
José Esmoris:
Continuando con ese hilo conductor, me gustaría conocer de los demás cuáles
pueden ser los sectores industriales que van a demandar ese esfuerzo investigador, ¿dónde creemos que se puede hacer este trabajo? Empezamos con
Arrate Olaiz, Directora de Innovación de Ibarmia, para verlo desde el punto de
vista de una empresa consolidada.
Arrate Olaiz:
Hay que centrar el esfuerzo investigador en prácticamente todos los sectores
industriales. La clave está en que seamos capaces de orientar esa investigación
porque no podemos pretender que seamos buenos en todo. Los sectores en
los que somos fuertes en el País Vasco están identificados y el reto desde el
punto de vista de la empresa está en dos cuestiones: por un lado, el orientar
esa investigación, a veces las empresas tenemos la mala costumbre de echar
balones fueras sobre nuestra relación con la investigación, que sea la universidad y los centros los culpables de esa mala conexión y me parece que para
que funcione tenemos que ver un poco más allá y orientar esa investigación de
manera que cuando nos haga falta esa investigación ya esté hecha. Creo que los
sectores van a seguir siendo los mismos en los que ahora somos competitivos
y, hablando del mundo de dónde vengo yo, más industrial de maquinaria, creo
que va a demandar un esfuerzo investigador muy importante en los próximos
años pero tenemos el reto de acotar esa investigación y ver donde tenemos que
centrarnos para que nosotros seamos capaz de trasladar es esfuerzo investiga-
“La universidad debe ser generadora de
ideas y que esas ideas se traduzcan en
spin offs. Esta es la forma de exportar
la investigación básica”
Antonio Martínez
37
Arrate Olaiz, Antonio Martínez y José Esmoris
en este desarrollo que para las instituciones no se considera investigación y
desarrollo, sino venta de producto. Por ejemplo, una vez que se ha desarrollado
un nuevo sistema de diagnóstico, todavía queda mucho camino por andar para
que el producto esté maduro y pueda comercializarse en un mercado global, en
el que competimos con grandes empresas. En este entorno hay que ser conscientes de que solos no se puede salir adelante. Somos un país pequeño y hay
que aunar esfuerzos, sabiendo que cada uno tenemos unos intereses y objetivos, pero todos necesitamos la colaboración en proyectos y momentos puntuales. Para lograrlo, necesitamos un conocimiento de lo que hacemos todos en
investigación, con una relación más directa entre la universidad y los centros
de investigación y las empresas. En nuestra empresa tenemos personas que
se han realizado sus doctorados en la UPV/EHU o en centros de investigación
vascos. Hay que aprovechar todos los recursos que tenemos y trasmitir el mensaje de que personas formadas en estos centros pueden desarrollar su carrera
profesional en empresas del sector.
José Esmoris:
¿Cómo ve María José Aranguren, Directora General de Orkestra, esta situación?
María José Aranguren:
Comparto todo lo que se ha hablado en esta Mesa. Sobre esta pregunta específica, evidentemente, hay que dedicar esfuerzo a todo pero cada territorio define
sus prioridades y en todo no podemos ser buenos. Las apuestas de Euskadi
están definidas en el RIS3 en cuanto a manufactura avanzada, energía y biociencias-biosalud. Pero me gustaría aportar una visión, igual complementaria,
de todos los que me habéis precedido. Yo creo que va a ser clave combinar
la investigación en ciencias con la investigación en ciencias sociales. Así como
dentro de las empresas se ve que es clave combinar la investigación tecnológica
con la no tecnológica, y esa combinación da una fuerza para ser competitivos,
a nivel territorial veo que hay que ser capaces de saber combinar las capacidades de toda la red de ciencia e investigación con la innovación social, es decir,
en cómo nos relacionamos. Todos los modelos de relación van a ser diferentes dependiendo del tipo de sector o producto del que estamos hablando. Los
tiempos son diferentes, el tipo de empresas también es diferente, las pymes
no tienen las misma capacidad de absorción y de entenderse con la red que las
empresas grandes y, en consecuencia, es fundamental el ver como se tiene que
relacionar cada agente con el otro y trabajar juntos. Es clave investigar sobre
esos modelos de relación. Combinar la investigación tecnológica-científica con
la de cómo trabajamos juntos, la innovación en cooperación y aprender de
la propia experiencia serán claves, no sólo para entenderse entre la investigación y la industria, sino también entre diferentes industrias. Cada vez más las
posibilidades de innovación están en la intersección de diferentes sectores, la
máquina herramienta con las biociencias, la energía con el transporte, etc. Por
ejemplo, en una jornada en Harvard se habló de que cada vez la innovación va
a ser más compleja y va a estar en la intersección entre diferentes sectores,
actividades y empresas. También se insistió en investigar cómo se puede trabajar juntos. En la Comisión Europea, en el grupo en que participo, una de las
grandes inquietudes es cómo conectar la investigación con el mercado y están
hablando de una investigación que conecte mucho más con las necesidades del
mercado y la industria. Aquí somos muy industriales, la industria tiene mucho
peso pero tenemos un esquema muy hard, entendemos la innovación que es
tecnológica, que se toca, pero nos cuesta entender la innovación que es más
intangible, de relaciones, no nos parece que es innovación. En esto también
tenemos que avanzar.
José Esmoris:
Muchas gracias María José por introducir esta nueva vertiente de la innovación
social que va a ser muy importante en los próximos años. Ahora Amaia, además
de la pregunta de los sectores, me gustaría saber si crees que las empresas hemos sido capaces de transmitirle a la universidad las necesidades que tenemos
y dónde queremos hacer negocio en el futuro. Lo digo porque puede haber la
sensación de que a lo mejor no sabemos transmitir nuestros objetivos.
MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?
Amaia Maseda:
Efectivamente RIS 3 marca las áreas prioritarias pero también es verdad que
habla de nichos de oportunidad y uno de ellos, es el ámbito más social, cultural,
etc. Dentro de las propias empresas no sólo hay que hablar de la innovación
tecnológica sino también de la innovación no tecnológica. El programa europeo
H2020 hace mucho hincapié en este punto, en la necesidad de equipos multidisciplinares, esa transversalidad necesaria para que funcionemos y dentro de
las empresas también se tiene que hablar de la innovación organizativa. Estamos hablando de capital humano como principal fuente para el avance del conocimiento. Gestionar equipos humanos cada vez es más complejo y, más aún,
cuando esas personas pertenecen a distintos ámbitos, a distintas empresas y
a distintos entornos. Estos modelos van a cobrar en las organizaciones muchísima importancia porque necesitamos buenos líderes de los equipos. Buenos
proyectos salen adelante o se quedan en el camino por las personas.
Con respecto a qué tenemos qué hacer, me ha gustado cómo ha derivado la
conversación de la Mesa de Ideas. Hemos empezado hablando de ciencia básica y ciencia aplicada, que no es el concepto más apropiado hoy en día. Ahora
se habla más de investigación orientada o no orientada. En este contexto, comparto que lo que queda en esta relación es el gap temporal y hay que tenerlo
en cuenta. Pero también hay que tener en cuenta las complementariedades, es
decir, no todos tenemos que hacer todo. En algunos momentos tienen que ser
más intensivo el trabajo de la universidad o de los centros haciendo una investigación más exploradora, mientras que en otros momentos se tiene que hacer
una innovación más explotadora. También tenemos que tener presente que
no podemos pretender como país que todo sea investigación orientada, tenemos que ser capaces de definir modelos mixtos de investigación orientada que
conviva con las empresas y las necesidades del entorno y una parte de investigación no orientada, que tradicionalmente han llevado las universidades. ¿A
qué me refiero?, a que los avances igual no tienen una aplicación hoy o mañana
pero la tendrán y siempre tenemos que estar preparados. Así por ejemplo, las
aplicaciones de los láseres que se están haciendo ahora tienen un desarrollo
muy anterior. La propia UE dice que se tiene que seguir apostando por el conocimiento frontera porque eso permitirá después toda la tracción de nuestra
industria y servicios. Nuestro reto y debate es en qué medida tiene que darse
financiación para apoyar esta investigación no orientada. ¿Cuánto estamos dispuestos a apostar por ello? Ese es uno de los grandes retos junto con la otra
pata, que es que las administraciones tienen que estar dispuestas a apoyarnos.
unas necesidades de compaginar la investigación, la innovación y, además, ser
cada vez más competitivas en un mercado más global. ¿Cómo se afrontan estos
retos, como se intentan solucionar?
Antonio Martínez:
Los retos son conocidos y fáciles de identificar: saber aquello que te hace diferente, protegerlo, que esa protección no infrinja derechos de terceros, sortear
los sistemas regulatorios de los diferentes países. Sin embargo, el principal reto
al que se enfrenta la empresa joven es el tiempo y el tiempo significa dinero;
cada día que pase tienes que pagar todos tus gastos y esto se traduce en necesidad de financiación. Este ha sido el principal problema que hemos sufrido
agudamente las empresas jóvenes. Quizás la financiación necesaria para lanzar
el proyecto es asequible; existen herramientas y en Euskadi son muy potentes.
Luego hay una travesía del desierto que es cuando necesitas entre 1 y 5 millones de euros, que son muy difíciles de conseguir. Este es el rango que hay
que mejorar ya que esta es la financiación que te permite dar el salto de una
buena idea a darle cuerpo. Una buena idea que surge de la Universidad tienes
José Esmoris:
¿Tenéis toda la información que necesitáis de la industria para que la investigación orientada también influya en la no orientada?
Amaia Maseda:
La respuesta es muy sencilla, no tenemos toda la información. Desde la universidad hemos intentado generar antenas para buscar e identificar qué es lo
que realmente se necesita. Es lo que se llama la transferencia inversa, debemos
saber qué se necesita para después poderlo hacer bien. Nosotros hemos trabajado con muchas de las industrias representadas en esta mesa y me permito
poner como ejemplo a Ibarmia, con la que hemos desarrollado, por ejemplo,
una máquina 3D. Esto ha sido posible porque se lleva 10 años de generación de
espacios de confianza. Es decir, las cosas salen porque hay espacios generados.
Tenemos que ser capaces de establecer antenas para saber qué es lo que se
necesita, abrir las puertas de entrada de la universidad y las empresas. No es
falta de voluntad pero, a veces, lo inmediato puede a lo importante.
José Esmoris:
Hemos hecho un recorrido desde dónde estamos y ahora estamos hablando
de esa parte de la investigación orientada o no orientada, de todo ese entorno
relacional. Sin embargo, ahora me gustaría introducir un elemento nuevo en la
discusión: nos hablan cada vez más de crecer en empresas de base tecnológica, de internacionalizarse, de emprendizaje. Yo me imagino que las empresas
nuevas y las que llevan mucho tiempo en el mercado también se enfrentan a
“El reto de la industria es orientar su
investigación para adelantarse a sus
necesidades futuras”
Arrate Olaiz
que adaptarla y ponerla en los diferentes mercados. Para nosotros, cuanto más
madura venga una idea de la universidad mejor, eso te ahorra tiempo y dinero
y te va a permitir la supervivencia. En el momento en que hay que desarrollarla
necesitas plataformas tecnológicas muy potentes y caras quien te las puede
proporcionar es la Universidad o un Centro Tecnológico. Durante esta etapa
del proyecto, el vínculo entre universidad y empresa debe ser muy estrecho
para apoyar a la empresa y hacerla más competitiva en el campo internacional.
39
vamos y en qué nos reinventamos y tenemos que darle la velocidad necesaria para lanzar cosas al mercado con la madurez suficiente, ya que vendemos
un producto personalizado y por el tipo de inversión que requiere nuestros
prototipos no se testan. La investigación y el acompañamiento de centros e
universidades nos resulta fundamental, en primer lugar, para reducir el tiempo
de llegada al mercado y, además, para garantizar que aquello que estamos llevando al mercado sale bien a la primera. Necesitamos ese apoyo para poder ser
competitivos de manera sostenida. ¿Cómo lo hacemos? No es un camino fácil,
pero la colaboración con agentes tecnológicos está siendo clave y el cambio de
chip y los equipos multidisciplinares han ayudado mucho. Para nosotros los
agentes tecnológicos forman parte de nuestra empresa, de nuestra reflexión
tecnológica, cuentan desde el principio.
“Somos un país pequeño y hay que
intentar aunar esfuerzos. Para lograrlo,
necesitamos un conocimiento de lo
que hacemos todos en el sector de la
investigación”
Azucena Castro
Azuzena Castro:
Sí, evidentemente Antonio acaba de aludir a un talón de Aquiles de empresas
tecnológicas como las nuestras. Hemos aprendido el camino para la creación
de nuevas empresas y cómo financiarlas en las etapas iniciales, pero la entrada
de los productos en el mercado global, requiere adecuación del producto a los
diferentes países y legislaciones y por tanto, con una introducción del producto
muy lenta que sigue necesitando mucha inversión. Es importante atraer inversores especializados que cubran esos gaps de financiación, con inversiones de
3 a 5 millones de euros. La tecnología es muy importante, nosotros la hemos
desarrollado internamente, pero en estos momentos, el principal reto del sector es llegar al mercado global. Requiere mucho esfuerzo y es primordial la
atracción de inversores especializados.
José Esmoris:
Arrate, vosotros en Ibarmia lleváis ya 60 años en un mercado muy competitivo.
¿Cómo se hace eso en una empresa que tiene que estar reinventándose continuamente para sobrevivir y ser líder en su sector?
Arrate Olaiz:
Has descrito la situación perfectamente, sobre todo hablando de una típica
pyme vasca como nosotros de menos de 100 trabajadores y una tasa de internacionalización cercana al 95% que cada día se enfrenta a competidores mucho más grandes. Con todo este panorama, para nosotros es fundamental el
dinamismo. Nos reinventamos de manera continua pero sabiendo hacia dónde
“Hay que ser capaces de saber
combinar las capacidades de toda la
red de ciencia e investigación vasca
con la innovación social”
María José Aranguren
José Esmoris:
Si hablamos del sector de la energía sabemos que tiene unos retos muy importantes, no sólo de las empresas, sino de los retos que le vienen de la propia
sociedad, es decir, la reducción de emisiones, el cambio climático, etc. Eso exige
como empresas un trabajo muy específico de investigación pero viéndolo desde el punto de vista de clúster, con una visión más global del sector. ¿Dónde
están las nuevas exigencias de investigación con la universidad, tanto orientada
como no orientada? ¿Cómo lo veis desde el mundo energético José Ignacio?
José Ignacio Hormaeche:
Como se suele decir me alegra mucho que me hagas esa pregunta. Has citado
MESA DE IDEAS - Industria e Investigación, ¿dos realidades cada vez más cercanas?
José Esmoris en un momento del debate con Antonio Martínez.
la lucha contra el cambio climático. Tenemos todos muy fresco el acuerdo de
París y como sector energético ya nos estamos preocupando de cómo se va a
trasladar esto a la industria, de sus implicaciones. Hay todo tipo de informes,
incluso de temas de cotización en bolsa. He leído recientemente un artículo del
New York Times expresamente dedicado a esta cuestión y citaba cuatro campos
en los que este acuerdo iba a influir positivamente en su desarrollo. La buena
noticia es que en los 4 campos nuestra industria tiene algo que decir. Hablaba
de renovables (eólica y solar), almacenamiento de energía e incluso un apartado específico para el vehículo eléctrico. En el Clúster de Energía hay cuatro
grupos de trabajo con estos temas, no nos pilla de sorpresa. Hay un esfuerzo
que hacer con empresas muy bien posicionadas.
Tenemos por ejemplo una gran cadena de valor en la industria eólica con firmas
que fabrican los diferentes componentes, la mayoría son pymes muy pequeñas. Son empresas que han evolucionado en su mayoría de otros sectores y que
aplicaron su experiencia a este sector y hoy en día son líderes a nivel mundial.
Lo que me permite ser optimista sobre los retos que se nos plantean es que tenemos empresas que ya han hecho ese recorrido y ahora están en el siguiente, por
ejemplo en el tema offshore. Quiero aprovechar a hacer un apunte porque me
ha gustado lo que ha comentado antes Amaia Maseda sobre el tema de los espacios de confianza. Los modos de relación es una de las claves, hay que crear entornos más sistemáticos de relación. Hay que encontrar puntos de encuentro. En
el campo de almacenamiento de energía, por ejemplo, es de esos que es fundamental compaginar investigación orientada y no orientada. Nuestros grupos de
trabajo tratan de que esos esfuerzos investigadores sean cada vez más cercanos
a las necesidades del mercado, también para que la investigación menos orientada tenga siempre una referencia, que sepa dónde tiene que acabar aterrizando.
José Esmoris:
Empezábamos la mesa hablando de si remábamos juntos, mencionábamos las
líneas paralelas, esperando encontrarnos antes del infinito. ¿María José, como
Directora General de Orkestra, crees que ya ha llegado la hora de converger?
¿Cómo lo ves desde el punto de vista de las personas que tienen que activar
entornos? En definitiva, ¿cómo ves nuestro futuro?
María José Aranguren:
Al final cuando hablamos de la investigación y la industria hablamos de personas, yo sí creo que cada vez hay un mayor encuentro de personas que coinciden
en ese camino. En este sentido, mi visión es optimista. Lo que sí veo es que en
el mundo de la investigación el sistema de incentivos no ayuda mucho. En la
universidad se incentivan las publicaciones y no tanto la transferencia, el trabajo
con la industria. Los investigadores que tienen una motivación orientada a la industria lo hacen porque les mueve cambiar las cosas, pero no porque el sistema
de incentivos ayude. Por lo tanto, creo que si este sistema ayudase también en
esto y buscamos fórmulas para que se valore el trabajo con la industria, habría
un impulso.
En cuanto a perfiles, vemos que es muy difícil que en una única persona se
combinen todos esos conocimientos. La realidad es compleja y cada vez tenemos que tener más capacidad de trabajar con otros porque cada cual tiene
unas cualidades diferentes. Cada vez es más importante el trabajo en equipo y
eso requiere también un cambio en los estilos de liderazgo, más liderazgo compartido, cooperativo, relacional y menos los basados en jerarquías. También
tenemos que ir generando capacidad de trabajar en equipo entre diferentes,
marcos más cooperativos van a ser claves para que esas líneas paralelas se
encuentren.
41
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Nuevas oportunidades
en el desarrollo
de recubrimientos
funcionales
M.C. Morant-Miñana1,2, A. Rodriguez1,2, A. Zuzuarregui3
(1) CIC microGUNE, Polo de Innovación Garaia
(2) CEIT-IK4 & Tecnun (University of Navarra)
(3) CIC nanoGUNE Consolider
El desarrollo de la micro y la nanotecnología y su incorporación al campo de
los recubrimientos ha permitido una nueva transformación de estos últimos,
convirtiéndose en un elemento esencial tanto en la industria como en los
campos más punteros de la investigación aplicada. Este artículo hace un
recorrido por algunas oportunidades que surgen con el desarrollo de estos
recubrimientos funcionales.
Un recubrimiento o coating se define como una capa de material depositada
sobre una superficie cuya principal función es proteger el sustrato frente a
agentes externos tales como agua, fenómenos atmosféricos, organismos vivos
o seres humanos. Los recubrimientos más antiguos descubiertos por el hombre
son las pinturas rupestres realizadas por los hombres de Neandertal y del Cromagnon durante el Paleolítico Medio. En este periodo su función era exclusivamente decorativa. Posteriormente, los antiguos egipcios fabricaban una mezcla
de materiales orgánicos-inorgánicos a base de cera de abejas, goma arábiga,
brea y claras de huevo para implementar recubrimientos impermeables para
sus barcos y esculturas de bronce entre los años 3000 y 1000 a.C. En Oriente,
las diferentes culturas aplicaban barnices y lacas protectoras para cubrir obras
de arte, muebles y edificios en el siglo II a.C. Desde entonces los recubrimientos
se han usado en las distintas sociedades y culturas para proteger y conservar
herramientas y objetos de la más diversa aplicación.
En la historia encontramos numerosos ejemplos de materiales de origen natural que protegen la superficie de agentes externos tales como la corrosión
debida a humedad o el moho, ataques de determinados disolventes o el efecto de la suciedad o las altas temperaturas de funcionamiento. Sin embargo,
la tecnología de los recubrimientos fue descrita por primera vez en 1773 por
Watin mientras que la primera fábrica dedicada en exclusiva a la fabricación
de barnices aplicados como recubrimientos fue inaugurada en 1790 en Inglaterra.[1] Durante los siglos XIX y XX la industria y la investigación en torno a los
recubrimientos ha ido creciendo continuamente dando lugar un gran número
de sistemas con diferentes configuraciones que van desde un simple capa a
complejos dispositivos multicapa.
En la actualidad, con el desarrollo de la micro y la nanotecnología y su incorporación al campo de los recubrimientos, estos han experimentado una nueva
PROYECTOS DE INVESTIGACIÓN - Nuevas Oportunidades en el desarrollo de recubrimientos funcionales
Figura 1. Evolución histórica de los recubrimientos funcionales
transformación convirtiéndose en un elemento esencial tanto en la industria
como en los campos más punteros de la investigación aplicada. En este contexto ha aparecido el concepto de recubrimiento funcional (RF) o functional
coating, nombre que se debe a que los recubrimientos han adquirido una serie
de propiedades que poseen una funcionalidad adicional además de las clásicas
propiedades protectoras o decorativas de los recubrimientos al uso. Este avance responde a la necesidad existente en muchas aplicaciones tecnológicas de
fabricar e implementar nuevos materiales con propiedades muy bien definidas
que además de cumplir los requerimientos pertinentes añadan un valor adicional al material y le doten de una importante ventaja competitiva respecto a la
tecnología existente.
los metálicos, los semiconductores y los recubrimientos cerámicos. A pesar de
que los recubrimientos metálicos se han utilizado durante muchos años como
ánodos de sacrificio y a modo de protección de otros metales nobles, poseen
otras funciones que en los últimos años han dirigido su uso a la implementación
de sensores de gas y controladores mecánicos. Entre los materiales semiconductores, el ZnO es el material más empleado ya que además de las consabidas
propiedades eléctricas, muestra actividad fotocatalítica y fotoluminiscente interesante para aplicaciones tales como tecnología solar y optoelectrónica.[3] Los
recubrimientos cerámicos podrían estudiarse como un grupo individual debido
a la gran cantidad de artículos y patentes publicadas al respecto. Entre la inmensidad de materiales empleados, el TiO2 goza de una especial relevancia por sus
particulares propiedades que permiten su utilización en una amplia gama de
aplicaciones que van desde los recubrimientos biocompatibles a los dispositivos
solares de alta reflexión.[4]
Tipos, naturaleza y composición de los
coatings
Los RF deben poseer propiedades concretas que los conviertan en un elemento
esencial en la producción de materiales avanzados. Además, independientemente de la aplicación para la que son diseñados, se deben tener en cuenta
otras características como la durabilidad de la capa y su comportamiento con el
tiempo, la reproducibilidad del proceso de fabricación, el coste de los materiales
y su obtención, la facilidad de aplicación del RF sobre el sustrato, todo ello sin
perder de vista un acabado superficial adecuado y la sostenibilidad medioambiental.[2] Por todo ello, es fundamental diseñar la estructura del RF, los materiales que lo componen y el método de fabricación. La estructura de los RF varía
en función de la naturaleza del sustrato, del tipo de material y de la función que
vaya a desarrollar el RF. En general tienen una disposición tipo sándwich con
tres elementos en común: (i) una película adherente; (ii) la capa funcional y (iii)
la capa protectora.
“La estructura del RF varía según
la naturaleza del sustrato, el tipo
de material y la función que vaya a
desempeñar”
La capa adherente se deposita normalmente antes que el RF. Su papel es la de
asegurar la limpieza del sustrato y favorecer la interacción entre las capas superficiales y el sustrato. De este modo se consigue reducir las diferencias entre
las capas de los distintos materiales del RF. Esta capa se suele aplicar después
de la limpieza y/o preparación del sustrato y suele tener espesores de poco nanómetros. La rugosidad del mismo también es un parámetro a tener en cuenta
ya que influye en el conformado de la capa funcional.
El siguiente elemento es la capa funcional, que normalmente se suele depositar
inmediatamente después la capa de adhesión para evitar una posible degradación de la primera. Puede estar formada por una monocapa o por varias capas
(multicapa) que en función de su organización puede dar lugar a numerosas
conformaciones. La capa funcional, y por lo tanto los RF puede fabricarse a partir de elementos o compuestos orgánicos, inorgánicos o híbridos que consisten
en la dispersión de materiales inorgánicos dentro de una matriz orgánica. Entre
los recubrimientos fabricados a partir de materiales inorgánicos se encuentran
Figura 2. Estructura de los RF (a) y tipos de configuración más habitual encontrada en la
bibliografía: (b) RF estructurados; (c) RF entrecruzados; (d) RF mezclados; (e) RF multicapa;
(f) RF de nanopartículas; (g) RF nanocompuesto híbrido (h) RF de SAM; (i) RF monocapa.
“En los últimos años ha ido adquiriendo
relevancia los denominados
recubrimientos híbridos frente a los
compuesto orgánicos e inorgánicos”
Los recubrimientos orgánicos están compuestos en su mayoría por polímeros o
copolímeros que presentan diferentes propiedades en función de su estructura. Las aplicaciones de estos recubrimientos están basadas en sus propiedades
eléctricas (conductores, aislantes o semiconductores) y en su interacción con
sistemas acuosos (hidrófobos, hidrófilos o anfifílicos). En los últimos años, sin
embargo, otro tipo de recubrimientos funcionales ha ido adquiriendo relevancia, los denominados recubrimientos híbridos. Estos sistemas, compuestos por
una mezcla de elementos orgánicos e inorgánicos hacen uso de las ventajas de
ambos componentes para obtener materiales de propiedades avanzadas como
protección ante la corrosión o recubrimientos anti-rayado.
Finalmente tenemos la capa superior. Normalmente, suele tener una función
protectora del RF y suelen aislarlo del contacto con la humedad y del oxígeno.
Por ello la capa debe de estar libre de micro grietas o agujeros que pueden
ocurrir durante el proceso de depósito para evitar la presencia de canales que
43
utilizada a nivel industrial consiste en recubrir una pieza con una capa fina de
metal mediante un método electroquímico denominado electrodepósito. Esta
técnica se usa principalmente para dotar a los metales de resistencia frente a
la corrosión y tiene aplicaciones en sectores tan variados como la joyería y la
industria del automóvil. El método sol-gel es una técnica que consiste en la formación de una solución homogénea y su posterior gelificación por policondensación. Con este método pueden fabricarse RF tanto orgánicos como inorgánicos tales como las superficies hidrofóbicas auto-limpiables y los dispositivos y
tejidos de camuflaje.
Las técnicas de depósito en fase sólida son a menudo las más desconocidas en
el mundo académico a pesar de tener una larga trayectoria en la industria. Una
de las técnicas que ha supuesto mayores avances en el área de los recubrimientos funcionales es el depósito mediante spray, facilitado en la mayoría de los
casos por un aporte calorífico (eléctrico o químico). Dadas las características de
esta técnica, se ha utilizado para el procesado de materiales metálicos, óxidos
metálicos y otros compuestos inorgánicos en la fabricación de recubrimientos
antibacterianos y de barrera térmica. [7,8]
Figura 3. Clasificación de los recubrimientos funcionales según su naturaleza, técnicas de
fabricación y aplicaciones más habituales.
permitan la difusión de moléculas que acaben dañando el RF. Esta capa, que
se conoce como encapsulado, puede estar o no presente y puede aportar una
función extra al RF.
Técnicas de fabricación de
recubrimientos funcionales
Los métodos para la síntesis o depósito de los RF en la micro y nano escala
pueden clasificarse de forma intuitiva en función del estado de agregación de
los reactivos o precursores utilizados en el proceso.
Las técnicas de depósito en fase vapor engloban una serie de métodos, ampliamente conocidos y estudiados como la pulverización catódica o sputtering
(Physical Vapour Deposition, PVD) y el depósito químico en fase vapor (Chemical
Vapour Deposition, CVD). Debido a su extendido uso en microelectrónica, la fabricación de recubrimientos funcionales mediante estos métodos se ha enfocado a su uso en implantes, protección de herramientas y sistemas de embalado
inteligentes. Al margen de éstas técnicas, el depósito de capas atómicas (Atomic
Layer Deposition, ALD) se ha erigido como un eficiente y valioso método para la
fabricación de recubrimientos funcionales. El ALD es una variante particular del
CVD, con la peculiaridad de que se trata de una reacción superficial ya que los
dos precursores interaccionan con la superficie del sustrato en semi-reacciones
separadas y no entre ellos. Los precursores son introducidos de forma secuencial en la cámara de depósito de forma que tras un ciclo del mismo se obtiene
una monocapa del material objetivo sobre la superficie del sustrato permitiendo el recubrimiento de estructuras en tres dimensiones con una precisión nanométrica.[5] El ALD se ha utilizado para la fabricación de micro y nano-recubrimientos funcionales inorgánicos e híbridos con aplicaciones hidrofóbicas, de
alta reflexión y conductores.[4]
Entre la gran variedad de técnicas de depósito de RF en fase líquida, el revestimiento por baño o inmersión (dip coating) es el más antiguo y su metodología
no ha sufrido grandes variaciones a lo largo de los años. Una variante de ésta
técnica es el depósito capa a capa (Layer by Layer deposition, LbL). Este proceso aprovecha las propiedades electrostáticas del sustrato y de los precursores
para fabricar multicapas formadas en la mayoría de los casos por copolímeros o
polielectrolitos. El uso de esta técnica ha permitido la fabricación de superficies
con propiedades humectantes e ignífugas.[6] Otra técnica en fase líquida muy
Tras la fase de depósito, ciertas aplicaciones requieren modificar la micro o nanoestructura del RF obtenido. En ese sentido, la nanoestructuración láser es
una de las técnicas más versátiles y consiste en un conjunto de técnicas que, de
manera localizada, modifican física y/o químicamente el RF tras irradiarlo con
pulsos de luz de distinta longitudes de onda y duración. Esta variación en los
parámetros de procesado es la que permite su uso para la modificación de todo
tipo de materiales poliméricos, metálicos y semiconductores.
Aplicaciones
Los RF pueden clasificarse en función de las propiedades funcionales. Así encontramos recubrimientos con propiedades ópticas, térmicas, estructurales,
mecánicas, fisicoquímicas, magnéticas, eléctricas y biológicas.
Los RF que responden a estímulos generados por luz se engloban dentro de los
RF con propiedades ópticas. En este tipo de RF se encuentran aquellos que son
capaces de cambiar de manera reversible de una forma estable a otra menos
estable y que presentan un espectro de absorción diferente al de la primera.
Muchos de estos RF están formados por materiales híbridos orgánicos-inorgánicos preparados por métodos sencillos que de manera reproducible y sostenible
permiten obtener RF con propiedades fotoluminiscentes. Dentro de este grupo
también encontramos superficies que requieren alta reflectividad para concentrar la mayor energía solar posible en los receptores situados en las plantas
solares. Así recubrimientos de films de TiO2 sobre Teflón (FEP) mejoran la adhesión de los espejos reflectantes fabricados en Ag.[4]
“Existen recubrimientos con propiedades
ópticas, térmicas, estructurales,
mecánicas, fisicoquímicas, magnéticas,
eléctricas y biológicas”
Algunos elementos como las turbinas necesitan altas temperatura de operación
para maximizar su eficiencia. En la actualidad el incremento de esa temperatura
ha sido posible gracias al uso de recubrimientos como barrera térmica. Otra de
las aplicaciones de los RF con excelentes propiedades térmicas es el uso de materiales híbridos formados por gomas como el butadieno-acrilonitrilo (NBR) o el
butadieno-estireno (SBR) en el que se dispersan nanotubos de halloysita y ftalocianinas que muestran una mejora en las propiedades térmicas y un aumento
de su capacidad calorífica lo que permite su uso como materiales ignífugos.[9]
Las aleaciones de titano se usan a nivel industrial en muchas aplicaciones, principalmente aquellas relacionadas con la mejora de las propiedades estructu-
PROYECTOS DE INVESTIGACIÓN - Nuevas Oportunidades en el desarrollo de recubrimientos funcionales
la modificación de superficies con diferentes materiales biológicos (tejidos, receptores de células, aptámeros, ácidos nucleicos, proteínas) ha dado lugar al
campo de los biosensores. Por ejemplo, modificando superficies de Au con ácidos nucleicos se han obtenido biosensores electroquímicos que son capaces de
detectar a Campilobacter jejuni a partir de muestra real.[14] Estudios recientes
han mostrado que el ZnO tiene propiedades antimicrobianas frente a bacterias
Gram positivas y Gram-negativas. De esta manera, RF homogéneos que consisten en cristales de estructura hexagonal (wurzita) son capaces de desactivar el
90% de microorganismos en las primeras 2 horas de tratamiento. Esto ocurre
por la producción de H2O2 que produce daños en la membrana de la célula al
tiempo que inhibe la formación de biofilms.[15]
Figura 4. Ejemplos de diferentes aplicaciones de los RF desarrollados
rales y mecánicas. Para mejorar su dureza, se preparan RF multicapa de TiN/Ti
sobre aleaciones de Ti6Al4V que muestran propiedades superiores en cuanto a
dureza en comparación con los fabricados a partir de depósitos de PVD. Además estos RF aumentan el tiempo de vida del Ti en juntas y en turbinas sometidas a desgaste por erosión o abrasión.[10]
En muchas aplicaciones, controlar las propiedades fisicoquímicas tales como la
humectabilidad de los sustratos tiene mucho interés. Así cuando un material
sólido dispone de una alta energía superficial, es decir que tiene tendencia para
atraer, y el líquido dispone de una baja tensión superficial, es decir tiene poca
resistencia a deformarse o romperse, es cuando se produce un buen mojado
del líquido sobre el sólido. Por el contrario, para los sólidos con una baja energía
superficial, es muy difícil conseguir una buena humectabilidad y una buena adhesión con cualquier tipo de material, tal y como ocurre con el funcionamiento
antiadherente del Teflón, el efecto antigraffiti e hidrófugo de algunos materiales
plásticos o la fácil limpieza de las pizarras plásticas con el uso de ciertos rotuladores no indelebles. Para este tipo de materiales, no es posible conseguir una
buena humectabilidad a no ser que se realice un tratamiento superficial que
aumente la energía superficial del sólido. [11]
La corrosión es un proceso espontáneo en el que los metales acaban produciendo especies iónicas como óxidos o hidróxidos. Una de las técnicas más habituales para prevenir la corrosión es usar RF. La mayoría de esos recubrimientos están formados por polímeros como el polietileno. Para mejorar las propiedades
de barrera del polímero se suelen seguir dos estrategias: (i) añadir partículas
inorgánicas y formar un composite o añadir un recubrimiento a modo de barrera protectora usando materiales cerámicos como el Al2O3. El uso de polímeros
anfifílicos como películas protectoras reordena las moléculas de agua depositadas en la superficie inhibiendo la organización del agua en cristales y evitando
la formación de hielo en la superficie de los materiales.
Conclusiones y perspectivas futuras
La conjunción de las propiedades intrínsecas de los recubrimientos funcionales
y los avances de las micro y nanotecnologías están propiciando un avance exponencial en el campo de los RF así como un desarrollo tanto de las técnicas de
fabricación como de las posibles aplicaciones a las que van dirigidos. Los RF han
mostrado tener un gran potencial al pasar de ser utilizados para aplicaciones
más tradicionales (decoración y protección) a utilizarse en un gran número de
aplicaciones enmarcadas en casi todos los campos del conocimiento. Sin embargo, la búsqueda de nuevos materiales y la utilización de los ya existentes
para desarrollar nuevas aplicaciones es continua por lo que nos encontramos
en un área del conocimiento con un gran potencial y que puede dar lugar a sistemas con propiedades sorprendentes que no se pueden imaginar hoy en día.
Referencias
[1] M. Watin, L´Art Du Peintre, Doreur et Vernisseur, 1773.
[2] A. Mathiazhagan, R. Joseph, Int. J. Chem. Eng. Appl. 2011, 2, 228.
[3] F. Grasset, G. Starukh, L. Spanhel, S. Ababou-Girard,
D. S. Su, A. Klein, Adv. Mater. 2005, 17, 294.
[4] A. Zuzuarregui, B. Coto, J. Rodríguez, K. E. Gregorczyk, U. Ruiz de
Gopegui, J. Barriga, M. Knez, Appl. Phys. Lett. 2015, 107, 061602.
[5] M. Knez, K. Nielsch, L. Niinistö Adv. Mater. 2007, 19, 3425.
[6] X. Huang, N. S. Zacharia, J. Appl. Polym. Sci. 2015, 132, 42767.
[7] X. Chen, Y. Gong, X. Suo, J. Huang, Y. Liu, H. Li, Appl.
Surf. Sci. 2015, Surf. Sci. 2015, 356, 639.
[8] J. Gao, C. Zhao, J. Zhou, C. Li, Y. Shao, C. Shi, Y. Zhu, Appl. Surf. Sci. 2015, 355, 593.
En cuanto a los RF con propiedades eléctricas, el PVC es un típico material aislante usado como protector que acumula cargas eléctricas en su superficie
lo que lo convierte en un excelente material antiestático. Es muy interesante
aumentar la conductividad de este tipo de materiales introduciendo grafeno
o nanohilos de Ag que además mejoran la temperatura de transición (Tg) y la
constante elástica del compuesto. [12]
La introducción de propiedades electrónicas excluyentes es posible mediante
la mezcla de dos componentes electrónicos dentro de una red de dos fases
que se interrelacionan entre sí. En este sentido se ha conseguido fabricar un
dispositivo de almacenamiento en el que la biestabilidad y la no volatilidad de
un polímero ferroeléctrico (P(VDF–TrFE) pueden ser combinadas con la conductividad y la rectificación de un semiconductor (P3HT). [13]
[9] P. Rybiński, A. Pająk, G. Janowska, M. Jóźwiak, J. Appl. Polym. Sci. 2015, 132, 42593.
[10] J. C. Avelar-Batista Wilson, S. Wu, I. Gotman, J. Housden,
E. Y. Gutmanas, Mater. Lett. 2015, 157, 45.
[11] A. Rodríguez, M.C. Morant-Miñana, A. Dias-Ponte, M. Martínez-Calderón,
M. Gómez-Aranzadi, S.M. Olaizola, Appl. Surf. Sci. 2015, 351, 135.
[12] H. Wang, G. Xie, M. Fang, Z. Ying, Y. Tong, Y.
Zeng, Compos. Part B Eng. 2015, 79, 444.
[13] K. Asadi, D. M. de Leeuw, B. de Boer, P. W. M. Blom, Nat. Mater. 2008, 7, 547.
[14] M. C. Morant-Miñana, J. Elizalde, Biosens. Bioelectron. 2015, 70, 491.
[15] T. O. Okyay, R. K. Bala, H. N. Nguyen, R. Atalay, Y.
Bayam, D. F. Rodrigues, RSC Adv. 2015, 5, 2568.
Desde hace unos años, los RF han dejado de considerarse una herramienta para
mejorar la biocompatibilidad de los sustratos a pasar a usarse como superficies
con diferentes propiedades tales como la liberación controlada de fármacos
acompañada muchas veces de un control sobre la adhesión celular. Además,
45
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Baterías de ion-sodio:
una alternativa más que
factible para resolver los
problemas energéticos
futuros
Elena C. Gonzalo
Postdoctoral Reseacher CIC energiGUNE. Power Storage; Batteries and Supercaps Research Area.
El CIC energiGUNE cuenta con uno de los grupos de investigación más competitivos
y numerosos de Europa dedicado al estudio de las baterías recargables de ion-sodio.
Estas baterías se proponen como una solución al almacenamiento de energía de
forma más segura y con un menor coste que las tecnologías actuales.
La necesidad de la sociedad actual de disponer de energía “in situ” a fin de
cubrir la creciente demanda energética de dispositivos móviles y estacionarios,
tanto en el ámbito de las comunicaciones como en otras aplicaciones de las
nuevas tecnologías (ordenadores, teléfonos móviles, automoción…), ha provocado un aumento notable en la búsqueda de nuevos materiales que puedan
almacenar dicha energía de forma eficaz. [1,2]
Por otra parte, la emisión de gases producida por la quema de combustibles
fósiles y biomasa no sólo contamina el aire de las ciudades grandes y modernas
sino que también favorece el calentamiento global de consecuencias alarmantes.[3] Además, la dependencia del petróleo y/o del gas crea vulnerabilidades adicionales en muchos países que pueden poner en peligro su estabilidad social.
Estos hechos están captando la atención de los gobiernos que intentan reconsiderar la utilización de fuentes de energía alternativas y reemplazar por ejemplo,
los motores de combustión interna por motores eléctricos.[4,5]
Existen otras fuentes de energía alternativas al petróleo y al gas; por un lado la
energía nuclear, que aunque como las dos anteriores es una fuente de energía
no renovable, supone otro medio para producir energía constante, pero hay
que tener en cuenta los problemas asociados al almacenamiento y radiactividad
de los residuos que se generan. Por otro lado, las energías solar, eólica y maremotriz que se engloban dentro de las fuentes de energía renovables o verdes,
representan una opción más respetuosa con el medio ambiente para obtener
energía. La gran desventaja de este tipo de energías es que son variables en el
tiempo y no extensibles a grandes superficies, por lo que requieren un dispositivo de almacenamiento.
Una de las formas más adecuadas de acumular la energía es mediante energía
química almacenada en baterías, presentando la ventaja añadida de que puede
hacerse de forma portátil, ya que las baterías proporcionan energía química
liberada como energía eléctrica con una alta eficiencia de conversión y sin producir gases contaminantes.
PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible
espontánea unida a la liberación de la energía asociada. En el proceso contrario,
durante la carga, se producirá la reacción inversa no espontánea a costa de
consumir energía actuando entonces el sistema como una célula electrolítica.
Algunos ejemplos bien conocidos son las baterías de los teléfonos móviles, de
los ordenadores portátiles y las de los vehículos eléctricos. (Figura 1c y 1d).
Una batería o celda galvánica, cómo se ha mencionado anteriormente, es un
dispositivo que convierte energía química en energía eléctrica mediante procesos de oxidación y reducción. La batería está constituida por dos electrodos:
ánodo y cátodo y un electrolito; que es el que permite el flujo de las especies
químicas de un electrodo al otro.
Figura 1. a) y b) Baterías primarias para calculadora y marcapasos. c) y d) Baterías secundarias para teléfonos móviles y ordenadores portátiles.
Las baterías pueden clasificarse en dos grupos: baterías primarias y baterías
secundarias.
Las baterías primarias son aquellas baterías en las que la reacción de oxidación
reducción (reacción redox), pérdida y ganancia de electrones, se produce de
manera irreversible, de modo que una vez que se ha producido la reacción espontánea se agotan los materiales, y ya no pueden ser recargadas y utilizadas
de nuevo. Un ejemplo de ellas son las que se utilizan en las calculadoras o en los
marcapasos. (Figura 1a y 1b).
“Algunos estudios recientes indican que
los recursos de litio naturales pueden
no llegar a satisfacer en el año 2025 las
demandas del litio necesarias para todos
los equipos de esta era digital, de “smart
cities” y de coches eléctricos”
Las baterías secundarias, también llamadas recargables, son aquellas en las que
la energía liberada puede ser restituida de manera reversible mediante el uso
de una fuente externa de electricidad. Así pues, se trata por tanto de una reacción reversible, por la que en la descarga de la batería se produce una reacción
Cuando un componente (material de uno de los electrodos) de la celda se oxida,
libera electrones que abandonan dicho material y viajan por un circuito externo produciendo trabajo (energía). Estos electrones vuelven a incorporarse a la
celda a través del otro electrodo, reduciendo el material del electrodo opuesto.
Así pues, si la reacción que se pretende ha de ser espontánea, los materiales
que se utilizan deben ser fácilmente oxidables y reducibles respectivamente. En
la interfase se produce una reacción química de transferencia de electrones de
una especie a otra que recibe el nombre de reacción de oxidación-reducción o
reacción redox. Esta transferencia electrónica se puede separar formalmente
en dos semirreacciones; una de oxidación que se produce en el ánodo y otra de
reducción que se produce en el cátodo. La figura 2 muestra un esquema simple
de una batería recargable de litio ion (LiB).
Para que un material pueda ser un candidato adecuado a electrodo para baterías recargables deben considerarse diversos parámetros en función de los
cuales los materiales han de cumplir ciertos requisitos.[6] Estos se describen brevemente a continuación:
Capacidad: es una magnitud que indica la cantidad de electricidad que puede
almacenarse en una batería, o lo que es lo mismo, el número de electrones que
circula por el circuito externo.
Voltaje. La relación de voltaje frente a capacidad durante un ciclo de carga-descarga obtenida a una velocidad dada C/n entre 2 voltajes límite dados sirve para
caracterizar un material electródico. El voltaje medio VM se puede definir así:
VM= (∫t Vdt)/n
Energía específica. Los sistemas que operan a alto voltaje proporcionan alta
energía específica y volumétrica. La energía específica, εe, es el producto de la
capacidad específica y del potencial de salida:
εe =Qe E
Potencia. se puede calcular bajo condiciones de corriente constante I con la
siguiente fórmula:
P(W)= I(A)VM(Volts)
Ciclabilidad. Una buena ciclabilidad, esto es una pequeña disminución de la
capacidad con el número de ciclos de carga y descarga, es una condición esencial para que un material pueda ser utilizado como electrodo en una batería
secundaria. Una reacción reversible con una buena estabilidad de la interfase
electrodo-electrolito dará lugar a una buena ciclabilidad o lo que es lo mismo a
una larga vida de la pila.
Toxicidad y coste, rango de temperatura al que operará la batería y estabilidad de los materiales son otros tres parámetros fundamentales a la hora de
seleccionar un material.
Desde que SONY comercializara en 1991 la primera batería de litio ion en la
que el óxido de litio y cobalto (LiCoO2, Véase Figura 3) actuaba como cátodo y
el carbón como ánodo, han sido numerosos los grupos de investigación que se
han volcado en el estudio de materiales catódicos y anódicos para mejorar las
prestaciones de esas baterías de litio. [7,8]
Figura 2. Esquema del funcionamiento de una batería recargable.
Algunos estudios recientes indican que los recursos de litio naturales pueden no
llegar a satisfacer en el año 2025 las demandas del litio necesarias para todos
47
los equipos de esta era digital, de “smart cities” y de coches eléctricos teniendo
en cuenta en las estimaciones el reciclado de las baterías de litio.[9,10] Además
hay que destacar la situación geográfica aislada y la irregular distribución de
los recursos de litio que pueden llegar a ser un problema político en el futuro
más próximo.[11] Por tanto la búsqueda de otros sistemas de energía es más que
necesaria. Una de las alternativas más fascinantes a las baterías de litio ion son
las baterías de ion sodio. Estas baterías de ion sodio constituyen una pieza clave
en el almacenamiento de energía de forma estacionaria debido entre otras razones a la abundancia natural del sodio (el sexto elemento más abundante), su
bajo precio y su similitud con la química ya conocida del ion litio. Gran parte de
la comunidad científica está ahora dedicada al estudio de las baterías ion sodio
que podrán competir en un corto espacio de tiempo con las ya comercializadas
de litio ion. [12,13] Las aplicaciones más adecuadas para las baterías de sodio están
unidas a las grandes superficies de red eléctrica donde los costes de operación
y la durabilidad de las baterías son los aspectos más importantes del sistema.
Como contrapartida; las baterías de ion sodio no podrán alcanzar la densidad
energética que poseen las baterías de ion litio ya que el sodio es tres veces más
pesado que el litio y el potencial estándar del sodio (2.7V) es menor que el del
litio (3.04V) con respecto al electrodo de referencia de hidrógeno.
“La abundancia natural del sodio (el
sexto elemento más abundante), su bajo
precio y su similitud con la química
ya conocida del ion litio hacen a las
baterías de ion sodio una pieza clave en
el almacenamiento de energía de forma
estacionaria”
La apuesta del CIC energiGUNE por las baterías de ion sodio ha sido fundamental desde sus inicios como centro de investigación en el año 2011. El centro
dirigido hasta octubre de 2015 por Jesús María Goiri y actualmente por Nuria
Gisbert, cuenta con uno de los grupos más numerosos y competitivos de Europa
dirigido por el catedrático y Director Científico del área de almacenamiento de
energía electroquímica EES del CIC energiGUNE, el Prof. Teófilo Rojo Aparicio.
El grupo de investigación está dedicado al estudio de la mayor parte de las familias de materiales que constituyen los componentes fundamentales de una
batería: ánodo, electrolito y cátodo así como al estudio de las interfases entre
ánodo-electrolito y cátodo-electrolito. La ingente actividad del grupo de investigación se ha visto plasmada en numerosos artículos científicos en revistas internacionales de alto índice de impacto así como en cuatro artículos invitados de
revisión del estado del arte en la revista Energy and Environmental Science.[12a, b,
13, 14]
(Factor de impacto: 20.523 en el año 2014).
“La línea de prototipado del CIC
energiGUNE, que se encuentra alojada
en una sala seca con condiciones
controladas de humedad, dispondrá de
todo el equipamiento necesario para la
fabricación de baterías de tipo coin y
pouch cell”
La investigación en nuevos materiales anódicos en el CIC energiGUNE abarca
materiales tan prometedores como los titanatos de sodio con fórmula general
AxTinO2n+1 o AxTinO2n+2 , de bajo coste, baja toxicidad, fácil fabricación y seguros.
Concretamente el Na2Ti3O7 posee el potencial de inserción más bajo frente al
sodio, (0.3 V vs. Na+/Na), hasta ahora reportado para un óxido y por tanto es el
óxido que actuando como ánodo posee mayor densidad energética y capacidad especifica de 178 mAh/g.[15] Otros materiales anódicos prometedores son
las bases de Schiff. Estos compuestos electroactivos se sintetizan mediante la
reacción de un bloque de diaminas alifáticas no conjugadas o aromáticas conjugadas con una unidad de tereftaldehido. Dichos materiales son capaces de
insertar un átomo de sodio por grupo azometino a voltajes de entre 0 y 1.5V
frente a Na+/Na. Los potenciales redox pueden ser modificados en función de
la conjugación de la cadena polimérica o mediante la inyección de sustituyentes
donadores de electrones sobre las cadenas aromáticas. Los valores de capacidad electroquímica de estos compuestos llegan a valores de 350mAh/g.[16]
Figura 3. Estructura de LiCoO2, material catódico comercial de las baterías recargables de
Figura 4. a) y b) Hornos para síntesis cerámica: tipo mufla y tubular respectivamente. c)
litio ion.
mortero de ágata y navecilla de alúmina para la síntesis cerámica. d) horno de microondas.
PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible
Figura 5. Estructura y comportamiento electroquímico de los electrodos positivos para baterías de ion sodio P2- y O3- Na2/3Fe2/3Mn1/3O2.
El desarrollo de nuevos electrolitos más seguros y fiables que reemplacen a
los actuales constituye también un gran desafío para los investigadores del CIC
energiGUNE. La innovación que se propone a través de la investigación en electrolitos sólidos poliméricos implica una gran cantidad de ventajas en términos
de simplicidad de diseño, bajo coste, fiabilidad y seguridad. De este modo se
eliminarán los problemas derivados del uso de electrolitos líquidos orgánicos
como fugas, evaporación del disolvente y cortocircuitos. El CIC energiGUNE
cuenta con una línea de investigación destinada al estudio de Electrolitos Poliméricos que está desarrollando nuevos materiales nanohíbridos para baterías
ion sodio. Parte de este trabajo ha sido publicado en una revista científica de
alto índice de impacto[17] y se ha materializado a su vez en una patente.[18]
Los materiales catódicos estudiados en el CIC energiGUNE se pueden clasificar
en tres familias:
-
-
Los fosfatos de metal de transición (MT) y sodio de fórmula general NaMPO4, presentan una estructura tipo olivino, adecuada para la fácil inserción
T
y desinserción de iones sodio. El NaFePO4 concretamente, exhibe una de las
mayores capacidades electroquímicas reversibles (154 mAh/g) publicadas
hasta ahora para un material catódico polianiónico, con un voltaje medio
de 3V. Estos materiales presentan la ventaja de ser estables en condiciones
atmosféricas y de estar constituidos por elementos no tóxicos y abundantes
en la corteza terrestre. Como desventaja cabe señalar que estos materiales
no pueden ser sintetizados directamente, sólo a partir de los correspondientes materiales con litio mediante procesos consecutivos de delitiación y
sodiación.[19] Actualmente se están realizando diversos ensayos para la preparación directa de estos materiales, que supondrá una fácil escalabilidad
y por tanto repercutirá en la disminución del coste de los materiales y de
la batería final.
El azul de Prusia, AxFe2(CN)6.yH2O (A=K, Na), y sus derivados cristalizan en
una estructura cúbica en la que los átomos de hierro, que presentan dos
estados de oxidación distintos: +2 y +3, están enlazados por grupos ciano
(-C≡N-) a lo largo de las 3 direcciones del espacio. Esta disposición crea,
además, canales/túneles cúbicos cuya arista tiene un tamaño de la mitad
del parámetro de una celda unidad, en la que se alojan de forma alterna
iones alcalinos. Su fácil y competitivo método de obtención, que normalmente tiene lugar a temperatura ambiente y en medio acuoso, así como las
propiedades redox de los metales de transición presentes en la estructura
y los canales/túneles abiertos y modulables que ésta posee para la difusión
de iones, hacen de estos materiales buenos candidatos para electrodos en
baterías ion sodio. Se ha elegido el azul de Prusia que presenta dos proce-
Figura 6. a) Microscopio de barrido (SEM). b) Equipo de Resonancia Magnética Nuclear. c)
Equipo de XPS.
sos electroquímicos a 2.8V y 3.4V. Actualmente se están realizando diversos
ensayos para la preparación directa de estos materiales, que supondrá una
fácil escalabilidad y por tanto repercutirá en la disminución del coste de los
materiales y de la batería final y 3.4V respectivamente con una capacidad
electroquímica de 140mAh/g.[20]
-
Los óxidos laminares de metales de transición (NaMTO2, MT = Cr, Mn, Fe,
Co, Ni y combinaciones de dos o tres metales), se pueden considerar como
unos de los mejores candidatos como cátodos en baterías ion sodio debido
a su alta capacidad electroquímica (mayor de 160mAh/g), a su simplicidad
estructural y al bajo coste de los reactivos que se utilizan para sintetizarlos, altas capacidades electroquímicas, altos voltajes de intercalación y fácil
síntesis.[14] En este tipo de compuestos los iones sodio se colocan entre las
capas de los metales de transición. En función de la distribución de las capas de los metales de transición y la posición que ocupen los átomos de
sodio en la estructura, se obtendrán distintos compuestos que presentarán
diferentes propiedades electroquímicas. Así podremos leer fase P2-, O3donde la letra representa la posición que ocupan los iones sodio dentro de
la estructura tridimensional (P: Prisma trigonal, O; Octaédrica) y el número
indica el orden de las capas de metal de transición-oxigeno.
En el año 2014 varios de los investigadores pertenecientes a la línea de investigación de sodio del CIC energiGUNE consiguieron obtener dos óxidos laminares
de hierro y manganeso con la misma composición química y distinta estructura,
logrando comparar directamente y por primera vez el comportamiento electroquímico de ambas fases y el impacto de la estructura en ellos, obteniendo unos
49
comprueba que el material obtenido es el que se perseguía, con técnicas como
la difracción de rayos X y difracción de electrones. Mediante la microscopía electrónica de barrido (SEM), de transmisión (TEM) se comprueba la morfología, el
tamaño y la homogeneidad del material sintetizado. Otras técnicas complementarias que se utilizan son las técnicas espectroscópicas tales como Infrarrojo,
Raman o Resonancia Magnética Nuclear. Esta última técnica se utiliza para estudiar los coeficientes de difusión y la movilidad de los iones sodio dentro del material y así poder evaluar cuál será el mejor candidato para ser testeado como
electrodo positivo en baterías recargables de ion sodio. (Véase Figuras 6 y 7)
“El CIC energiGUNE ha conseguido en
cinco años abarcar todos los ámbitos
del estudio y manufacturación de una
batería, yendo desde la investigación
más básica en la búsqueda de nuevos
materiales hasta el prototipado, que es el
enlace perfecto con la industria del País
Vasco”
Figura 7. a) Difractograma de rayos X de un material catódico. b) Imagen de alta resolución
tomada por un microscopio de transmisión (HRTEM). c)-d)Distintas imágenes de materiales
catódicos tomadas con un SEM.
valores de densidad de energía de 386.05 Wh/Kg y 423.87 Wh/Kg para P2- y O3Na2/3Fe2/3Mn1/3O2 respectivamente.[21] (Véase Figura 5). En el grupo de investigación recientemente se ha obtenido un óxido laminar basado en manganeso que
con la incorporación de un mínimo porcentaje de hierro y titanio (que no actúan
en el proceso redox) consigue unos altos valores de capacidad electroquímica a
altos valores de corriente (1C).[22]
El uso de distintas técnicas de caracterización sofisticadas como el uso del XPS
(Espectroscopia fotoelectrónica de Rayos X) permiten estudiar los procesos fisicoquímicos que ocurren dentro de una batería así como sus mecanismos de
degradación que son para los investigadores del CIC energiGUNE y para la industria de baterías de gran interés.
La última etapa del proceso de búsqueda de nuevos materiales es la caracterización electroquímica. Los materiales caracterizados como puros (una única fase)
se testean en distintos dispositivos electroquímicos (cells) frente a sodio metálico (half cell) utilizando distintos electrolitos como NaClO4 o NaPF6 en distintos
disolventes orgánicos. Se realizan pruebas galvanostáticas y potenciostáticas, ciclovoltametrías en dispositivos llamados celdas Swagelok y en pilas botón (coin
cells). El material que mayor valor de capacidad electroquímica presenta y ma-
El valor de la densidad de energía, aunque es prometedor, no es todavía competitivo con las baterías de litio. Encontrar la combinación y proporción adecuada
de los metales de transición, con la estructura y morfología óptimas, permitirá
alcanzar 500 Wh/Kg haciendo entonces estos materiales los candidatos adecuados para el escalado y prototipado de las baterías ion sodio.
“La apuesta de CIC energiGUNE por
las baterías de ion sodio ha sido
fundamental desde sus inicios como
centro de investigación (año 2011). El
centro cuenta con uno de los grupos más
numerosos y competitivos de Europa
dedicado al estudio de los materiales que
constituyen una batería de ion sodio”
El procedimiento habitual de trabajo en el grupo de investigación de baterías
ion sodio tiene tres etapas fundamentales; la primera es la síntesis mediante
distintos métodos del material a estudio. Los métodos que se emplean abarcan desde los más tradicionales como la síntesis cerámica (altas temperaturas a
tiempos prolongados) a los más novedosos como la síntesis con horno microondas (tiempos cortos y temperaturas más moderadas). (Véase Figura 4)
Esta primera etapa va seguida de la caracterización estructural; en la que se
Figura 8. Dispositivos para medidas electroquímicas: a) celda Swagelok b) pila botón.
PROYECTOS DE INVESTIGACIÓN - Baterías de ion-sodio: una alternativa más factible
Figura 9. a) y d) Distintos equipos de la sala seca del CIC energiGUNE. b) y c) Electrodos preparados para ser ensamblados como cátodo y ánodo. e) Pila tipo petaca producida en el CICe.
yor voltaje de trabajo (por tanto mayor energía), es el elegido para ser estudiado
en una pila botón frente a carbono, consiguiendo así una pila completa (full coin
cell) de alta densidad energética. En este proceso de caracterización algunos
materiales son descartados si no llegan a cumplir los requisitos de capacidad
electroquímica y/o voltaje. (Véase Figura 8)
Los nuevos materiales desarrollados serán utilizados en la línea de prototipado
que el CIC energiGUNE está implantando. En esta línea, se analizará el efecto
que tienen los diversos parámetros de fabricación de baterías en su posterior
funcionamiento y se fabricarán baterías de tipo “pouch cell” o petaca que supondrán un avance considerable en el nivel de madurez de la tecnología de ion
sodio. Para ello, la nueva línea de prototipado del CIC energiGUNE dispondrá de
todo el equipamiento necesario para la fabricación de baterías de tipo botón
así como de tipo “pouch cell”, incluyendo maquinaria para mezcla y deposición
de los materiales activos sobre el colector de corriente, prensado y apilado de
los electrodos, llenado del electrolito y sellado de las celdas finales. Debido a
la especial sensibilidad que presentan los componentes fundamentales de las
baterías de sodio a la humedad, todo este equipamiento se encuentra dispuesto
en una sala seca con condiciones controladas de humedad de -60 ºC de punto
de rocío, correspondiente a 11 ppm de humedad. Siendo una de las tres únicas
salas secas equipadas en España. En la figura 9 se pueden apreciar los distintos
equipos que constituyen ya la sala seca y los electrodos laminados producidos
en ella. El resultado final de las pilas tipo petaca se muestra también en la figura.
De esta forma el CIC energiGUNE ha conseguido en 5 años abarcar todos los
ámbitos del estudio y manufacturación de una batería, yendo desde la investigación más básica en la búsqueda de nuevos materiales hasta el prototipado,
que es el enlace perfecto con la industria del País Vasco y del resto de Europa.
En este artículo se ha querido explicar de forma sencilla el por qué de la investigación en nuevos materiales para baterías de ion sodio y se ha dado una
pincelada de las diversas actividades que se llevan a cabo en el CIC energiGUNE
para en definitiva intentar mejorar el futuro del almacenamiento energético reduciendo su coste y aumentando sus prestaciones para que pueda ser accesible
no solo para el primer mundo sino para todos los ciudadanos del planeta.
Agradecimientos:
Este artículo no hubiera podido realizarse sin la ayuda de mis compañeros M.
Zarrabeitia, M.J. Piernas, M.A. Muñoz, L. Otaegui, M. Galcerán, O. García, A. Villaverde, N. Gómez, S. Ortiz y la supervisión de Prof. T. Rojo.
Referencias
[1] C. Liu, F. Li, L.P. Ma, H.M. Cheng, Advanced Materials, 2010, 22, 28.
[2] P.G. Bruce, B Scrosati, J.-M. Tarascon, Angewandte
Chemie-International Edition 2008, 47, 2930.
[3] J.B. Goodenough, Y. Kim, Chem.of Mat., 2010, 22, 587.
[4] M.S. Whittingham, Chemical Reviews, 2004, 104, 4271.
[5] M. Winter, R.J. Brodd, Chemical Reviews, 2004, 104, 4245.
[6] D. Guyomard, Gordon and Breach Science Publishers 2000, 253.
[7] K. Ozawa, Solid State Ionics 1994, 69, 212.
[8] M. Armand and J.-M. Tarascon, Nature, 2008, 451, 652.
[9] J. B. Goodenough , Y. Kim , Chema. Mater., 2010, 22, 587.
[10] T. C. Wanger, Conserv. Lett., 2011, 4, 202.
[11] R. K. Evans , Energy 1978, 3 ,379.
[12] a] V. Palomares, P. Serras, I. Villaluenga, K. B. Hueso, . Carretero-González and
T. Rojo, Energy Environ. Sci., 2012, 5, 5884. b] V. Palomares, M. Casas-Cabanas,
E. Castillo-Martínez, M.H. Han, T. Rojo, Energy Environ. Sci., 2013, 6, 2312
[13] K. B. Hueso, M. Armand, T. Rojo, Energy Environ. Sci.,2013, 6, 734.
[14] M. H. Han, E. Gonzalo, G. Singh, T. Rojo, Energy Environ. Sci. 2015 , 8 , 81
[15] M.A. Muñoz-Márquez, M. Zarrabeitia, E. Castillo-Martínez, A. EguíaBarrio, T. Rojo, M. Casas-Cabanas, Appl. Mater. Interfaces 7, 2015, 7801.
[16] E. Castillo-Martínez, J. Carretero-González, M.
Armand. Angewandte Chemie, 201421, 5341,
[17] Villaluenga, I.; Armand, M.; Rojo, T. J. Mater. Chem. A, 2013, 1, 8348.
[18] European Patent Application Number EP12382290.0.
Michel Armand, Teófilo Rojo, Irune Villaluenga
[19] M. Galceran, D. Saurel, B. Acebedo, V. V. Roddatis, E. Martin, T.
Rojo, M. Casas-Cabanas, Phys. Chem. Chem. Phys., 2014, 16, 8837.
[20] M. J. Piernas-Muñoz, E. Castillo-Martínez , V. Roddatis, M. Armand, T. Rojo,
J. Power Sources, 2014, 271, 20, 489.
[21] E. Gonzalo, M. H. Han, J. M. Lopez del Amo, B. Acebedo, M. Casas-Cabanas,
T. Rojo, J. Mater. Chem. A, 2014, 2 , 18523.
[22] M.H. Han, E. Gonzalo, N. Sharma, J.M. López del Amo, M Armand, M.
Avdeev, J. J. S. Garitaonandia, T. Rojo. Chem. Mater 2015, 28(1), 106
51
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Mecanizado criogénico,
el beneficio que surge
del frío
A. Rubio(1), O. Pereira(2), F. Veiga(1), A. Rodríguez(2), A. Rivero(1),
L.N. López de Lacalle(2)
(1) Tecnalia Research & Innovation
(2) Dpto. de Ingeniería Mecánica. (UPV/EHU)
El desarrollo y puesta a punto de diferentes técnicas de
refrigeración criogénica orientadas al sector de la máquina
herramienta llevará a las empresas vascas a poder incrementar
su competitividad de forma ecoeficiente.
Desde hace varios años el modelo productivo industrial ha tendido a una fabricación más comprometida con el medio ambiente. Así, el mundo de la fabricación por mecanizado ha buscado formas de aumentar la productividad de sus
procesos reduciendo el impacto generado por sus residuos. En este marco es
donde nace el concepto ECO2 (ecológico y económico). El empleo de técnicas
avanzadas de refrigeración criogénica durante las operaciones de mecanizado
es una alternativa interesante a la hora de avanzar hacia el denominado “green
manufacturing”. El empleo de fluidos criogénicos, como el nitrógeno líquido o el
dióxido de carbono líquido, se traduce en una menor temperatura en la zona de
corte, un aumento del rendimiento productivo y una mayor limpieza en la zona
de trabajo. Sin embargo, el ECO2 consta de varias ventajas competitivas añadidas frente a otros fluidos similares debido a sus extraordinarias propiedades
lubricantes-refrigerantes y a su forma eco-eficiente de obtención. Es aquí donde
Tecnalia Research & Innovation (Tecnalia) y la Universidad del País Vasco (UPV/
EHU) colaboran en Euskampus para llevar la vanguardia de esta tecnología al
tejido industrial vasco.
Motivación
Es bien sabido en la industria del mecanizado que todos los fenómenos de degradación conocidos dependen exponencialmente de la temperatura. Por lo
tanto, controlar la temperatura es controlar el desgaste y por tanto la llave para
el aumento de la productividad manufacturera. Hasta hace relativamente pocos
años, este “control” de la temperatura se realizaba mediante uso de fluidos de
corte (taladrinas) y productos altamente contaminantes para el medio ambiente
y potencialmente peligrosos para el operario. Además, el uso de estos fluidos
refrigerantes cargaba a los productos con un sobrecoste derivado de su limpieza.
Debido a esto, en la industria se lleva años investigando y apostando por tecnologías limpias en el mecanizado. Tanto es así que, estas tecnologías de mecanizado, han visto incrementado su valor y presencia un 10% anual en la industria.
Sin embargo, no es hasta la exposición mundial de máquina herramienta (EMO)
de 2011 cuando el grupo alemán MAG® lanza una línea completa de máquinas-herramienta con refrigeración criogénica mediante nitrógeno líquido (LN2).
Aunque este fue el primer hito importante, la realidad es que la refrigeración
criogénica desde un punto de vista industrial ha ido más orientada a la utilización del dióxido de carbono líquido (CO2) como fluido refrigerante. Incluso
MAG® el mismo año que presentaba su línea basada en LN2 ya trabajaba en el
desarrollo de husillos para adaptar sus máquinas a la utilización de CO2.
La principal razón por la que se pensó primeramente en utilizar LN2 en el me-
PROYECTOS DE INVESTIGACIÓN - Mecanizado criogénico, el beneficio que surge del frío
canizado criogénico es bastante evidente, ya que alcanza una temperatura de
-196ºC tras su expansión. Además de su capacidad refrigerante, se trata de un
gas que es de fácil uso y que se encuentra en abundancia en el aire; por lo que
no contamina. Por contrapartida, es de difícil almacenamiento por estar siempre en constante ebullición. Este fenómeno hace que, en los tanques donde se
almacena, se genere una sobrepresión que lleva al escape y pérdida del fluido
a través de la válvula de escape. Por esta razón, desde un punto industrial, no
es atractivo su uso para estas aplicaciones. En cambio el CO2, aunque tiene una
capacidad de refrigeración menor (-78ºC), puede ser almacenado a temperatura
ambiente en recipientes a 55 bares, puede llegar a disolver aceites y su coste
es relativamente más bajo. Además, el CO2 utilizado en la industria se obtiene
de un proceso primario al cual se le da un segundo uso. De esta forma se reutiliza en lugar de eliminarlo como residuo, por lo que el principio de inocuidad
medioambiental asociado a los sistemas criogénicos se mantiene.
trolada el sistema de regulación primero presuriza los conductos a 1MPa con
CO2 en estado gaseoso. A continuación, se da paso al CO2 líquido a 1,4MPa para
refrigerar el proceso de mecanizado. Por último, una vez terminado el proceso
de arranque de material, se vuelve a barrer todo el conducto con CO2 en estado
gaseoso a 1MPa.
Cabe destacar que este sistema es común a cualquier aplicación de mecanizado, si bien es cierto que dependiendo del tipo de operación se han desarrollado
diferentes técnicas para su correcta inyección.
Varias multinacionales ya están apostando claramente por esta tecnología. Es el
caso de multinacionales como Starrag® y Walter®, que ya ofrecen un servicio
completo de refrigeración criogénica con el fin de no quedarse fuera del mercado. Como resultado de esta unión, en la EMO 2013 presentaron una fresadora con refrigeración criogénica mediante CO2 con la que obtuvieron el premio
“MM Award for Innovation” al mecanizar palas de turbina con dicha fresadora.
Sistema de regulación e inyección
En los últimos años desde Tecnalia y la UPV/EHU se está trabajando en el desarrollo de una tecnología de refrigeración criogénica propia con el fin de ser
capaces de aplicarla a operaciones habituales de mecanizado como el torneado,
taladrado y fresado. Para ello, a partir de estudios previos realizados internamente y con el claro objetivo de reducir lo máximo posible la inversión inicial en
el momento de ser aplicado en el entorno industrial se ha optado por centrarse
principalmente en la refrigeración criogénica con CO2 frente al LN2.
Figura 2. Torneado criogénico
Para operaciones de torneado, el CO2 puede ser utilizado tanto externamente, de forma análoga a la taladrina; como internamente, utilizando portaherramientas con refrigeración interna de alta presión. Este tipo de portaherramientas generalmente constan de dos orificios dirigidos hacia la cara de incidencia
y desprendimiento respectivamente. Gracias a la inyección del CO2 por ambas
caras se logran tres efectos beneficiosos para el proceso. El primero es que, al
inyectar CO2 por la cara de incidencia, se consigue reducir la temperatura de
corte. Además, al inyectarlo también en la cara de desprendimiento la viruta se
vuelve más frágil y se puede controlar su dirección de evacuación, lo que provoca un menor contacto viruta-herramienta. Por último se consigue convertir la
plaquita en un intercambiador de calor, lo que revierte en un menor desgaste
de ésta por efectos térmicos.
Para las operaciones de taladrado y fresado, de manera análoga al torneado,
el CO2 puede ser aplicado de forma externa, mediante la utilización de una
tobera similar a las utilizas con la taladrina, o interna a través del interior de
los conductos de herramientas estándar de refrigeración interna. Para llevar
el fluido criogénico por dentro de la herramienta, en el caso del taladrado, se
Figura 1. Diagrama de fases CO2
En primer lugar, al mecanizar criogénicamente con CO2 hay que tener en cuenta
que para la inyección del CO2 en la zona de corte se necesita de un sistema regulador que evite la obstrucción de los conductos del circuito por la formación
de hielo seco. Este efecto se debe a que el CO2 se encuentra almacenado en
estado líquido a 55 bares de presión y a temperatura ambiente. Así, en caso de
ser expandido directamente sin ningún tipo de regulación, sublimaría primeramente en hielo seco antes de gasificarse. Este efecto se explica analizando su
diagrama de fases, mostrado en la Figura 1. Como se puede apreciar, en una
expansión incontrolada, el CO2 pasa por la “zona de sólido”, provocando así la
formación de hielo seco.
Para evitar dicho efecto, se ha adaptado un sistema de regulación propio de
CO2. Este sistema mantiene el circuito a una presión por encima del punto triple
(5,11 bares y -56,4ºC) que hace que el CO2 se mantenga en estado líquido en
su interior. Así, en la salida del sistema de inyección, la expansión final lleva al
fluido a su temperatura más baja (-78,5ºC). Para conseguir esa expansión con-
Figura 3. Taladrado criogénico
53
Con el objetivo de validar el uso de la refrigeración criogénica en las distintas
aplicaciones de mecanizado, se han realizado diferentes pruebas relacionadas
con aplicaciones reales de la industria. Los resultados obtenidos se han comparado tanto con el mecanizado sin ningún tipo de refrigeración externa (mecanizado en seco), como con la utilización de MQL (Minimum Quantity Lubricant).
La tecnología MQL se basa en proyectar pequeñas gotas de aceite mediante un
flujo de aire.
SECO
Aplicaciones
se presentan los resultados obtenidos tras el taladrado pasante, con broca de
diámetro 7.5mm, de apilados de titanio (Ti-6Al-4V) de 10 mm de espesor y fibra
de carbono (FC) de espesor 8mm.
CO2
puede realizar mediante un adaptador coaxial utilizado comercialmente para
aplicar MQL o taladrina. Sin embargo, en el caso del fresado, la única opción de
llevar el fluido criogénico a través del interior de la herramienta es adaptando la
junta rotativa de la fresadora. Esta solución, que también se puede utilizar en el
taladrado, se basa en llevar presurizado el fluido criogénico por el interior de la
máquina hasta el portaherramientas debidamente hermetizado. De ahí, el CO2
se lleva por el interior de las herramientas hasta su expansión en los orificios de
salida situados en la zona de corte.
Figura 5. Desgaste producido en la herramienta para el mismo número de agujeros com-
Torneado
Para analizar el comportamiento del CO2 en el torneado se seleccionó un acero inoxidable ya que, este tipo de materiales, son comúnmente utilizados en
la industria del entorno. Concretamente se cilindraron barras de AISI 304L. La
comparación de resultados se realizó frente al mecanizado en seco y al MQL
(80ml/h). El análisis se hizo en función de la vida de la herramienta, fijando como
máximo un desgaste del filo de 0.2mm. En base a este valor se han comparado
los metros mecanizados con cada una de las tecnologías.
En la Figura 4 se muestran los resultados de vida de la herramienta con las
diferentes técnicas de lubricación-refrigeración. Se asigna un valor de 100% al
mejor de los casos, el que permite un mayor número de metros mecanizados.
En este caso, la tecnología con la que se puede mecanizar más metros es el
CO2. En comparación, el mecanizado en seco únicamente puede mecanizar una
cuarta parte menos. El MQL, al introducir un elemento de lubricación, mejora
los resultados en seco, pero sin alcanzar los resultados con el fluido criogénico.
Por lo tanto se demuestra que el CO2, debido a su capacidad refrigerante, es la
opción más productiva. Además, el poder mecanizar en condiciones de semi-seco, el obtener la viruta seca, eliminar los gastos derivados del uso de taladrinas y
sobre todo reducir el impacto ambiental, hacen de esta tecnología la más viable
para una inminente implantación en la industria manufacturera.
parando en seco y con CO2
Este tipo de combinación de materiales, denominado stacks, es cada vez más
utilizado en el sector aeronáutico. La principal problemática del mecanizado de
stacks viene dada por la necesidad de mecanizar en seco la fibra de carbono.
Esto lleva a que las temperaturas de corte que se alcanzan sean considerables
y por tanto influyan negativamente en el desgaste de la herramienta y en la
calidad del agujero.
En cuanto al deterioro de la herramienta, al alcanzarse temperaturas de corte
elevadas, estas llevan a producir adhesiones del titanio en el filo de la herramienta debido a su gran afinidad con el material de ésta a elevadas temperaturas. Como se aprecia en la Figura 5, se consiguió minimizar la adhesión de
titanio provocada por el mecanizado en seco. Además, también se aprecia como
al reducir la temperatura también se consigue eliminar el daño térmico en la
fibra de carbono.
En cuanto al deterioro de la calidad del agujero en el Ti debido a la temperatura,
se ha analizado la rebaba obtenida en la salida del agujero. La rebaba se produce debido a la alta temperatura acumulada en el Ti que hace que este fluya
hacia el exterior a medida que la herramienta termina el agujero. En la Figura 6
se muestra la comparación para un número fijo de 175 agujeros que se pueden
realizar antes que la altura de esa rebaba alcance un límite de 600µm.
Por lo tanto, al igual que en el torneado, la opción que mejora más significativamente el proceso sigue siendo el uso de CO2. Además, dado que en esta
aplicación el efecto térmico es más influyente, las diferencias con respecto al
mecanizado en seco y con MQL son más significativas.
Figura 4. Comparación de metros mecanizados en acero inoxidable
Taladrado
Los ensayos de taladrado se han orientado al sector aeronáutico, dadas las
particularidades del mismo: tolerancias dimensionales restrictivas, materiales
de difícil mecanizado como el titanio, taladrado de materiales disimilares apilados o la imposibilidad del uso de lubricación por taladrina. A continuación
Figura 6. Comparación de número de agujeros dentro de parámetro de calidad en stacks
FC-Ti
PROYECTOS DE INVESTIGACIÓN - Mecanizado criogénico, el beneficio que surge del frío
Fresado
Por último, para el caso de fresado se han llevado a cabo ensayos de planeado
sobre Inconel 718 precipitado (45HRC). Esta superaleación de base Cr-Ni es ampliamente utilizada en la industria aeronáutica, y entraña una elevada dificultad
en su mecanizado. Esta dificultad queda patente en la Figura 7 donde, durante
el mecanizado en seco, tanto la pieza como la herramienta se llegan a poner al
rojo vivo.
Para comparar los resultados obtenidos en seco, con MQL y con CO2 se ha analizado el desgaste de la herramienta en función de los metros mecanizados. El
límite de metros mecanizados se limita por el valor del desgaste máximo de los
insertos, fijada en este caso en 0.2mm.
Además, este desarrollo se está enfocando a la sencillez en la instalación en
cualquier máquina-herramienta, esto es, la posibilidad de disponer un dispositivo totalmente “Plug & Play”. En la Figura 8 se puede ver el dispositivo de
“CryoMQL” que se está desarrollando.
Comparando los resultados con los obtenidos anteriormente en los ensayos
de fresado se aprecia como el “CryoMQL” es el que mejor resultados obtiene,
demostrando como las tecnologías de MQL y de CO2 son complementarias. Así,
en la Figura 9, se muestra el porcentaje de metros mecanizados para cada uno
de los casos de estudio.
Los resultados en este caso no fueron favorables para el caso de CO2 ya que, a
pesar de mejorar los resultados en seco en un 32%, no fueron suficientes para
igualar los metros mecanizados con MQL.
Estos resultados muestran que el simple uso de CO2 no es suficiente para abordar todas las aplicaciones industriales requeridas hoy en día por el mundo de la
máquina herramienta. Es por esto que hace falta desarrollar nuevas tecnologías
eco-eficientes que aborden aquellos retos industriales que los fluidos criogénicos por si solos no pueden solucionar.
Figura 9. Vida de herramienta durante el fresado de Inconel 718
Conclusiones
Los resultados mostrados en esta comunicación muestran que el uso de refrigeración criogénica se posiciona como una alternativa a los sistemas de lubricación-refrigeración actuales, especialmente en sectores como el aeronáutico,
de matricería y moldes.
Figura 7. Ensayos de fresado en seco (izda.) y con CO2 (dcha.)
Lineas de desarrollo
Con el objetivo de obtener una tecnología que aborde aquellas aplicaciones en
las que los fluidos criogénicos no son competitivos, Tecnalia y UPV/EHU colaboran en el desarrollo de un sistema de regulación portátil y de mayor poder lubricante-refrigerante. Con este desarrollo se busca la capacidad de combinar en
un solo sistema la tecnología criogénica junto con la lubricación mediante MQL.
Así, utilizando el flujo criogénico para proyectar las gotas de aceite se consigue
combinar el poder refrigerante del CO2 y la capacidad lubricante del aceite, logrando así la tecnología conocida como “CryoMQL”.
En el torneado de materiales donde el desgaste por influencia mecánica tiene
prevalencia sobre el desgaste por influencia térmica, el uso de CO2 ha sido la
alternativa más prometedora al mecanizado tradicional con taladrina.
Por otro lado, al taladrar materiales como el titanio, donde existen problemas
de adhesión, el aplicar la refrigeración criogénica con CO2 logra estabilizar el
proceso de forma significativa a la vez que se alarga la vida de herramienta. En
cuanto al taladrado de compuestos de carbono se aprecia como gracias a la
refrigeración criogénica se elimina el daño térmico que pueda sufrir la pieza por
las temperaturas de corte alcanzadas.
Sin embargo, aunque existen aplicaciones de fresado en las que el uso de CO2
es una alternativa viable, existen ciertos casos en los que es necesario una tecnología con unas propiedades lubricantes superiores. Con objeto de dar una
alternativa innovadora y necesaria a este tipo de aplicaciones, la colaboración
Tecnalia/UPV ha dado pie al desarrollado de un sistema de regulación e inyección de refrigerante CO2 más lubricante MQL (“CryoMQL”). Las principales ventajas de este sistema son:
• Se consigue una combinación del poder lubricante de los sistemas MQL y
refrigerante de los sistemas criogénicos, lo que le hace una alternativa real
frente a los sistemas de lubricación/refrigeración convencionales.
• Se trata de un sistema ecológica y económicamente factible, entrando en lo
que se conoce como “rendimiento ECO2”.
Agradecimientos
Figura 8. Dispositivo “CryoMQL”
Se agradece el soporte recibido del programa ETORTEK (Gobierno Vasco) por el
Proyecto INPRORET.
55
VE
BRE
I EN
KAD
EUS
El grupo QUTIS de la UPV/EHU,
junto con Google Inc. y la UCSB,
logra detallar el algoritmo más
avanzado que se conoce en un
simulador cuántico
Los resultados de la investigación han sido publicados en la prestigiosa
revista científica Nature Communications
El grupo de investigación Quantum Technologies for Information Science (QUTIS) de la Universidad del
País Vasco/Euskal Herriko Unibertsitatea ha publicado en la prestigiosa revista Nature Communications,
un artículo titulado “Digital quantum simulation of fermionic models with a superconducting circuit” (Simulación cuántica digital de modelos fermiónicos con un circuito superconductor), en colaboración con
el grupo de investigación de Google Inc. y la University of California Santa Barbara (UCSB), en el que se
lleva a cabo el algoritmo cuántico más avanzado que se conoce y con el que consigue implementar una
simulación cuántica de modelos electrónicos de materiales en circuitos superconductores. Este algoritmo ha sido desarrollado en los laboratorios de circuitos superconductores de Google/UCSB basándose
en ideas originales propuestas por el grupo QUTIS de la UPV/EHU.
La colaboración entre la UPV/EHU y Google/UCSB ha logrado de forma pionera realizar un simulador
digital de fermiones con más de 300 puertas lógicas cuánticas en un chip de 9 bits cuánticos. Los fermiones son partículas cuánticas, como los electrones, que son la base fundamental de los superconductores, las reacciones químicas o los procesos de altas energías. Su estudio es por tanto muy relevante,
ya que es el primero en que se simulan estas partículas de forma universal con una arquitectura tan
avanzada y de forma escalable, como es el caso de los circuitos superconductores a temperaturas criogénicas.
CIC bioGUNE
presenta un
estudio que abre
la puerta a la
generación eficaz
de azúcares para
investigar nuevas
terapias
Logra observar empíricamente por
primera vez una especie química de
vida corta que se genera durante las
reacciones de formación y ruptura de
los azúcares
El proyecto se enmarca en la búsqueda del intermedio
común de todas las reacciones químicas que tienen que
ver con la formación y ruptura de hidratos de carbono
en la naturaleza. La investigación ha permitido aislar por
primera vez ese intermedio común (el ion glicosil oxocarbenio), observarlo mediante técnicas de resonancia
magnética nuclear y corroborar de manera experimental
lo que hasta ahora sólo se conocía de forma teórica.
En el experimento se ha determinado la geometría de
cuatro iones diferentes procedentes de distintos azúcares. El objetivo final de los investigadores es ampliar el
estudio en el futuro a los más de 20 tipos de carbohidratos que existen.
Los azúcares integrados en las células están implicados
en todos los procesos del organismo: la fecundación, las
infecciones, diversos aspectos del metabolismo, los grupos sanguíneos y el desarrollo de ciertas enfermedades
como el cáncer o las inflamaciones.
EUSKADI EN BREVE
La investigación de CIC biomaGUNE, resultado de tres años de trabajo, revela de qué modo los nanomateriales que enlazan varios ligandos de forma simultánea pueden discriminar de forma precisa
entre las distintas densidades de receptores presentadas por la superficie de las células y cómo esta
capacidad puede afinarse. Las células madre y las células cancerosas presentan receptores específicos
en su superficie que permiten su identificación con cierta precisión con sondas que reconocen estos
receptores. Sin embargo hay otros tipos de células que presentan los mismos receptores, aunque lo
hacen en una cantidad inferior.
“Las sondas convencionales distinguen de forma efectiva una célula que presenta receptores de una
que no lo hace, pero tienen limitaciones cuando las células que deben ser aisladas presentan receptores en diferentes densidades”, relata el científico de CIC biomaGUNE Ralf Richter, quien ha dirigido la
investigación. El estudio, que ha sido publicado en la prestigiosa publicación Proceedings of the National Academy of Sciencies of the United States of America (PNAS), ha contado con el apoyo del programa
destinado a la investigación de la Comisión Europea Marie Curie y del European Research Council.
Para estudiar en detalle la evolución de esos fenómenos
y procesos en el laboratorio es necesario disponer de
cantidades grandes de azúcares, muy superiores a las
que pueden aislarse en los mamíferos, que permitan llevar a cabo los experimentos. “Este descubrimiento debe
permitir mejorar los métodos de preparación de azúcares en el laboratorio, optimizar su obtención y aumentar
las posibilidades de generar estas moléculas en las cantidades requeridas para estudiar en detalle los fenómenos
que dan lugar a enfermedades”, explicó el director científico de CIC bioGUNE y líder de la investigación, Jesús
Jiménez Barbero.
El nuevo Grupo de Nanoingeniería de
CIC nanoGUNE desarrollará nuevas
herramientas de diagnóstico para la
industria biomédica
Uno de los objetivos es desarrollar microsistemas biomédicos para
diversos ámbitos de investigación clínicos, como las enfermedades
cardiovasculares, el cáncer y las enfermedades neurodegenerativas
CIC biomaGUNE
estudia nuevos
nanomateriales
para avanzar en un
mejor diagnóstico
contra el cáncer
El estudio, publicado en la prestigiosa
publicación PNAS abre la posibilidad
al desarrollo de tratamientos más
efectivos y a mejorar la respuesta
autoinmune
El Grupo de Nanoingeniería de nanoGUNE, liderado por el investigador Ikerbasque Dr. Andreas Seifert,
gira en torno a la investigación que combina tanto nanociencia fundamental como ingeniería aplicada,
en el área de los microsistemas biomédicos, en particular. El objetivo del grupo es construir puentes
entre las ciencias físicas y las aplicaciones industriales y clínicas, introduciendo nanotecnología con la
finalidad de aportar valor añadido a innovadores microsistemas médicos y dispositivos mesoscópicos.
El Grupo de Nanoingeniería está preparando un laboratorio de última generación de metrología óptica
y servicios de fabricación para materia sólida y blanda. La innovación de los nuevos dispositivos y métodos que serán desarrollados tomará como base la micro y nanotecnología con diminutas estructuras
de dimensiones nanométricas (una millonésima de milímetro). Para analizar estas microestructuras
ultrapequeñas han adquirido un nuevo perfilómetro óptico 3D interferométrico, que complementa a la
perfección tanto la investigación estructural como la morfológica mediante microscopía de fuerza atómica, disponible en otros grupos de nanoGUNE. Este perfilómetro óptico es capaz de captar la imagen
de pequeñas áreas de la muestra a testear, con una resolución a nivel atómica.
57
25 científicos se
han incorporado a
las universidades
y centros de
investigación de
Euskadi gracias a los
programas Research
Professor y Research
Fellow
Desde 2007, Ikerbasque ha contratado
a 194 investigadores con experiencia
internacional, procedentes de 31 países
2012 y cumple una doble función: por un lado, atraer a científicos que están desarrollando su labor
en el extranjero, incluyendo a los investigadores locales que se marcharon en algún momento de su
carrera, y por otro, ofrecer oportunidades para consolidar su trayectoria a quienes ya se encuentran investigando en Euskadi. Gracias al programa Research Fellow, en 2015 se han incorporado 18 personas.
Hasta el momento, IKERBASQUE ha atraído para trabajar en el País Vasco a 194 investigadores Research Professor y Research Fellow, incorporados al Sistema Vasco de Ciencia, Tecnología e Innovación.
Científicos del Donostia International
Physics Center (DIPC) y la UPV/EHU
demuestran que los cristales curvados
de platino se pueden usar en estudios
de fotoemisión de rayos X de alta
resolución
Los cristales curvados de Pt que los científicos han usado en este
estudio han sido manufacturados por Bihurcrystal, una start-up
donostiarra
Un grupo de investigadores del DIPC y el Centro Mixto de Física de Materiales (CFM) del CSIC y la UPV/
EHU ha demostrado que los cristales curvados de platino también pueden ser utilizados en estudios
de fotoemisión de rayos X de alta resolución en sincrotrones. La parte experimental de dicho trabajo
se ha realizado en el Laboratorio de Nanofísica del CFM, y se ha completado en el sincrotrón de la
Universidad sueca de Lund.
En los cristales curvados, al contrario de lo que ocurre en un monocristal plano, la densidad de posiciones atómicas activas, es decir, la densidad de escalones atómicos, va cambiando de forma suave y
progresiva en la misma muestra, facilitando un análisis racional y preciso del papel que juegan dichos
sitios activos en una reacción química dada.
Los cristales curvados de Pt que los científicos han usado en este estudio han sido manufacturados
por Bihurcrystal, una compañía donostiarra que vio la luz en el año 2013 gracias al apoyo del CFM y
el DIPC. Cuando aún se estaba gestando el proyecto de Bihurcrystal, la iniciativa empresarial obtuvo
varios premios por su carácter innovador. Hoy esos premios están avalados, puesto que los productos
que comercializa esta joven start-up se usan en estudios experimentales luego publicados en revistas
científicas de prestigio.
La convocatoria Research Professor, creada en 2007, y
dirigida a investigadores consolidados con amplia experiencia internacional y capacidad de liderazgo, ha atraído
a siete nuevos científicos en 2015. Prueba de su brillante trayectoria, algunos de los investigadores recién llegados dirigirán centros de investigación o cuentan con
ERC Grants, la mayor ayuda europea para investigación
científica.
El programa Research Fellow, por su parte, es una iniciativa específicamente diseñada para atraer y mantener
en el País Vasco a expertos en diversas ramas del saber
menores de 40 años, con objeto de crear una “cantera”
de científicos e investigadores. Fue puesto en marcha en
EUSKADI EN BREVE
NanoGUNE
lanza Prospero
Biosciences, su
quinta spin-off
para avanzar en
la investigación
de marcadores
biológicos
Desarrollará una tecnología innovadora
capaz de abrir un nuevo campo de
aplicaciones dentro de la industria de
la espectrometría de masas
Investigadores de la UPV/EHU
trabajan para la personalización del
tratamiento en cáncer pediátrico
El grupo Genética y epigenética del cáncer y las enfermedades
mentales estudia marcadores genéticos para evitar las toxicidades que
en determinados casos provocan algunos fármacos
Los tratamientos utilizados para combatir el cáncer infantil han mejorado la supervivencia de estos
niños de un 10 % a un 80 %. Pero hay pacientes que experimentan toxicidad grave, y es necesario parar
o reducir el tratamiento, lo que disminuye la probabilidad de supervivencia. El grupo Genética y epigenética del cáncer y las enfermedades mentales de la UPV/EHU investiga marcadores genéticos para
ajustar el tratamiento desde un principio y, de ese modo, evitar las toxicidades que en determinados
casos provocan algunos fármacos.
El objetivo es buscar las características genéticas de una persona que indiquen si una substancia utilizada en un determinado tratamiento contra el cáncer infantil va a ser mejor o peor metabolizada por
el paciente. Según explica la investigadora principal del grupo Africa García-Orad, “comparamos las
características genéticas de los niños a los que se les ha dado determinados fármacos y han desarrollado toxicidad, con las características genéticas de otros niños a los que se ha tratado con los mismos
fármacos pero no han desarrollado toxicidad”. La farmacogenética predice qué fármacos serán los más
efectivos y seguros, sobre la base de los perfiles genéticos del individuo.
CIC nanoGUNE, junto a otros promotores, ha creado su
quinta empresa spin-off: Prospero Biosciences SL (Prospero). El objetivo de Prospero es valerse de las ventajas
que ofrece la nanotecnología para desarrollar un innovador detector de moléculas que será integrado en espectrómetros de masas; unos instrumentos de medición
que permiten, entre otras cosas, analizar con gran precisión los diferentes elementos químicos que forman un
compuesto y que constituyen una de las industrias de
instrumentación analítica de mayor crecimiento a nivel
global.
Prospero se encuentra actualmente en el proceso de
desarrollo e industrialización de una innovadora nano-membrana, la cual representa la base de la tecnología
que permite una extraordinaria mejora con respecto a
otras soluciones existentes en el mercado.
La tecnología que desarrollará la quinta spin-off de nanoGUNE abre las puertas a un amplio campo de aplicaciones, tales como la investigación de marcadores biológicos, la investigación y diagnóstico médico, o el desarrollo
de fármacos biosimilares que requieren la identificación
precisa de moleculas de alta masa.
59
Un cuanto de luz
para la ciencia de
materiales
Un estudio dirigido por el catedrático
de la UPV/EHU y director del Max
Planck Institute de Hamburgo, Ángel
Rubio, demuestra que es posible
predecir los efectos de los fotones
sobre los materiales
Las simulaciones por ordenador que predicen el cambio
inducido por la luz en las propiedades físicas y químicas
de los sistemas complejos, moléculas, nanoestructuras
y sólidos generalmente ignoran la naturaleza cuántica
de la luz. Científicos del Instituto Max Planck para la estructura y dinámica de la Materia (MPSD), dirigidos por el
catedrático Ángel Rubio, del Departamento de Física de
Materiales de la UPV/EHU y Director del Departamento
de Teoría de la MPSD, han demostrado cómo pueden incluirse adecuadamente los efectos de los fotones en estos cálculos. Este estudio abre la posibilidad de predecir y
controlar el cambio de las propiedades de los materiales
debido a la interacción con los fotones desde los principios fundamentales.
La idea básica es tratar todo el sistema QED de partículas
y fotones como un fluido cuántico. En el mismo, las partículas están representadas por una corriente de carga, y
los fotones por un campo electromagnético clásico que
actúa sobre la corriente de una manera muy compleja.
En una reciente publicación en la prestigiosa revista Proceedings of the National Academy of Sciences, los autores han demostrado que esta aproximación puede describir exactamente la dinámica de un electrón que está
atrapado en una superficie y que interactúa fuertemente
con fotones.
La UPV/EHU y el Departamento de
Agricultura de EEUU identifican
aromas de las nueces que permitan
controlar plagas y disminuir el uso
de pesticidas
Esta investigación pionera ha analizado los datos procedentes de
cultivos de nueces en California y abre camino para realizar otros
estudios sobre control de plagas en cultivos autóctonos
El departamento de Química Analítica de la UPV/EHU, en colaboración con el Departamento de Agricultura de Estados Unidos (USDA, California), ha identificado en nueces dañadas los compuestos volátiles
de los aromas atractivos para los insectos que amenazan las cosechas de estos frutos en California. Son
los primeros estudios que se llevan a cabo en nueces con el fin de localizar los componentes del aroma
que sirvan para controlar de manera más sostenible las plagas de polillas, y, también, con el objetivo de
contribuir a disminuir el uso de pesticidas y plaguicidas.
Del valle central de California proceden dos tercios de las nueces consumidas a nivel mundial y más del
80% de las que se consumen en España. En los últimos 50 años dos plagas de polillas—codling moth
(Cydia pomonella) y navel orangeworm (Amyelois transitella, Lepidotera, Pyralidae)— amenazan, cosecha tras cosecha, la producción de nueces. Depositan sus huevos en los frutos dañados y favorecen
la propagación del hongo Aspergillus con consecuencias tanto en el mantenimiento de la seguridad
alimentaria como en el desarrollo comercial y económico.
Las estrategias del último siglo para controlar las plagas han estado centradas en el uso de pesticidas
y plaguicidas a los que ciertos insectos se han hecho resistentes. Esta investigación avanza en la búsqueda de los compuestos aromáticos que les atraigan de manera natural en momentos claves, como
su reproducción y alimentación, y que, combinados con técnicas medioambientales sostenibles, den la
posibilidad de sintetizar productos agroquímicos más selectivos y eficientes.
EUSKADI EN BREVE
Tecnalia aprueba su nuevo plan
estratégico que estima en más de
1.000 millones su impacto en el PIB
vasco
El objetivo del centro de investigación es incrementar en más de un
50% su actividad con empresas vascas
Nuria Gisbert se
incorpora como
Directora General
de CIC energiGUNE
Sustituye a Jesús María Goiri al frente
del centro de investigación de energía
Nuria Gisbert se ha incorporado a CIC energiGUNE como
Directora General y sustituye en el cargo a Jesús María
Goiri. Gisbert es ingeniera industrial por la Escuela Superior de Ingeniería de Bilbao MSc. en Telecomunicaciones
por la misma institución y Executive MBA por el Instituto
de Empresa de Madrid.
Gisbert comenzó a trabajar en 2000 en una de las más
grandes corporaciones del sector energético del País
Vasco de la época (INCOESA) donde desarrolló su carrera
frente a distintas responsabilidades, entre otros, Directora Técnica y Directora General de la Unidad de I + D
Empresarial de la corporación.
En 2012 Gisbert fue nombrada Directora General de CIC
microGUNE donde ha permanecido hasta su incorporación en CIC energiGUNE. En su trayectoria profesional
Gisbert ha dirigido centenares de proyectos industriales
relacionados con el sector de energía. También ha participado como Investigador Principal y Investigador Senior
en muchos otros.
La nueva Directora de Energigune ha colaborado asimismo con diferentes grupos nacionales e internacionales
que trabajan en el sector de la energía, tales como, T & D
Europe, CIGRE, y los comités de normalización de AENOR.
El nuevo Plan se fundamenta en las siguientes líneas estratégicas: cercanía al mercado; especialización
y excelencia tecnológica; impulso al potencial de las personas; una organización abierta e innovadora,
que favorezca las sinergias; y un modelo sostenible de actividad.
De cara a 2020, el objetivo para garantizar la sostenibilidad del proyecto es aumentar los ingresos en un
30% y alcanzar los 130 millones de euros, de los que un tercio serán de origen internacional. Estos objetivos se enmarcan en lo aprobado en el Plan de Ciencia y Tecnología e Innovación Euskadi, PCTI 2020.
La cercanía al mercado se va a traducir en un aumento de más del 50% de la actividad con empresas
vascas, cuyo impacto se calcula, de acuerdo con la metodología desarrollada por Deloitte al efecto, en
más de 1.000 millones de euros en el PIB de Euskadi hasta el año 2020. Para entonces, se estima además que 200 de estas empresas estén ya involucradas en proyectos internacionales.
Otro de los pilares fundamentales del Plan Estratégico es el impulso al potencial de las personas, además de captar talento diferencial y promover su transferencia al tejido empresarial vasco. La previsión
es transferir más de 300 investigadores a empresas vascas hasta el año 2020. Asimismo, Iñaki San
Sebastián relevará a Joseba Jauregizar en marzo de 2016.
61
IK4 ha captado
122 M€ de fondos
europeos de I+D+i
en sus 10 años
como Alianza
Es una de las diez principales
entidades tecnológicas privadas de
Europa y líder en su porcentaje de
contratación con empresas, situado en
un 60%
La empresa donostiarra VIVEbioTECH
pone en marcha la primera sala de
producción de vectores virales de
España
El primer vector viral en el que ya trabaja se utilizará en el tratamiento
de la Anemia por Deficiencia de Piruvato Quinasa (PKD)
La empresa donostiarra VIVEbioTECH ha puesto en marcha la primera sala de producción de vectores
virales de España con capacidad para fabricarlos en las condiciones necesarias para ser aplicados en
seres humanos, en ensayos clínicos de terapias génicas para el tratamiento de enfermedades raras.
La instalación se denomina “sala blanca” y el primer vector viral en el que ya trabaja se utilizará en
el tratamiento de la Anemia por Deficiencia de Piruvato Quinasa (PKD), una dolencia rara que afecta
sobre todo a niños y causa graves trastornos como retraso en el crecimiento o aumento del tamaño
de ciertos órganos.
Como la causa de estas dolencias suele estar en la mutación de un gen, las terapias génicas se basan
en cambiar el gen defectuoso por uno sano, pero para conseguirlo es necesario transportarlo hasta el
interior de la célula, hasta su núcleo. Para ello, el mejor “medio de transporte” conocido son los vectores
virales, que son los que aprovechan las virtudes de los virus anulando al mismo tiempo su capacidad
de causar enfermedad.
Hace ahora 10 años cuatro centros tecnológicos vascos
decidieron unir sus capacidades para ofrecer a las empresas una propuesta más atractiva en forma de soluciones tecnológicas avanzadas y sumar masa crítica para
captar nuevas oportunidades en el ámbito internacional.
Una década después, la Alianza Tecnológica IK4, con 9
centros asociados y cerca de 1.300 investigadores, se ha
consolidado como un agente clave para la economía vasca al erigirse en la referencia a la hora de transferir I+D+i
a las empresas para que éstas puedan ser más competitivas.
Y así lo avalan los números que a día de hoy puede presentar IK4. En sus 10 años de andadura, ha sido capaz
de obtener unos retornos de 122 millones de euros de
financiación europea, 90 de ellos procedentes del VII Programa Marco, que finalizó en 2013, y 32 hasta el momento en el ‘Horizonte 2020’, el nuevo programa estrella de la
UE para apoyar la investigación.
Esto ha dado la oportunidad a más de 140 empresas
vascas de participar, de la mano de IK4, en proyectos de
investigación de ámbito europeo. En estos 10 años, la
Alianza vasca ha realizado proyectos de I+D+i para alrededor de 800 empresas al año, superando la cifra global
de 4.000 clientes privados.
3 5 días
conectados a la
ciencia
www.cicnetwork.es
a un click de la actualidad científica vasca
A
FIC
NTÍ
CIE
LID
AD
ACT
UA
MEDICINA
Un nuevo
fármaco
frente al
cáncer de
mama, colon y
melanoma
El nuevo compuesto, experimentado
en ratones, ha permitido reducir en
más de un 50% la actividad tumoral
tras 41 días de tratamiento
sulta eficaz frente a las células madre cancerígenas
de mama, colon y melanoma, y que ha demostrado tener efecto antitumoral en ratones inmunodeprimidos. El nuevo compuesto y sus derivados,
resultado de una investigación de 22 años, permite
reducir en más de un 50% la actividad tumoral tras
41 días de tratamiento secuencial semanal.
Los investigadores han logrado además caracterizar el mecanismo de acción del fármaco frente a
las células madre cancerígenas, que suponen entre
el 2 y el 5% de las existentes en la masa tumoral
y que tienen unas características diferentes. Habitualmente, esas células resisten a tratamientos
como la quimioterapia y la radioterapia, por su
estado latente (no se están dividiendo), y son en
buena parte responsables del inicio de la enfermedad, de su reaparición y de la metástasis. Contra
ellas actúa este compuesto que, de momento, se
ha probado en cáncer de mama, colon y melanoma, y con el que se va a experimentar en cáncer de
páncreas y pulmón.
BIOLOGÍA
Científicos de la Universidad de Granada (UGR) han
patentado un nuevo fármaco, con la colaboración
de la empresa cordobesa Canvax Biotech, que re-
Una
expedición
quiere
perforar hasta
el manto
terrestre en el
Océano Índico
El buque de perforación JOIDES Resolution
retoma una misión concebida hace 60 años
La misión concebida hace 60 años para perforar
en el fondo del mar a través de la corteza terrestre hasta penetrar en la capa subyacente se ha retomado en aguas del Océano Índico. El buque de
perforación JOIDES Resolution tratará de perforar
con una broca a través de 3 kilómetros de roca,
recogiendo una muestra de núcleo a medida que
avanza.
Alcanzar el manto de la Tierra es el objetivo primordial, sin embargo, hay varias metas adicionales. Los
científicos que participan en la misión quieren estudiar la conducta del magma y cómo se forma la
nueva corteza oceánica al subir desde el interior
del planeta. También examinarán los núcleos de
las rocas y si contienen microorganismos.
ACTUALIDAD CIENTÍFICA
BIOMEDICINA
ASTRONOMÍA
INNOVACIÓN
Nueva vacuna
efectiva
contra el
Ébola en un
ensayo a gran
escala en
Guinea
El telescopio
VISTA halla
574 galaxias
masivas
que estaban
escondidas
hasta ahora
Nueva e
inesperada
forma de
generar rayos
X
Un gran esfuerzo colaborativo permite
probar la vacuna y comprobar su
eficacia y seguridad en tiempo récord
Tras analizarlas, los astrónomos
han descubierto cuándo surgieron
estas monstruosas galaxias
Los resultados de una nueva vacuna contra el Ébola indican un alto nivel de eficacia en un ensayo
en el que han estado implicadas 4.000 personas
en contacto estrecho con el virus hemorrágico en
Guinea, uno de los tres países afectados por la epidemia.
Según el ensayo, la nueva vacuna, llamada VSV-ZEBOV, es 100% eficaz diez días después de haber
sido administrada a una persona que no estaba
infectada. Debido a la urgencia que requiere esta
crisis, el desarrollo clínico de esta vacuna se ha
hecho en un tiempo record, en apenas doce meses, desde la prueba inicial en humanos hasta la
demostración de la eficacia y la seguridad de la vacuna en un estudio de Fase III en Guinea.
A raíz de la crisis del Ébola, se organizó un gran
equipo que incluyó médicos, científicos, epidemiólogos y expertos de la Organización Mundial de la
Salud (OMS), de Noruega, Canadá, Guinea, Médicos
Sin Fronteras, Universidades de Florida, Maryland y
Bern, y la Escuela de Higiene y Medicina Tropical de
Londres. La financiación se ha obtenido de Welcome Trust, Noruega, Canadá, la OMS y Médicos Sin
Fronteras. Merck (conocida como MSD fuera de los
Estados Unidos y de Canadá), una de las grandes
compañías farmacéuticas y de vacunas, ha producido la vacuna. Científicos de la compañía, junto a
los de la NewLink Genetics Corporation, implicados
en el desarrollo inicial de la vacuna, también han
dado apoyo técnico al equipo de terreno para la
administración.
Un equipo de astrónomos dirigido por Karina Caputi, del Instituto de Astronomía de Kapteyn en la
Universidad de Groninga (Países Bajos), ha sacado
a la luz la existencia de muchas galaxias lejanas
que habían escapado de los escrutinios anteriores.
La radiación producida por el sistema
tendría una longitud de onda muy
uniforme y estrechamente alineada,
similar a la de un rayo láser
La tecnología más ampliamente utilizada para producir rayos X, usados en muchos campos, desde la
visualización médica hasta la búsqueda de grietas
en materiales industriales, ha permanecido básicamente igual durante más de un siglo. Pero, a juzgar
por los resultados de una nueva investigación realizada por expertos en Estados Unidos y Singapur,
eso podría llegar a cambiar en los próximos años.
El hallazgo, fruto del desarrollo de una nueva teoría respaldada por simulaciones de gran precisión,
muestra que podría utilizarse una hoja de grafeno, una forma bidimensional (con solo 1 átomo
de grosor) de carbono puro, para generar ondas
de superficie llamadas plasmones, cuando la hoja
sea golpeada por fotones de un rayo láser. Podría
propiciarse entonces que estos plasmones a su vez
generasen un agudo pulso de radiación, ajustado a
la longitud de onda deseada, dentro de un amplio
segmento posible que va desde la banda infrarroja
a la de los rayos X.
Algo todavía más importante es que la radiación
producida por el sistema tendría una longitud de
onda muy uniforme y estrechamente alineada, similar a la de un rayo láser.
UltraVISTA (uno de los seis proyectos que utiliza
VISTA) ha estado tomando imágenes de la misma
zona del cielo (de un tamaño de casi cuatro veces
el tamaño de una Luna llena) desde diciembre de
2009. Se trata de la zona más grande del cielo de
la que se han obtenido imágenes hasta ahora a
ese nivel de profundidad en longitudes de onda infrarrojas. El equipo combinó las observaciones de
UltraVISTA con las del Telescopio Espacial Spitzer
de la NASA, que sondea el cosmos en longitudes
de onda del infrarrojo medio (más largas que el infrarrojo cercano).
Obtener imágenes del cosmos en longitudes de
onda infrarrojas ha permitido a los astrónomos ver
objetos que están oscurecidos por el polvo y son
extremadamente distantes, creados durante la infancia del universo.
65
ENERGÍA
INVESTIGACIÓN
MATERIALES
Una batería
con nanomateriales
duplica la
duración de
las usadas en
los móviles
Científicos
predicen la
actividad
solar hasta el
3200
Crean una
nueva forma
de oro casi tan
ligera como el
aire
Su estudio de la evolución del campo
magnético solar y del número de
manchas en la superficie del sol
se remonta a hace mil años
La espuma compuesta por los científicos
de la ETH Zurich es mil veces más liviana
y tiene multitud de aplicaciones
Investigadores de las universidades
de Córdoba y La Sapienza de Roma
han desarrollado un prototipo de
batería con iones de litio y azufre.
Investigadores de la Universidad de Córdoba (UCO)
han conseguido dar un paso adelante en la consecución de la deseada batería de litio y azufre utilizable a gran escala al desarrollar un prototipo que
duplica la duración de los actuales dispositivos de
generación de energía y que ofrece mayor seguridad que los desarrollos hasta ahora alcanzados.
La pila de litio y azufre parece ser el acumulador
más prometedor en la actualidad. Sin embargo,
su desarrollo se topa con varias dificultades: hay
que mejorar la conductividad del azufre, hay que
conseguir evitar la disolución de un subproducto
llamado polisulfuro de litio en el electrolito y reducir la reactividad del litio que puede provocar problemas de seguridad en la batería.
Los científicos de la UCO han creado de forma experimental baterías de litio y azufre que aportan
una solución al problema de la seguridad, así los investigadores emplearon una fuente de iones de litio alternativa en una nanoestructura que combinaba estaño y carbono. Para comprobar si la batería
era eficiente, se diseñaron y ensayaron prototipos
conjuntamente con la Universidad de Roma La Sapienza. Los resultados de esta propuesta han sido
publicados en la revista Chemical Communications.
El equipo de investigadores, dirigidos por Raffaele
Mezzenga, profesor de Materiales blandos, ha desarrollado una malla tridimensional de oro que
consiste principalmente en poros. Es la pepita de
oro más ligera jamás creada.
El grupo de científicos - Valentina Tarasova (Universidad de Northumbria, Inglaterra, Instituto de
Investigación Espacial, Ucrania), Elena Popova (Universidad de Lomonosov), Simon John Shepherd
(Universidad de Bradford, Inglaterra) y Sergei Zharkov (Universidad de Hull, Inglaterra) - analizaron tres
ciclos de actividad solar entre 1976 a 2009, con el
llamado “análisis de componentes principales,” que
revelan olas del campo magnético solar con una
mayor contribución de los datos de observación.
Como resultado del nuevo método de análisis, se
encontró que las ondas magnéticas en el Sol se generan en pares, y el par principal es responsable
del intercambio en el campo dipolar, que se observa cuando la actividad solar está cambiando. Los
científicos han logrado obtener fórmulas analíticas
que describen la evolución de ambas ondas.
Como resultado del aumento del campo magnético en la superficie, las ondas empiezan a interactuar hasta unos latidos de amplitud del campo
magnético resultante. Esto conduce a una disminución significativa de la amplitud del campo magnético durante varias décadas. Al poner de relieve
el período indicativo de los latidos (que es de varios
siglos), los científicos han reconstruido la actividad
solar desde la antigüedad (a partir del año 1200) y
han hecho predicciones hasta el año 3200. El gráfico tiene en cuenta que la actividad solar disminuye dramáticamente cada 350 años, y la próxima
disminución de la actividad solar comienza en la
actualidad.
El nuevo oro difícilmente se puede diferenciar del
oro convencional a simple vista, ya que el aerogel
tiene un brillo metálico. Pero en contraste con la
forma convencional, es suave y maleable a mano.
Se compone de 98 unidades de aire y sólo dos partes de material sólido. De este material sólido, más
de cuatro quintas partes son de oro y menos de
una quinta parte es fibra de proteína de la leche, lo
que corresponde a oro de alrededor de 20 quilates.
El nuevo material podría ser usado en muchas de
las aplicaciones en las que se utiliza el oro como joyas y relojes, donde la luz se refleja o es absorbida
o también para fabricar sensores de presión.
ACTUALIDAD CIENTÍFICA
BIOLOGÍA
TECNOLOGÍA
TECNOLOGÍA
Las algas
podrían ser
la próxima
energía verde
del planeta
Internet a
través de la
luz LED
Circuitos
electrónicos
analógicos
y digitales
dentro de
plantas vivas
Un estudio de la Universidad de
Concordia, en Montreal, explica cómo a
través de la fotosíntesis y la respiración
se produce energía eléctrica
La herramienta LIFI promete velocidades
hasta cien veces superiores a las actuales
Los primeros pasos para poner en marcha esta herramienta los dio el catedrático de la Universidad
El control y la interconexión con vías
químicas en las plantas podría allanar
el camino hacia células basadas
en la energía de la fotosíntesis
Con el objetivo de acabar con la dependencia de
los combustibles fósiles, investigadores de la Universidad de Concordia en Montreal liderados por
Muthukumaran Packirisamy, describen en la revista Technology su invención: una célula que produce energía eléctrica de la fotosíntesis y la respiración de las algas verdes-azules.
El equipo del Laboratorio de Electrónica Orgánica
(LOE, por sus siglas en inglés), bajo la dirección del
profesor Magnus Berggren, ha utilizado el sistema
vascular de rosas vivas para construir componentes clave de circuitos electrónicos. El artículo sobre
este trabajo que se publica en la revista ‘Science
Advances’, muestra cables, lógica digital e incluso monitores fabricados dentro de las plantas, lo
que podría desarrollar nuevas aplicaciones para la
electrónica orgánica y nuevas herramientas en la
ciencia de las plantas.
«Tanto la fotosíntesis como la respiración involucran a las cadenas de transferencia de electrones.
Al atrapar los electrones liberados por las algas
durante la fotosíntesis y la respiración, podemos
aprovecharlas para la producción de energía eléctrica naturalmente», dice Packirisamy.
También conocidas como cianobacterias, las algas
verdes-azules son los microorganismos más prósperos del planeta, evolutivamente hablando. Ocupan un amplio rango de hábitats a través de todas
las latitudes. Y han estado aquí siempre: la flora y
fauna tempranas del planeta deben su desarrollo a
las cianobacterias, que produjeron el oxígeno que
permitió prosperar a las formas de vida superiores
de forma definitiva. «Al tomar ventaja de un proceso que se produce constantemente en todo el
planeta, hemos creado una tecnología nueva y escalable que podría conducir a formas más baratas
de generación de energía libre de carbono», dice
Packirisamy.
de Hedimburgo (Escocia), Harald Haas, quien descubrió hace un par de años el potencial que tenía
el espectro de la luz para impulsar las comunicaciones. Haas estableció que el “crecimiento actual y
futuro del tráfico inalámbrico de datos” supone un
enorme reto para el futuro, ya que “el espectro de
frecuencias de radio no proporcionará los recursos
suficientes para el año 2025”.
Desde las primeras investigaciones de Haas se han
dado grandes avances, y recientemente la firma
Velmenni de Estonia (norte de Europa) llegó a la
conclusión de que el LIFI logra alcanzar una velocidad de transmisión cercana al 1 Gigabyte (GB) por
segundo.
Las plantas son organismos complejos que se basan en el transporte de señales y hormonas iónicas
para llevar a cabo sus funciones necesarias. Sin
embargo, funcionan en una escala de tiempo mucho más lenta, por lo que interactuar e investigar
las plantas resulta difícil. Ampliar las plantas con
funcionalidad electrónica permitiría combinar señales eléctricas con los propios procesos químicos
de la planta.
El control y la interconexión con vías químicas en
las plantas podría allanar el camino hacia células
basadas en la energía de la fotosíntesis, reguladores de sensores y del crecimiento y dispositivos
que modulan las funciones internas de las plantas.
Aunque las proyecciones del grupo de investigadores son más que optimistas, ya que en pruebas
realizadas con anterioridad en los laboratorios de
la Universidad estadounidense de Oxford el sistema LIFI logró alcanzar una velocidad de 22GB por
segundo. Los expertos coinciden en que una de
las características más destacadas de esta herramienta es su rapidez, pero también la seguridad
que brinda y el hecho de que esté ‘blindada’ contra
las interferencias, por lo cual podría ser utilizada
en aviones.
67
ES
STR
ILU
OS
FIC
NTÍ
CIE
Nikola Tesla, creador de
futuro
Pedro Gómez-Romero
Líder del NEO-Energy Group y Profesor del CSIC, Catalan Institute of Nanoscience and
Nanotechnology
Cuando Nikola Tesla desembarcó en Nueva York el 6 de junio de 1884, Manhattan ya era una gran urbe, aunque el oeste americano seguía siendo salvaje; y
la bombilla incandescente ya se había inventado pero todas las casas se iluminaban con quinqués. Tesla llegó prácticamente con lo puesto, después de una
aciaga travesía atlántica y se reunió enseguida con Thomas Alva Edison, para
quien había acordado trabajar.
Nikola Tesla había nacido en Smiljan, el 10 de julio de 1856. Nació por tanto en
pleno siglo XIX y en los confines del Imperio Austrohúngaro. Cuando ochenta
y seis años después murió en Nueva York en pleno siglo XX el mundo había
cambiado enormemente. Y él había tenido mucho que ver en ese cambio. Hoy
Smiljan forma parte del territorio de Croacia, aunque el propio Tesla y su familia eran de origen serbio. Un caso perfecto para que naciones antagonistas se
puedan apropiar del legado del genio a quien en su día todos ignoraron. Tesla
también viajó, trabajó y estudio en ciudades como Gratz , Praga o Budapest ,
aunque de ningún modo de manera convencional. A pesar de su contrastada
aptitud para la física y las matemáticas, la vida le fue llevando por caminos alejados del mundo académico y eligió trabajar con las manos pero usando la cabeza
en las máquinas eléctricas de la época. Ya como competente e innovador ingeniero de éxito, Tesla se trasladó a Paris en 1882, para trabajar en la Continental
Edison Company, que se había instalado poco antes en esa ciudad. Para entonces, Tesla ya había concebido la solución a su personal dilema con las dinamos
mediante el uso de corriente alterna polifásica. Había sido en Praga, paseando
por el parque al atardecer. En un destello de iluminación había tenido una de
sus más intensas visiones, inspirado por un sol rojo intenso en forma de gigante
vórtice magnético. Tesla vio en su mente cómo crear un campo magnético giratorio con, digamos, dos bobinas separadas perpendiculares por las que circulaban corrientes alternas exactamente fuera de fase. Él siempre lo había sabido,
los conmutadores de las viejas dinamos convencionales de corriente continua
no eran necesarios. Era absurdo tener que cambiar los polos magnéticos del
rotor mediante escobillas de cobre rozando continuamente sobre el metal. De
hecho esa disputa le había costado la enemistad del profesor Poeschl en Graz,
donde nunca llegó a acabar la brillante carrera que su genio y su tremenda
capacidad de trabajo le auguraban. Después de su visión de aquel motor de
inducción, simple y eficientemente movido por un campo magnético giratorio,
la mente de Tesla estuvo seducida por la elegancia de la corriente alterna. Sin
embargo, nadie parecía ver el potencial de aquellos diseños, ni el alcalde de Estrasburgo cuando Tesla hizo su primera demostración de su motor de inducción
ante posible inversores de aquella ciudad, a donde viajó y trabajó para la Continental Company de Edison, ni el propio Edison, cuando pocos años después
intentó convencerlo personalmente. En una extraña dicotomía Tesla soñaba en
corriente alterna (AC) mientras trabajaba en resolver los problemas cotidianos
de la tecnología de corriente continua (DC) imperante en el mundo real. En Estrasburgo remedió los problemas de una planta de generación de energía que
la compañía de Edison estaba intentando instalar para la alimentación de la
estación de tren de esa ciudad. La corriente continua no se podía transportar
grandes distancias sin grandes pérdidas y era por tanto una tecnología que requería la generación local, cercana al punto de consumo.
Cuando Tesla llegó a Nueva York en 1884 le habían robado dinero y equipaje
durante su viaje, pero aún conservaba la carta que el gerente de la Edison Continental Co, Charles Batchelor había escrito para Edison. En ella, el hombre que le
animó a emprender su aventura americana pudo haber escrito:
CIENTÍFICOS ILUSTRES - Nikola Tesla, creador de futuro
“He conocido dos grandes hombres y usted es uno de ellos. El otro es el joven portador de esta carta”
Tesla empezó a trabajar para Edison como ingeniero y lo hizo bien. Tan bien que
pronto se vio involucrado en el rediseño y mejora global de los generadores de
corriente continua de la compañía de Edison. Pero las desavenencias con éste
no tardaron en aparecer. En primer lugar, porque Edison no estaba dispuesto
a dejar de lado su asentada tecnología de corriente continua, su prestigio y sus
muchas patentes para hacer sitio a las nuevas ideas y diseños de corriente alterna de aquel recién llegado extranjero. Pero además, Tesla y Edison eran dos
caracteres contrapuestos. La ruptura definitiva de su relación iba a llegar por un
quítame allá esos cincuenta mil dólares. Se ve que Edison lanzo un reto a Tesla
en tono de apuesta, desafiándole a mejorar sus generadores de corriente continua. Cuando Tesla consiguió con su buena dosis de trabajo concienzudo mejorar el diseño técnico y la eficiencia de aquellas viejas dinamos más allá de lo
que Edison hubiera podido esperar, resultó que los 50,000 dólares que Edison
había mencionado no eran sino una broma. Según parece, Tesla no entendía en
absoluto el sentido del humor de los norteamericanos.
“Tesla creó el futuro en 1900 y también el
futuro del siglo XXI”
Lo cierto es que, a pesar de acabar viviendo en los Estados Unidos los últimos
cincuenta y nueve años de su vida, es probable que efectivamente Tesla no llegara nunca a comprender a los norteamericanos; ni su sentido del humor ni su
sentido de los negocios. Porque cuando por fin dejó de trabajar para Edison y
fundó por primera vez su propia compañía en diciembre de 1884 (Tesla Electric
Light and Manufacturing Company), su buena estrella no le duró ni un año.
Los inversores de su compañía lo financiaron para que desarrollara un sistema
mejorado de iluminación por arco eléctrico, y así lo hizo. Pero lo descabalgaron
de su nueva compañía ante su insistencia en la fabricación de motores de corriente alterna. Para el pobre Tesla aquel episodio y los dos años que siguieron
fueron un amargo infierno. Con tan solo unos títulos sin ningún valor en su
poder y habiendo perdido incluso el control de sus primeras patentes, se vio
obligado a trabajar como obrero, cavando zanjas incluso, para reunir dinero
para su próximo proyecto.
Tesla encontró una segunda oportunidad para fundar su Tesla Electric Company y construir su sueño cuando le presentaron a las personas adecuadas. O
quizá fue cuando se le ocurrió una adecuada demostración del poder de sus
máquinas de AC. o probablemente una combinación de ambas cosas. Lo cierto
es que el director de la Western Union, Alfred S. Brown, y el abogado Charles F.
Peck quedaron cautivados por la silenciosa elegancia y eficiencia de la demostración de cómo poner de pie un huevo de cobre (el huevo de Colón lo llamó)
con una corriente alterna polifásica, por supuesto. El huevo giraba como el rotor
de un motor mientras se mantenía en pie gracias al campo magnético giratorio.
Tras aquella cautivadora demostración, Brown y Tesla acordaron intercambiar
dinero por patentes.
Pero la persona más influyente para potenciar el desarrollo del genio de Tesla
estaba todavía por cruzarse en su camino. Fue en el año 1888. El 16 de Mayo
de ese año Tesla había presentado ante el American Institute of Electrical Engineers (hoy IEEE) una comunicación sobre “A new system on alternate-current
motors and transformers” y su trabajo llegó a oídos del ingeniero y empresario
George Westinghouse que acabó negociando con Brown y Peck la licencia de
los diseños del motor de inducción y transformador de Tesla. Westinghouse
era un reputado ingeniero e inventor pero a diferencia de Tesla, era también
un avezado empresario y estaba interesado precisamente en patentes de tecnologías basadas en corriente alterna. Porque, obviamente, la corriente alterna
no la había inventado Tesla, ni tampoco Westinghouse, Numerosos pioneros
habían sentado las bases con anterioridad desde 1832. Pero la alianza entre
Tesla y Westinghouse iba a ser duradera e iba a hacer posible el reinado de la
corriente alterna.
Nikola Tesla, con el libro de Ruđer Bošković Theoria Philosophiae Naturalis, frente a la espiral
de la bobina de su transformador de alto voltaje en East Houston Street, Nueva York.
Cuando en 1888 Tesla vendió sus patentes de sistemas AC polifásicos a Westinghouse por una buena suma en efectivo, una buena cantidad de acciones y
unos royalties de 2.50 dólares por caballo de vapor vendido, la corriente continua llevaba ventaja gracias al desarrollo de partida por parte de Edison. Las
calles más céntricas de nueva York ya lucían de noche gracias a la electricidad
DC. Pero esta tecnología también adolecía de grandes problemas. El principal
era que con los conocimientos de la época no era factible transformar la electricidad DC a alto voltaje y la generación debía ser cercana al consumo para evitar
las grandes pérdidas que sufría con el transporte a baja tensión. Las calles de
Nueva York iluminadas requerían una pequeña central generadora allí mismo,
que cubría una zona de acción de unos 800 metros. Esta característica no debió de ser un problema para Edison. Al fin y al cabo, cuantas más centrales
generadoras fuesen necesarias mejor le iría el negocio. Pero cuando la nueva
compañía de Westinghouse con Tesla como consultor de lujo demostró que
era capaz de alimentar una ciudad entera con una planta de generación más
grande y remota, el cambio de DC a AC era sólo cuestión de tiempo. La clave era
la transformación, relativamente fácil, de la corriente alterna entre baja y alta
tensión con la tecnología de Tesla y las pérdidas relativamente bajas (en torno a
un 7%) en el transporte a alta tensión.
Sin embargo, Edison no iba a rendirse sin presentar batalla. En aquellos años
se desató una verdadera guerra con desorbitados intereses en juego que ha
pasado a la historia de nuestra evolución tecnológica como “guerra de las corrientes”. Se habían dado diversos accidentes, incluso con resultado de muerte,
con corrientes de alta tensión y Edison estaba dispuesto a mostrar la corriente
AC como mucho más peligrosa que la DC. Puedes llamarlo marketing, o puedes
llamarlo juego sucio, pero los compinches [1] de Edison y en particular su aliado
H.P. Brown llegaron a electrocutar diversos animales en su afán por llegar a
demostrar que la corriente AC era peligrosa. Tristemente, el único apoyo que
Edison brindó a la corriente alterna fue para su empleo en una silla eléctrica
69
Pero su gran proyecto iba a ser la Torre de Wardenclyffe, en Shoreham, Nueva
York, una superantena de más de 50 metros de altura diseñada para desarrollar
la transmisión transatlántica de radio, pero con la que Tesla aspiraba a arrancar
una nueva tecnología universal para la transmisión masiva de energía. Llegó a
construirla, en 1903, pero no llegó a funcionar. El banquero y financiero J.P. Morgan, el mismo que había financiado a Thomas Edison, le negó repetidamente su
financiación, después de que el dinero de su primer crédito se gastara sin los
resultados esperados. La Torre de Wardenclyffe fue desmantelada, igual que
antes lo había sido el laboratorio de Tesla en Colorado Springs.
En sus últimas décadas, ya en decadencia, Tesla siguió experimentando incansablemente, por ejemplo con el desarrollo de resonadores mecánicos de alta
potencia. Y siguió soñando, como siempre había hecho, especulando sobre los
efectos beneficiosos de la electricidad sobre el cerebro humano, por ejemplo.
Nikola Tesla en su laboratorio en Colorado Springs hacia 1900.
que sirvió para electrocutar al asesino convicto William Kemmler, quien tuvo el
dudoso honor de sufrir la primera ejecución en silla eléctrica.
A pesar de aquel infausto episodio la corriente AC prevaleció en la guerra de las
corrientes y Westinghouse y Tesla medraron sobremanera. En 1893 la Westinghouse Electric ganó el contrato para iluminar la exposición universal de Chicago y se aseguró la construcción de una planta de generación de electricidad en
las Cataratas del Niágara que se inauguraría tres años más tarde para abastecer
de electricidad a la ciudad de Buffalo a 35 kilómetros. Tanto crecía el mercado
de generación, distribución y uso de corriente alterna que quizá la Westinghouse Electric podría haber muerto de éxito. Efectivamente, la generosa cláusula de
los 2.50 dólares por caballo de vapor AC vendido pesaba como una losa en los
planes estratégicos de la empresa. De hecho, para asegurar la financiación de
su empresa, Westinghouse convenció a Tesla para que liberara a la compañía
de aquel acuerdo de explotación de las patentes a cambio de comprárselas por
una cantidad fija de 216000 dólares. Y Tesla firmó el documento, que tiempo
después reconocería como el mayor error de su carrera.
“Experimentó, además de la corriente
alterna, con los Rayos X y la telefonía
sin hilos”
La guerra de las corrientes fue tan sólo uno de los inverosímiles episodios en
la vida de Nikola Tesla. Y de entre sus innumerables visiones y sueños, sus tecnologías de corriente alterna acabaron siendo algunos de los más sólidamente materializados en nuestra sociedad. Pero no fueron en absoluto los únicos.
Tesla experimentó con los Rayos-X, contribuyó enormemente al desarrollo de
la “telefonía sin hilos” hasta el punto de que podría considerársele tan padre de
la radio como a Marconi, con quien también mantuvo un litigio de patentes, desarrolló dispositivos de radiocontrol remoto, y de la transmisión de información
sin hilos pasó a la transmisión de energía sin hilos. Ya había demostrado cómo
encender lámparas eléctricas sin conexión física alguna, demostraciones que
despertaban el asombro de sus contemporáneos y que le hacían merecedor
de un poderoso halo de misterio. Pero sus planes de transmisión inalámbrica
de energía iban mucho más allá del espectáculo anecdótico. Con el cambio de
siglo Tesla cambió de vida. En 1895, con el incendio de sus laboratorios de la 5ª
Avenida de Nueva York había perdido una buena parte de su vida en forma de
notas, inventos, datos, modelos, fotografías y planos. Se trasladó a Colorado
Springs (CO) para instalar allí sus nuevos laboratorios con sitio para sus experimentos de alto voltaje. La electricidad atmosférica, la generación de relámpagos
artificiales, o sus radiorreceptores, con los que apuntó la posibilidad de haber
detectado emisiones extraterrestres, ocupaban su tiempo y contribuyeron a su
imagen de científico loco y a la creación de un icono admirado por algunos seguidores de lo esotérico.
Tesla fue una mente solitaria. Sin medias naranjas, sin contratos matrimoniales
ni hijos, con una visión interior de sus diseños electromagnéticos que fluía hasta
completarse en su mente, con manías y fobias, con un anhelo utópico por la
energía universal. Una mente sin patria y sin hogar, permanente residente en
hoteles de lujo, que murió vencida por la miseria física y moral que le rodeaba,
en su última residencia neoyorquina, en la habitación 3327 del hotel New Yorker, en Nueva York, donde había dedicado los últimos tramos de su vida a cuidar
a sus queridas palomas.
Tesla murió olvidado por todos aquellos a los que hizo ricos e ignorado por
todos los que se beneficiaron de sus tecnologías.
Mientras el ingeniero con nombre de lavadora (o de turbina) que había sido
su aliado en la guerra de las corrientes pasó rápidamente a formar parte de la
memoria colectiva del mundo electrificado, el apellido Tesla tuvo que esperar
un siglo para que otro visionario lo utilizara como marca de su diseño de coche
eléctrico deportivo. Paradójicamente, el Tesla Roadster de Elon Musk, alimentado con la corriente continua de sus baterías, quiere ser un debido homenaje al
príncipe de la corriente alterna.
Lo cierto es que después de un siglo de AC, nuestra evolución tecnológica podría dar lugar a una nueva contienda entre AC/DC, aunque en este caso no se
vislumbra tan cruda como antaño. Pero nuestras tecnologías cambian y varios
de esos cambios apuntan en la misma dirección. Por una parte, actualmente es
posible transformar la corriente continua a alta tensión. Por otra parte, el número de dispositivos electrónicos que utilizan DC en casa está empezando a ser
algo más que sólo anécdota. Nuestros ordenadores, teléfonos móviles y televisores de pantalla plana usan DC, mientras que los paneles solares fotovoltaicos,
que pronto serán inexcusables en nuestros tejados, generan electricidad DC. Si
nos sobrase corriente continua después de alimentar con DC nuestra electrónica de consumo podríamos usar las baterías de nuestro coche eléctrico para
almacenar el excedente. Asimismo, las redes eléctricas ya no son lo que eran.
En los tiempos en que Westinghouse reinó fueron una bendición para alejar
de los núcleos urbanos la distribución y quemado de combustibles fósiles para
producir electricidad. Las redes de corriente alterna de alta tensión también permitieron una economía de escala que hizo algo más eficiente el derroche de
energía que supone alimentar una bombilla incandescente (10 % de eficiencia)
con electricidad procedente de una planta de generación con una eficiencia de
un 30%. Pero de un tiempo a esta parte la red eléctrica podría estar pasando de
solución a problema con su creciente complejidad, y en el horizonte tecnológico
se vislumbra una tendencia hacia el desarrollo de generación y almacenamiento
de electricidad de forma distribuida, es decir, no centralizada como hasta ahora.
Nikola Tesla creo el futuro en 1900 y también el futuro del 2000, el futuro de
nuestro incipiente siglo XXI.
[1]
Thomas Edison llamaba así, a los cerca de cuarenta científicos, inventores e ingenieros que
trabajaban para él en sus laboratorios de Menlo Park : “muckers”
www.cicnetwork.es