"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


lunes, 23 de enero de 2012

Las metáforas influyen en la forma en que pensamos


Philip Ball se pregunta si los científicos son adictos al uso de imágenes a costa de inducir al error al público y a ellos mismos. Las metáforas influyen en la forma en que pensamos. En un artículo publicado en PLoS ONE, Paul Thibodeau y Lera Boroditsky, psicólogos de la Universidad de Stanford en California, demuestran que la gente aprueba distintas respuestas al crimen cuando se les presenta como una 'bestia' o como un 'virus' que causa estragos en la sociedad1. En el primer caso, es más probable que soliciten un sólido reforzamiento de la legislación, mientras que en el segundo están más abiertos a soluciones tales como la rehabilitación y la comprensión de las causas raíces.

T
al vez, el aspecto más impactante de este estudio, es que los participantes no eran conscientes del cómo el contexto metafórico afectaba a su razonamiento. En lugar de reconocer el efecto de la imagen, encontraron formas de racionalizar sus decisiones en base a información aparentemente objetiva como la estadística. "Lejos de ser simples florituras retóricas", dicen Thibodeau y Boroditsky, "las metáforas tienen profundas influencias en cómo conceptualizamos y actuamos respecto a importantes temas sociales".
Haber demostrado y cuantificado esto es muy valioso - en particular debido a que subraya algo que los políticos y sus asesores nunca han dudado. Si hay un asesor de publicidad o redactor de discursos que no se haya dado cuenta de que las metáforas influyen en la opinión, es un misterio cómo logró su trabajo.
No es difícil ver por qué un 'crimen como bestia salvaje contra presas' anima a la gente a pensar en cómo capturarlo o matarlo, mientras que 'crimen como virus' fomenta más simpatía por una comprensión 'científica' de las causas. Pero en muy raras ocasiones, tales metáforas se investigan a un nivel más profundo.
En ambos casos, el crimen se presenta como una fuerza (malévola) de la naturaleza, fuera de las competencias humanas. Ya sea bestia o virus, el criminal no es como nosotros - no es humano. Por la misma razón, una 'guerra contra las drogas' o una 'guerra contra el terror' no es sólo una imagen emotiva, sino que despliega una narrativa militarista que guarda poca relación con la realidad.
Mentalidad de inducir a error
En la literatura, la metáfora tiene fines poéticos; en política, es un (sutilmente manipulador) argumento por analogía. Pero en ciencia, la metáfora está ampliamente considerada como una herramienta esencial para la comprensión. Entonces, ¿dónde nos deja este último trabajo?
Mientras que el ejemplo del crimen usado aquí atribuye un a un agente natural acciones humanas, la ciencia normalmente invoca las metáforas en el otro sentido: los procesos naturales se describen como si fuesen el resultado de una intención. Este tendencia antropomorfizadora fue bautizada en el siglo XIX como la 'falacia patética' por el crítico John Ruskin, aunque también había sido señalada por el científico y filósofo Francis Bacon, dos siglos antes.
La falacia patética es un hábito profundamente arraigado e influyente, especialmente en biología, donde los indicios de agentes inteligentes parecen irresistibles incluso para aquellos que los condenan. El más famoso a este respecto es el 'gen egoísta' propuesto por el biólogo Richard Dawkins en su libro de 1976 del mismo título. La metáfora de Dawkins es adecuada y comprensible casi hasta el punto de la inevitabilidad, dada la idea que quiere transmitir. Pero sus problemas van más allá del hecho de que los genes, por supuesto, no son egoístas de la forma en que lo es la gente (es decir, no son egoístas en absoluto).
El 'gen egoísta' apoya la idea Darwiniana de un mundo que no se preocupa del punto de ser positivamente desagradable: una imagen que a veces ha provocado resistencia en las ciencias en general, y en la selección natural en particular. Y, como ha defendido sólidamente Denis Noble, fisiólogo de la Universidad de Oxford en el Reino Unido, la idea de que los genes sean egoístas es totalmente innecesaria para comprender cómo funcionan, y es, en cierto modo, una inducción al error..
Pero tampoco es mejor hablar de 'genes cooperativos' en lugar de esto, que es igualmente desinformativo y cargado de valores. Los genes no son más egoístas o cooperativos que felices o gruñones. Es la idea de metáfora científica, en general, donde está la problemática.
En guardia
Libros de la vida, ADN basura, códigos de barras de ADN: estas tres imágenes pueden y han distorsionado la imagen, en particular, porque los propios científicos a veces olvidan que son metáforas. Y cuando la ciencia avanza - cuando descubrimos que el genoma no es un libro ni un croquis - la metáfora tiende, no obstante, a mantenerse. Cuanto más vívida es la imagen, más peligrosamente seductora y resistente al cambio se vuelve.
Thibodeau y Boroditsky nos dan una nueva razón para desconfiar, por su demostración de la manera inconsciente en que las metáforas colorean nuestro razonamiento. Esto parece cumplirse de la misma forma en la ciencia - especialmente en una tan emotiva como la genética - que en el discurso social y político.
La mayor parte de científicos probablemente estarían de acuerdo con Robert Root-Bernstein, fisiólogo de la Universidad Estatal de Michigan en East Lansing, que dice que"las metáforas son esenciales para hacer y enseñar ciencia"10. También podrían simpatizar con Paul Herbert, biólogo de la Universidad de Guelph en Canadá, que responde a las críticas de su metáfora del 'código de barras de ADN' 11 preguntando: "¿Por qué querríamos ser tan científicamente correctos si eso hace nuestra ciencia tediosa?".
Pero la necesidad de metáforas en ciencia está en peligro de convertirse en un dogma. Tal vez estamos demasiado ansiosos por encontrar una metáfora clara en lugar de simplemente explicar qué está pasando tan clara y honestamente como podamos. Podríamos tratar de reconocer que algunas ideas científicas son "una realidad más allá de la metáfora", como el Premio Nobel David Baltimore, biólogo del Instituto Tecnológico de California en Pasadena, ha comentado sobre el ADN3. Como mínimo, una metáfora sólo debería admitirse en la ciencia después de un examen estricto. Deberíamos prestar atención a la advertencia de los pioneros en cibernética Arturo Rosenblueth y Norbert Wiener sobre que "el precio de la metáfora es una vigilancia eterna"

Identifican el gen responsable de la formación de recuerdos

El hallazgo ayudará a definir la ubicación de la memoria en el cerebro humano


Cuando experimentamos un suceso novedoso, el cerebro crea un recuerdo sobre él, mediante la alteración de las conexiones entre las células cerebrales o neuronas. Este proceso requiere de la activación de numerosos genes presentes en dichas células. Científicos del Instituto Tecnológico de Massachussets (MIT), de Estados Unidos, han identificado un gen que controla y desencadena este complejo proceso. El hallazgo resulta importante porque podría ayudar a definir la ubicación de la memoria en el cerebro. 

C
uando experimentamos un suceso novedoso, el cerebro crea un recuerdo sobre él, mediante la alteración de las conexiones entre las células cerebrales o neuronas. Este proceso requiere de la activación de numerosos genes presentes en dichas células. Científicos del Instituto Tecnológico de Massachussets (MIT), de Estados Unidos, han identificado ahora un gen que podría ser el controlador y el desencadenante de este complejo proceso.
Según publica el MIT en un comunicado, este descubrimiento no sólo revela los mecanismos moleculares subyacentes a la formación de recuerdos sino que, además, podría ayudar a los neurocientíficos a definir una localización más exacta de la memoria en el cerebro.
Hasta ahora, lo que se sabe a este respecto es que en el cerebro no existe un único lugar físico para la memoria. Esta capacidad parece estar diseminada de hecho por distintas localizaciones especializadas. Mientras en algunas regiones del córtex temporal se almacenarían los recuerdos de nuestra más tierna infancia, el significado de las palabras estaría guardado en la región central del hemisferio derecho y los datos de aprendizaje en el córtex parieto-temporal. Por otra parte, muchos de nuestros automatismos (acciones no conscientes o voluntarias) están almacenados en el cerebelo.
Estudio de un gen y de un tipo de recuerdos concretos
Los científicos del MIT, dirigidos por la investigadora Yingxi Lin, miembro del McGovern Institute for Brain Researchde dicho Instituto, centraron su estudio en un gen concreto: el Npas4, cuya activación se produce inmediatamente después de nuevas experiencias, según han demostrado estudios anteriores.
Este gen está particularmente activo en el hipocampo, una estructura del cerebro que resulta esencial para la formación de la llamada memoria a largo plazo (MLP), que es un tipo de memoria que almacena recuerdos por un plazo de tiempo que puede prolongarse desde unos pocos días hasta décadas, sin que se le presuponga límite alguno de capacidad o duración.
Lin y sus colaboradores descubrieron que el Npas4 pone en marcha otros genes que modifican las conexiones de las células cerebrales, mediante el ajuste de la fuerza de las sinapsis o conexiones entre neuronas. La formación de la memoria dependería de esta modificación.
Para investigar los mecanismos genéticos que generan los recuerdos, los científicos se centraron además en un tipo de aprendizaje concreto, conocido como condicionamiento del miedo. Lo hicieron con ratones: a éstos se les suministró una carga eléctrica suave cuando entraban en una cámara específica. En unos minutos, los ratones aprendieron a temer dicha cámara, y la siguiente vez que entraron en ella, se quedaron paralizados.
Genética subyacente al aprendizaje
Los investigadores comprobaron que el gen Npas4 se activaba muy al inicio de la experiencia de condicionamiento. Según Lin, "esto distingue al Npas4 de otros genes reguladores de actividad. Muchos de estos genes son activados por diversos tipos de estimulaciones, pero no están relacionados específicamente con el aprendizaje".
Además, los científicos descubrieron que la activación del Npas4 se producía sobre todo en la región CA3 del hipocampo, que ya se sabía que está implicada en el aprendizaje rápido. Este aprendizaje depende de la mayor o menor presencia de espinas dendríticas (prolongaciones de las dendritas o ramificaciones de las neuronas donde se producen las sinapsis) en las neuronas de esta región.
Los investigadores explican que el Npas4 sería el desencadenante inicial que activaría el resto de puntos implicados en la modificación de las sinapsis, para dar lugar a cualquier recuerdo. Y lo hace de la siguiente forma.
Como el Npas4 es un factor de transcripción, provoca que una enzima llamada ARN polimerasa II se una a secuencias promotoras de la expresión génica, activando los genes que posibilitan las modificaciones sinápticas que a su vez generan los recuerdos.
Kartik Ramamoorthi, otro de los autores del estudio, comenta: "El Npas4 suministra una señal de instrucción. Le comunica a la polimerasa que se una a ciertos genes. Sin él, la ARN polimerasa II no sabría a donde ir. Simplemente, se quedaría flotando alrededor del núcleo de las células".
Por tanto, situado en el sitio justo del cerebro, el Npas4 activa el resto de genes necesarios para el proceso de modificación sináptica que da lugar a la memoria. Hasta ahora, los científicos han podido identificar sólo unos cuantos de los genes regulados por el Npas4 en este proceso, pero sospechan que debe haber cientos de genes más.
A la caza de la memoria
Como parte de su investigación, Lin y sus colaboradores bloquearon el gen Npas4 de los ratones para ver qué ocurría. Descubrieron que, en este caso, los animales no podían recordar el condicionamiento del miedo.
Pero este efecto sólo se produjo al bloquear el Npas4 de la región CA3 del hipocampo. El bloqueo en otras partes del hipocampo no produjo el mismo efecto, matizan los científicos.
Por otra parte, aunque Lin y su equipo han centrado su estudio en el condicionamiento del miedo, los investigadores creen que el Npas4 podría resultar clave en otros tipos de aprendizaje.
Por eso, consideran que un importante paso futuro dentro de su estudio será identificar más genes controlados por el Npas4. Esta identificación podría arrojar más luz sobre el papel de este gen en la formación de recuerdos.
Los científicos planean asimismo analizar si las mismas neuronas que se activan por mediación del Npas4 cuando son formados los recuerdos también se activan cuando se recupera la memoria. Este punto podría ayudar a definir con exactitud qué neuronas están implicadas en el almacenamiento de recuerdos particulares.
Según Ramamoorthy: "Vamos a la caza de la memoria, y creemos que podemos usar el Npas4 para definir dónde ésta se encuentra (dentro del cerebro)". Los resultados de la investigación han aparecido publicados en Science.

Sobre la idea de una expansión exponencial del universo


La idea de una expansión exponencial del universo en sus primeros momentos se publicó en 1981, en un artículo que importó nuevas ideas de la física de partículas a la cosmología teórica. Hace 30 años, un informe en Physical Review Dtransformó por completo el pensamiento científico sobre el origen del universo. Las nuevas ideas procedentes de la física de partículas, según demostraba el artículo, implicaban que el universo podría haber pasado por una fase de expansión muy rápida durante las primeras fracciones de segundo de su existencia. El episodio inflacionario, como se conoce, podría explicar por qué nuestro universo ha llegado a tener la densidad y uniformidad observada. La inflación no sólo se convirtió en un principio básico de la teoría cosmológica; sino que también significó que cualquier teoría cósmica aspirante tenía que aprender física de partículas.

TEn la década de 1970, los teóricos de partículas empezaron a construir Grandes Teorías Unificadas (GUTs) que proponían que a temperaturas o energías de 1018 millones de electrón-volts, la fuerza electromagnética y las nucleares fuerte y débil eran idénticas. En los modelos estándar del Big Bang, el cosmos se iniciaba con una temperatura suficiente para lograr dicho estado de gran unificación. Luego, a la edad cósmica de 10-35 segundos, la fuerza nuclear fuerte se separaba de la compañía de la fuerza electrodébil, aún unificada. Una consecuencia indeseada de esta transición, según observaron los teóricos, era que crearía una abundancia de polos magnéticos norte y sur aislados, o monopolos - un fenómeno inconsistente con las observaciones cósmicas.
ambién aparecieron dos problemas aparentemente no relacionados en la cosmología en esa época El primero, el problema de la uniformidad: el universo se había expandido tan rápidamente, que no había tenido tiempo de que todas las regiones del universo observable actual igualaran sus temperaturas y densidades intercambiando materia y energía. ¿Por qué, entonces, el universo tiene un aspecto más o menos similar en todas partes?
El segundo misterio era que nuestro universo parece ser aproximadamente "plano" - en las escalas mayores, el espacio tiene muy poca o ninguna curvatura. Pero en los modelos cosmológicos estándar, cualquier universo que empiece con un poco de curvatura, positiva o negativa, diverge de la planitud conforme el universo se expande. Un universo que es casi plano tras más de 10 000 millones de años es tan difícil de ordenar como intentar mantener un lápiz equilibrado sobre su punta durante eones.
A finales de 1979, Alan Guth, entonces en el Stanford Linear Accelerator Center en California, se dio cuenta de que una solución al problema del monopolo, en el que había estado trabajando recientemente junto a un colega[1], podría también solucionar estos dos grandes misterios. La solución implicaba un ingrediente de las GUTs conocido como campo de Higgs, el cual se suponía que impregnaba todo el espacio. Conforme el universo se expandía y enfriaba, la fuerza nuclear fuerte se separaba del resto cuando el campo de Higgs cambiaba de un valor a otro. Para resolver el problema del monopolo, Guth y Henry Tye, ambos en la Universidad de Cornell el año anterior, supusieron que el campo de Higgs no cambiaba inmediatamente sino que quedaba fijo en un valor incorrecto durante algún tiempo. La situación era como tener una pelota atrapada en una depresión en la cima de una colina, evitando que ruede valle abajo. Una transición retardada del Higgs implicaba una menor producción de monopolos.
Guth empezó a preguntarse qué implicaría la transición retardada para la expansión cósmica. Cuando el campo del Higgs quedaba fijado en el valor incorrecto, se convertía en la energía predominante del universo, con la extraña propiedad de hacer que el universo se expandiera exponencialmente con el tiempo, en contraste a la expansión normal más lenta para un universo repleto de sólo materia y radiación.
La "inflación", como Guth llama a esta expansión exponencial, resuelve el problema de la uniformidad debido a que toma una porción de los inicios del universo lo bastante pequeña para haber sido alisada por procesos internos, y la infla hasta formar la región mucho mayor que podemos ver hoy. También demostró que la inflación empuja al universo hacia la planitud perfecta conforme avanza.
En su artículo, Guth admitió un serio problema con este modelo. El campo de Higgs no completa su transición en cada región del espacio, dejando un universo no homogéneo que no es como el universo que vemos. Apenas un año después, sin embargo, se encontraron otras formas de ajustar la teoría y evitar este problema [2].
Rocky Kolb, ahora en la Universidad de Chicago, dice que en esa época unos pocos jóvenes físicos de partículas empezaban a interesarse en la cosmología, pero que para él, el problema del monopolo parecía más urgente que otros misterios cósmicos. "No teníamos ningún presentimiento de que [la inflación] se convertiría en la idea que resultó ser". Pero ahora, dice, la inflación está por todos lados en la cosmología, y promete explicar mucho más, incluyendo el origen de las estructuras, tales como galaxias y cúmulos de galaxias.

Desarrollan un robot quirúrgico que 'comprende' la voz y los gestos del cirujano


Un grupo de investigación del Instituto Andaluz de Automática Avanzada y Robótica (IAR) ha desarrollado un robot autónomo que sirve como asistente en cirugías mínimamente invasivas.El autómata, bautizado como CISOBOT, no necesita ser manipulado por ninguna persona, sino que responde a los gestos específicos y a comandos de voz que realiza el cirujano y mediante una cámara y un brazo ayuda al especialista en procedimientos simples como suturar.

U
n grupo de investigación del Instituto Andaluz de Automática Avanzada y Robótica (IAR) ha desarrollado un robot autónomo que sirve como asistente en cirugías mínimamente invasivas, mediante una cámara y un brazo que ayuda al especialista en maniobras como la sutura.
Bautizado con el nombre de CISOBOT, el autómata se adapta al cirujano, mediante la identificación de movimientos y de gestos de una forma automática. Para ello utiliza un algoritmo que calcula estadísticamente la mejor respuesta a unas maniobras modelo que se han registrado previamente en la memoria de la máquina.
A pesar de este movimiento intuitivo, las órdenes de voz tienen prioridad, para poder modificar su conducta en el momento, si la operación no sigue el curso prefijado.
Otra de sus ventajas es que tiene dos brazos, uno para la cámara laparoscópica y otro para mover una herramienta que ayude al cirujano a operar. "Para combinar estos dos soportes, necesita un interfaz que se comunique con el cirujano y un control para poder mover el robot", comenta Enrique Bauzano, uno de los investigadores del proyecto.
Además es distinto a otros robots quirúrgicos anteriores, como el ERM que sirve para la exploración visual de la cavidad abdominal mediante una cámara laparoscópica y está dotado de movimientos automáticos que se producen dentro del paciente durante las operaciones quirúrgicas. También se diferencia del robot DAVINCI que teleopera, es decir, el cirujano lo mueve a distancia, desde una cabina, y éste reproduce sus movimientos.
Frente a ellos CISOBOT funciona como un apoyo en la intervención quirúgica, no necesita que sea manipulado por ninguna persona, sino que responde a los gestos específicos y a comandos de voz que realiza el cirujano y le apoya con operaciones simples. "A pesar de su sentido intuitivo de respuesta, tiene unas pautas que tiene que seguir y nunca realiza tareas que puedan poner en peligro al paciente", explica a Belén Estebanez, una de las investigadoras del Instituto.
Un brazo mejorado
En sus trabajos anteriores los expertos habían desarrollado la capacidad de movimiento de la máquina, que se sustenta con una muñeca pasiva, es decir, es una articulación no mecanizada, suelta. En esta muñeca se coloca la cámara, que al no necesitar precisión, adapta su movimiento al movimiento del robot.
Con el otro brazo del mecanismo sí se necesita precisión, por lo que está mecanizado y controlado a través de un sensor de fuerzas, para evitar maniobras que dañen a la persona intervenida.
"Una vez conseguido la precisión de movimientos dentro del paciente, hemos buscado que el robot pueda asistir al cirujano en maniobras como la sutura", aclara Bauzano. "Una maniobra que es relativamente compleja para la que los cirujanos tienen que entrenarse", continúa. Esta operación necesita el uso de las dos manos, CISOBOT ayuda a ella mediante el uso de sus brazos, con uno de ellos ayuda a colocar la aguja o a apoyar un tejido mientras permite que sea el cirujano el que realice los movimientos que son delicados.
"El objetivo final de este autómata es ayudar al cirujano en operaciones mínimamente invasivas y mejorar la precisión y el tiempo de la operación, lo que se consigue gracias a la respuesta intuitiva que tiene frente a los gestos y las órdenes de voz del médico", apostillan los investigadores.

Proyecto INTERHEART


Un estudio de nueva factura realizado por un equipo internacional de investigadores ha mostrado que la práctica de ejercicio físico durante la jornada laboral y el tiempo libre contribuye a reducir el riesgo de padecer infartos de miocardio. Los descubrimientos logrados difieren de estudios anteriores en que dicha afirmación es cierta en personas tanto de países desarrollados como de países en vías de desarrollo.

L
os resultados del estudio INTERHEART, publicados en European Heart Journal, proceden de un estudio de casos en el que participaron más de 29 000 personas de 52 países de Asia, Europa, Oriente Próximo, África, Australia y América.
«Hasta ahora no se habían realizado muchos estudios sobre los distintos aspectos de la actividad física durante el trabajo y en horas de recreo en relación al riesgo de sufrir infarto de miocardio», afirmó Claes Held del Hospital de la Universidad de Uppsala (Suecia), autor principal del estudio. «La asociación entre la actividad física y el riesgo cardiovascular es bien conocida, pero este estudio añade, entre muchos otros aspectos, una perspectiva global.»
Los hallazgos del estudio muestran que la actividad física suave y moderada en el trabajo y a cualquier intensidad durante el tiempo libre reduce el riesgo de padecer infarto de miocardio con independencia de otros factores de riesgo conocidos en hombres y mujeres de todas las edades. Este hecho fue una característica común en la mayoría de las regiones del mundo y en países con niveles de ingresos bajos, medios y altos.
La sorpresa surgió en lo relativo a la realización de labores físicas intensas en el trabajo, pues éstas no reducen necesariamente el riesgo de padecer un infarto de miocardio. Gracias al estudio también se descubrió que aquellos con coche y televisión presentaban un riesgo considerablemente mayor de padecer infarto de miocardio, sobre todo los habitantes de países con ingresos bajos y medios.
El profesor Claes Held indicó: «Estos datos aumentan la importancia de la actividad física y confirman el efecto sistemático de protección de la actividad física en todo tipo de países, que se añade a los beneficios ya conocidos que reporta la modificación de factores de riesgo tradicionales como el consumo de tabaco.»
Los investigadores al cargo del estudio, procedentes de Canadá, Paquistán, Suecia y Estados Unidos, compararon las costumbres relacionadas con el ejercicio practicado en el tiempo libre de 10 043 personas que habían sufrido un infarto de miocardio con las de 14 217 personas sanas. A todos ellos les preguntaron por sus niveles de actividad: si su trabajo era sedentario o implicaba ejercicio físico intenso y si en él andaban sobre una superficie llana o si la misma actividad la realizaban en cuesta o cargando objetos pesados.
A los participantes se les clasificó en cuatro grupos en función de la actividad física que realizasen durante su tiempo de asueto: aquellos en los que predominaban costumbres sedentarias (actividades en posición sentada como la lectura o la televisión), los que realizaban ejercicio físico suave (yoga, pesca o paseos relajados), los que se decantaban por ejercicio moderado (esfuerzos moderados como andar, montar en bicicleta o la jardinería durante al menos cuatro horas a la semana) y aquellos que practicaban ejercicio extenuante (atletismo, fútbol o natación intensa).
Los participantes también respondieron a preguntas sobre si poseían un coche, una moto, un televisor o un ordenador. Los investigadores también se interesaron por si los participantes cuidaban de un terreno de labranza o criaban ganado.
Se descubrió que los que realizaban ejercicio físico suave o moderado en el trabajo presentaban una probabilidad menor de padecer un infarto de miocardio si se comparaban con otros con ocupaciones principalmente sedentarias. No obstante, la actividad física laboral intensa no reducía el riesgo en absoluto. En lo referente al tiempo libre, el riesgo de padecer un infarto de miocardio era menor en todos los casos que no cayeran en el sedentarismo, siendo un 13 % inferior en el caso de la actividad suave y un 24 % inferior en el resto de casos.
En los países de renta baja existía una mayor proporción de personas con trabajos sedentarios que no ejercían actividad física en su tiempo libre en comparación con los países de renta media y alta.
El profesor Held aseguró: «Estos datos poseen aplicaciones prácticas. Se puede sugerir a los países de menor renta que promocionen más la actividad física para contrarrestar la inactividad que produce el empleo (cada vez más extendido) de dispositivos que facilitan las tareas. Pero también es importante fomentar la actividad física en el resto del mundo.»

Llega al mercado la primera píldora inteligente


La compañía norteamericana Proteus Biomedical, en colaboración con la farmacéutica británica Lloydspharmacy, sacará al mercado el próximo mes de septiembre un "producto digital para la salud". Se trata de unas píldoras "inteligentes" que portan minúsculos microchips que registran el uso de medicamentos por parte de los pacientes que las consumen. La información obtenida es enviada a su vez a un parche, colocado en la piel del usuario, que la manda vía Bluetooth al teléfono móvil de la persona al cargo del enfermo. Con este sistema se espera poder controlar mejor el consumo de medicamentos, sobre todo por parte de enfermos crónicos, para garantizar la eficacia de los tratamientos. 

L
a compañía norteamericana Proteus Biomedical, con base en California, ha anunciado recientemente el lanzamiento en el Reino Unido, en colaboración con la farmacéutica británicaLloydspharmacy, de un "producto digital para la salud".
El producto consiste en unas píldoras "inteligentes" que portan minúsculos microchips que registran el uso de medicamentos por parte de los pacientes que las consumen. Lloydspharmacy espera que estas píldoras lleguen al mercado el próximo mes de septiembre.
Según informa Nature, las píldoras han sido bautizadas como "Helius", y servirán para controlar si los enfermos toman de forma apropiada sus medicinas. El sistema está especialmente ideado para personas con enfermedades crónicas, que deben tomar diversos medicamentos en varios momentos del día.
Según explica Andrew Thompson, director ejecutivo de Proteus Biomedical, lo más importante y básico es que estas píldoras permiten registrar el uso físico real de los medicamentos.
El sistema ha sido ya "probado con cientos de pacientes en muchas áreas terapéuticas distintas. Ha sido testado en pacientes con tuberculosis, con problemas de salud mental, con trastornos cardiacos, con hipertensión y con diabetes", añade Thompson.
Pastillas con sensores
En las píldoras hay contenidos unos sensores, diseñados por expertos de Proteus y bautizados como "ingestible event markers". Estos sensores son tragados con las píldoras, pero podrían ser incorporados a cualquier otro medicamento durante su proceso de elaboración.
Los sensores, más pequeños que un grano de arena y compuestos por ingredientes normalmente presentes en los alimentos, según The Independent, son activados por los ácidos estomacales.
La energía que necesitan para funcionar es producida por la combinación del entorno ácido del estómago con dos metales presentes en ellos: una pequeña cantidad de cobre y otra de magnesio. Esta combinación da lugar a cierto voltaje, que permite al dispositivo generar señales cuya sintonía se corresponde con el tipo de medicamento ingerido.
Estas señales son a su vez detectadas por otro dispositivo, un parche que se pega a la piel del paciente. Este parche, diseñado para ser usado durante siete días, incluye una batería flexible y un chip que registra la información.
Además, el parche contiene tecnología Bluetooth sin cables, lo que permite transmitir los datos registrados al teléfono móvil de la persona a cargo del enfermo, ya sean sus familiares o su médico.
Con la información recibida, se puede saber qué medicinas ha tomado el paciente y cuándo. Por otro lado, el sistema permite controlar ciertos factores orgánicos, como el ritmo cardiaco, la respiración y la temperatura del enfermo, y mostrar así cómo responde el paciente a la medicación.
Otras tecnologías comestibles
En The Independent, Steve Gray, director de servicios de salud de Lloydspharmacy explica que, en general, existe un gran problema con el consumo incorrecto de las medicinas: "Cualquiera que tenga que tomar varios medicamentos sabe lo fácil que es confundirse o no tomar los comprimidos correctos cada día".
Si a esta complicación se le añade la dificultad de atender a familiares, sobre todo si no se vive con ellos, se entiende hasta qué punto este servicio de información puede resultar útil, concluye Gray.
El hecho de no tomar correctamente los medicamentos puede hacer que los pacientes no se beneficien completamente de los tratamientos o acabar produciendo efectos secundarios dañinos.
Los sensores comestibles tienen una larga historia, publica Nature. En los años 80 del siglo pasado, La NASA ya desarrolló termómetros para ingerir, destinados a medir la temperatura de los astronautas.
Por otra parte, los científicos también han desarrollado cámaras incorporadas a comprimidos, con las que registrar imágenes del sistema digestivo desde el interior del cuerpo.
Además, las píldoras inteligentes de Proteus no son las primeras de este tipo que se fabrican. En 2010, investigadores de la Universidad de Florida, en Estados Unidos, desarrollaron un prototipo de pastilla que contenía una antena y un microchip de reducido tamaño.
Esta píldora, como las de Proteus, podía enviar señales a un teléfono móvil o a un ordenador en el momento en que los medicamentos alcanzasen el estómago del paciente, para informar de su consumo.

España probará en la Antártida varios métodos para detectar vida extraterrestre

antártida


El Centro español de Astrobiología (CAB) realizará dos proyectos de investigación en la base antártida "Gabriel de Castilla", en Isla Decepción, para probar métodos e instrumentos que en un futuro podrían servir en la detección de vestigios de vida microbiana en exploraciones planetarias.

A
demás de este proyecto de detección de biomoléculas, los investigadores del CAB, que partirán el 25 de enero, estudiarán el impacto del cambio climático en algunos microorganismos.
El centro de investigación señaló hoy en un comunicado que es conocida la fortaleza de los microorganismos para proliferar en ambientes considerados extremos, como aguas a altas temperaturas o aguas muy saladas con temperaturas inferiores a diez grados bajo cero.
Esto ha hecho pensar en la posibilidad de encontrar formas de vida similares en otros cuerpos planetarios del Sistema Solar, como Marte, la Luna o Júpiter, en los que pueden darse condiciones semejantes.
Según el CAB, el estudio geomicrobiológico de los ambientes extremos terrestres es un requisito para evaluar la posibilidad de vida actual o ya extinta en ambientes análogos de otros planetas.
La isla Decepción, en la Antártida, es volcánica, con una historia de erupciones reciente y ofrece diferentes escenarios extremos para la proliferación de la vida.
Por esas razones, el Centro de Astrobiología envía dos equipos de investigación para, además de investigar sobre detección de restos de vida microbiana en exploración planetaria, estudiar el impacto del cambio climático sobre los patrones microbianos y cómo la alteración de estos afecta a su vez al clima y a su propia evolución.
En el proyecto para la detección de restos de vida microbiana se probará el instrumento SOLID3, desarrollado por el CAB y que detecta microorganismos y moléculas biológicas mediante un biosensor (según el CAB, actualmente se trabaja con la NASA para proponer que SOLID forme parte de una misión a Marte).
Con el otro programa, se llevarán a cabo diferentes muestreos en zonas de glaciares de Isla Decepción.
El grupo de investigadores que se trasladará a la Antártida posee datos realizados en estudios previos sobre diversos glaciares europeos en los que se ha observado una correlación entre la disminución en la biodiversidad microbiana y la regresión del hielo glacial.

Proyecto Robocast


Un equipo de investigadores financiado por la Unión Europea ha desarrollado un asistente robótico capaz de ayudar a los neurocirujanos en la realización de cirugías encefálicas mínimamente invasivas tipo cerradura, o keyhole. Este robot es extremamente preciso y tiene una memoria increíble, sobre todo porque puede realizar trece tipos de movimiento, en comparación con los cuatro que permiten las manos humanas, así como retroalimentación «háptica» o de respuesta a la presión, referencias físicas que permiten a los médicos evaluar los tejidos y percibir la intensidad de la fuerza aplicada durante la intervención quirúrgica. El proyecto Robocast («Integración de robots y sensores para una cirugía y una terapia asistidas por ordenador») recibió 3,45 millones de euros mediante el tema «Tecnologías de la información y la comunicación» (TIC) perteneciente al Séptimo Programa Marco (7PM) de la Unión Europea.

C
oordinados por el Politecnico di Milano (Italia), los socios de Robocast se propusieron desarrollar métodos y técnicas científicas relacionadas con las TIC para su empleo en las prácticas de neurocirugía mínimamente invasiva tipo cerradura. Para ello desarrollaron un aparato informático que los expertos denominan genéricamente mecatrónica, y que construye el cuerpo y el sistema nervioso del robot, y programas informáticos que confieren a éste inteligencia. Los programas informáticos incluyen una unidad de robots múltiples, un planificador de trayectorias independiente, un controlador avanzado y una serie de sensores de campo.
El consorcio Robocast desarrolló la fase mecatrónica del proyecto en forma de un sistema modular con dos robots y una sonda biomimética activa. Para actuar al unísono, los tres elementos cooperan en un marco integrado motor-sensorial.
El primer robot puede localizar a su robot acompañante en miniatura conforme a seis «grados de libertad» (degrees of freedom, DOF), es decir mediante movimientos de traslación en tres ejes perpendiculares (de izquierda a derecha, hacia arriba y hacia abajo y hacia delante y hacia atrás), que se combinan con otros tres movimientos de rotación sobre tres ejes perpendiculares denominados balanceo o alabeo (inclinación hacia delante y hacia atrás), cabeceo (hacia los costados) y guiñada (giro a la izquierda o a la derecha). El robot puede combinar estos movimientos de manera simultánea para ubicar a su acompañante en cualquier punto del espacio. Según los investigadores, el robot también puede mejorar el pulso de un cirujano en hasta diez veces.
El robot en miniatura sostiene la sonda que debe introducirse por el orificio. Los socios del proyecto explicaron que el sistema cuenta con rastreadores ópticos ubicados en el extremo de la sonda y en el paciente. Además, el robot es capaz de controlar la posición y la fuerza que ejerce empleando una serie de sensores. Como resultado de ello se define la trayectoria del procedimiento quirúrgico.
La precisión del funcionamiento del robot ha sido probada en intervenciones de cirugía mínimamente invasiva en maniquíes. El equipo cree que este robot se puede utilizar como asistente de los neurocirujanos para tratar a pacientes con epilepsia, síndrome de Tourette o enfermedad de Parkinson.
Los investigadores aseguran que el tramo de la trayectoria que discurre en el interior del encéfalo se planifica partiendo de un «atlas del riesgo», así como mediante un análisis de información diagnóstica preoperatoria.
En el equipo Robocast, que presentó el modelo en 2011, participan expertos de Alemania, Israel, Italia y Reino Unido. Los planes futuros incluyen investigar la realización de intervenciones de neurocirugía con robots mientras el paciente permanece consciente

Un nuevo modelo informático optimiza la producción de biocombustibles


Un nuevo modelo informático desarrollado por ingenieros de la Universidad de Illinois, en Estados Unidos, permite obtener información muy valiosa sobre las distintas variables implicadas en el proceso de producción de biocombustibles, en especial en lo que respecta a la transición entre los cultivos y las actividades de biorrefinación. De esta forma, el modelo computacional propicia una mayor efectividad en el ciclo de producción de biocombustibles. 

U
n incremento en la productividad de distintas tipologías de biocombustibles será posible gracias a la aplicación de un nuevo modelo informático desarrollado por ingenieros de la Universidad de Illinois, en Estados Unidos. La aplicación informática apunta principalmente a simplificar los pasos relacionados con el pasaje de los cultivos a las biorrefinerías, aportando información clave en este aspecto e incrementando la efectividad de todo el ciclo productivo.
El modelo computacional es capaz de ejecutar millones de simulaciones, buscando por ejemplo la optimización de las operaciones para reducir costes, las acciones necesarias para disminuir las emisiones de gases de efecto invernadero o los cambios que deben concretarse para alcanzar otros objetivos.
Entre las múltiples variables que el nuevo modelo computacional tiene en cuenta destacan el tiempo requerido para la cosecha y la tecnología a emplear para obtener el producto buscado, por ejemplo en cuanto al tipo de cosechadora o con relación al método a utilizar en la cosecha.
El avance obtenido por los especialistas de Illinois ha sido difundido a través de una nota de prensa de la Universidad de Illinois y, dada su importancia, también en diversos artículos publicados en varias revistas especializadas, comoBiofuels, Bioproducts and BiorefiningBiological EngineeringBiomass and BioenergyComputers and Electronics in Agriculture y BioEnergy Research.
Del campo a la biorrefinería
La investigación sobre los cultivos de biocombustibles se ha centrado principalmente hasta el momento en la forma de desarrollar estos cultivos y en las tecnologías necesarias para convertirlos en combustibles. Sin embargo, el paso del campo o de la granja a la biorrefinería resulta vital, y hasta hoy ha sido relativamente menospreciado.
Según los ingenieros de la Universidad de Illinois, las ventajas teóricas de un cultivo para su aplicación energética no se apreciarán por arte de magia en el proceso de biorrefinación. Es necesario tener en cuenta diferentes variables que potenciarán estas virtudes durante el paso de un contexto a otro.
Los principales responsables de la investigación que ha dado lugar al nuevo modelo informático, han sido el ingeniero K.C. Ting, jefe del departamento de ingeniería agrícola y biológica de la Universidad de Illinois, el profesor Yogendra Shastri del Energy Biosciences Institute y los profesores Alan Hansen y Luis Rodríguez. Además, se contó con la colaboración del Institute for Genomic Biology de Illinois.
El objetivo del modelo informático es contar con una herramienta en el campo de la industria de los biocombustibles que permita considerar todas las operaciones necesarias en el proceso de producción al mismo tiempo, y que contemple no sólo datos aislados para elegir la mejor cosechadora o el mejor método de almacenamiento, sino un sistema que trabaja en conjunto para lograr un propósito fijado de antemano.
Objetivos concretos
Por ejemplo, un objetivo específico puede ser reducir al mínimo el coste total del sistema de producción, o disminuir las emisiones contaminantes generadas. Fijado ese propósito, el modelo informático relaciona todos los datos y variables y aporta pistas a seguir para realizar los cambios necesarios en el sistema, hasta obtener los resultados deseados.
El nuevo modelo computacional, denominado Biofeedback, se puede optimizar con la inclusión de más de 300.000 variables, como por ejemplos horarios de recolección y cosecha, selección de equipos, características del almacenamiento requerido, distancias de transporte, logística del traslado de la biomasa y muchos otros temas.
A modo de prueba, los investigadores utilizaron el modelo informático para optimizar la producción de biomasa para una región de 13 condados en el sur de Illinois. Cabe destacar que Biofeedback puede adaptarse para analizar cualquier región del planeta, ya que incorpora la información por zonas.
Entre los resultados obtenidos, el modelo reveló que si la cosecha se realiza en noviembre, un período no empleado hasta ese momento, sería posible reducir significativamente los costes relacionados con las inclemencias del clima.
Asimismo, se descubrió que el almacenamiento de las hierbas recolectadas en un establo o en un sitio protegido dentro de las fincas usadas para el cultivo podría reducir el coste total del proceso, en mayor medida que si las hierbas se almacenan al descubierto en una granja o en una instalación centralizada.

Crean un software de Aprendizaje Automático para interpretar el ADN

El programa, que se aplicará a la medicina, posibilitará diagnósticos y tratamientos más ajustados


Un equipo multidisciplinar de investigadores de Estados Unidos está utilizando herramientas informáticas para traducir la genética y otra información hereditaria codificada en el genoma humano, y aprovecharla con fines médicos. El objetivo es crear una aplicación capaz de diagnosticar enfermedades, identificar la vulnerabilidad del paciente a cualquiera de ellas, y definir qué terapias podrían ser más eficaces o causar menos efectos secundarios. Por Patricia Pérez de Tendencias Científicas.

E
l tamaño y complejidad del genoma humano, cuya secuencia completa no se conoció íntegramente hasta 2003, ha obstaculizado muchas investigaciones que supondrían un importante avance en el campo de la medicina.
Ahora, científicos de la Universidad Carnegie Mellon en Pensilvania, Estados Unidos, confían en las avanzadas herramientas informáticas para poner en marcha una investigación que, si tiene éxito, permitiría utilizar de manera rutinaria información extraída a partir del ADN de un paciente para guiar a los médicos en el diagnóstico y tratamiento de enfermedades.
Según publica la propia universidad en un comunicado, el proyecto cuenta durante su primer año de vida con el patrocinio de Ion Torrent, unidad de la multinacional americana de biotecnología Life Technologies Corporation(NASDAQ: LIFE), aunque se esperan más fondos a través de ayudas federales y otras fuentes.
Biólogos, estadísticos, bioinformáticos e informáticos conforman un equipo multidisciplinar de investigadores, liderado por Robert F. Murphy, director del Centro Lane de Bioinformática en la Escuela de Ciencias de la Computación de Carnegie Mellon. Dada la complejidad de la investigación, los investigadores cuentan además con la colaboración de científicos del Colegio Baylor de Medicina de Texas y de la Universidad de Yale en Connecticut, ambos en Estados Unidos.
El objetivo final no es otro que desarrollar un software que la Fundación Ion Torrent y su director ejecutivo, Jonathan M. Rothenberg, han llamado Doctor in a Box, algo así como un doctor en una caja, de ordenador, se entiende. Esta herramienta tomaría una secuencia de ADN de un paciente y lo utilizaría para diagnosticar posibles enfermedades, identificar la susceptibilidad del paciente a las mismas y predecir qué terapias podrían ser más eficaces o causar menos efectos secundarios.
El Aprendizaje Automático como base
Para llevar a cabo la investigación, los científicos se valen de sistemas de Aprendizaje Automático, cuyo objetivo es desarrollar técnicas que permitan a los ordenadores detectar asociaciones entre infinidad de datos, algo fundamental si se quiere trabajar con elementos tan complejos como el genoma humano.
"Hay ya demasiada información para que los médicos den sentido a todo", señaló el director del proyecto. De ahí que recurran al Aprendizaje Automático en el análisis de la secuencia de ADN, de la que esperan extraer toda aquella información codificada en los genes que pueda "ser relevante para médicos y pacientes", agregó Murphy.
Aunque su equipo no ha sido el primero en utilizar herramientas de Aprendizaje Automático para analizar el genoma completo, la novedad de esta investigación radica en el desarrollo de un software exclusivo creado en el seno de la propia universidad. Este será instruido específicamente para analizar el tipo de secuencia de datos del genoma completo producidos por la tecnología de secuenciación única de Ion Torrent.
Su aplicación es idónea en el ámbito clínico, ya que está diseñada para secuenciar el genoma humano completo en un día por tan sólo 1.000 dólares. Hasta ahora, esta práctica había sido algo impensable en el ámbito clínico rutinario, pues conllevaba varias semanas completarla y con un coste diez veces superior. "Ahora que Ion Torrent puede reducir tiempo y gastos, el siguiente paso es crear una herramienta que permita a los médicos integrar fácilmente la secuenciación completa del genoma en la práctica médica", manifestó Rothenberg.
Ese es el compromiso adquirido con Doctor in a box, con el que pretenden "mediante el uso de inteligencia artificial, como hemos visto con Watson, el sistema informático de inteligencia artificial de IBM, ser capaces de asociar las variaciones en el genoma humano con la cantidad fija de información que tenemos sobre la salud", añadió el representante de Ion Torrent.
Fases de la investigación
Dada la complejidad del reto, el equipo de Carnegie Mellon requerirá la colaboración de otros grupos para estudiar el genoma, de ahí que procuren desarrollar un software disponible como código abierto. "Es una tarea enorme, pero estamos creando un marco que nos permitirá abordar este problema por piezas, y hacerlo a una escala que cobra sentido cuando todas esas piezas se juntan", explicó Murphy.
Así, el primer paso a lo largo de este año será identificar las características del genoma asociadas con una sola enfermedad o población de pacientes, los cuales no han sido seleccionados aún. Mientras tanto, los investigadores del Colegio Baylor y la Universidad de Yale llevarán a cabo la secuenciación completa del genoma de pacientes, lo que proporcionará complejos registros médicos, tales como tratamientos de la enfermedad y sus resultados, y los resultados de los ensayos clínicos.
Dicha información pasará entonces a manos del equipo de Carnegie Mellon para su análisis y posterior aplicación de los programas de Aprendizaje Automático, con el objetivo de aclarar las relaciones entre los datos genómicos y los resultados clínicos de cada uno de los pacientes anónimos, al tiempo que incorporan información de la literatura biomédica referente a la expresión de genes y proteínas, y sobre el desarrollo de la enfermedad.
Con el resultado de estos análisis, los investigadores prevén crear modelos basados en secuencias genómicas con los que predecir la vulnerabilidad de un paciente ante las enfermedades, así como su respuesta al tratamiento o la elección de las terapias preventivas más adecuadas. Algo que, en esta fase inicial, todavía se plantea como un gran reto.

lunes, 16 de enero de 2012

Analizando el hielo


Un equipo internacional de investigadores ha comenzado a analizar los que podrían convertirse en los primeros testigos de hielo perforados en un glaciar de los Alpes orientales. Dichos testigos provienen de un glaciar cercano a la cima del monte Ortles, un pico de 3 905 m de altura localizado en el noreste de Italia. De los cuatro núcleos, tres miden 75 m de largo y el otro 60 m.

E
l equipo, formado por investigadores de Austria, Estados Unidos, Italia y Rusia, espera que los resultados de su trabajo sirvan para crear un registro del clima del pasado y de los cambios ambientales acaecidos en la región a lo largo de varios siglos. Si los científicos estuvieran de suerte, estos testigos podrían incluso contener secretos que se remontan a mil años atrás. Los investigadores esperan además que contengan vestigios de actividad humana primitiva en la región como, por ejemplo, subproductos atmosféricos de la fundición de metales.
Los testigos de hielo que están analizando son importantes pues, hasta ahora, siempre se había creído que un glaciar estaba a una altitud demasiado baja para poder contener hielo que estuviera lo suficientemente frío como para haber conservado un registro climático claro. Si bien el tercio superior de los testigos muestra, en efecto, que el agua derretida se había filtrado hacia abajo, lo que muy posiblemente afecta al registro, los dos tercios restantes de los testigos contienen hielo inalterado que debería servir a los miembros del equipo de investigación para reconstruir la historia climática de la zona.
Este proyecto es también pionero por trabajar con testigos de hielo extraídos en la parte oriental de los Alpes, con lo que ofrece una imagen mucho más clara del cambio climático en este rincón de Europa.
Investigaciones previas habían demostrado que en cotas elevadas de dicha región se había producido un aumento de las temperaturas estivales de hasta dos grados centígrados en los últimos treinta años. A pesar de la fusión en las partes superiores de los testigos, los investigadores esperan encontrar un registro que comienza en los años ochenta y continúa hasta varios siglos atrás, o tal vez más.
«Este glaciar ya está cambiando de arriba hacia abajo de manera irreversible», explicó el jefe de la expedición, Paolo Gabrielli de la Universidad de Ohio (Estados Unidos). «Está pasando de ser un glaciar "frío", en el que el hielo es estable, a convertirse en un glaciar "templado" en el que el hielo se puede degradar. El glaciar entero podría hacer la transición hacia un estado templado en más o menos el próximo decenio.»
Tales cambios inminentes en las temperaturas del glaciar significan que es muy importante recuperar estos núcleos lo antes posible, ya que una vez que hayan desaparecido se llevarán con ellos el valioso registro del pasado que encierran.
Apoyándose en los patrones climáticos, el hielo de los testigos que se formó a lo largo de veranos anteriores probablemente ofrezca una imagen de lo que fue el clima en el pasado en una zona cercana a la montaña, tal vez sólo de entre diez y cien kilómetros de distancia. Pero el hielo formado durante los inviernos pasados debería ofrecer indicios que ayuden a conformar la imagen de lo que ocurrió en un área mucho más amplia.
Un análisis del hielo también podría ofrecer respuestas a cuestiones importantes sobre la región como, por ejemplo, de qué manera ha cambiado el clima durante la transición entre el Período Cálido Medieval y la Pequeña Edad de Hielo.