miércoles, 28 de enero de 2015

La teoría de todo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 28 de enero  de 2015

Felicity Jones (que actúa
el papel de Jane Hawking
en la cinta), Jane Hawking,
Eddie Redmayne y
Stephen Hawking, en el
estreno de
  La teoría de todo.
Por fin pude ir a ver la película La teoría de todo (The theory of everything, James Marsh, 2014). La recomiendo ampliamente: se trata de una gran película, amena, interesante y por momentos conmovedora.

Destaca, por supuesto, en el papel del protagonista Stephen Hawking, la actuación de Eddie Redmayne (a quien ya habíamos visto como Colin Clark, el jovencito seducido por la gran estrella en la encantadora Mi semana con Marilyn). Sorprende ver sus fotos de la vida real: la transformación tanto física como de lenguaje corporal que logró para la cinta muy probablemente lo harán merecedor de un Óscar (aparte de los varios premios que ya ha recibido).

Hawking es, sin duda el científico vivo más famoso del mundo. Ha aparecido incluso en programas televisivos de ficción y cómicos como Los Simpson, Viaje a las estrellas: la nueva generación y La teoría del big bang). Es, también sin duda, una de las grandes mentes en la historia de la ciencia.

La película se basa en el libro Hacia el infinito (Travelling to infinity: my life with Stephen) de su primera esposa Jane Hawking, con quien se casó en 1965. Se centra en la vida de Stephen, su paulatino y terrible deterioro físico debido a la esclerosis lateral amiotrófica, que se le diagnosticó en 1963 y que le ha ido robando el uso de sus músculos, su lucha por seguir haciendo ciencia y las dificultades que, junto con Jane, tuvo que afrontar hasta su divorcio en 1995 (ese mismo año se casó con una de sus enfermeras, Elaine Mason, de quien se divorció en 2006). No hace, por ello, mucho énfasis en explicar sus ideas científicas, aunque sí las menciona brevemente.

Hawking se hizo famoso mundialmente para el gran público cuando publicó su libro de divulgación Breve historia del tiempo (A brief history of time: from the big bang to black holes), en 1988. Se estima que hasta hoy ha vendido nueve millones de ejemplares. Su imagen es, al mismo tiempo intrigante, angustiosa, extraña y admirable: un hombre privado de movimiento que sigue luchando y trabajando, 52 años después de que le pronosticaran dos años de vida. Obligado desde 1985, luego de una traqueotomía posterior a una neumonía, a comunicarse mediante una computadora conectada a un sintetizador de voz (¡con acento estadounidense!), que controlaba con un dedo que aún podía mover (hoy lo hace moviendo un músculo de su mejilla; ya se está trabajando en dispositivos que le permitan comunicarse a través de sus ondas cerebrales, para evitar que, conforme avanza su deterioro, quede incomunicado dentro de su propio cuerpo). En cierto modo, Hawking es un cerebro viviente, carente de cuerpo; pero también, una especie muy particular de hombre-máquina; un cyborg. Quizá esta inquietante imagen ha contribuido a su fama y al interés que su persona despierta.

En la película se mencionan como sus más grandes contribuciones a la ciencia su descripción del big bang como una singularidad en el espaciotiempo einsteniano (un evento en que las leyes de la física dejan de ser aplicables) similar a los hoyos negros, y posteriormente su descubrimiento de que los hoyos negros que rotan pueden, contra lo que se suponía, emitir radiación (llamada radiación de Hawking), lo que podría causar que, si son pequeños, desaparezcan poco a poco, “evaporándose”.

Hawking ha hecho muchas otras contribuciones a la cosmología y la física del espaciotiempo, por supuesto. También se ha equivocado varias veces. Son famosas las apuestas que hace con sus colegas cuando se debaten sus ideas, como la famosa con Kip Thorne, que perdió, consistente en una suscripción a la revista Penthouse. En los casos en que ha resultado estar equivocado –como cuando predijo que el bosón de Higgs nunca sería detectado– lo ha reconocido inmediatamente y sin problema, como buen científico, y en su caso ha pagado las apuestas.

Hawking es hoy, como lo fue antes Albert Einstein, el ícono popular del científico típico. Es una lástima que siempre se trate de personajes “raros”; pero es muy afortunado que, en este caso, se trate de un individuo, además de genial, admirable por su tesón y su capacidad de superar la adversidad. ¡Mis respetos, Don Stephen!

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 21 de enero de 2015

Genes, razas y racismo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 21 de enero  de 2015

El tema de las razas humanas siempre levanta polémica. Y resurge periódicamente.

En 1994 un libro llamado La curva de campana (The bell curve), del psicólogo Richard Herrnstein y el politólogo Charles Murray, ambos estadounidenses, causó gran revuelo al afirmar que la inteligencia humana (medida como IQ, concepto ya bastante polémico en sí mismo) presentaba diferencias entre las distintas razas humanas, y que estas diferencias podían atribuirse a los genes.

Se imaginará usted la discusión que siguió. Todo tipo de especialistas en ciencias sociales y humanidades, además de biología, psicología y genética, denunciaron al libro como racista. Y con razón.

Más recientemente, el famosísimo biólogo James Watson, uno de los descubridores de la doble hélice del ADN, se suicidó académicamente en 2007, mientras promovía su más reciente libro Prohibido aburrirse (y aburrir) (Avoid boring people), al declarar que la inteligencia de los negros era inferior a la de los blancos. (Probablemente pensaba que estaba ayudando a combatir la injusta situación de la población negra de África, al pedir que tal diferencia de inteligencia se tomara en cuenta al diseñar políticas educativas… Pero su legendaria torpeza y falta de tacto le impidió darse cuenta de las implicaciones racistas de lo que para él eran simplemente “datos”.)

Pues bien: se acaba de presentar la edición en español del libro Una herencia incómoda (A troublesome inheritance, 1994), del periodista científico inglés Nicholas Wade. ¿Su tesis? Que los modernos estudios de genomas humanos permiten reconstruir la historia de nuestra especie en los últimos 50 mil años, a partir de nuestro origen en África, y muestran que conforme los grupos humanos se fueron dispersando geográficamente, fueron acumulando cambios evolutivos que hoy explican la existencia de tres (o cinco, o siete, pues el dato cambia a lo largo del libro) “razas continentales” humanas (blancos, negros y asiáticos, a las que podrían añadirse otras).

Esto bastaría para levantar controversia, pero Wade va mucho más allá: argumenta que son esas diferencias genéticas entre razas las que explican las características de las diversas culturas (la democracia e innovación occidentales, la sumisión y respeto por la tradición de los orientales, por qué los judíos ganan tantos premios Nobel, por qué las sociedades árabes tienden al autoritarismo y las africanas a la organización tribal, entre otras barbaridades).

En otras palabras, Wade pretende reducir no sólo las características físicas raciales, sino la historia humana entera, y las peculiaridades de las distintas sociedades, a la influencia de los genes en el comportamiento de los individuos de cada “raza”.

El debate que se ha desatado es intenso, y proseguirá. Pero conviene aclarar un poco qué hay detrás del concepto de raza.

En primer lugar, no es una categoría biológica claramente definida, sino un nivel de clasificación (inferior al de especie y subespecie) informal y más bien arbitrario. Obviamente, las diferencias en el promedio de ciertas características físicas (color de piel, cabello, estatura…) existen objetivamente, y tienen bases genéticas. Pero son generalizaciones del promedio de lo que en realidad es un mar de variaciones individuales, y no equivalen a “razas” en el sentido que éstas existen en otras especies. Dentro de cada población hay varias versiones (alelos) de cada uno de los genes que controlan estas y otras características de los individuos. Además, su expresión depende de las condiciones ambientales. Pensar en una “raza” como si fuera un grupo homogéneo es incorrecto. Mas aún: si se analiza la variación en la composición genómica de las distintas poblaciones humanas que ocupan los distintos lugares geográficos (qué alelos de ciertos genes son más predominantes en la población, y cuales son minoritarios o están ausentes), se hallará que no hay bordes definidos, sino grupos diversos que, aunque en promedio difieren entre sí, se mezclan continuamente, sin separación

En segundo lugar, la cantidad de diferencias genéticas (en promedio) entre las varias “razas” humanas (que, como el propio Wade muestra, se definen arbitrariamente) es ínfima. Mucho menor que la que separa, en promedio, a dos individuos cualquiera. Las razas caninas, por ejemplo, son genéticamente más distintas entre sí; y aún así, más allá de las obvias diferencias físicas, desde el punto de vista biológico y evolutivo resultan una sola especie: las diferencias entre ellas no justifican considerarlas siquiera como subespecies.

Para todo fin práctico, entonces, la existencia de razas humanas es sólo una manera arbitraria de clasificar individuos. Una manera que además resulta muy poco confiable, y para colmo, que socialmente causa muchos problemas. Esto no quiere decir que ciertas poblaciones no tengan ciertas características que las distinguen, en promedio, de otras poblaciones, como tener piel más morena o ser más susceptibles a ciertas enfermedades (esto último es importante por ejemplo para desarrollar tratamientos médicos y políticas de salud adaptadas a las características de las distintas poblaciones). Lo que quiere decir es que considerar tales diferencias como algo biológicamente importante, algo que define a distintos tipos de ser humano, es erróneo.

Finalmente, Wade también yerra al suponer que las diferencias entre poblaciones humanas evolucionaron por selección natural, dando origen a “razas” adaptadas a distintos ambientes. Numerosísimos estudios de distintas disciplinas (antropología, genética de poblaciones, biología evolutiva, paleontología) muestran que fueron otras fuerzas evolutivas, como la deriva génica (producto del aislamiento geográfico de ciertas poblaciones) o el intercambio de genes de una población a otra (flujo genético), no la selección natural, lo que generó estas diferencias, y por tanto ello no implica que las distintas “razas” estén “mejor adaptadas” a ciertos ambientes, ni que debido a ello presenten ciertas temperamentos.

Pero quizá lo más importante es que gente como Wade, Watson o Herrnstein y Murray olvidan que la idea de “raza” humana no es un concepto biológico, sino social. Por eso su uso da pie a interpretaciones que, más allá de sonar ofensivas, tienen consecuencias graves a nivel individual, social, legal, de derechos humanos y en muchos otros ámbitos.

   Como dice Arthur Allen en una reseña del libro de Wade publicada en el New York Times, “Pocas áreas de la ciencia han contribuido más a la infelicidad humana que el estudio de las diferencias raciales”. Presentar los estudios sobre raza como conocimiento científico y pretender justificar con ellos juicios infundados sobre poblaciones humanas es un típico ejemplo de mala ciencia. Mal planteada, mal interpretada y que sólo sirve para justificar la injusticia.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 14 de enero de 2015

Guerras antibióticas

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 14 de enero  de 2015

Si una especie viva hace cosas que no le conviene, se extingue, pues vive en un estado de continua competencia con otras especies por los recursos del ambiente. Lo mismo le ocurre a una empresa.

Seguramente usted ha oído hablar de que estamos en medio de una verdadera guerra por los antibióticos. Pero no una guerra comercial, entre nuestra especie y el reino de las bacterias. Durante siglos las infecciones bacterianas fueron un azote para la humanidad, hasta el descubrimiento de los primeros antibióticos, en el siglo pasado, que revolucionaron la medicina y han evitado millones de muertes.

Pero la evolución es un campo de batalla, y la selección natural automáticamente comenzó a trabajar, como es inevitable que lo haga, para dar a las bacterias patógenas nuevas defensas que inutilizaran las armas recién adquiridas por la especie humana.

Desde hace ya dos décadas la preocupación por el rápido surgimiento y dispersión de los genes de resistencia a antibióticos en bacterias (que además ellas intercambian alegremente entre especies mediante los llamados “mecanismos de transferencia genética horizontal”) se ha transformado en una verdadera crisis mundial de salud. De ahí las campañas de uso responsable de antibióticos y los reglamentos, como el aprobado en nuestro país en 2010, que prohíben su venta sin receta médica: si seguimos usándolos irresponsablemente a diestra y siniestra, contribuimos a acelerar que surjan bacterias resistentes, y nuestro arsenal terminará, quizá dentro de muy poco, siendo inútil.

Pero ¿por qué la industria farmacéutica no produce nuevos antibióticos? ¿No es una evidente oportunidad de hacer buen negocio? Pues no. En primer lugar por un problema también evolutivo: la mayoría de estos compuestos provienen de especies de bacterias u hongos del suelo; no son diseñados (aunque sí modificados) en un laboratorio. Y en las últimas décadas no se han hallado nuevos antibióticos que sean muy distintos de los que ya se conocen, y para muchos de los cuales ya hay bacterias resistentes, o éstas aparecen muy pronto.

Pero también porque precisamente esto hace que el negocio no sea muy costeable: según un comentario de Gerard Wright publicado en la revista Nature el 7 de enero, la inversión de millones de dólares de una farmacéutica para desarrollar un nuevo antibiótico puede derrumbarse si las bacterias a las que está dirigido desarrollan resistencia rápidamente, con lo que no hay tiempo de que la compañía recupere su inversión. Como se ve, no sólo la evolución, sino el mercado mismo conspiran para sumirnos en la crisis de los antibióticos.

Estructura química
de la teixobactina
Pero hay buenas noticias: quizá leyó usted en días pasados que un grupo de investigadores alemanes y estadounidenses han descubierto (Nature, 7 de enero) un nuevo antibiótico, que llamaron teixobactina, que proviene (como la mayoría de los antibióticos) de una bacteria del suelo, a la que bautizaron Elephteria terrae. Esta nueva molécula presenta una estructura novedosa y un mecanismo de acción poco frecuente (impide que las bacterias fabriquen su pared celular, necesaria para no reventar debido a la presión osmótica de los medios en que viven).
aron

Lo fascinante es el enfoque que usaron: en vez de usar los métodos microbiológicos clásicos para buscar en el suelo nuevas bacterias productoras de antibióticos, aislándolas y cultivándolas en el laboratorio, desarrollaron nuevos métodos para cultivar en su propio ambiente, e incluso en el lugar mismo donde viven, a bacterias que son incapaces de crecer en los medios de cultivo usuales. Y es que, a pesar de todo lo que se sabe sobre microbiología, se calcula que sólo conocemos, porque las hemos cultivado y estudiado, al 1% de las bacterias existentes. Hay todavía mucha riqueza microbiológica (y antibiótica) que descubrir en la llamada “materia oscura” microbiana.

Más aún: los investigadores hicieron pruebas para ver si las bacterias sensibles al nuevo antibiótico podían desarrollar resistencia a éste, y hallaron que a primera vista no es fácil. Esto probablemente se debe a que la fabricación de la pared celular a partir de moléculas de tipo grasoso (lípidos) no está tan directamente asociada a los genes como la de las proteínas y otras moléculas, que son blanco de muchos antibióticos. Se podría esperar que la resistencia a la teixobactina tarde décadas en aparecer (si se toma como guía lo que ocurrió con la resistencia a otra clase de antibióticos que también interfieren con la fabricación de la pared celular, las vancomicinas: sólo hasta que los genes que protegen a la propia bacteria que los produce contra ellos fueron, por azar, copiados y transmitidos a otras especies de bacterias, pudieron éstas volverse resistentes, lo que tomó unos 40 años).

Se dice que ningún pescador atrapa peces más pequeños que los hoyos de su red. Hoy, al usar redes más finas, se ha logrado un nuevo hallazgo. Como escribe Wright, “en medio del pesimismo y la desilusión… este trabajo ofrece nueva esperanza de que la combinación de innovación y creatividad pueda resolver la crisis de los antibióticos”. Tomando en cuenta la riqueza de las especies bacterianas que hay por descubrir, es muy posible.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!


miércoles, 7 de enero de 2015

Plagios, genomas y alineación de textos

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 7 de enero  de 2015

El paludismo o malaria es una enfermedad causada por un parásito microscópico que entra al cuerpo humano cuando lo pica el mosquito Anopheles. Es un grave problema mundial de salud: causa más de medio millón de muertes anuales (en comparación, el sida mata a millón y medio de personas anualmente; la epidemia de Ébola del año pasado ha ocasionado casi 8 mil 200 muertes).

En su edición de esta semana, la revista científica Science publica un artículo (dado a conocer online a fines de noviembre) que analiza los genomas de 16 especies de mosquitos Anopheles de África, Asia, Europa y Latinoamérica para tratar de detectar qué factores genéticos les han permitido adaptarse tan bien como transmisores del paludismo.

Pero no es esa noticia la que quiero comentar, sino otra dada a conocer por Milenio Diario el pasado lunes 5. Un estudiante de la Maestría en Ciencias de la Computación del Centro de Investigación en Computación del Instituto Politécnico Nacional (CIC-IPN), Miguel Ángel Sánchez Pérez, ganó el primer lugar en el importante concurso internacional del 11th Evaluation Lab on Uncovering Plagiarism, Authorship and Social Software Misuse (11avo. Laboratorio de evaluación para descubrir plagio y mal uso de derechos de autor y software social, al que por alguna razón se conoce como “PAN”), en la categoría de “alineación de textos”. El triunfo no es trivial, pues se impuso a concursantes “de países como Chile, Ucrania, Estados Unidos, España, Alemania, China y Reino Unido”, según la nota.

La tesis de Sánchez Pérez, asesorada por los investigadores Alexander Gelbukh y Grigori Sidorov, del CIC –trabajo que por cierto ya había ganado el segundo lugar nacional en el Concurso de Mejor Tesis en Inteligencia Artificial de la Sociedad Mexicana de Inteligencia Artificial (SMIA)– consiste en un algoritmo de cómputo que permite detectar plagios al analizar un texto y compararlo con otros, para detectar similitudes (en el concurso PAN, el reto era comparar cinco mil pares de documentos, que podían o no contener plagios). Parece sencillo, pero en realidad es un problema muy complejo.

En primer lugar se necesita un gran poder de cómputo para comparar rápidamente los textos. En segundo, no basta con simplemente tomar fragmentos, alinearlos y ver si coinciden letra por letra con algún fragmento de otro texto (lo cual en sí ya es un problema, pues dependiendo del tamaño de los fragmentos, cambia la respuesta de si se trata o no de un plagio). Muchas veces el plagiario cambia, añade o elimina algunas palabras, lo cual hace que detectar los fragmentos plagiados sea mucho más difícil. (De hecho, en Sánchez Pérez explica que en un futuro quisiera ampliar su sistema para hacerlo capaz de detectar paráfrasis, es decir, casos en que el plagiario use sinónimos o cambie la estructura de las oraciones para disfrazar su plagio.)

A estas alturas ya tendrá usted claro que, en estos tiempos de internet y de copiar y pegar, es importantísimo contar con herramientas como ésta para detectar los plagios que cometen los estudiantes cuando entregan trabajos en la escuela (un problema que padecemos todos los profesores). Pero el plagio también es un problema grave en el mundo de la cie
ncia, donde la cantidad de artículos científicos plagiados que son presentados para su publicación como originales por científicos deshonestos ha crecido enormemente. Y no se diga de otras áreas, como la literatura, con algunos sonados escándalos recientes, y la política, donde, por ejemplo, dos altos funcionarios del gobierno de Angela Merkel en Alemania tuvieron que presentar sus renuncias hace unos años, al comprobarse que sus tesis doctorales (de 1980 y 2006) contenían plagios (no quiero imaginar qué pasaría si se aplicara el método a los políticos mexicanos).

Por supuesto, ya existen sistemas como éste, muchos disponibles en internet. Pero la mayoría cobran. Por eso es importante que, a diferencia incluso de otros concursantes, el algoritmo de Sánchez Pérez está disponible al público en internet, bajo el esquema de código abierto, por lo que puede no sólo ser usado, sino incluso mejorado por otros investigadores.

Alineamiento y comparación
de secuencias genéticas
por computadora
Bueno, ¿y el paludismo? Pues resulta que las técnicas computacionales que se usan en la detección de plagios son básicamente las mismas que se usan para buscar similitudes entre los genomas de distintas especies (como los mosquitos de la investigación que mencioné). Todos los actuales estudios de genómica se basan en comparar secuencias genéticas, lo cual requiere alinear textos y determinar su grado de semejanza. Estos métodos bioinformáticos permiten determinar la proporción de parentesco, desentrañar la historia evolutiva e incluso calcular la antigüedad de cada cambio. Y estos métodos se usan también en áreas como la lingüística comparada. Un ejemplo más de la relación entre ciencia y otras áreas de la actividad humana.

Yo ya no escribo cartas a los Reyes Magos (que en mi época se ponían en el zapato, no amarradas a un globo para que se atoren en el primer árbol o cable…). Pero me pregunto si, en esta época de plagios en internet por estudiantes que deben entregar trabajos escritos, habrá niños que lleguen al grado de copiar sus cartas a los Reyes. Espero que no, porque ¡los pueden cachar!

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

jueves, 1 de enero de 2015

Año nuevo: promesas celulares

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 31 de diciembre  de 2014

La aparición de células con el gen
SOX17 activado (células verdes)
señala el nacimiento del linaje
celular germinal humano
El pasado 24 de diciembre, la revista científica Cell publicó lo que puede considerarse un singular regalo de navidad.

Se trata de una investigación realizada por científicos ingleses e israelíes que lograron por primera vez que células madre humanas (tanto embrionarias como obtenidas a partir de células de piel de adultos) se transformaran en las células que dan origen a óvulos y espermatozoides.

¿Cuál es la importancia de este logro? Directamente, que hasta hoy sólo se había podido lograr en células de ratón; el que se logre con células humanas permitirá investigar más profundamente el complejo proceso de formación de los gametos humanos, lo que en última instancia podría traducirse en nuevos tratamientos contra la infertilidad. Es más: llevando las cosas al extremo, y tomando en cuenta que a partir de las células producidas (técnicamente llamadas células germinales primigenias o primordiales) se pueden obtener tanto óvulos como espermatozoides, quizá podría lograrse que parejas del mismo sexo pudieran tener hijos propios, con un óvulo de un padre y un espermatozoide del otro (en el caso de parejas lésbicas, se podrían obtener bebitas; producir un bebé masculino sería un problema, pues haría falta un cromosoma Y, ya que las mujeres sólo tienen cromosomas X, a diferencia de los hombres, que tienen uno X y uno Y).

Expliquemos un poco. Hace ya unas dos décadas que estamos a la espera de que las llamadas “células madre” cumplan su promesa de nuevas terapias para reparar tejidos y de producir órganos de repuesto a partir de las propias células del paciente. ¿Qué es una célula madre? Técnicamente, una célula capaz de a) reproducirse indefinidamente y b) dar origen a cualquiera de los aproximadamente 200 tipos de células que forman el cuerpo humano.

Las únicas células capaces de esto (células madre totipotenciales) son el óvulo fecundado y las células que se forman cuando éste se divide en las primeras etapas de desarrollo de un embrión. Luego de la unión del óvulo con el espermatozoide, el cigoto u óvulo fecundado comienza a dividirse en dos, cuatro, ocho… células idénticas, hasta formar una bolita de células llamada mórula (porque parece una mora microscópica). Luego ésta se transforma en una esfera hueca, la blástula, cuya capa externa dará origen a la placenta, y dentro de la cual se halla una masa interna de células que posteriormente se transformarán en el embrión propiamente dicho. Éstas son las “células madre embrionarias” (o pluripotenciales). Tienen la capacidad potencial de dar origen a todos los tipos de células del cuerpo humano (aunque ya no a la placenta). Posteriormente, en diversas partes del cuerpo pueden hallarse células madre multipotenciales que pueden generar algunas células del cuerpo, aunque no todas, y que también se están investigando como una alternativa a las células madre embrionarias, cuya obtención a partir de blástulas ha sido objetada por razones éticas.

El problema es que el proceso que controla cómo las células madre embrionarias se transforman en las células de cada tejido y órgano de un cuerpo humano (el proceso de diferenciación) es extremadamente complejo y delicado. Depende de una serie de señales químicas que encienden y apagan los genes adecuados en el momento correcto del desarrollo. Sin este delicado control, pueden dar lugar a tumores llamados teratomas.

Y no es que no haya habido avances. Por ejemplo, en junio de 2014 un equipo de investigadores en Estados Unidos logró producir células de retina a partir de células madre humanas inducidas (es decir, no embrionarias sino obtenidas a partir de células adultas sometidas a ciertos tratamientos), que espontáneamente se organizaron para formar un tejido muy similar a una retina normal. Y en octubre del mismo año, otro equipo estadounidense produjo, a partir de células humanas de piel, células madre inducidas que luego, con la combinación correcta de señales, dieron origen a células intestinales que pudieron formar “organoides” similares a pequeños fragmentos de intestino humano. Más aún: cuando se trasplantaron a ratones especialmente preparados para no rechazar el tejido humano, estos organoides pudieron mostrar algunas de las funciones de un intestino normal. Aun así, los sueños de tener ojos, intestinos, riñones o hígados de repuesto sigue lejano.

El logro navideño del equipo de investigadores de la Universidad de Cambridge, en Inglaterra, y el Instituto Weizmann, en Israel, comandados por Azim Surani, fue descubrir qué señales controlan que ciertas células embrionarias se transformen específicamente en células germinales primigenias, que son las que generan, durante el desarrollo humano, a los gametos: los miles de óvulos y los millones de espermatozoides que cada mujer u hombre produce durante su vida.

En particular, identificaron el papel que juega un gen llamado SOX17 en este proceso de “especificación” que lleva finalmente a la formación de los gametos. Curiosamente, dicho gen no participa en este proceso en los ratones, lo cual nos recuerda, como acertadamente señalan los autores de la investigación, que no todos los descubrimientos hechos en animales pueden extrapolarse directamente a humanos. Identificar las señales y genes específicos que controlan en qué tipo de célula se transforman las células madre será importante para obtener todos los beneficios que esperamos de ellas.

Además, Surani y su equipo produjeron sus células germinales primigenias con una alta eficiencia (40%), y al compararlas con sus equivalentes naturales (obtenidos de fetos abortados), encontraron una alta similitud a nivel molecular. Faltaría ver si estas células pueden efectivamente convertirse en óvulos y espermatozoides que a su vez puedan unirse para producir un embrión humano (como ya se ha logrado en ratones). Pero Jacob Hanna, otro de los investigadores participantes, afirma que él y sus colegas “no están listos para lanzarse a eso”, debido a los problemas éticos involucrados (además del obvio, experimentar con embriones humanos, ocurre que para formar los gametos, las células germinales tendrían que insertarse en testículos u ovarios humanos).

En resumen, se trata de un avance importante, pero la promesa de las células madre sigue siendo eso: una promesa. Las perspectivas, sin embargo, son cada vez más prometedoras. ¡Que tenga usted un muy feliz año nuevo!

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 24 de diciembre de 2014

Periodismo, salud y responsabilidad

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 24 de diciembre  de 2014

¿Puede el periodismo causar daño? Sin duda, de muchas maneras, que se resumen en una: al desinformar. Es decir, al difundir información falsa, inexacta, tendenciosa o insuficiente.

Hablando del periodismo científico en particular, hay una especialidad que tiene una responsabilidad sustancialmente alta: el periodismo médico, que aborda temas de salud. La razón es obvia: mucha de la información que se difunde es leída y dada por buena por muchos lectores, que con base en ella llegan incluso a tomar decisiones –iniciar o abandonar tratamientos, confiar o no en ciertas terapias, cambiar hábitos– que pueden afectar de manera decisiva su salud.

Pero, ¿quién garantiza la calidad y confiabilidad médica y científica de la información sobre salud que se publica en los medios masivos?

En un mundo ideal, habría periodistas especializados en el tema, que tendrían no sólo una formación como comunicadores, sino también conocimientos suficientes –no necesariamente profundos, pero sí amplios y sólidos– sobre temas médicos. Que pudieran distinguir la medicina legítima de las incontables charlatanerías médicas, que fueran capaces de comprender y comunicar las noticias sobre salud de manera comprensible y sin exageraciones ni distorsiones, y que en caso necesario pudieran acudir a especialistas médicos para asesorarse y complementar su información.

En el mundo real, las cosas son muy distintas. No existen espacios para formar a tales comunicadores especializados; y cuando los hay, las redacciones de periódicos y noticieros no suelen valorar la importancia de los temas médicos (y científicos, en general) como para invertir en contratarlos y pagarles adecuadamente. En su lugar, para cubrir dichos temas, suelen asignar a periodistas sin formación específica, que van improvisando su labor como mejor pueden.


Esto causa varios problemas. Uno es la exageración: frecuentemente se presenta alguna investigación médica como “excepcional” y “novedosa”; se infla su importancia e impacto, con la intención de lograr que los medios la publiquen como noticia. Lo curioso es que, al contrario de lo que uno pensaría, esto no suele ser tanto culpa de los reporteros que trabajan en los medios, sino de las universidades e institutos de investigación.

Y es que por desgracia en todo el mundo –y por supuesto en nuestro país– la carencia de especialistas hace que el periodismo en temas de ciencia y salud dependa, en buena medida, de los comunicados de prensa que suelen emitir las instituciones de investigación. Dichos comunicados, normalmente redactados por comunicadores contratados específicamente, y muy frecuentemente en colaboración con los investigadores involucrados en el trabajo que se difunde, son tomados por los medios de comunicación como fuentes confiables, y muchas veces son reproducidos textualmente.

En un reciente artículo en el sitio de internet Vox, Julia Belluz comenta una investigación publicada en el British Medical Journal en que, a partir de 462 comunicados de prensa, que se compararon con las noticias que se publicaron a partir de ellos (y con los artículos científicos originales), se halló que la exageración en las noticias de salud proviene en gran medida la que ya incluyen los comunicados de prensa emitidos por las instituciones de investigación.

Otro estudio, también comentado por Belluz y publicado en la revista PLOS Medicine, muestra que las noticias de salud publicadas en los medios suelen contener sesgos, exageraciones, omisiones o conclusiones no justificadas (como extrapolar a humanos hallazgos hechos en animales) que desinforman al lector, y que pueden afectar las decisiones o la percepción que éste tenga sobre dichos temas.

¿Cómo solucionar estos problemas? Belluz y los autores de los estudios mencionados abogan por fomentar y mejorar la formación de periodistas especializados en salud (y en ciencia en general) que trabajan en los medios. Pero también de los que laboran en las oficinas de comunicación de universidades e instituciones de investigación, y de los científicos que hicieron la investigación original, pues también ellos comparten la responsabilidad de que la información que llega a los ciudadanos sea correcta y útil.

Un buen deseo para pedir a Santa Clós.

¡Mira!

El autor de esta columna le desea a usted una muy feliz navidad.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 17 de diciembre de 2014

Ciencia pirata

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 17 de diciembre  de 2014

La imagen de la ciencia que nos venden en la televisión y otros medios de comunicación, así como en la escuela, es de una simplicidad engañosa. Parecería que todo lo que se necesita para hacer ciencia es tener curiosidad, cierta inteligencia, plantearse algún problema y aplicar un inflexible “método científico” (observación, hipótesis, experimentación, análisis, conclusión…). La realidad es bastante más complicada.

Y es que el conocimiento científico no es algo que simplemente se “descubra” y que, si está apoyado en evidencia sólida, quede “demostrado” de una vez por todas (o al menos hasta que algún avance nos haga cambiarlo por algo mejor). El conocimiento sobre la naturaleza producto de la investigación científica es algo que se construye: tiene, efectivamente, que estar apoyado en datos provenientes de observaciones y experimentos, y de cadenas de razonamiento lógico. Pero además tiene que haber pasado por un cuidadoso proceso de revisión, crítica y evaluación por parte de otros investigadores, para generar un consenso entre expertos que lo valide. En ausencia de ese consenso, ninguna conclusión obtenida por un investigador, por apoyada que parezca estar en sus datos, puede considerarse realmente válida.

El mecanismo de “revisión por pares” (o colegas), que va desde los comentarios dentro de un grupo de investigación hasta las intensas discusiones en seminarios y congresos, culmina con el envío de un artículo a alguna revista científica, que antes de aceptarlo y publicarlo lo somete a la despiadada revisión de varios árbitros expertos en el tema. Es por eso que una investigación que no ha sido aún publicada no puede considerarse plenamente como ciencia legítima, pues no ha pasado aún por este riguroso control de calidad. (Y por supuesto, la cosa no termina ahí: siempre hay posibilidad de hallar defectos, errores u omisiones posteriormente a la publicación del trabajo, que normalmente entonces se corrige o incluso, si el problema es irremediable, puede ser retirado. Lo mismo ocurre si se detecta un fraude científico: que el investigador haya publicado datos falsos.)

A su vez, este sistema permite que los científicos vean evaluado su trabajo con base en el número de artículos que publican, la calidad de las revistas donde son publicados, y la cantidad de veces que dichos trabajos son citados en las publicaciones de otros investigadores. Las calidad de las revistas científicas, a su vez, es evaluada mediante “factores de impacto” que reflejan el número de artículos publicados en ellas que reciben un alto número de citas.

A lo largo de los años, se ha desarrollado una estructura internacional que recopila toda la información que mantiene funcionando este sistema de publicación y evaluación; en particular el Institute for Scientific Information (ISI, Instituto para la Información Científica, hoy parte del grupo de editorial Thomson Reuters), fundado en 1960 por Eugene Garfield, y su voluminosa publicación anual Science Citation Index (Índice de citas científicas, hoy en internet), que permite a todo científico consultar el número de citas que reciben, se convirtieron –a pesar de muchas y bien fundadas críticas– en el estándar para evaluar el trabajo científico.

Hoy ese sistema se ve amenazado.

Ya hemos comentado en este espacio el surgimiento de falsas revistas científicas, que aceptan artículos y los publican sin someterlos a evaluación, pero simulando que lo hacen (y que llegan al extremo de incluir los nombres de científicos famosos en sus inexistentes “comités editoriales”). Estas “revistas depredatorias” son difíciles de detectar –aunque hay ya blogs que se dedican a recopilar y exponer sus nombres y direcciones, para prevenir a incautos– y distorsionan el sistema de control de calidad y evaluación de los científicos.

Pues bien: recientemente se descubrió la existencia de una institución fraudulenta que se hace llamar “Institute for Science Information”, que no tiene nada que ver con el ISI, y cuya dirección web, con evidente mala fe, incluso incluye las palabras “Thomson Reuters”, sin tener nada que ver con esta compañía. Su objetivo: proporcionar a revistas de poca monta, o de plano fraudulentas, “factores de impacto” similares a los que otorga el ISI, para ayudarlas a simular que se trata de revistas serias.

Fraudes científicos, artículos tramposos, revistas falsas y ahora entidades evaluadoras pirata. Si la ciencia mundial quiere mantener su calidad, tendrá que reforzar sus mecanismo de vigilancia y control. De otro modo, pronto podríamos estar inundados de ciencia-basura.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!