miércoles, 28 de agosto de 2013

La creencia en tonterías

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 28 de agosto de 2013

Recientemente tuve la oportunidad de dar algunas charlas e impartir un curso de divulgación científica en Costa Rica. Uno de los temas que salieron a relucir fue qué temas pueden considerarse “ciencia” y cuáles no. En particular, ¿cómo se decide si algo es o no ciencia?

Por ejemplo, ¿son científicos quienes afirman que existen extraterrestres que visitan la Tierra en naves espaciales (ovnis)? ¿Es científica la idea de que el virus del sida no existe, que es un engaño para vender medicamentos caros? ¿Afirma la ciencia que realmente hay un cambio climático global, y que es causado por la actividad humana? ¿Se ha comprobado científicamente que el consumo de vegetales transgénicos daña la salud?

Cada uno de estos temas, algunos más y otros menos, está abierto a debate. En algunos (los dos primeros) existe ya una opinión ampliamente compartida por los expertos en el campo (la ciencia rechaza ambas ideas); en otros (los dos últimos), las opiniones de los especialistas están todavía divididas, aunque el consenso sobre el cambio climático es casi total.

Mi respuesta ante la pregunta de cuál debe ser la postura de un comunicador profesional ante temas polémicos como éstos es sencilla: lo más sensato y responsable es atenerse, precisamente, al consenso científico actual.

La ciencia no es una actividad monolítica, y siempre hay diversidad de opiniones. Tampoco es siempre claro dónde están los límites del conocimiento científico aceptado y dónde empiezan las ideas científicas pero equivocadas, las seudociencias y las simples supersticiones. A veces una idea que se consideraba seudocientífica acaba siendo aceptada, conforme se acumula más evidencia y se construyen argumentos más convincentes y más lógicamente coherentes. (Otras veces ocurre lo contrario: una teoría científica pierde apoyo y termina siendo defendida sólo por un grupo de obstinados que quedan fuera de la comunidad científica: pasan a ser seudocientíficos.) Pero mientras esto no ocurra, una idea que no sea aceptada por la mayoría de la comunidad científica relevante no puede ser considerada como ciencia legítima.

Lo curioso, y a veces preocupante, es que existe una marcada tendencia a creer en este tipo de ideas absurdas, en ausencia de evidencia convincente y a veces contra las opiniones bien informadas. Y esto incluye a gobiernos, funcionarios e instituciones.

El reciente caso del fraudulento “detector molecular” GT200, que luego de varios años de ser denunciado por fin llegó a las primeras planas de los medios mexicanos es un ejemplo. Este supuesto artefacto de alta tecnología carecía de todo componente electrónico –está completamente hueco– y su pretendido funcionamiento contradice cualquier principio físico conocido.

En un reciente artículo en la revista Scientific American Mind (septiembre-octubre 2013), Sander van der Linden describe algunas de las características de las personas que tienden a creer en teorías de conspiración. Entre otras, que creer en una idea seudocientífica facilita que crean en otras; que suelen hallar conexiones entre distintas “conspiraciones”; que son capaces de sostener sin problemas ideas que se contradicen entre sí; que creen en las conspiraciones no tanto con base en la evidencia, sino porque mantienen otras ideas más generales, como la desconfianza hacia la autoridad. Y, finalmente, que tienden a rechazar conclusiones científicas importantes.

Quizá esto pueda ayudar a entender por qué tantas autoridades mexicanas –y de otros países– pudieron creer en un aparato casi mágico, sin someterlo a prueba, aceptando sólo la palabra de quienes lo vendían, y luego se obstinaron en seguirlo usando y defendieron su utilidad, contra de la evidencia y los argumentos
presentados. Y por qué tantos comunicadores se rehusaron, hasta ahora, a investigar el caso y difundirlo ampliamente.

Hoy por fin el caso ha salido ampliamente a la luz; el gobierno de Colima planea demandar al fabricante del aparato (ya condenado en Inglaterra). Pero las fuerzas armadas que lo utilizan, y que enviaron a varias personas a la cárcel con base en su uso, aún no se pronuncian al respecto.

Sí: la gente a veces se obstina en creer en cosas muy tontas.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 21 de agosto de 2013

El caso del anestesista contagioso

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 21 de agosto de 2013

La epidemiología es una rama médica que a veces proporciona relatos dignos de una novela o un programa de televisión.

En febrero de 1998, en Valencia, España, el Departamento de Salud detectó, en pacientes sometidos a cirugía en un hospital privado local, un brote de hepatitis C, infección causada por un virus que se transmite por la sangre (por ejemplo en transfusiones –aunque esto se evita actualmente mediante el adecuado control médico de la sangre– o por compartir jeringas entre drogadictos). Al investigar, lograron relacionar una gran parte de los casos con una persona: un anestesista que trabajaba en dicho hospital, así como en una clínica cercana.

Buscando más posibles pacientes, entre 66 mil operados en los dos hospitales, se identificó a 322 de ellos que habían sido infectados durante un periodo de más de diez años. Todos habían sido tratados por el mismo anestesista, que al parecer se había estado inyectando los analgésicos y anestésicos que luego administraría a sus pacientes, con las mismas jeringas.

¿Caso cerrado? No es tan sencillo.

La corte decidió recurrir a un grupo de expertos en genética médica y evolución molecular, encabezado por Fernando González Candelas, de la Universidad de Valencia, para ayudar a responder varias preguntas: si el acusado era realmente responsable de las infecciones, cuántos de los 322 pacientes fueron de hecho infectados por él, cuándo había ocurrido cada infección y cuándo se había infectado el acusado.

Normalmente las técnicas genéticas se usan en juicios en que hay que determinar la identidad de una persona a partir de una muestra de semen o sangre, por ejemplo en un asesinato o violación, o establecer el parentesco entre dos personas, como ocurre en disputas por paternidad. Para ello se utilizan las llamadas “huellas digitales de ADN”, comparan ciertas regiones de la información genética de una persona que son especialmente variables entre individuos. Se puede hacer así una identificación con alta confiabilidad.

En el caso de Valencia, en cambio, se necesitó reconstruir la evolución del virus de la hepatitis C durante el brote epidémico. Este virus, como el del sida, tiene un genoma de ácido ribonucleico (ARN) y con cada ciclo de reproducción sufre mutaciones. Como consecuencia, evoluciona muy rápidamente. Los expertos tuvieron que estudiar los genomas de los virus de cada paciente y reconstruir su posible evolución –en algunos casos a lo largo de varios años– para compararlos con el del virus del anestesista, para tratar de saber si la infección provenía de éste o de otra fuente. El reto era mayor si tomamos en cuenta que los virus dentro de un mismo individuo van mutando y evolucionando constantemente.

Utilizando computadoras, la técnica conocida como “reloj molecular” (que supone que las mutaciones ocurren a una velocidad constante para estimar durante cuánto tiempo ha evolucionado un genoma) y análisis estadísticos, los peritos, según reportan en la revista BMC Biology (19 de julio del 2013), determinaron que 47 pacientes se habían infectado de otra fuente, y que el anestesista se había infectado unos diez años antes del brote.

El método no es 100% confiable, pero sirvió como evidencia adicional para ayudar a que el culpable fuera condenado. Lo difícil, dicen los peritos, fue hacer entender a abogados y jueces que la evolución no siempre tarda millones de años, sino que en un virus puede ocurrir en meses. Y que, a diferencia de lo que se ve en programas de televisión como CSI, no todos los análisis genéticos son rápidos ni sencillos, ni ofrecen una certeza total.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 14 de agosto de 2013

Ciencia, público e internet

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 14 de agosto de 2013

En los noventa internet servía para buscar información: páginas web, buscadores, enciclopedias, archivos. Pero la llamada red 2.0 implica interacción: de ser un consumidor más o menos pasivo, el usuario –internauta– pasó a tener participación activa no sólo en la búsqueda de información, sino en su discusión, crítica y distribución.

A través de comentarios en blogs, “me gusta” (likes) en Facebook o retuits en Twitter va evaluando, seleccionando y recomendando –positiva o negativamente– la información. Hoy los lectores no sólo leemos y propagamos de boca en boca: influimos, a veces decisivamente, en cómo circula la información. Y ocasionalmente la convertimos en “viral”, logrando que se difunda como epidemia por todo el ciberespacio, infectando millones de cerebros en todo el mundo.

En un comentario publicado en enero en la revista Science, los investigadores Dominique Brossard y Dietram Scheufele, de la Universidad de Wisconsin, discuten algunos de los retos que la era de las redes sociales presenta para la divulgación científica: la manera en que la ciencia se presenta ante el gran público, y que influye fuertemente en la imagen que una sociedad tiene de ella… y en el apoyo que le da.

El periodismo científico, dicen Brossard y Scheufele, ha visto menguar sus espacios: ante la crisis de los medios informativos, causada por internet, muchos diarios y noticiarios han reducido o eliminado sus secciones de ciencia. Estos espacios han sido sustituidos por blogs (ya sea para público familiarizado con la ciencia –blogs de aficionados o “entendidos”– o para público general), grupos de Facebook o cuentas de Twitter, que no siempre tienen los estándares de las secciones de ciencia de medios profesionales.

Otro problema es que la manera en que la gente accede hoy a esa información, a diferencia del internet 1.0, en que se hacía “navegando” más o menos azarosamente o mediante buscadores simples como Altavista o Yahoo, es a través de Google, que mediante un complejo algoritmo “decide” qué información es más relevante para el usuario que hace una búsqueda. Se corre así el riesgo de privilegiar sólo cierta información, la que Google considera más importante, dejando el resto fuera de la vista de los usuarios.

Pero quizá lo más importante es que el contexto en que la información aparece en las redes sociales puede alterar dramáticamente cómo es interpretada por los lectores. Los autores citan un estudio en que un mismo texto (sobre los posibles riesgos de la nanotecnología) se presentó a dos audiencias distintas: en un caso, los comentarios que acompañaban al texto eran amables y civilizados; en el otro, agresivos y polarizados (incluso con insultos). El segundo grupo de lectores tendió a adoptar, asimismo, una visión mucho más polarizada del tema. “En otras palabras –escriben Brossard y Scheufele–, basta con el tono de los comentarios que acompañan a un texto balanceado sobre ciencia en un ambiente web 2.0 para alterar significativamente la opinión de las audiencias sobre la [nano]tecnología misma”.

En la página web Materia, el periodista Javier Salas comenta sobre el texto de Science, y señala que además de los problemas mencionados, hay que tomar en cuenta que en internet muchas veces el ruido suele tener más lectores que el discurso científico atinado; que la brevedad de tuits y comentarios en Facebook aumentan la posibilidad de distorsionar la información, y que muchas veces se corre el riesgo de acabar hablando sólo para los ya convencidos, pues quienes no gustan de la ciencia no suelen leer blogs, ni seguir páginas de Facebook o cuentas de Twitter, dedicados a ella.

Brossard y Scheufele concluyen señalando que urge más investigación sobre la comunicación pública de la ciencia en la red 2.0. De otro modo, debido a la poca habilidad de científicos y divulgadores para usar adecuada y eficazmente estas nuevas herramientas, la percepción pública de la ciencia y la cultura científica de los ciudadanos pueden salir perjudicadas.

No puedo sino estar de acuerdo.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 7 de agosto de 2013

El escándalo de la hamburguesa clonada

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 7 de agosto de 2013

Como bien reporta Milenio Diario, todo mundo está hablando de la hamburguesa clonada. Aunque en realidad no es clonada, sino producto del cultivo in vitro de células de músculo de res obtenidas a partir de células madre musculares del trasero de una vaca.

El escándalo viene principalmente de dos hechos: su precio y su naturaleza. La investigación para lograrla, realizada por Mark Post y su equipo, en la universidad de Maastritch, en Holanda (más precisamente en la provincia de los Países Bajos llamada Limburgo), y financiada por Sergey Brin, uno de los creadores de Google
, costó 248 mil euros (más de 4 millones de pesos) y requirió cinco años.

Como comparación, la hamburguesa más cara del mundo, según el Récord Guiness, es Le Burger Extravagant, servida en el restorán neoyorquino Serendipity 3 y que consta de filete molido de res japonesa Wagyu servida con queso cheddar, trufas negras y un huevo de codorniz, con un costo de 295 dólares (3,700 pesos). (Aunque el récord tiene contrincantes: el principal es la FleurBurger 5000, servida en el restorán francés Fleur de Lys, en Las Vegas, con un costo de 5 mil dólares –63 mil pesos–, hecha con filete Kobe (que es lo mismo que el Wagyu), foie gras, trufas negras, pan brioche con salsa de trufas y viene acompañada de un vino Chateau Pétrus 1990 y una copa Ichendorf Brunello, además de un certificado para comprobar la extravagante comida.)

Claro que el precio de la hamburguesa de Post (¿Postburguesa?) incluye toda los costos de la investigación que ha realizado. La hamburguesa se obtuvo cultivando las células madre en un medio de cultivo –suero fetal bovino– adicionado con compuestos que las inducen a transformarse en células musculares. Y además hay que entrenarlas: el cultivo se realiza sobre unas rejillas de tracción que las estimulan para formen filamentos semejantes a las fibras musculares que constituyen el músculo natural.

Unas 20 mil de estas fibras, de un centímetro de largo, molidas, sirvieron para formar una hamburguesa de 140 gramos, que fue cocinada por el renombrado chef Richard McGowan y degustada por Post y dos críticos culinarios. El veredicto: un poco seca (“le falta grasa”, dijo un crítico, debido a que no había células de grasa en el cultivo. Esto ya ha sido tomado en cuenta por Post para futuros experimentos; ya cuenta con células madre de grasa para ello), y un tanto desabrida, pues el chef la cocinó con demasiada simpleza (sólo mantequilla, aceite de girasol y una pizca de sal).

A mucha gente le repugnaría comer carne cultivada en una caja de Petri: quizá porque nos recuerdan leyendas como la de los pollos transgénicos que son sólo bocas sin plumas ni ojos y con muchas piernas, que supuestamente cultivarían las transnacionales de la comida rápida (y que fueron retomadas en los grotescos “chickienobs” de la magnífica novela Oryx and Crake, de la excelente escritora canadiense Margaret Atwood).

Pero el costo de producir carne a la manera tradicional es enorme. Las vacas son muy poco eficientes: sólo el 15% de lo que comen se transforma en carne. Si tomamos en cuenta que el 70% de la tierra cultivable se dedica a alimentar vacas, y que se estima que la demanda de carne se elevará en un 70% para 2050, producir carne en el laboratorio podría ser una gran idea. (Y sería carne real, en contraste con los recientes rumores de que las hamburguesas de McDonald’s están hechas sólo con desperdicio de carne y cartílago tratado químicamente para darle textura y color.)


Por otro lado, la digestión de las vacas produce una gran cantidad de metano, un gas de invernadero cuyo efecto climático es 21 veces mayor que el del dióxido de carbono; se estima que constituye el 20% de todos los gases de invernadero producidos por actividades humanas. Según estimaciones, el cultivo de carne reduciría un 45% el gasto energético de su producción, un 96% sus emisiones de gases de invernadero, y un 99% la superficie cultivada necesaria. Por no hablar del sufrimiento de los animales que se sacrifican cada año.

Los expertos estiman que la carne cultivada (no “artificial” ni “clonada”) podría comercializarse en unos 10 a 20 años. Antes tendría que resolverse el problema de su cultivo, que requiere… suero de vaca; se piensa que podría llegar a cultivarse a partir de algas. El cultivo a nivel industrial abarataría el costo.

Así que ¿quién sabe? A lo mejor algún día comer carne de vaca auténtica sea un lujo inalcanzable, como hoy en Las Vegas, pero el grueso de la humanidad podría tener a su alcance carne razonablemente sabrosa y nutritiva. Yo, mientras tanto, aprovecharé para ir por una Big Mac. ¡Buen provecho!

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!