miércoles, 4 de septiembre de 2013

¡Terremoto!

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 4 de septiembre de 2013

Hablábamos, la semana pasada, de nuestra preocupante tendencia a creer en tonterías. Pues bien: como yo andaba fuera del país, no me enteré de una más de estas ideas huecas, pero muy contagiosas, que circuló por nuestro país –sobre todo en las redes sociales– hace unas dos semanas.

Se trata de una carta dirigida al presidente Enrique Peña Nieto y publicada el 15 de agosto en un blog perteneciente a un tal Ing. Gabriel Curiel Flores, donde “predice”, con “98% de probabilidad”, que próximamente –entre la fecha de publicación y diciembre de 2013– ocurrirá un sismo de entre 8.2 y 8.5 grados de magnitud, con epicentro entre los estados de Guerrero y Oaxaca, que podría resultar desastroso para la Ciudad de México.

Curiel pide al presidente tomar medidas como detener el reactor de Laguna Verde (que no está en Guerrero, Oaxaca ni la Ciudad de México), evacuar, con ayuda del ejército si es necesario, edificios viejos o dañados en el DF para luego demolerlos, reubicar a enfermos en hospitales y pedir (¡de antemano!) recursos internacionales para enfrentar el desastre.

Aunque la carta de Curiel no pareció causar mayor alarma ni tener repercusión en los medios serios ni en el gobierno, sí causó inquietud y polémica en internet. ¿Por qué es absurda?

El conocimiento científico actual sobre los sismos es que son causados por los movimientos de las placas tectónicas que forman la corteza terrestre. Éstas son más delgadas, en comparación, que la cáscara de un huevo. Pero la cáscara del huevo terrestre está además fragmentada, y los pedazos –las placas– flotan sobre el manto líquido, formado por magma, que está en continuo movimiento debido a la circulación del calor proveniente del interior de la Tierra. El lentísimo movimiento de las placas tectónicas ha causado los cambios en la forma y posición de los continentes; recordemos que hace millones de años formaban una única masa continental conocida como Pangea. La mayoría de los sismos (otros son debidos a la actividad volcánica) son producto de la fricción entre placas contiguas al desplazarse.

La supuesta predicción de Curiel se basa en su “Teoría de las Fuerzas Gravitacionales”, que al parecer combina la concepción cíclica del tiempo de los antiguos mayas (“Mi trabajo […] tiene parte de su fundamento en los cálculos estrictamente astronómicos [científicos] de la cultura maya, y de su forma cíclica de medir el tiempo”, aclara en su blog) con la idea de que “la variación de las fuerzas gravitacionales del Sistema Solar (…) actúan sobre la Tierra” y producen los sismos. Según Curiel, los sismos se presentan en ciclos predecibles.

Como prueba de lo correcto de su “teoría”, Curiel cita el hecho de que en múltiples ocasiones ha predicho sismos en distintos lugares y fechas. Normalmente no acierta ni en uno ni otro dato, ni en las magnitudes (predice sismos de 7 grados o más y ocurren algunos de entre 4 y 5). Como todos los días ocurren multitud de pequeños “microsismos”, y como en zonas sísmicas son también frecuentes y normales los sismos de baja magnitud, siempre es posible decir que se acertó en una “predicción”… si se es lo suficientemente impreciso.

En realidad, Curiel –quien dice tener estudios de Ingeniería Civil en la Universidad Autónoma de Guadalajara (no aclara si se tituló)– no es más que uno más de los muchos charlatanes seudocientíficos que abundan en todo el mundo. La atracción gravitacional no varía cíclicamente. La concepción maya del tiempo cíclico es sólo una tradición religiosa. Y la predicción de sismos, aunque periódicamente resurge –en 2012 unos “investigadores de San Petersburgo, Florida” advirtieron de otro sismo en la Ciudad de México, concretamente para el 22 de marzo– sigue siendo una ilusión científica.

En 2009, en L’Aquila, Italia, un terrible sismo causó unas 300 muertes y múltiples destrozos. En octubre de 2012 seis italianos expertos en sismos fueron condenados a seis años de cárcel ¡por no haberlo predicho! La protesta internacional fue unánime ante este absurdo. Curiel tiene suerte de que en nuestro país los charlatanes como él no sean acusados de lo contrario: difundir rumores seudocientíficos que podrían causar pánico en la población.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 28 de agosto de 2013

La creencia en tonterías

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 28 de agosto de 2013

Recientemente tuve la oportunidad de dar algunas charlas e impartir un curso de divulgación científica en Costa Rica. Uno de los temas que salieron a relucir fue qué temas pueden considerarse “ciencia” y cuáles no. En particular, ¿cómo se decide si algo es o no ciencia?

Por ejemplo, ¿son científicos quienes afirman que existen extraterrestres que visitan la Tierra en naves espaciales (ovnis)? ¿Es científica la idea de que el virus del sida no existe, que es un engaño para vender medicamentos caros? ¿Afirma la ciencia que realmente hay un cambio climático global, y que es causado por la actividad humana? ¿Se ha comprobado científicamente que el consumo de vegetales transgénicos daña la salud?

Cada uno de estos temas, algunos más y otros menos, está abierto a debate. En algunos (los dos primeros) existe ya una opinión ampliamente compartida por los expertos en el campo (la ciencia rechaza ambas ideas); en otros (los dos últimos), las opiniones de los especialistas están todavía divididas, aunque el consenso sobre el cambio climático es casi total.

Mi respuesta ante la pregunta de cuál debe ser la postura de un comunicador profesional ante temas polémicos como éstos es sencilla: lo más sensato y responsable es atenerse, precisamente, al consenso científico actual.

La ciencia no es una actividad monolítica, y siempre hay diversidad de opiniones. Tampoco es siempre claro dónde están los límites del conocimiento científico aceptado y dónde empiezan las ideas científicas pero equivocadas, las seudociencias y las simples supersticiones. A veces una idea que se consideraba seudocientífica acaba siendo aceptada, conforme se acumula más evidencia y se construyen argumentos más convincentes y más lógicamente coherentes. (Otras veces ocurre lo contrario: una teoría científica pierde apoyo y termina siendo defendida sólo por un grupo de obstinados que quedan fuera de la comunidad científica: pasan a ser seudocientíficos.) Pero mientras esto no ocurra, una idea que no sea aceptada por la mayoría de la comunidad científica relevante no puede ser considerada como ciencia legítima.

Lo curioso, y a veces preocupante, es que existe una marcada tendencia a creer en este tipo de ideas absurdas, en ausencia de evidencia convincente y a veces contra las opiniones bien informadas. Y esto incluye a gobiernos, funcionarios e instituciones.

El reciente caso del fraudulento “detector molecular” GT200, que luego de varios años de ser denunciado por fin llegó a las primeras planas de los medios mexicanos es un ejemplo. Este supuesto artefacto de alta tecnología carecía de todo componente electrónico –está completamente hueco– y su pretendido funcionamiento contradice cualquier principio físico conocido.

En un reciente artículo en la revista Scientific American Mind (septiembre-octubre 2013), Sander van der Linden describe algunas de las características de las personas que tienden a creer en teorías de conspiración. Entre otras, que creer en una idea seudocientífica facilita que crean en otras; que suelen hallar conexiones entre distintas “conspiraciones”; que son capaces de sostener sin problemas ideas que se contradicen entre sí; que creen en las conspiraciones no tanto con base en la evidencia, sino porque mantienen otras ideas más generales, como la desconfianza hacia la autoridad. Y, finalmente, que tienden a rechazar conclusiones científicas importantes.

Quizá esto pueda ayudar a entender por qué tantas autoridades mexicanas –y de otros países– pudieron creer en un aparato casi mágico, sin someterlo a prueba, aceptando sólo la palabra de quienes lo vendían, y luego se obstinaron en seguirlo usando y defendieron su utilidad, contra de la evidencia y los argumentos
presentados. Y por qué tantos comunicadores se rehusaron, hasta ahora, a investigar el caso y difundirlo ampliamente.

Hoy por fin el caso ha salido ampliamente a la luz; el gobierno de Colima planea demandar al fabricante del aparato (ya condenado en Inglaterra). Pero las fuerzas armadas que lo utilizan, y que enviaron a varias personas a la cárcel con base en su uso, aún no se pronuncian al respecto.

Sí: la gente a veces se obstina en creer en cosas muy tontas.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 21 de agosto de 2013

El caso del anestesista contagioso

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 21 de agosto de 2013

La epidemiología es una rama médica que a veces proporciona relatos dignos de una novela o un programa de televisión.

En febrero de 1998, en Valencia, España, el Departamento de Salud detectó, en pacientes sometidos a cirugía en un hospital privado local, un brote de hepatitis C, infección causada por un virus que se transmite por la sangre (por ejemplo en transfusiones –aunque esto se evita actualmente mediante el adecuado control médico de la sangre– o por compartir jeringas entre drogadictos). Al investigar, lograron relacionar una gran parte de los casos con una persona: un anestesista que trabajaba en dicho hospital, así como en una clínica cercana.

Buscando más posibles pacientes, entre 66 mil operados en los dos hospitales, se identificó a 322 de ellos que habían sido infectados durante un periodo de más de diez años. Todos habían sido tratados por el mismo anestesista, que al parecer se había estado inyectando los analgésicos y anestésicos que luego administraría a sus pacientes, con las mismas jeringas.

¿Caso cerrado? No es tan sencillo.

La corte decidió recurrir a un grupo de expertos en genética médica y evolución molecular, encabezado por Fernando González Candelas, de la Universidad de Valencia, para ayudar a responder varias preguntas: si el acusado era realmente responsable de las infecciones, cuántos de los 322 pacientes fueron de hecho infectados por él, cuándo había ocurrido cada infección y cuándo se había infectado el acusado.

Normalmente las técnicas genéticas se usan en juicios en que hay que determinar la identidad de una persona a partir de una muestra de semen o sangre, por ejemplo en un asesinato o violación, o establecer el parentesco entre dos personas, como ocurre en disputas por paternidad. Para ello se utilizan las llamadas “huellas digitales de ADN”, comparan ciertas regiones de la información genética de una persona que son especialmente variables entre individuos. Se puede hacer así una identificación con alta confiabilidad.

En el caso de Valencia, en cambio, se necesitó reconstruir la evolución del virus de la hepatitis C durante el brote epidémico. Este virus, como el del sida, tiene un genoma de ácido ribonucleico (ARN) y con cada ciclo de reproducción sufre mutaciones. Como consecuencia, evoluciona muy rápidamente. Los expertos tuvieron que estudiar los genomas de los virus de cada paciente y reconstruir su posible evolución –en algunos casos a lo largo de varios años– para compararlos con el del virus del anestesista, para tratar de saber si la infección provenía de éste o de otra fuente. El reto era mayor si tomamos en cuenta que los virus dentro de un mismo individuo van mutando y evolucionando constantemente.

Utilizando computadoras, la técnica conocida como “reloj molecular” (que supone que las mutaciones ocurren a una velocidad constante para estimar durante cuánto tiempo ha evolucionado un genoma) y análisis estadísticos, los peritos, según reportan en la revista BMC Biology (19 de julio del 2013), determinaron que 47 pacientes se habían infectado de otra fuente, y que el anestesista se había infectado unos diez años antes del brote.

El método no es 100% confiable, pero sirvió como evidencia adicional para ayudar a que el culpable fuera condenado. Lo difícil, dicen los peritos, fue hacer entender a abogados y jueces que la evolución no siempre tarda millones de años, sino que en un virus puede ocurrir en meses. Y que, a diferencia de lo que se ve en programas de televisión como CSI, no todos los análisis genéticos son rápidos ni sencillos, ni ofrecen una certeza total.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 14 de agosto de 2013

Ciencia, público e internet

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 14 de agosto de 2013

En los noventa internet servía para buscar información: páginas web, buscadores, enciclopedias, archivos. Pero la llamada red 2.0 implica interacción: de ser un consumidor más o menos pasivo, el usuario –internauta– pasó a tener participación activa no sólo en la búsqueda de información, sino en su discusión, crítica y distribución.

A través de comentarios en blogs, “me gusta” (likes) en Facebook o retuits en Twitter va evaluando, seleccionando y recomendando –positiva o negativamente– la información. Hoy los lectores no sólo leemos y propagamos de boca en boca: influimos, a veces decisivamente, en cómo circula la información. Y ocasionalmente la convertimos en “viral”, logrando que se difunda como epidemia por todo el ciberespacio, infectando millones de cerebros en todo el mundo.

En un comentario publicado en enero en la revista Science, los investigadores Dominique Brossard y Dietram Scheufele, de la Universidad de Wisconsin, discuten algunos de los retos que la era de las redes sociales presenta para la divulgación científica: la manera en que la ciencia se presenta ante el gran público, y que influye fuertemente en la imagen que una sociedad tiene de ella… y en el apoyo que le da.

El periodismo científico, dicen Brossard y Scheufele, ha visto menguar sus espacios: ante la crisis de los medios informativos, causada por internet, muchos diarios y noticiarios han reducido o eliminado sus secciones de ciencia. Estos espacios han sido sustituidos por blogs (ya sea para público familiarizado con la ciencia –blogs de aficionados o “entendidos”– o para público general), grupos de Facebook o cuentas de Twitter, que no siempre tienen los estándares de las secciones de ciencia de medios profesionales.

Otro problema es que la manera en que la gente accede hoy a esa información, a diferencia del internet 1.0, en que se hacía “navegando” más o menos azarosamente o mediante buscadores simples como Altavista o Yahoo, es a través de Google, que mediante un complejo algoritmo “decide” qué información es más relevante para el usuario que hace una búsqueda. Se corre así el riesgo de privilegiar sólo cierta información, la que Google considera más importante, dejando el resto fuera de la vista de los usuarios.

Pero quizá lo más importante es que el contexto en que la información aparece en las redes sociales puede alterar dramáticamente cómo es interpretada por los lectores. Los autores citan un estudio en que un mismo texto (sobre los posibles riesgos de la nanotecnología) se presentó a dos audiencias distintas: en un caso, los comentarios que acompañaban al texto eran amables y civilizados; en el otro, agresivos y polarizados (incluso con insultos). El segundo grupo de lectores tendió a adoptar, asimismo, una visión mucho más polarizada del tema. “En otras palabras –escriben Brossard y Scheufele–, basta con el tono de los comentarios que acompañan a un texto balanceado sobre ciencia en un ambiente web 2.0 para alterar significativamente la opinión de las audiencias sobre la [nano]tecnología misma”.

En la página web Materia, el periodista Javier Salas comenta sobre el texto de Science, y señala que además de los problemas mencionados, hay que tomar en cuenta que en internet muchas veces el ruido suele tener más lectores que el discurso científico atinado; que la brevedad de tuits y comentarios en Facebook aumentan la posibilidad de distorsionar la información, y que muchas veces se corre el riesgo de acabar hablando sólo para los ya convencidos, pues quienes no gustan de la ciencia no suelen leer blogs, ni seguir páginas de Facebook o cuentas de Twitter, dedicados a ella.

Brossard y Scheufele concluyen señalando que urge más investigación sobre la comunicación pública de la ciencia en la red 2.0. De otro modo, debido a la poca habilidad de científicos y divulgadores para usar adecuada y eficazmente estas nuevas herramientas, la percepción pública de la ciencia y la cultura científica de los ciudadanos pueden salir perjudicadas.

No puedo sino estar de acuerdo.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 7 de agosto de 2013

El escándalo de la hamburguesa clonada

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 7 de agosto de 2013

Como bien reporta Milenio Diario, todo mundo está hablando de la hamburguesa clonada. Aunque en realidad no es clonada, sino producto del cultivo in vitro de células de músculo de res obtenidas a partir de células madre musculares del trasero de una vaca.

El escándalo viene principalmente de dos hechos: su precio y su naturaleza. La investigación para lograrla, realizada por Mark Post y su equipo, en la universidad de Maastritch, en Holanda (más precisamente en la provincia de los Países Bajos llamada Limburgo), y financiada por Sergey Brin, uno de los creadores de Google
, costó 248 mil euros (más de 4 millones de pesos) y requirió cinco años.

Como comparación, la hamburguesa más cara del mundo, según el Récord Guiness, es Le Burger Extravagant, servida en el restorán neoyorquino Serendipity 3 y que consta de filete molido de res japonesa Wagyu servida con queso cheddar, trufas negras y un huevo de codorniz, con un costo de 295 dólares (3,700 pesos). (Aunque el récord tiene contrincantes: el principal es la FleurBurger 5000, servida en el restorán francés Fleur de Lys, en Las Vegas, con un costo de 5 mil dólares –63 mil pesos–, hecha con filete Kobe (que es lo mismo que el Wagyu), foie gras, trufas negras, pan brioche con salsa de trufas y viene acompañada de un vino Chateau Pétrus 1990 y una copa Ichendorf Brunello, además de un certificado para comprobar la extravagante comida.)

Claro que el precio de la hamburguesa de Post (¿Postburguesa?) incluye toda los costos de la investigación que ha realizado. La hamburguesa se obtuvo cultivando las células madre en un medio de cultivo –suero fetal bovino– adicionado con compuestos que las inducen a transformarse en células musculares. Y además hay que entrenarlas: el cultivo se realiza sobre unas rejillas de tracción que las estimulan para formen filamentos semejantes a las fibras musculares que constituyen el músculo natural.

Unas 20 mil de estas fibras, de un centímetro de largo, molidas, sirvieron para formar una hamburguesa de 140 gramos, que fue cocinada por el renombrado chef Richard McGowan y degustada por Post y dos críticos culinarios. El veredicto: un poco seca (“le falta grasa”, dijo un crítico, debido a que no había células de grasa en el cultivo. Esto ya ha sido tomado en cuenta por Post para futuros experimentos; ya cuenta con células madre de grasa para ello), y un tanto desabrida, pues el chef la cocinó con demasiada simpleza (sólo mantequilla, aceite de girasol y una pizca de sal).

A mucha gente le repugnaría comer carne cultivada en una caja de Petri: quizá porque nos recuerdan leyendas como la de los pollos transgénicos que son sólo bocas sin plumas ni ojos y con muchas piernas, que supuestamente cultivarían las transnacionales de la comida rápida (y que fueron retomadas en los grotescos “chickienobs” de la magnífica novela Oryx and Crake, de la excelente escritora canadiense Margaret Atwood).

Pero el costo de producir carne a la manera tradicional es enorme. Las vacas son muy poco eficientes: sólo el 15% de lo que comen se transforma en carne. Si tomamos en cuenta que el 70% de la tierra cultivable se dedica a alimentar vacas, y que se estima que la demanda de carne se elevará en un 70% para 2050, producir carne en el laboratorio podría ser una gran idea. (Y sería carne real, en contraste con los recientes rumores de que las hamburguesas de McDonald’s están hechas sólo con desperdicio de carne y cartílago tratado químicamente para darle textura y color.)


Por otro lado, la digestión de las vacas produce una gran cantidad de metano, un gas de invernadero cuyo efecto climático es 21 veces mayor que el del dióxido de carbono; se estima que constituye el 20% de todos los gases de invernadero producidos por actividades humanas. Según estimaciones, el cultivo de carne reduciría un 45% el gasto energético de su producción, un 96% sus emisiones de gases de invernadero, y un 99% la superficie cultivada necesaria. Por no hablar del sufrimiento de los animales que se sacrifican cada año.

Los expertos estiman que la carne cultivada (no “artificial” ni “clonada”) podría comercializarse en unos 10 a 20 años. Antes tendría que resolverse el problema de su cultivo, que requiere… suero de vaca; se piensa que podría llegar a cultivarse a partir de algas. El cultivo a nivel industrial abarataría el costo.

Así que ¿quién sabe? A lo mejor algún día comer carne de vaca auténtica sea un lujo inalcanzable, como hoy en Las Vegas, pero el grueso de la humanidad podría tener a su alcance carne razonablemente sabrosa y nutritiva. Yo, mientras tanto, aprovecharé para ir por una Big Mac. ¡Buen provecho!

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 31 de julio de 2013

Por qué no me gustó Guerra mundial Z

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 31 de julio de 2013

Me pongo mis cachuchas alternas de fan de ciencia ficción y de crítico banquetero de cine (sin la menor pretensión de autoridad en ninguno de los dos campos, por supuesto) para comentar mis impresiones sobre la última película de zombis, Guerra mundial Z (Marc Forster, 2013).

No es que no la haya disfrutado: como se espera de una película “palomera”, es emocionante y divertida. Tampoco es que odie a Brad Pitt (aunque sí creo que se debería operar esas bolsas bajo los ojos). Pero no puedo negar que salí del cine con un sentimiento de frustración: el planteamiento se me hizo tan ridículo como para resultar molesto.

Claro que, ya desde el clásico de George A. Romero, La noche de los muertos vivientes (1968), en toda película de zombis el planteamiento inicial es, necesariamente, ridículo. ¿Quién encontraría plausible que unos cadáveres puedan revivir, ya sin conciencia humana, debido a alguna especie de virus o agente infeccioso, para volverse caníbales y convertir a su vez en zombis a otras personas? (lo cual es, también, un poco confuso).

Como en toda obra de ciencia ficción, lo primero es suspender la incredulidad y aceptar una premisa fantástica. Una máquina que puede viajar en el tiempo; la posibilidad de hacer invisible a un hombre; un mundo en que los simios evolucionaron y se impusieron a los humanos. Pero la buena ciencia ficción trata de hacer un planteamiento lo más coherente posible con el conocimiento científico actual. Hasta aquí, todo va bien: en la película se hace referencia leve a parásitos que sabemos que manipulan y "esclavizan" el sistema nervioso de distintos animales para obligarlos a efectuar ciertos comportamientos: virus como el de la rabia, que produce agresión en mamíferos, o protozoarios como los que hacen que las ratas pierdan el miedo a los gatos, o que las hormigas trepen a lo alto de la hierba para ser comidas por las vacas (me dicen que en la novela de Max Brooks en que se basó la cinta estas referencias son más detalladas).

No. Mi queja se refiere a la solución que se plantea al problema (ojo, spoiler alert: no siga leyendo si no quiere enterarse del final de la película): proponer que los zombis, mediante algún extraño mecanismo de “adaptación” evolutiva, pueden detectar e ignorar a los humanos enfermos –¡de cualquier cosa!: cáncer, infecciones–, y usar eso para crear una “vacuna” contra ellos es, simplemente, absurdo. Casi tan ridículo como que los creadores de The Matrix hayan justificado su maravillosa fantasía distópica con la idea de que los seres humanos eran ¡una buena fuente de energía eléctrica!

Tratar de justificar “darwinianamente” un deus ex machina, un recurso tan evidentemente sacado de la manga, sólo demuestra la poca imaginación de los creadores, y el poco trabajo que se tomaron para conocer un poco más de ciencia: no hubiera sido tan difícil plantear una solución que sí fuera científicamente verosímil. Lástima.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 24 de julio de 2013

GT200: la estafa y la negación

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 24 de julio de 2013

La estafa:

Un vivales se dedica a vender a distintos gobiernos de mundo un supuesto “detector molecular” para buscar armas, explosivos, drogas, y prácticamente cualquier sustancia (marfil, trufas, ¡y hasta pelotas de golf!).

El aparatito, llamado GT200, consiste en un mango al que está unida una antena que rota libremente. No requiere fuente de energía: se alimenta de la “energía del cuerpo humano”, generada por el usuario al caminar. Se afirma que, luego de “programarlo” insertando la tarjeta adecuada, el artefacto capta a una distancia de decenas de metros las “vibraciones moleculares” de las sustancias buscadas.

Varios países –Estados Unidos, Inglaterra, Tailandia… y México, donde se le conoce como “la ouija del diablo”– caen en el engaño. Algunos, como nuestros vecinos del norte –que lo intentaron usar, con nulos resultados, para detectar drogas o armas en las escuelas–, pronto se dan cuenta de que se trata de un fraude. Aunque sí existen técnicas de espectroscopía capaces de detectar distintas sustancias por medio de la radiación que emiten, no hay ninguna capaz de hacerlo a distancia y de manera instantánea.

Más aún: al estudiarlo, el aparato resulta carecer de cualquier componente electrónico que pudiera justificar su supuesto funcionamiento: está completamente hueco. La antena gira a merced de los movimientos involuntarios de los músculos del operario, influidos inconscientemente por sus prejuicios y sesgos (exactamente el mismo fenómeno que se presenta en la famosa ouija: el efecto ideomotor).

Otros países, como Tailandia, necesitan una tragedia –el estallido de un cargamento explosivo no detectado por el GT200; un ejemplo de “falso negativo” en el uso del “detector”– para darse cuenta de la estafa. El gobierno británico emite una alerta a otros gobiernos para que no confíen en la fraudulenta varita mágica, equivalente a la que usan zahoríes o rabdomantes para buscar agua. El gobierno mexicano la desoye: en el sexenio anterior se invirtieron 450 millones de pesos en comprar 1,112 detectores, para uso de fuerzas armadas, policías e instituciones como Pemex.

La negación:

Salvo algunas notas aisladas, o algunos columnistas –un servidor entre ellos–, los medios nacionales ignoran el caso, a pesar de la insistencia de varios ciudadanos bien informados interesados en difundir los datos respecto a esta peligrosa estafa. Pasan varios años; cambia el gobierno.

Y mientras, debido a casos de “falso positivo”, varios ciudadanos, señalados por la antenita mágica, son injustamente acusados de tráfico de armas o drogas, juzgados y encarcelados. Es hasta que intervienen peritos científicos que el caso llega a la atención de los defensores de los derechos humanos, y de ahí a algunos medios noticiosos. Aun así, ningún diario o noticiario presenta esta noticia, servida en bandeja de plata, en la primera plana que merecería.

Hasta que la semana pasada el diario El Universal lo hace, dos días seguidos. Algunos de los acusados ya han sido liberados; la Academia Mexicana de Ciencias ya realizó una evaluación –como si hiciera falta– que confirmó la completa inutilidad del GT200. En Gran Bretaña, sus fabricantes están siendo enjuiciados y condenados.

Y aun así, sólo hay silencio de los gobiernos federal y estatales, y de las fuerzas armadas. Y peor: el gobernador de Colima, Mario Anguiano, hace el papelón de declarar, a pesar de la evidencia del timo, que “han sido utilizados con éxito y han cumplido” (el investigador del Instituto de Ciencias Físicas de la UNAM, Luis Mochán, uno de los principales expositores del fraude y organizador de la prueba de doble ciego realizada en la AMC, lo ha invitado ya a someter a prueba sus detectores GT200 y sus similares, los ADE651, igualmente inútiles).

Sólo una triste conclusión es posible: falta mucha cultura científica en este pobre país.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 17 de julio de 2013

Microbios oscuros

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 17 de julio de 2013

La materia oscura es eso que no sabemos qué es, pero que tiene gravedad y que forma el 27% del universo conocido (la mayor parte, el 68% lo forma algo todavía más extraño, la energía oscura; sólo el 5% del universo está compuesto de materia ordinaria).

Es por eso que a los microbiólogos les pareció buena idea, para referirse a la gran cantidad de microorganismos (bacterias y sus primas, las arquea, antes conocidas como arqueobacterias) que sabemos que existen en nuestro planeta, pero que no conocemos, llamarlas “materia oscura microbiana”.

Y no las conocemos porque no las hemos podido aislar y cultivar, métodos tradicionales con que contaban los microbiólogos para estudiarlas. Si algo no puede cultivarse en una caja de Petri o un matraz, no pueden estudiarse sus propiedades de crecimiento, ni se le pueden hacer pruebas bioquímicas.

Pero las modernas tecnologías moleculares han permitido el surgimiento de métodos novedosos que se basan en estudiar ya no una célula viva, sino sus genes –su genoma–, y extrapolar a partir de éste para conocer su clasificación en relación con otras especies en el árbol evolutivo, su bioquímica y fisiología, y hasta su papel ecológico.

La metagenómica, hoy muy de moda, se basa en extraer el ADN de todas las células presentes en una muestra –de agua de mar, del interior de un intestino humano, del suelo– y leer toda la información contenida en él ("secuenciarlo", en la jerga de los especialistas). Luego, mediante computadoras, y comparando con los genomas de otras especies ya estudiadas, se deduce cuántas especies distintas, muchas veces desconocidas, están presentes, y varias de sus peculiaridades.

Pero desde hace dos o tres años los biólogos moleculares cuentan con una nueva herramienta: la posibilidad de secuenciar el genoma de una sola célula. Y no es que el problema sea aislarla –es difícil, pero posible–, sino extraer su ADN y luego “amplificarlo”, haciendo millones de copias hasta obtener una cantidad suficiente para ser leído y analizado, sin introducir muchos errores. Gracias a los estudios de Nicholas Levin, de la Universidad de Texas, hoy la tecnología de secuenciación monocelular es cada día más práctica y menos cara.

Muestra de su importancia creciente –además de estudios de las distintas células que forman un tumor, por ejemplo, que han permitido distinguir subpoblaciones con diferentes características de crecimiento y distinta resistencia a la quimioterapia, que pueden derivar en mejores tratamientos– es un reciente trabajo publicado en la revista Nature por el equipo encabezado por Tanja Woyke, del Instituto Genómico Conjunto del Departamento de Energía del Gobierno de los Estados Unidos, en California. Usando muestras obtenidas de nueve distintos ambientes –minas, océanos, ventilas hidrotermales submarinas y hasta un biorreactor–, secuenciaron 201 genomas de especies de bacterias y arquea nunca antes cultivadas, y descubrieron que varias de ellas presentan propiedades novedosas, que cambian lo que se sabía sobre su clasificación y sobre las fronteras entre los reinos de los seres vivos.

El avance de la tecnología siempre arrastra a la ciencia a explorar nuevos horizontes. Quizá en un futuro cercano la materia oscura microbiana vaya dejando de serlo. Así podremos tener una visión más realista de la verdadera diversidad biológica de éste, el planeta de los microbios.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 10 de julio de 2013

El milagro Tico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 10 de julio de 2013

El 1º de mayo de 2011, el fantasma de un hombre muerto seis años antes bajó a la Tierra (o quizá actuó a control remoto) y curó “inexplicablemente” el aneurisma cerebral de la costarricense Floribeth Mora, que según los diagnósticos médicos la condenaba como máximo a un mes de vida. Justo ese día el hombre que fue en vida ese espíritu, Karol Wojtyla, conocido como el Papa Juan Pablo II, había sido beatificado, primer paso para acceder a la santidad.

O al menos eso es lo que afirma la Congregación para las Causas de los Santos, órgano de la iglesia católica que regula los procesos de canonización, al sostener que la “misteriosa” curación de Floribeth constituye el segundo milagro de Wojtyla (el primero fue la igualmente “inexplicable” remisión del mal de Parkinson que sufría la monja francesa Marie Simon-Pierre, en 2005, luego de encomendarse al Papa, muerto seis meses antes... uno se pregunta cómo no se curó el Papa su propio Parkinson).

¿Serán realmente estos dos casos prueba suficiente de los poderes milagrosos del difunto pontífice? Un milagro es por definición, según la Real Academia, un “hecho no explicable por las leyes naturales y que se atribuye a intervención sobrenatural de origen divino”. Si de suspender las leyes naturales se trata, al comparar los milagros de la Biblia (crear el universo, causar un diluvio, partir el mar, detener el sol, revivir a los muertos, convertir el agua en vino, levitar) con los muy modestos milagros actuales, que son siempre curaciones “inexplicables”, parecería que el poder de la intervención divina se ha venido debilitando significativamente con el paso del tiempo.

O quizá sea el avance de la ciencia el que poco a poco ha ido arrinconado a la fe. Y es de esperar que la tendencia continúe. Como bien explica el cosmólogo y divulgador científico Lawrence Krauss en un artículo en el diario Los Angeles Times, los sistemas biológicos son muy complejos, y en toda enfermedad hay cierto porcentaje de casos que se curan espontáneamente. Si esto ocurre justo después de encomendarse al papa (o de frotarse con un cuarzo), resultará muy difícil convencer al paciente de que no está frente a una cura milagrosa.

En 1947, el psicólogo B. F. Skinner, padre del conductismo, llevó a cabo un experimento con palomas: si se les proporcionaba un premio de manera aleatoria, las aves tendían a asociarlo arbitrariamente con algún movimiento que hubieran estado realizando, como girar a la izquierda, y tendían a repetir dicho movimiento buscando de nuevo el premio. Dicho “comportamiento supersticioso” es sólo un mal funcionamiento del condicionamiento que normalmente nos permite a los animales adaptarnos a los estímulos de nuestro medio.


Toda religión es respetable, pero tratándose de una que tradicionalmente se ha confrontado con la ciencia y que todavía hoy se opone a los derechos humanos de diversos grupos (basta con ver las recientísimas declaraciones del arzobispo de San José de Costa Rica, Hugo Barrantes: “el pecado no es ser gay, sino practicarlo”), quizá el Vaticano haría bien en recordar, hoy que se plantea canonizar a Wojtyla, que la verdadera fe no requiere de pruebas, y que “inexplicado” no es lo mismo que “inexplicable”.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 3 de julio de 2013

Nuestra infantil ciencia

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 3 de julio de 2013

Recientemente me topé con una cita de Albert Einstein que hace mucho no leía: “En mi larga vida he aprendido una cosa: que toda nuestra ciencia, comparada con la realidad, es primitiva e infantil, pero que, a pesar de todo, es lo más valioso que tenemos” (la cita proviene de una carta a Hans Muehsam, fechada en 1951).

Viniendo de Einstein, la frase suena extraña: uno de los titanes de la ciencia contemporánea pareciera estar denigrando a esa ciencia que él precisamente ha ayudado a construir. Y viene como anillo al dedo para quienes desconfían de ella y la consideran tan sólo otro conjunto arbitrario de creencias, construido para justificar una particular visión del mundo, no distinta de otras, con fines de dominación y poder.

Pero Einstein tiene razón: la ciencia no es la verdad absoluta sobre el mundo. Ni siquiera es conocimiento completamente certero, exacto, objetivo sobre el mundo. Como bien saben los epistemólogos y filósofos de la ciencia, y como saben los verdaderos científicos –y no meros investigadores– que se molestan en profundizar en los fundamentos metodológicos y filosóficos de su oficio (Einstein era de esos), la ciencia es sólo un conjunto de representaciones del mundo natural, que aspira no a reproducirlo tal cual es, sino a algo mucho más modesto: a proporcionarnos conocimiento útil y confiable sobre ese mundo.

Hay otra cita de Einstein, más amplia, que explica mejor este asunto, que ha llevado a interminables disputas entre filósofos y científicos: “La ciencia sin epistemología [teoría del conocimiento] es –en la medida en que sea concebible– primitiva y confusa. Sin embargo, tan pronto como el epistemólogo, que busca un sistema claro, se abre camino a través de él, tiende a interpretar el contenido especulativo de la ciencia según los parámetros de ese sistema y a rechazar lo que no encaje en él. El científico, por el contrario, no puede (…) permitirse ser restringido (…) por la adherencia a un sistema epistemológico (…) Por tanto, aparece ante el epistemólogo sistemático como un oportunista sin escrúpulos” (Albert Einstein: Philosopher-Scientist, 1949).

Y es que, en efecto, independientemente de los problemas filosóficos, el hecho es que la ciencia funciona. Aviones que vuelan, antibióticos y quimioterapia eficaces contra cáncer y sida, cohetes espaciales y satélites, telecomunicación y computación son sólo algunas pruebas.

En efecto, la ciencia es pragmática. Pero nos ofrece la imagen más precisa y honesta que tenemos del mundo en que vivimos. Aunque sea “primitiva e infantil”, no es por ello menos valiosa.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!