domingo, 26 de noviembre de 2017

La era de la locura

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 26 de noviembre  de 2017

El mundo parece estarse yendo a la mierda. En muchos sentidos, pero hoy quiero referirme a uno muy específico: al preocupante hecho de que nuestra especie está perdiendo lo más valioso que tiene, el conocimiento, para sustituirlo por la locura.

Un ejemplo concreto: hace unos diez años, en los cursos que constantemente imparto sobre cómo escribir de ciencia para un público general, cuando en la sección dedicada al combate a las seudociencias (una parte importante, aunque poco apreciada, de la labor de divulgación científica), solía mencionar la existencia de personas que creen que la Tierra es plana, e incluso le mostraba a los alumnos la existencia de una “Sociedad de la Tierra Plana” (Flat Earth Society). Su reacción era de absoluta incredulidad: no podían concebir que hubiera gente que realmente creyera tonterías como esa.

Hoy las cosas son muy distintas: no sólo hallamos por todos lados noticias sobre “tierraplanistas” (especialmente en internet, y especialmente videos en YouTube dando elaboradas explicaciones de por qué creen tal cosa), sino que la semana pasada nos enteramos por la prensa y los medios masivos de la celebración en Carolina del Norte de la primera Conferencia Internacional de la Tierra Plana (Flat Earth International Conference, o FEIC), evento que, según reportó Milenio Diario el pasado 21 de noviembre, está “destinado a cuestionar que la Tierra sea esférica”.

Más específicamente, según la página web oficial del evento, tenía como propósito “la verdadera investigación científica sobre la Tierra creada” (cursivas mías). Los argumentos que dan los creyentes en la Tierra plana son francamente hilarantes: una conspiración mundial que agruparía a todas las potencias espaciales, el uso de photoshop para alterar todas las fotos que muestran a la Tierra desde el espacio, la negación de toda la física, desde Newton hasta Einstein, que explica la gravedad y el movimiento de los cuerpos (para algunos tierraplanistas –porque hay varias subespecies– la gravedad es sólo el efecto del avance del disco plano de la Tierra a través del espacio, que nos mantiene pegados al suelo) y muchas otras tonterías.

Por supuesto, la idea de una Tierra plana es muy antigua y está ligada a muchas viejas concepciones mítico-religiosas, como la de que el firmamento está pintado en una inmensa cúpula que cubre todo el mundo, a través de la cual se mueven la Luna y los planetas… de algún modo. Muchos tierraplanistas creen también que los límites de lo que tendríamos que llamar “el disco terrestre” están formados por un muro inaccesible de hielo, por el que nada puede pasar. Cuando se les cuestiona sobre si creen que debajo de la Tierra plana haya cuatro elefantes sostenidos por una inmensa tortuga, o alguna otra de las múltiples creencias antiguas sobre el tema, simplemente eluden la pregunta diciendo que “nadie puede saber” qué hay más allá del mundo conocido.

Rascando un poquito se descubre pronto que muchos de los defensores de la Tierra plana basan su creencia en ideas religiosas (de ahí lo de “Tierra creada”), sobre todo provenientes del cristianismo literalista de muchas iglesias protestantes norteamericanas. Milenio reporta que el organizador de la Conferencia, un tal Robbie Davidson, afirma que la visión científica del mundo (que él califica de “agenda” y llama, confusamente, “cientificismo”) busca, a través de ideas como la evolución o la teoría del Big Bang, “alejar a las personas de dios”.

Usted podría pensar que se trata sólo de un grupo de locos. Pero es un grupo creciente. Y no se trata sólo de los tierraplanistas y de los fanáticos religiosos extremos que niegan la evolución y defienden el creacionismo y la interpretación literal de la Biblia, incluyendo la creación de Adán y Eva, el diluvio y el arca de Noé. Están también los negacionistas del sida, que no creen que esta enfermedad sea contagiosa ni producida por un virus; los negacionistas del cambio climático, de los cuales el más peligroso es hoy presidente de los Estados Unidos; los negacionistas de las vacunas, que siguen creciendo en número y han logrado ya que en varios países resurjan los brotes de enfermedades ya controladas y casi eliminadas, como sarampión o paperas. Y muchos otros que desconfían, por sistema, del conocimiento científico y defienden las más peregrinas y peligrosas teorías de conspiración.

Se trata, literalmente, de la decadencia de una cultura global, surgida desde la Grecia antigua, retomada, luego de una oscura Edad Media, durante el Renacimiento, y que gracias a la Ilustración llegó a ser la base de las sociedades modernas. Hoy, gracias a los fenómenos paralelos del deterioro de la educación a nivel global, y del surgimiento de la era de la información, se han dado las condiciones para su caída.

La era de la información trajo consigo, paradójicamente, a la era de la desinformación. Y desinformación no quiere decir falta de información, sino por el contrario, un exceso de información errónea, falsa, sesgada y malintencionada (otros nombres que recibe son fake news, posverdad). Y ésta circula gracias dos factores. Uno, la facilidad con que ciertas personas pueden caer en un exceso de racionalización que toma datos creíbles y lógicos, pero falsos, o bien elegidos selectivamente para apoyar una conclusión previa (lo que en inglés de llama cherry-picking), para acabar creyendo ciegamente en teorías de conspiración. Y dos, la facilidad con que podemos transmitir información de forma instantánea, masiva y gratuita a través de internet y las redes sociales virtuales.

Urge que, como sociedades a nivel mundial, hagamos algo para evitar la inminente nueva Edad Media que nos amenaza. Y las únicas armas de que disponemos son las mismas que siempre hemos tenido: la educación y la defensa de la cultura y el conocimiento.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

domingo, 19 de noviembre de 2017

El fracaso de Peña Nieto

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 19 de noviembre  de 2017

En junio de 2012, durante la campaña presidencial, Enrique Peña Nieto hizo enviar un correo electrónico a todos los miembros del Sistema Nacional de Investigadores –organismo que agrupa a los principales expertos científicos del país– ofreciéndoles, de ser electo, elevar el gasto en ciencia y tecnología hasta alcanzar la cifra mínima recomendada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE): 1% del producto interno bruto (PIB).

Ya electo, en septiembre del mismo año, en un evento titulado “Hacia una agenda nacional en ciencia, tecnología e innovación”, al que asistieron rectores y directores de universidades, además de destacados miembros de la comunidad científica y tecnológica del país, criticó que México invirtiera sólo el 0.4% en ciencia y tecnología, y ofreció aumentar dicha inversión en 0.1 cada año, hasta llegar al final de su sexenio al deseado 1%.

Más adelante, en 2015, durante la entrega de los Premios de Investigación de la Academia Mexicana de Ciencias, Peña Nieto pudo presumir que dicha inversión se había incrementado en un 36%, para llegar a 0.54% del PIB.

Sin embargo los problemas, como las excusas, nunca faltan. Y en este caso llegaron en forma de crisis petrolera y económica, devaluación, crisis de seguridad nacional, desastres naturales, presiones políticas y otros factores que han hecho que en los últimos años, la promesa de Peña Nieto haya quedado no sólo incumplida, sino olvidada.

¿Es grave esto? ¿Por qué tendría un país como México, con tantos problemas, dedicar tanto dinero a la ciencia y la tecnología? ¿Debemos obedecer ciegamente las órdenes de la OCDE?

La OCDE es un organismo internacional que agrupa a 35 países, uno de los cuales es México, y que tiene como objetivo coordinar las políticas económicas y sociales de sus miembros. Aunque se trata de un ente muy polémico, no hay duda de que la recomendación que hace a sus países miembros de invertir al menos el 1% de su PIB en ciencia y tecnología es un consejo excelente, basado no en una cierta ideología económica, sino en el hecho incontrovertible de que aquellos países que históricamente han invertido más en estos rubros son los mismos que presentan un mayor desarrollo no sólo científico, sino económico e industrial, medido a través del número de patentes, de empresas nacionales, y de la cantidad de dinero y empleos que éstas generan. Y este desarrollo científico-tecnológico-industrial se refleja no sólo en el bienestar y nivel económico de su población en general, sino también en el poderío económico y político de esas naciones, y por tanto en su nivel de autodeterminación, independencia y libertad.

En cambio, los países económicamente menos desarrollados, como el nuestro, tenemos un menor nivel de vida, menos poder de negociación y debemos someternos a las reglas que dictan los poderosos. Somos por tanto menos libres. Y todo esto es, en gran parte, producto de las decisiones que nuestros políticos toman respecto a la inversión en rubros como educación, por un lado, y ciencia y tecnología, por otro. No olvidemos que el 1% recomendado por la OCDE es sólo un mínimo, no un monto idóneo. Sólo como comparación, China dedica el 1.5% de su PIB a estos rubros, mientras que Brasil y Sudáfrica invierten el 1%. Y eso por no mencionar a países como Estados Unidos, con el 2.8, o Francia, con el 2.2.

Este año se acaba de aprobar en el Congreso el Presupuesto Federal para 2018. Y la inversión –que no gasto– en ciencia y tecnología, aunque no disminuyó, tampoco aumentó gran cosa, lo cual, en la práctica, implica un retroceso. Si bien, como comenta Alejandro Canales en una nota de la semana pasada en el suplemento Campus Milenio, los Diputados lograron incrementarlo de casi 91 a casi 92 mil millones de pesos respecto a la propuesta presentada originalmente por el Poder Ejecutivo, lo cierto es que no llegaremos mucho más allá del 0.5%. Con ello, nuevamente se estará violando el artículo 9 bis de la Ley de Ciencia y Tecnología de nuestro país, vigente desde 2002, que a la letra especifica que: “El monto anual que el Estado destine a las actividades de investigación científica y desarrollo tecnológico […] no podrá ser menor al 1% del producto interno bruto del país”. Hecho que ya ha sido denunciado, a lo largo de tres sexenios, por la comunidad científica mexicana.

Se trata, sin lugar a dudas, de un grave fracaso, de una importante promesa incumplida del presidente del “te lo firmo y te lo cumplo”. Un fracaso que refleja, además, los valores de nuestra sociedad, que no acaba de entender que para salir del tercer mundo necesitamos reevaluar a fondo las prioridades nacionales y entrar de lleno al siglo XXI.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

domingo, 12 de noviembre de 2017

…Y los transgénicos no fueron un peligro

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 12 de noviembre  de 2017

El pasado 18 de septiembre la Gaceta UNAM, órgano oficial de la Universidad Nacional Autónoma de México, presentó una portada impactante: una foto a plana completa de mazorcas de maíz, con un titular que anunciaba: “Invasión de maíz transgénico” (sólo le faltaron los signos de admiración para parecer un titular del extinto Alarma!). “Secuencias de ese grano, en 82% de alimentos derivados” ampliaba un “balazo” más abajo.

Adentro, en la página 8, el artículo correspondiente, en la sección “Voces académicas”, llevaba como encabezado otro dato alarmante: “90.4% de tortillas en México contiene maíz transgénico”. El texto informaba que una investigación de un equipo encabezado por la doctora Elena Álvarez-Buylla Roces, del Instituto de Ecología de la UNAM, y de su Centro de Ciencias de la Complejidad, había revelado que en distintos productos de maíz que se consumen en México hay presencia de grano transgénico.

El estudio consistió en tomar muestras de productos de maíz –tortillas, cereales, tostadas y harinas– en supermercados y tortillerías, los cuales se sometieron a análisis genéticos para detectar secuencias de ADN transgénico. Para comparar, se analizaron también tortillas elaboradas artesanalmente por campesinos con maíz nativo. Aunque en ambos casos se hallaron secuencias transgénicas, éstas fueron mucho más abundantes en los productos comerciales: 82%. En tortillas el porcentaje de presencia de transgénicos era todavía mayor: 94%.

Para mayor inquietud, el estudio también detectó presencia del herbicida glifosato en varios de los productos analizados (30% de aquellos que presentaban las secuencias transgénicas que proporcionan resistencia a este compuesto). En 2015, el glifosato fue clasificado como “probablemente carcinogénico [es decir, cancerígeno] para humanos” por el Centro Internacional de Investigaciones sobre el Cáncer (IARC, por sus siglas en inglés), dependiente de la Organización Mundial de la Salud (OMS).

Estos datos causaron, naturalmente, alarma. Un boletín con la misma información, emitido el mismo día por la Dirección General de Comunicación Social de la UNAM, fue reproducido inmediatamente por numerosos medios de comunicación (entre otros, Excélsior, SinEmbargo, La Jornada, Milenio Diario y hasta La Jornada en Maya).

¿Qué tan justificado está el temor? Analizado con más detenimiento, muy poco.

En primer lugar, el estudio original fue publicado en Agroecology and Sustainable Food Systems, publicación que muchos calificarían de poco relevante, debido a su bajo factor de impacto (una medida de su calidad y confiabilidad científica). Pero además, el estudio, el boletín y los artículos periodísticos dan por hecho un dato falso: que el consumo de maíz transgénico puede ser dañino para la salud.

De hecho, la investigación de Álvarez-Buylla y colaboradores indica exactamente lo contrario: el maíz transgénico está presente en prácticamente todos los productos de este grano que consumimos los mexicanos, probablemente desde hace años, y no ha habido evidencia de impactos negativos en la salud de la población. ¿Qué mejor prueba de su inocuidad?

Por otro lado el glifosato –fabricado por la satanizada Monsanto– es el herbicida más usado en el mundo, y se utiliza desde los años 70. Su clasificación en el grupo 2A del IARC simplemente indica que hay evidencia suficiente en animales, pero limitada en humanos, de su carcinogenicidad, y no se ha logrado establecer una relación causal sólida. El peligro que presenta es el mismo que el de consumir papas fritas, carne roja, cualquier bebida muy caliente (a más de 65 grados centígrados) o el de trabajar en una peluquería: todos riesgos clasificados en el mismo grupo 2A. Además, un reporte publicado en 2016 por la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) concluye que, en las dosis a las que puede estar expuesto un consumidor normal, “no es probable que el glifosato plantee riesgo de carcinogénesis en humanos por exposición en la dieta” (de hecho, se halló que incluso con dosis tan altas como 2 gramos por kilogramo de peso, no tenía efectos cancerígenos en mamíferos, un modelo animal adecuado para valorar riesgos en humanos: una persona de 70 kilos tendría que comer 140 gramos de glifosato para alcanzar esa dosis).

El 6 de noviembre, la propia Gaceta UNAM publicó, en “Voces académicas”, un texto titulado “Presencia de maíz transgénico de importación en México, 20 años de inocuidad en productos derivados para consumo humano y animal” firmado por Francisco Bolívar Zapata, Luis Herrera Estrella –dos pioneros mexicanos de la biotecnología mundial– y Agustín López-Munguía Canales (quien además de su labor como investigador, ha desarrollado un magnífico trabajo como divulgador de temas de biotecnología). Esta respuesta pone en claro muchas de las inexactitudes expuestas por Álvarez-Buylla y colaboradores, entre otras que nada tiene de novedad que haya presencia de transgénicos en productos de maíz en México, dado que su consumo está autorizado desde 1996 –sujeto a lineamientos de bioseguridad de la OMS, la FAO y la COFEPRIS– y tomando en cuenta que nuestro país importa anualmente más de 10 millones de toneladas de maíz estadounidense, 90% del cual es transgénico.

Estos expertos aclaran también que “Los alimentos modificados genéticamente son los más estrictamente evaluados para autorizar su comercialización, y a la fecha no se ha reportado daño derivado de [su] consumo para la salud humana o animal”. Finalmente, explican que en la información que circuló se omite especificar qué cantidad de genes transgénicos se halló en los productos de maíz analizados: los datos del propio artículo de Álvarez-Buylla y colaboradores muestran que casi 60% de los productos analizados contienen menos de 5% de transgénicos, por lo que según las normas internacionales calificarían como “libres de OGMs”.

En resumen, se trata una vez más de información parcial, sesgada, que se presenta de manera estridente para generar un impacto mediático y generar alarma. Afortunadamente, la Gaceta UNAM ha corregido: esperemos que los medios de comunicación hagan lo propio.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

domingo, 5 de noviembre de 2017

Arqueología de la fotosíntesis

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 5 de noviembre  de 2017

La fotosíntesis
Es casi un lugar común comparar la labor de los investigadores científicos con la de un detective. Sin embargo, es una comparación muy útil, pues en ambos oficios lo que se busca es descubrir la solución a un enigma.

Y uno de los enigmas más antiguos en biología, aparte de la aparición misma de la vida, es cómo pudo surgir el proceso que permite a los organismos tomar la energía del sol para, transformándola en energía química, fabricar los compuestos orgánicos que dan sustento a prácticamente todos los ecosistemas terrestres.

Es bien sabido que el proceso bioquímico que hace esto posible es la fotosíntesis: las plantas toman dióxido de carbono y agua de la atmósfera y, con ayuda de los fotones que captura el pigmento llamado clorofila, que se halla en los cloroplastos de sus hojas, los transforman en azúcares o carbohidratos (que luego el metabolismo celular puede transformar en muchos otros compuestos necesarios para la vida). Como producto secundario, el proceso produce oxígeno que se libera a la atmósfera. Básicamente, la fotosíntesis transforma aire en tejido orgánico y oxígeno, con ayuda de la energía solar.

Sistemas de reacción fotosintéticos de una planta
Lo que es menos sabido es que no sólo las plantas realizan la fotosíntesis: también muchos tipos de microorganismos evolutivamente más antiguos, como algas y algunas bacterias. La fotosíntesis en todos ellos se basa en ciertas proteínas llamadas “centros de reacción” o “fotosistemas” que contienen los pigmentos fotosintéticos (clorofilas, porque las hay de varios tipos, y carotenoides) y muchas otras moléculas. Cuando un fotón solar es absorbido por éstos, excita un electrón del pigmento, que puede entonces moverse a otra molécula, y luego a otra en una cadena dentro del centro de reacción, liberando energía en cada paso. En algunos de estos pasos, la energía se utiliza para llevar a cabo reacciones químicas que, en última instancia, llevarán a producir los compuestos necesarios para captar el dióxido de carbono, romper la molécula de agua, combinarlos y fabricar así carbohidratos.

¿Cómo surgió, evolutivamente, un proceso tan complejo y eficiente como la fotosíntesis? Durante décadas, los bioquímicos y biólogos moleculares han estado intentando descubrirlo a través de los estudios de evolución molecular, que se basa en comparar la estructuras de proteínas (o las secuencias de información contenida en los ácidos nucleicos, que determinan cómo se fabrican las proteínas) de distintos organismos, para tratar de hallar las relaciones evolutivas entre éstos y poder reconstruir así su historia.
El fotosistema de
Heliobacterium modesticaldum

Pues bien: en julio pasado, un grupo de investigadores de la Universidad Estatal de Arizona, en Estados Unidos, publicó en la prestigiosa revista Science el análisis detallado de la estructura molecular de centro fotosintético de reacción de Heliobacterium modesticaldum, la bacteria fotosintética más simple que se conoce hasta ahora, descubierta en los géiseres de Islandia en los años noventa. Lo lograron utilizando la técnica de cristalografía de rayos X, que les permitió determinar la posición de cada átomo en la proteína con una precisión de 2.2 diezmillonésimas de milímetro.

Lo que hallaron fue un sistema fotosintético extremadamente simple, formado por dos subunidades idénticas. Esto es muy diferente a lo que existe en especies más modernas, que tienen subunidades distintas (son “asimétricos). Además, la heliobacteria no puede usar dióxido de carbono como materia prima para la fotosíntesis, y no sólo no produce oxígeno (muchos otros tipos de fotosíntesis tampoco lo hacen), sino que el oxígeno es mortal para ella (lo que dificultó mucho cultivarla para poder realizar los estudios).

En pocas palabras, el centro de reacción de esta bacteria es un fósil molecular que es lo más parecido que tenemos a lo que tuvo el primer organismo fotosintético que surgió en el planeta, hace unos tres mil millones de años.

Pero los detectives moleculares no están satisfechos: seguirán investigando hasta descubrir más pistas que permitan reconstruir el complicado árbol genealógico de la fotosíntesis, y resolver así el misterio que los inquieta.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!