miércoles, 29 de octubre de 2014

Negacionismo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 29 de octubre  de 2014

La crisis política, de seguridad y de derechos humanos que vivimos hoy en México ha vuelto a desatar la polarización social. En conversaciones, medios y redes sociales se han recrudecido las violentas discusiones entre quienes defienden, por ejemplo, que los asesinatos de estudiantes en Guerrero son un “crimen de Estado”, siendo el responsable último –¡o único!– el presidente de la república (o, por el contrario, que es el líder de la oposición que respaldó la candidatura del alcalde de Iguala desde los partidos de izquierda el que debe cargar con dicha responsabilidad), y quienes ven en posturas como éstas una exageración que pasa por encima de la evidencia en aras de promover una postura más bien ideológica (sea en contra del gobierno o de la oposición).

Hace unos días me atreví a publicar en Facebook una brevísima reflexión al respecto: “Hay gente para la que la ideología importa más que los hechos, por lo que si no coinciden con ésta deben «corregirse» o de plano negarse. Y hay gente para la que no. Una persona con verdadero pensamiento lógico y crítico debería pertenecer a la segunda clase.”

Ya se imaginará usted la andanada de airadas respuestas que recibí.

Ayer martes 28 de octubre, el filósofo de la biología Massimo Pigliucci, de la City University de Nueva York, un muy lúcido pensador sobre las seudociencias –en particular el creacionismo– y el pensamiento humanista (sus colaboraciones en su recién expirado blog Rationally Speaking, que sigue disponible, eran siempre interesantes y disfrutables), publicó en su nueva “revista web” (webzine) Scientia Salon un interesantísimo texto donde resume sus experiencias en una reunión internacional sobre negacionismo (titulada “Manufactuing denial”) recién llevada a cabo en la Clark University, en Massachusetts, Estados Unidos.

Para Pigliucci, el negacionismo (denialism) es “el desprecio consciente de la evidencia factual por parte de grupos o individuos motivados ideológicamente” (él mismo señala que el Diccionario Oxford lo define como “la resistencia a admitir la veracidad de un concepto o proposición sustentada por la mayor parte de la evidencia científica o histórica”).

Diferencia entre la percepción pública
(izquierda) y la opinión de los expertos
 mundiales (derecha) respecto
 al cambio climático antropogénico
El negacionismo es un problema grave: existen grandes grupos negacionistas que afirman que el sida no es causado por un virus, sino por drogas; que niegan la realidad del cambio climático causado por la actividad humana, o de la evolución por selección natural; que rechazan la eficacia de las vacunas, o la existencia de ciertas epidemias; que rebaten que el ser humano haya llegado a la Luna, o que haya ocurrido el Holocausto judío. En todos los casos, se trata de una resistencia a la evidencia que parte, precisamente, de una postura ideológica. Son ideas peligrosas o inaceptables. Y en todos los casos, hay gente –mucha– que las cree con vehemencia.

En la reunión, narra Pigliucci, se analizó el negacionismo como fenómeno general, y se exploraron sus distintas ramificaciones: mediáticas, políticas, sociales, éticas… Se llegó también a ciertas conclusiones, como que “la gran variedad de negacionismos tienen en común una muy fuerte, arrolladora, convicción ideológica [religiosa, étnica, política…] que ayuda a definir en forma central la identidad del negacionista”. Esta convicción “genera un fuerte apego emocional, así como un igualmente fuerte contraataque emocional hacia sus críticos”.

Esto causa que tratar de discutir racionalmente y de convencer con argumentos basados en evidencia a los negacionistas sea, básicamente, inútil (aunque puede servir para convencer a los indecisos). Aun así, concluye Pigliucci, es un deber de todo académico e intelectual combatir este dañino fenómeno, “para tratar de que el mundo sea al menos un poquito mejor para todos”.

No digo que las discusiones políticas en nuestro país sean así. Pero sí creo que la capacidad de distinguir entre posturas ideológicas (que pueden ser válidas o no, y en todo caso tienen un fuerte componente subjetivo) y hechos confirmados (que deberíamos ser capaces de reconocer aunque vayan en contra de nuestra ideología) ayudaría a relajar mucho la tensión, a alcanzar a acuerdos y actuar para mejorar las cosas… para todos.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 22 de octubre de 2014

Luz blanca

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 22 de octubre  de 2014

En una hoguera, una antorcha o una vela, la combustión del los compuestos de carbono e hidrógeno (celulosa de la madera, parafina) libera energía en forma de calor, principalmente, y también de luz: fotones. Es una forma de obtener iluminación, pero de forma muy ineficiente, y con humo y cenizas.

En el foco incandescente, inventado por el británico Joseph Swan en 1850, y perfeccionado y comercializado por Edison en 1879, el paso de una corriente eléctrica por un filamento al vacío lo calienta sin quemarlo hasta el punto en que se pone incandescente: emite luz, aunque la mayor parte de la energía aún se transforma en calor. Además, el filamento termina por fundirse, haciendo que haya que reemplazar los focos con frecuencia.

Las lámparas fluorescentes, como los focos ahorradores hoy tan de moda, reducen el uso de electricidad mediante otro proceso. La corriente eléctrica, al pasar por el vapor de mercurio de su interior, hace que éste emita luz ultravioleta. A su vez, ésta estimula una sustancia que recubre la parte interna del tubo, y que es fluorescente, es decir, emite fotones de luz visible, sin calentarse, al ser iluminada con luz ultravioleta. Estas lámparas gastan unas cinco veces menos energía que las incandescentes para producir la misma cantidad de luz. Desgraciadamente, tienen el inconveniente de contener mercurio, un metal tóxico, así que aunque gastan menos energía y duran unas diez veces más que un foco incandescente, son una solución problemática.

Para lograr una verdadera revolución se necesitaba otra tecnología. Ésta surgió cuando en los años sesenta se inventó el diodo emisor de luz, o led, por sus siglas en inglés: los bien conocidos “foquitos” que aparecen en todos los aparatos electrónicos. Los primeros emitían luz infrarroja; todavía se usan en controles remotos. En 1962, el estadounidense de ascendencia rusa Nick Holonyak inventó los leds rojos, que para finales de la década se comenzaron a vender comercialmente (curiosamente, fabricados por la empresa química Monsanto). Su funcionamiento se basa en la electroluminiscencia, descubierta en 1907, fenómeno mediante el cual algunos materiales emiten luz cuando una corriente eléctrica pasa a través de ellos.

En el caso concreto de los leds, se trata de dos capas de materiales semiconductores, como los que forman a los transistores, una de las cuales tiene un exceso de electrones, y la otra tiene deficiencia de los mismos (se dice que tiene “huecos de electrones”). Al aplicar la corriente, los electrones pasan de una capa a la otra (o los electrones y los huecos se “combinan”) y, gracias a la composición química del material (normalmente sales del metal galio: arseniuro, nitruro, fosfuro…) se emiten fotones.

Con los años, el costo de los leds fue disminuyendo, y su rendimiento y brillo aumentaron. Quizá recuerde usted aquellos primeros relojes electrónicos con pantallas de leds r
ojos.

Los leds son altamente eficientes: usan 20 veces menos electricidad que un foco incandescente, y cuatro veces menos que uno fluorescente, para producir la misma cantidad de luz. Y duran, respectivamente, 100 y 10 veces más. Tomando en cuenta que el 25 por ciento de la energía eléctrica en el mundo se gasta en iluminación (y mucha de ella se desperdicia produciendo calor), y que los leds no contienen mercurio, era claro que urgía ampliar su uso.

Para los años ochenta había también leds verdes (y de otros colores, como amarillo y naranja), que comenzaron a sustituir a los focos incandescentes en muchas aplicaciones (luces de alto en coches, semáforos). Pero no se había podido producir un led azul con buena eficiencia y costo. Y se necesitaba luz azul para, combinándola con la roja y la verde, producir luz blanca. Sólo así los leds podrían sustituir a los focos incandescentes y fluorescentes en todos los usos.

La dificultad para fabricarlos consiste en que las capas de nitruro de galio que los forman deben tener una estructura cristalina (átomos acomodados ordenadamente) muy precisa y sin fallas; pero para producir las capas con exceso de electrones y con huecos, hay que introducir impurezas; esto echaba a perder el cristal.

El gran logro de los japoneses Isamu Akasaki e Hiroshi Amano, y el estadounidense Shuji Nakamura fue desarrollar procesos para obtener los deseados cristales semiconductores de nitruro de galio. Hace dos semanas se les otorgó el premio Nobel de física “por inventar diodos emisores de luz azules eficientes, que nos han permitido tener fuentes de luz blanca brillantes y que ahorran energía”.

Sin la menor duda, un logro luminoso.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 15 de octubre de 2014

El microscopio químico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 15 de octubre  de 2014

Betzig, Moerner y Hell
Permítame, estimado lector (o lectora), continuar con el tema de los premios Nobel de este año.

La semana pasada mi querido amigo Yonathan Amador, con quien colaboro semanalmente hablando de ciencia en su programa de radio Ecléctico (CódigoCDMX, radio por internet) me hizo una excelente pregunta. ¿Por qué el premio Nobel de química se le otorgó a los inventores de una técnica de microscopía, que suena más bien a física?

Y en efecto, el premio otorgado en partes iguales a los estadounidenses Eric Betzig y William E. Moerner y al alemán Stefan W. Hell “por el desarrollo de la microscopía de fluorescencia de súper-resolución”, según el comunicado oficial de la organización Nobel (aunque en español le han llamado “de alta resolución”, y también se le conoce como “nanoscopía”) suena más a física que a química.

Expliquemos primero algunos conceptos. Antes que nada, “microscopio” es un aparato que permite ver objetos pequeños. “Resolución”, según la Real Academia, es, en física, la “Distinción o separación mayor o menor que puede apreciarse entre dos sucesos u objetos próximos en el espacio o en el tiempo”. Cuanta mayor resolución tenga un microscopio, podremos distinguir objetos más pequeños.

Aunque el microscopio óptico (el que usa luz), inventado en el siglo XVII, permitió explorar un nuevo mundo (el microscópico), existe un límite físico a lo que logra observar: la longitud de la luz que se usa. En 1873 Ernst Abbe, microscopista alemán, dedujo cuál era este límite teórico: 0.2 micrómetros (milésimas de milímetro). Es decir, aunque el microscopio permite observar células, e incluso ciertos organelos dentro de ellas, como mitocondrias o cloroplastos, no puede distinguir cosas más pequeñas –pero importantísimas para entender los procesos de la vida–, como virus o proteínas. (“Es como ver los edificios de una ciudad sin poder ver lo que hacen los ciudadanos que la habitan”, según lo describe el material de prensa distribuido por la organización Nobel. Más o menos como Google Earth, digo yo…)

Cierto, existe el microscopio electrónico, inventado alrededor de 1930, pero con él no se pueden observar células vivas.

Hell, por su lado, y Betzig y Moerner, por el suyo, comenzaron a investigar formas de superar el límite de Abbe. Hell lo logró, alrededor del año 2000, utilizando las moléculas fluorescentes (anticuerpos que, por ejemplo, se unen al ADN o a ciertas proteínas, y que brillan al ser iluminadas con cierto tipo de luz) con las que normalmente se marcan las estructuras subcelulares para localizarlas. Para aumentar la resolución, Hell inventó un mecanismo que ilumina con luz láser una diminuta área a observar dentro del campo de visión del microscopio, de modo que brille, mientras que un segundo haz más ancho de otro tipo de luz láser “apaga” la fluorescencia de todas las moléculas circundantes. Moviendo el microscopio de modo que escudriñe (“escanée”) todo el campo, Hell logró obtener microfotografías de súper-resolución. Nanografías (algo nanométrico significa que es mil veces más pequeño que algo micrométrico). Hoy el método inventado por Hell se conoce como STED (siglas en inglés de “amortiguación de emisión estimulada”).

Betzig y Moerner, en 2006, utilizaron un método distinto, hoy conocido como “microscopía de moléculas individuales”. Utilizan, como Hell, marcadores fluorescentes, pero lo que hacen es tomar una serie de microfotografías iluminando la muestra de modo que sólo algunas de las moléculas, distintas en cada foto, brillen. Luego procesan y combinan por computadora las distintas fotos, con lo que se logran distinguir con claridad todas las moléculas, aunque estén separadas por menos de 0.2 micrómetros.

La realidad es que no hay fronteras entre química y física, como tampoco la hay entre ciencia y tecnología. La nanoscopía de fluorescencia permite hoy observar el movimiento de moléculas: el nanomundo vivo. La química en acción.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 8 de octubre de 2014

La semana Nobel

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 8 de octubre  de 2014

Este año la semana Nobel empezó temprano: no amanecía todavía el lunes (en México) y ya se estaba dando el anuncio del premio de fisiología o medicina.

La brevedad de este espacio no me permitirá hablar del premio Nobel de física, que ha sido ya anunciado al escribir estas líneas. Hablemos, pues, del de medicina, otorgado mitad al fisiólogo neoyorquino John O'Keefe, y mitad a la pareja de neurofisiólogos formada por los esposos noruegos May-Britt Moser y Edvard I. Moser, “por sus descubrimientos de células que constituyen un sistema de posicionamiento en el cerebro”.

La gran mayoría de los titulares han aprovechado la metáfora del “GPS cerebral” para explicar el logro. No estoy muy de acuerdo con la imagen, pues el sistema de posicionamiento global (GPS, por sus siglas en inglés), que permite a nuestros aparatos GPS y teléfonos inteligentes localizar el lugar preciso en que estamos, lo hace conectándose por radio con una red de alrededor de 24 satélites y determinando las coordenadas del usuario por triangulación.

El sistema de posicionamiento del cerebro, en cambio, lo logra usando información proveniente de los sentidos del animal (se estudió en ratas, pero probablemente se halla en todos los mamíferos; se ha comprobado, al menos en parte, que existe en humanos).

¿Cómo puede el cerebro determinar su posición en el espacio y orientarse cuando hay movimiento? Uno pensaría que lo más sencillo es que elabore un “mapa” del territorio. Pero, ¿de qué estaría hecho ese mapa? No podría ser una simple imagen: ¿quién la vería, dentro del cerebro? En 1971, O'Keefe descubrió que las ratas tienen, en la estructura cerebral llamada hipocampo, ciertas células que se activan siempre que el animal se encuentra en un mismo sitio. Las llamó “células de posición” o "de lugar".

Más de treinta años más tarde, en 2005, los esposos Moser –que en algún momento trabajaron juntos en el laboratorio de O’Keefe en Londres– descubrieron, en otra estructura cerebral llamada corteza entorrinal, contigua al hipocampo, otro tipo de células, que llamaron “de retícula” o “reticulares”, que se activan cuando la rata, al moverse, pasa por ciertos sitios.

Las células de retícula establecen una red hexagonal que, junto con datos visuales, forma el “mapa” del espacio en que se halla la rata. (Curiosamente, también la red de telefonía celular es hexagonal. Cada “célula” es el círculo que abarca cada antena receptora. Al moverse el teléfono, la señal va pasando de una célula a la siguiente, sin perderse la conexión… o al menos así debería ser. Pero la manera en que esas celdas circulares se pueden acomodar para cubrir sin huecos un espacio plano es un acomodo, precisamente, hexagonal.)

A su vez, las células de posición marcan el sitio que ocupa la rata en ese espacio. Juntos, las células de retícula y de posición forman un entramado que determina en qué lugar se halla el animal en relación con el espacio circundante, permitiéndole –permitiéndonos– ser conscientes de nuestra posición en él.

Poco a poco, el cerebro va revelando sus secretos. Un Nobel bien merecido.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 1 de octubre de 2014

Pensar el periodismo científico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 1 de octubre  de 2014

Inauguración del Seminario
Pocas cosas influyen tanto en las sociedades contemporáneas como la ciencia y la tecnología. Carl Sagan, el famoso astrónomo y divulgador científico, escribió en su libro El mundo y sus demonios: “Hemos organizado una civilización global en la que los elementos más cruciales(...) dependen profundamente de la ciencia y la tecnología. También hemos organizado las cosas de forma que casi nadie comprende la ciencia ni la tecnología. Ésta es una receta para el desastre.”

La principal función del periodismo es informar. En particular, el periodismo especializado en ciencia –periodismo científico– proporciona información en materia de ciencia y tecnología al ciudadano común, el que no es aficionado a estos temas, manteniéndolo informado de las novedades, combatiendo la desinformación que muchas veces se hace pasar por ciencia sin serlo, ayudándolo a tomar decisiones basadas en datos confiables, e incluso fomentando su cultura científica.

La semana pasada tuve el privilegio de asistir a la segunda edición del Seminario Iberoamericano de Periodismo de Ciencia, Tecnología e Innovación, organizado por el Consejo Nacional de Ciencia y Tecnología (Conacyt) en Quintana Roo (24 al 26 de septiembre). En él, con la asistencia de especialistas en periodismo científico de diversos estados de nuestro país, así como de naciones como España, Venezuela o Argentina, se continuó con el trabajo iniciado el año pasado en la primera reunión, celebrada en Yucatán.

Ahí se discutió, se pensó colectivamente, se conocieron nuevas ideas y se hicieron propuestas para mejorar la calidad, así como la penetración, del periodismo científico profesional –pues en su mayoría, por mucho tiempo, fue más bien improvisado– en México.

Entre otros temas, se discutió el acceso libre a la información científica, el uso de nuevas tecnologías digitales, y la nuevas narrativas en el periodismo del siglo XXI. Tres de las propuestas que más llamaron la atención fueron la creación de un repositorio nacional de la información científica producida por las instituciones de investigación públicas, la de una agencia de noticias científicas por parte del Conacyt, y la de una organización gremial que agrupe a los periodistas especializados en ciencia para promover su profesionalización, impulsar la calidad de su trabajo y ayudar a que los medios reconozcan la necesidad de contar con especialistas en esta fuente periodística (pues uno de los principales problemas del periodismo científico en México es que los editores de los medios, así como sus directivos, suelen considerar a la ciencia como una curiosidad, noticias secundarias (soft news, en la jerga periodística), algo que cualquier periodista puede cubrir, y la relegan a los lugares menos importantes de sus espacios).

En lo personal, me llamó la atención que muchos colegas den por hecho que el periodismo científico se reduce a la función y a los géneros meramente informativos, dejando de lado otras funciones del periodismo (formar, entretener, llamar a rendir cuentas…) y otros géneros, como los de opinión (un ejemplo de los cuales es esta humilde columna). Si duda el periodismo que informa con rigor y oportunidad sobre los temas de actualidad en ciencia y tecnología resulta fundamental; pero también lo es aquel que lo haga de forma amena, fascinante, y que muestre las historias y las pasiones humanas que conectan a la ciencia con todo el resto de la cultura humana. (En mi opinión, puede haber periodismo científico de investigación, confrontativo, de entretenimiento, de opinión, etcétera. Como dijo Ricardo Raphael de la Madrid, uno de los conferencistas invitados el evento, “cualquier cosa se vale, menos decir mentiras”.)

Felicidades al Conacyt (y al CIDE) por organizar este amplio evento. Seguramente en futuras ediciones continuará dando frutos para fortalecer una especialidad útil y muy necesaria en nuestro país.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!