miércoles, 26 de noviembre de 2014

Necedades

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 26 de noviembre  de 2014

Quienes confiamos en el pensamiento racional como base fundamental de nuestras decisiones y acciones (después de todo, es eso precisamente lo que nos distingue de nuestros demás primos animales y nos permite trascender nuestros instintos y emociones para ir muchas veces en contra de ellas, cuando así lo requiere un comportamiento humano) solemos meternos en muchos líos.

En primer lugar, porque no se nos entiende. No es que neguemos la importancia de los sentimientos, las convicciones, las lealtades, los ideales, las utopías… Simplemente, pensamos que las decisiones y actos que realizamos motivados por éstas pueden depurarse y mejorarse si además se fundamentan en datos confiables y razonamientos lógicos que nos permitan confiar en que las conclusiones a las que llegamos están bien justificadas. (Existen también los ultrarracionalistas que descalifican todo lo que no sea razón, pero esa es otra enfermedad…)

Por eso, cuando tratamos de exponer datos que no coinciden con la conclusión más cercana al corazón de los demás, con lo que quisieran que fuera cierto, solemos recibir ataques y denuestos. Merecido nos lo tenemos.

Un ejemplo es lo que escuché ayer en una popular estación de radio (podría ser cualquiera), en voz de una de las muchas comentaristas matutinas (hay tantas) que abordan temas que a ellas y a sus radioescuchas les parecen interesantes. Lo malo es que a veces tratan asuntos que presentan como “científicos” sin serlo. El peligroso revoltijo de ciencia, seudociencia, esoterismo y vulgar charlatanería sin fundamento que puede uno escuchar por radio o ver por televisión a lo largo de la mañana es de lo más desalentador.

La comentarista en cuestión, cuyas colaboraciones aparecen inmediatamente después de uno de los noticieros más escuchados de la radio mexicana, tiene un tino fenomenal para elegir asuntos aparentemente científicos que en realidad son fraudes, locuras o intentos de presentar el pensamiento mágico como ciencia. En esta ocasión habló de la “inteligencia” de las plantas. Describió los estudios de un cierto investigador y de cómo éste argumentaba que diversos mecanismos que las plantas, efectivamente, presentan en su desarrollo (movimiento, competencia, búsqueda de recursos como agua, nutrientes o luz, mecanismos de combate a plagas, etc.) eran muestra de que “piensan” y hasta tienen intenciones y sentimientos. El sueño de todo hippie abraza-árboles.

En realidad, se trata simplemente de una interpretación muy poco ortodoxa hecha por un especialista poco serio. Pero que resuena con muchas de las creencias tipo new age - que hoy son tan increíblemente populares.


Y he ahí el problema de esta comentarista, y de tantas personas en los medios que pretenden hablar de ciencia y acaban presentando charlatanerías: al no contar con una buena preparación científica –no de especialista, obviamente, pero sí la necesaria cultura científica que todo comunicador que aborde estos temas debería tener–, ni con asesores que la tengan, no son capaces de distinguir la ciencia legítima de sus imitaciones fraudulentas. Creen, además, que los “descubrimientos” vistosos de un investigador en particular pueden pesar más que el consenso científico, la opinión de todo el resto de los especialistas (la falacia de creer en los “genios científicos”, en vez del trabajo colectivo que hoy constituye la base de la ciencia).

Pero no sólo es la falta de información y preparación la que ocasiona que constantemente se difundan estos mensajes: es también la importancia que le damos a las emociones e ideologías por encima de la razón: si algo nos “suena” bien, si se “siente” bonito, si coincide con nuestras creencias, valores, prejuicios (conscientes o inconscientes) o con lo que deseamos, tendemos a aceptarlo, sin importar la evidencia o los argumentos en contra.

En una sociedad democrática, estamos obligados a aceptar la diversidad de ideas y de visiones del mundo. Pero nada nos impide promover, a través de la educación y la discusión, una visión aunque sea un poquito más racional de las cosas. Aun a riesgo de caerle gordos a algunos.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 19 de noviembre de 2014

Memoria y dolor

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 19 de noviembre  de 2014

Estructura química del midazolam
Hace poco, viendo un video en YouTube, me encontré con algo que me dejó muy asombrado e intrigado. Se trataba de una fractura doble de tobillo (confieso ser aficionado a los videos morbosos; me encanta ver cómo se exprimen barros y espinillas, se extraen tapones de cerilla del oído y se drenan quistes grasosos). La cuestión era que había que reducir urgentemente la fractura, un procedimiento extremadamente doloroso. Para ello, obviamente, al paciente se le dieron analgésicos.

Pero lo fascinante es que además le administraron un fármaco, midazolam, que ocasionó que ¡olvidara el dolor inmediatamente después de la maniobra!

El midazolam, conocido comercialmente como Versed, Dormicum o Hypnovel, es un medicamento de la familia de las benzodiazepinas descubierto en 1970 y que tiene propiedades ansiolíticas, relajantes, sedantes y anticonvulsivas. Pero también induce un estado temporal de amnesia; en particular, la llamada amnesia anterógrada: la incapacidad de formar nuevos recuerdos a partir de su administración, que puede ser por inyección o inhalación, y durante aproximadamente una hora (la otra amnesia, la retrógrada, más conocida, es la que impide recordar eventos anteriormente vividos). Otros fármacos como el propofol y la ketamina también pueden usarse para obtener el mismo efecto.

Debido a esta propiedad, se le usa para producir la llamada “sedación consciente”, o “anestesia crepuscular”, en la que el paciente que va a ser sometido a algún procedimiento médico sencillo es sedado para inducir un estado en que está adormilado pero puede responder a preguntas y órdenes simples, mantiene su conciencia, aunque reducida, y no requiere intubación respiratoria. En particular, el midazolam se usa frecuentemente en procedimientos molestos o dolorosos como colonoscopías y cirugías de cataratas.

Aunque a primera vista, parece una solución simple para el problema del dolor (hagamos que el paciente no recuerde que le dolió y ¡listo!), la verdad es que plantea muchos dilemas. Algunos éticos: hay personas que se sienten angustiadas ante la perturbadora sensación de tener una laguna en su memoria: saben qué pasó antes, y repentinamente, como un corte en una película, el momento ya pasó sin que recuerden nada. También hay numerosos pacientes que reclaman porque no se les explica previamente lo que iba a suceder, y sienten violada su intimidad al ver “borrados” sus recuerdos sin su autorización. Para otros más, el fármaco no produce el efecto deseado, por lo que sí sufren y recuerdan el dolor. Finalmente, hay preocupación sobre el posible mal uso de este tipo de sustancias, por ejemplo en malas prácticas médicas (o incluso en tortura) donde se causa dolor innecesario o excesivo al paciente, al amparo de la seguridad de que no lo recordará.

Pero los dilemas más interesantes son los filosóficos. Dos magníficas películas los ilustran. Una es Memento, de Christopher Nolan (2000), donde el personaje padece amnesia anterógrada y vive una realidad consistente en tratar continuamente de averiguar qué acaba de vivir.

La realidad objetiva existe independientemente de nosotros. Pero, a diferencia de nuestros cuerpos, la conciencia de los humanos no vive en el mundo físico, sino en el mundo mental creado por nuestros cerebros individuales. Obviamente, el episodio de dolor que vive un paciente al que se le administra midazolam sí existió, fue real (como se puede confirmar, por ejemplo, filmándolo). Pero si, debido a su falta de recuerdos, para él la experiencia no existió, ¿se puede decir que fue real? ¿Es real un dolor –experiencia irremediablemente subjetiva– del que no se tiene el menor recuerdo? ¿Sería entonces realmente antiético causar un dolor excesivo, si de todas maneras no se va a recordar? Puede parecer absurdo a primera vista, pero, como la clásica pregunta filosófica de si la caída de un árbol hace o no ruido si no hay nadie que lo escuche, la cuestión tiene mucho detrás.

En La otra película es Eterno resplandor de una mente sin recuerdos, de Michel Gondry (2004), en la que el protagonista se somete a un proceso que le borra los recuerdos de un amor fracasado. ¿Qué implicaciones tiene la manipulación de la memoria? ¿Tenemos derecho a decidir qué recuerdos queremos conservar, y simplemente inhibir la memoria de experiencias desagradables? ¿A qué grado se puede llevar esta posibilidad, y con qué consecuencias?

Me encanta que podamos ahorrarnos al menos algunos recuerdos de dolor físico. Pero también me inquieta. Los seres humanos somos, antes que nada, nuestra memoria. Sin ella dejamos de existir, como lo muestran cruelmente los padecimientos que la borran, como el mal de Alzheimer. Una persona que pierde sus recuerdos no sólo pierde su vida: pierde su ser.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 12 de noviembre de 2014

Interestelar: ¿mala o maravillosa?

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 12 de noviembre  de 2014

La semana pasada hablé aquí sobre la película Interestelar, de Christopher Nolan, sin haberla visto. O más bien, de cómo la colaboración del físico Kip Thorne le permitió presentar la visualización de un hoyo negro más precisa hasta hoy.

Ahora puedo decir que ya la vi. Y que me encantó. La encontré absorbente, inteligente, provocativa, asombrosa, emocionante. Me hizo recordar otras grandes cintas como, por supuesto, 2001: Odisea del espacio, de Stanley Kubrick (a la que hay varios guiños), Contacto, basada en la novela de Carl Sagan, y otras.

Y sin embargo, hay grandes discrepancias en las opiniones tanto de amigos como de críticos respecto a la película. Hay fundamentalmente tres grupos: aquellos que no saben mucho de ciencia ni son fans de la ciencia ficción, y que hallaron la cinta larga (casi tres horas), tediosa y sin sentido. Otros, como yo, que hallamos muchos motivos de gozo y maravilla en ella. Y finalmente, los que la consideran una pésima, malísima película (entre ellos Phil Plait –autor del popular blog Bad astronomy– en la revista web Slate, y Annalee Newitz, en io9.com). Me interesa comentar algunos de sus argumentos.

La ciencia ficción, como se sabe, mezcla conocimiento científico válido con una narrativa ficticia. La hay muy rigurosa, que presenta ciencia muy precisa, y otra que se toma libertades enormes, al grado de ser casi fantasía. Pero no hay ciencia ficción que no simplifique, distorsione o manipule la ciencia.

Varios de los quejosos reclaman la presencia de numerosos errores e inexactitudes científicas en Interestelar. Quizá el más mencionado es la presencia de un planeta que gira alrededor de un inmenso hoyo negro; planeta al que descienden los protagonistas y en el que, se nos explica, “cada hora equivale a siete años en la Tierra”. Plait y otros afirmaron en sus reseñas que tal cosa era imposible, pues para que hubiera una distorsión del espaciotiempo que causara tal retraso se necesitaría que el planeta estuviera tan cerca del hoyo negro que resultaría despedazado por las fuerzas de marea. Sin embargo, posteriormente Plait tuvo que publicar una retractación, pues no tomó en cuenta que, como se explica en la película, el hoyo negro no es estático, sino que gira rápidamente, lo cual cambia la física del sistema y podría permitir la existencia del planeta.

Se ha criticado también la presencia de otro planeta cubierto de agua que presenta olas descomunales. En realidad, un planeta así cerca de un hoyo negro habría dejado de tener rotación y la marea en él sería estacionaria: no habría olas. Otras críticas retoman errores tan graves o tan nimios como que el disco de acreción alrededor del hoyo negro debería ser tan caliente (millones de grados) que vaporizaría todo lo que entra en él; que al caer en el hoyo el protagonista debería estirarse como un espagueti, o que el viaje a Saturno en dos años es demasiado corto.

Por otro lado, hay también duras críticas a la idea, presentada como una de las claves de la cinta, de que el amor es una especie de “fuerza” que puede trascender al tiempo y el espacio. Lo cual es, por supuesto, sólo una tontería (“confunde la física con la metafísica”, “borra la línea entre ciencia y espiritualidad”, acusa Newitz).

¿Son justas estas críticas? Sí y no. Sí, si se esperaba que la cinta presentara ciencia con un alto nivel de fidelidad. No, si se acepta que se trata de una ficción, que no funcionaría sin ciertas pequeñas o grandes concesiones. En mi opinión, Plait y los que opinan como él yerran al exigir demasiada precisión científica en una cinta de ficción (no olvidemos que, para ser eficaz, la ficción requiere de una “suspensión de la incredulidad” por parte del espectador). Newitz se queja de que los ciudadanos necesitan saber más ciencia, para defenderla ante ataques de seudocientíficos y de políticos que recortan sus presupuestos, y que Interestelar desinforma y confunde a la gente. En una reseña un poco más amable, el astrofísico Roberto Trotta comenta que “esperaba más ciencia, y menos ciencia ficción”. Pero ¡se trata de ficción, no de un documental de ciencia!

Cierto, los reseñistas también comentan los aciertos de la cinta: la representación del hoyo negro y del agujero de gusano, ambas excelentes; las perspectivas desde la nave, el creíble escenario de la Tierra asolada por el cambio climático, la representación del teseracto en que el tiempo aparece como una dimensión del espacio, y otros. Yo en lo particular disfruté las propuestas de robots distintos a lo acostumbrado, y sin embargo plausibles y originales. Ver los efectos de la dilatación del tiempo de manera tan impactante. Compartir la angustia de los científicos, impotentes para hallar soluciones fáciles y enfrentados a conflictos éticos.

Pero sobre todo, y al contrario de Phil Plait, quien se enfocó, además de los errores científicos, en que los diálogos son tediosos y “la historia está mal contada”, yo me maravillé ante una cinta que despliega la magnífica imagen de la naturaleza que nos ofrece la ciencia, que nos pide no olvidar que si la humanidad tiene alguna esperanza de sobrevivir es sólo si sale de su nido terrestre, y que explora las complejidades de los sentimientos y comportamientos humanos en situaciones extremas.

Como paradójicamente dice Plait, “La ciencia sin una buena historia es un artículo de enciclopedia. Una buena historia con mala ciencia es… una buena historia”.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 5 de noviembre de 2014

¡Ciencia y ficción!

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 5 de noviembre  de 2014

No he visto la película Interstellar, de Christopher Nolan. Obviamente, porque se estrena hasta el jueves y porque no gozo de privilegios de crítico de cine.

Pero estoy emocionado por verla, pues será la ocasión de presenciar un raro fenómeno: el arte –en este caso la ciencia ficción, la cinematografía, e incluso el diseño gráfico– haciendo una contribución importante a la ciencia: a la astrofísica, en particular.

Tradicionalmente, el género de ciencia ficción se define por contener elementos científicos más o menos rigurosamente tratados, que mezcla con elementos ficticios para explorar las posibilidades narrativas de dicha combinación.

De este modo, lo normal es que sea la ciencia la que contribuye con ideas y conceptos que los escritores y cineastas de ciencia ficción retoman para crear sus obras (estoy hablando de ciencia ficción “dura”; dejemos de lado la llamada “blanda” o “fantasía científica”, tipo Guerra de las galaxias, en la que lo que se retoma son sólo los nombres de algunos conceptos científicos, palabras sueltas que no tienen mayor relación con su significado en ciencia legítima y que sólo sirven para darle un vago sabor “científico” a las historias).

Aun así, ya desde relatos antiguos como la Historia verdadera, del sirio Luciano de Samosata, en el siglo II, que exploraba las posibilidades del viaje espacial, pasando por Cyrano de Bergerac y su obra satírica El otro mundo o Los estados e imperios de la Luna, del siglo XVII (más dedicada a criticar a la sociedad humana que a la astronomía), hasta las famosísimas y disfrutables novelas de Julio Verne y de H. G. Wells, los escritores han usado la ficción para imaginar cómo aplicar el conocimiento científico y los desarrollos de la tecnología, y explorar sus límites y posibles consecuencias. Tendencia que se incrementó mucho con la ciencia ficción del siglo XX, con maestros como Isaac Asimov, Arthur C. Clarke, Robert A. Heinlein, Ray Bradbury, Stanilsaw Lem y tantos otros.

En todos estos casos, la ficción ayudaba de alguna manera a “simular”, así fuera informalmente (pero con inteligencia y extrapolando a partir de información fidedigna), los efectos que la ciencia y la tecnología podían tener en la sociedad y el ambiente. Incluso, en ocasiones muy concretas, algunos autores de ciencia ficción llegaron a hacer verdaderas contribuciones científico-tecnológicas, como Arthur C. Clarke, quien desarrolló el concepto original de los satélites geoestacionarios que hoy hacen posibles las telecomunicaciones globales.

Pero Interstellar ofrece algo nuevo. Como en la trama de la película aparece de manera muy importante un agujero negro, su director decidió contactar a un experto, el físico teórico Kip Thorne, y pedirle que le ayudara a crear una representación visual científicamente exacta de este objeto.

Los agujeros negros están entre los más intrigantes objetos estelares. Se forman por el colapso de estrellas supermasivas, cuando las reacciones nucleares en su interior son incapaces de contrarrestar la atracción gravitacional de su propia enorme masa, y comienzan a “derrumbarse hacia dentro”, contrayéndose y aumentando así su densidad y por tanto su fuerza de gravedad, hasta que distorsionan a tal grado el espacio a su alrededor que ni siquiera la luz puede escapar de ellos.

Suelen presentar un disco de acreción, en el que la materia que está girando a su alrededor, a punto de ser absorbida como en un remolino, se calienta y emite radiación visible. Ante la solicitud de Nolan, Thorne comenzó a trabajar con un equipo de colaboradores para desarrollar las ecuaciones, basadas en la relatividad einsteniana, que le permitirían los realizadores gráficos de Nolan generar representaciones gráficas en sus computadoras que reprodujeran de manera realista y rigurosa el comportamiento de la luz alrededor del agujero negro (es decir, cómo se “ve” realmente uno).

El resultado de este trabajo, luego de páginas y páginas de ecuaciones y de un año de trabajo de 30 personas y muchísimas computadoras procesando 800 terabytes de datos para producir las imágenes, es fascinante. Se trata de la más precisa simulación existente del aspecto visual de un agujero negro, visto desde lejos. Y fue una sorpresa, porque gracias al efecto de lente que, debido a la tremenda fuerza gravitacional, distorsiona el espacio y por tanto la ruta que siguen los rayos de luz, el brillante disco de acreción no sólo rodea al agujero negro como los anillos de Saturno, sino que pasa por delante de él y se curva caprichosamente.

No es una representación artística: “son nuestros datos observacionales. Así es como se comporta la naturaleza. Punto”, dice Thorne. Y añade que podrá publicar al menos dos artículos científicos a partir de este trabajo.

El arte imita a la ciencia. Pero ahora, también contribuye a ella.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 29 de octubre de 2014

Negacionismo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 29 de octubre  de 2014

La crisis política, de seguridad y de derechos humanos que vivimos hoy en México ha vuelto a desatar la polarización social. En conversaciones, medios y redes sociales se han recrudecido las violentas discusiones entre quienes defienden, por ejemplo, que los asesinatos de estudiantes en Guerrero son un “crimen de Estado”, siendo el responsable último –¡o único!– el presidente de la república (o, por el contrario, que es el líder de la oposición que respaldó la candidatura del alcalde de Iguala desde los partidos de izquierda el que debe cargar con dicha responsabilidad), y quienes ven en posturas como éstas una exageración que pasa por encima de la evidencia en aras de promover una postura más bien ideológica (sea en contra del gobierno o de la oposición).

Hace unos días me atreví a publicar en Facebook una brevísima reflexión al respecto: “Hay gente para la que la ideología importa más que los hechos, por lo que si no coinciden con ésta deben «corregirse» o de plano negarse. Y hay gente para la que no. Una persona con verdadero pensamiento lógico y crítico debería pertenecer a la segunda clase.”

Ya se imaginará usted la andanada de airadas respuestas que recibí.

Ayer martes 28 de octubre, el filósofo de la biología Massimo Pigliucci, de la City University de Nueva York, un muy lúcido pensador sobre las seudociencias –en particular el creacionismo– y el pensamiento humanista (sus colaboraciones en su recién expirado blog Rationally Speaking, que sigue disponible, eran siempre interesantes y disfrutables), publicó en su nueva “revista web” (webzine) Scientia Salon un interesantísimo texto donde resume sus experiencias en una reunión internacional sobre negacionismo (titulada “Manufactuing denial”) recién llevada a cabo en la Clark University, en Massachusetts, Estados Unidos.

Para Pigliucci, el negacionismo (denialism) es “el desprecio consciente de la evidencia factual por parte de grupos o individuos motivados ideológicamente” (él mismo señala que el Diccionario Oxford lo define como “la resistencia a admitir la veracidad de un concepto o proposición sustentada por la mayor parte de la evidencia científica o histórica”).

Diferencia entre la percepción pública
(izquierda) y la opinión de los expertos
 mundiales (derecha) respecto
 al cambio climático antropogénico
El negacionismo es un problema grave: existen grandes grupos negacionistas que afirman que el sida no es causado por un virus, sino por drogas; que niegan la realidad del cambio climático causado por la actividad humana, o de la evolución por selección natural; que rechazan la eficacia de las vacunas, o la existencia de ciertas epidemias; que rebaten que el ser humano haya llegado a la Luna, o que haya ocurrido el Holocausto judío. En todos los casos, se trata de una resistencia a la evidencia que parte, precisamente, de una postura ideológica. Son ideas peligrosas o inaceptables. Y en todos los casos, hay gente –mucha– que las cree con vehemencia.

En la reunión, narra Pigliucci, se analizó el negacionismo como fenómeno general, y se exploraron sus distintas ramificaciones: mediáticas, políticas, sociales, éticas… Se llegó también a ciertas conclusiones, como que “la gran variedad de negacionismos tienen en común una muy fuerte, arrolladora, convicción ideológica [religiosa, étnica, política…] que ayuda a definir en forma central la identidad del negacionista”. Esta convicción “genera un fuerte apego emocional, así como un igualmente fuerte contraataque emocional hacia sus críticos”.

Esto causa que tratar de discutir racionalmente y de convencer con argumentos basados en evidencia a los negacionistas sea, básicamente, inútil (aunque puede servir para convencer a los indecisos). Aun así, concluye Pigliucci, es un deber de todo académico e intelectual combatir este dañino fenómeno, “para tratar de que el mundo sea al menos un poquito mejor para todos”.

No digo que las discusiones políticas en nuestro país sean así. Pero sí creo que la capacidad de distinguir entre posturas ideológicas (que pueden ser válidas o no, y en todo caso tienen un fuete componente subjetivo) y hechos confirmados (que deberíamos ser capaces de reconocer aunque vayan en contra de nuestra ideología) ayudaría a relajar mucho la tensión, a alcanzar a acuerdos y actuar para mejorar las cosas… para todos.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 22 de octubre de 2014

Luz blanca

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 22 de octubre  de 2014

En una hoguera, una antorcha o una vela, la combustión del los compuestos de carbono e hidrógeno (celulosa de la madera, parafina) libera energía en forma de calor, principalmente, y también de luz: fotones. Es una forma de obtener iluminación, pero de forma muy ineficiente, y con humo y cenizas.

En el foco incandescente, inventado por el británico Joseph Swan en 1850, y perfeccionado y comercializado por Edison en 1879, el paso de una corriente eléctrica por un filamento al vacío lo calienta sin quemarlo hasta el punto en que se pone incandescente: emite luz, aunque la mayor parte de la energía aún se transforma en calor. Además, el filamento termina por fundirse, haciendo que haya que reemplazar los focos con frecuencia.

Las lámparas fluorescentes, como los focos ahorradores hoy tan de moda, reducen el uso de electricidad mediante otro proceso. La corriente eléctrica, al pasar por el vapor de mercurio de su interior, hace que éste emita luz ultravioleta. A su vez, ésta estimula una sustancia que recubre la parte interna del tubo, y que es fluorescente, es decir, emite fotones de luz visible, sin calentarse, al ser iluminada con luz ultravioleta. Estas lámparas gastan unas cinco veces menos energía que las incandescentes para producir la misma cantidad de luz. Desgraciadamente, tienen el inconveniente de contener mercurio, un metal tóxico, así que aunque gastan menos energía y duran unas diez veces más que un foco incandescente, son una solución problemática.

Para lograr una verdadera revolución se necesitaba otra tecnología. Ésta surgió cuando en los años sesenta se inventó el diodo emisor de luz, o led, por sus siglas en inglés: los bien conocidos “foquitos” que aparecen en todos los aparatos electrónicos. Los primeros emitían luz infrarroja; todavía se usan en controles remotos. En 1962, el estadounidense de ascendencia rusa Nick Holonyak inventó los leds rojos, que para finales de la década se comenzaron a vender comercialmente (curiosamente, fabricados por la empresa química Monsanto). Su funcionamiento se basa en la electroluminiscencia, descubierta en 1907, fenómeno mediante el cual algunos materiales emiten luz cuando una corriente eléctrica pasa a través de ellos.

En el caso concreto de los leds, se trata de dos capas de materiales semiconductores, como los que forman a los transistores, una de las cuales tiene un exceso de electrones, y la otra tiene deficiencia de los mismos (se dice que tiene “huecos de electrones”). Al aplicar la corriente, los electrones pasan de una capa a la otra (o los electrones y los huecos se “combinan”) y, gracias a la composición química del material (normalmente sales del metal galio: arseniuro, nitruro, fosfuro…) se emiten fotones.

Con los años, el costo de los leds fue disminuyendo, y su rendimiento y brillo aumentaron. Quizá recuerde usted aquellos primeros relojes electrónicos con pantallas de leds r
ojos.

Los leds son altamente eficientes: usan 20 veces menos electricidad que un foco incandescente, y cuatro veces menos que uno fluorescente, para producir la misma cantidad de luz. Y duran, respectivamente, 100 y 10 veces más. Tomando en cuenta que el 25 por ciento de la energía eléctrica en el mundo se gasta en iluminación (y mucha de ella se desperdicia produciendo calor), y que los leds no contienen mercurio, era claro que urgía ampliar su uso.

Para los años ochenta había también leds verdes (y de otros colores, como amarillo y naranja), que comenzaron a sustituir a los focos incandescentes en muchas aplicaciones (luces de alto en coches, semáforos). Pero no se había podido producir un led azul con buena eficiencia y costo. Y se necesitaba luz azul para, combinándola con la roja y la verde, producir luz blanca. Sólo así los leds podrían sustituir a los focos incandescentes y fluorescentes en todos los usos.

La dificultad para fabricarlos consiste en que las capas de nitruro de galio que los forman deben tener una estructura cristalina (átomos acomodados ordenadamente) muy precisa y sin fallas; pero para producir las capas con exceso de electrones y con huecos, hay que introducir impurezas; esto echaba a perder el cristal.

El gran logro de los japoneses Isamu Akasaki e Hiroshi Amano, y el estadounidense Shuji Nakamura fue desarrollar procesos para obtener los deseados cristales semiconductores de nitruro de galio. Hace dos semanas se les otorgó el premio Nobel de física “por inventar diodos emisores de luz azules eficientes, que nos han permitido tener fuentes de luz blanca brillantes y que ahorran energía”.

Sin la menor duda, un logro luminoso.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 15 de octubre de 2014

El microscopio químico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 15 de octubre  de 2014

Betzig, Moerner y Hell
Permítame, estimado lector (o lectora), continuar con el tema de los premios Nobel de este año.

La semana pasada mi querido amigo Yonathan Amador, con quien colaboro semanalmente hablando de ciencia en su programa de radio Ecléctico (CódigoCDMX, radio por internet) me hizo una excelente pregunta. ¿Por qué el premio Nobel de química se le otorgó a los inventores de una técnica de microscopía, que suena más bien a física?

Y en efecto, el premio otorgado en partes iguales a los estadounidenses Eric Betzig y William E. Moerner y al alemán Stefan W. Hell “por el desarrollo de la microscopía de fluorescencia de súper-resolución”, según el comunicado oficial de la organización Nobel (aunque en español le han llamado “de alta resolución”, y también se le conoce como “nanoscopía”) suena más a física que a química.

Expliquemos primero algunos conceptos. Antes que nada, “microscopio” es un aparato que permite ver objetos pequeños. “Resolución”, según la Real Academia, es, en física, la “Distinción o separación mayor o menor que puede apreciarse entre dos sucesos u objetos próximos en el espacio o en el tiempo”. Cuanta mayor resolución tenga un microscopio, podremos distinguir objetos más pequeños.

Aunque el microscopio óptico (el que usa luz), inventado en el siglo XVII, permitió explorar un nuevo mundo (el microscópico), existe un límite físico a lo que logra observar: la longitud de la luz que se usa. En 1873 Ernst Abbe, microscopista alemán, dedujo cuál era este límite teórico: 0.2 micrómetros (milésimas de milímetro). Es decir, aunque el microscopio permite observar células, e incluso ciertos organelos dentro de ellas, como mitocondrias o cloroplastos, no puede distinguir cosas más pequeñas –pero importantísimas para entender los procesos de la vida–, como virus o proteínas. (“Es como ver los edificios de una ciudad sin poder ver lo que hacen los ciudadanos que la habitan”, según lo describe el material de prensa distribuido por la organización Nobel. Más o menos como Google Earth, digo yo…)

Cierto, existe el microscopio electrónico, inventado alrededor de 1930, pero con él no se pueden observar células vivas.

Hell, por su lado, y Betzig y Moerner, por el suyo, comenzaron a investigar formas de superar el límite de Abbe. Hell lo logró, alrededor del año 2000, utilizando las moléculas fluorescentes (anticuerpos que, por ejemplo, se unen al ADN o a ciertas proteínas, y que brillan al ser iluminadas con cierto tipo de luz) con las que normalmente se marcan las estructuras subcelulares para localizarlas. Para aumentar la resolución, Hell inventó un mecanismo que ilumina con luz láser una diminuta área a observar dentro del campo de visión del microscopio, de modo que brille, mientras que un segundo haz más ancho de otro tipo de luz láser “apaga” la fluorescencia de todas las moléculas circundantes. Moviendo el microscopio de modo que escudriñe (“escanée”) todo el campo, Hell logró obtener microfotografías de súper-resolución. Nanografías (algo nanométrico significa que es mil veces más pequeño que algo micrométrico). Hoy el método inventado por Hell se conoce como STED (siglas en inglés de “amortiguación de emisión estimulada”).

Betzig y Moerner, en 2006, utilizaron un método distinto, hoy conocido como “microscopía de moléculas individuales”. Utilizan, como Hell, marcadores fluorescentes, pero lo que hacen es tomar una serie de microfotografías iluminando la muestra de modo que sólo algunas de las moléculas, distintas en cada foto, brillen. Luego procesan y combinan por computadora las distintas fotos, con lo que se logran distinguir con claridad todas las moléculas, aunque estén separadas por menos de 0.2 micrómetros.

La realidad es que no hay fronteras entre química y física, como tampoco la hay entre ciencia y tecnología. La nanoscopía de fluorescencia permite hoy observar el movimiento de moléculas: el nanomundo vivo. La química en acción.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!