miércoles, 22 de octubre de 2014

Luz blanca

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 22 de octubre  de 2014

En una hoguera, una antorcha o una vela, la combustión del los compuestos de carbono e hidrógeno (celulosa de la madera, parafina) libera energía en forma de calor, principalmente, y también de luz: fotones. Es una forma de obtener iluminación, pero de forma muy ineficiente, y con humo y cenizas.

En el foco incandescente, inventado por el británico Joseph Swan en 1850, y perfeccionado y comercializado por Edison en 1879, el paso de una corriente eléctrica por un filamento al vacío lo calienta sin quemarlo hasta el punto en que se pone incandescente: emite luz, aunque la mayor parte de la energía aún se transforma en calor. Además, el filamento termina por fundirse, haciendo que haya que reemplazar los focos con frecuencia.

Las lámparas fluorescentes, como los focos ahorradores hoy tan de moda, reducen el uso de electricidad mediante otro proceso. La corriente eléctrica, al pasar por el vapor de mercurio de su interior, hace que éste emita luz ultravioleta. A su vez, ésta estimula una sustancia que recubre la parte interna del tubo, y que es fluorescente, es decir, emite fotones de luz visible, sin calentarse, al ser iluminada con luz ultravioleta. Estas lámparas gastan unas cinco veces menos energía que las incandescentes para producir la misma cantidad de luz. Desgraciadamente, tienen el inconveniente de contener mercurio, un metal tóxico, así que aunque gastan menos energía y duran unas diez veces más que un foco incandescente, son una solución problemática.

Para lograr una verdadera revolución se necesitaba otra tecnología. Ésta surgió cuando en los años sesenta se inventó el diodo emisor de luz, o led, por sus siglas en inglés: los bien conocidos “foquitos” que aparecen en todos los aparatos electrónicos. Los primeros emitían luz infrarroja; todavía se usan en controles remotos. En 1962, el estadounidense de ascendencia rusa Nick Holonyak inventó los leds rojos, que para finales de la década se comenzaron a vender comercialmente (curiosamente, fabricados por la empresa química Monsanto). Su funcionamiento se basa en la electroluminiscencia, descubierta en 1907, fenómeno mediante el cual algunos materiales emiten luz cuando una corriente eléctrica pasa a través de ellos.

En el caso concreto de los leds, se trata de dos capas de materiales semiconductores, como los que forman a los transistores, una de las cuales tiene un exceso de electrones, y la otra tiene deficiencia de los mismos (se dice que tiene “huecos de electrones”). Al aplicar la corriente, los electrones pasan de una capa a la otra (o los electrones y los huecos se “combinan”) y, gracias a la composición química del material (normalmente sales del metal galio: arseniuro, nitruro, fosfuro…) se emiten fotones.

Con los años, el costo de los leds fue disminuyendo, y su rendimiento y brillo aumentaron. Quizá recuerde usted aquellos primeros relojes electrónicos con pantallas de leds r
ojos.

Los leds son altamente eficientes: usan 20 veces menos electricidad que un foco incandescente, y cuatro veces menos que uno fluorescente, para producir la misma cantidad de luz. Y duran, respectivamente, 100 y 10 veces más. Tomando en cuenta que el 25 por ciento de la energía eléctrica en el mundo se gasta en iluminación (y mucha de ella se desperdicia produciendo calor), y que los leds no contienen mercurio, era claro que urgía ampliar su uso.

Para los años ochenta había también leds verdes (y de otros colores, como amarillo y naranja), que comenzaron a sustituir a los focos incandescentes en muchas aplicaciones (luces de alto en coches, semáforos). Pero no se había podido producir un led azul con buena eficiencia y costo. Y se necesitaba luz azul para, combinándola con la roja y la verde, producir luz blanca. Sólo así los leds podrían sustituir a los focos incandescentes y fluorescentes en todos los usos.

La dificultad para fabricarlos consiste en que las capas de nitruro de galio que los forman deben tener una estructura cristalina (átomos acomodados ordenadamente) muy precisa y sin fallas; pero para producir las capas con exceso de electrones y con huecos, hay que introducir impurezas; esto echaba a perder el cristal.

El gran logro de los japoneses Isamu Akasaki e Hiroshi Amano, y el estadounidense Shuji Nakamura fue desarrollar procesos para obtener los deseados cristales semiconductores de nitruro de galio. Hace dos semanas se les otorgó el premio Nobel de física “por inventar diodos emisores de luz azules eficientes, que nos han permitido tener fuentes de luz blanca brillantes y que ahorran energía”.

Sin la menor duda, un logro luminoso.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 15 de octubre de 2014

El microscopio químico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 15 de octubre  de 2014

Betzig, Moerner y Hell
Permítame, estimado lector (o lectora), continuar con el tema de los premios Nobel de este año.

La semana pasada mi querido amigo Yonathan Amador, con quien colaboro semanalmente hablando de ciencia en su programa de radio Ecléctico (CódigoCDMX, radio por internet) me hizo una excelente pregunta. ¿Por qué el premio Nobel de química se le otorgó a los inventores de una técnica de microscopía, que suena más bien a física?

Y en efecto, el premio otorgado en partes iguales a los estadounidenses Eric Betzig y William E. Moerner y al alemán Stefan W. Hell “por el desarrollo de la microscopía de fluorescencia de súper-resolución”, según el comunicado oficial de la organización Nobel (aunque en español le han llamado “de alta resolución”, y también se le conoce como “nanoscopía”) suena más a física que a química.

Expliquemos primero algunos conceptos. Antes que nada, “microscopio” es un aparato que permite ver objetos pequeños. “Resolución”, según la Real Academia, es, en física, la “Distinción o separación mayor o menor que puede apreciarse entre dos sucesos u objetos próximos en el espacio o en el tiempo”. Cuanta mayor resolución tenga un microscopio, podremos distinguir objetos más pequeños.

Aunque el microscopio óptico (el que usa luz), inventado en el siglo XVII, permitió explorar un nuevo mundo (el microscópico), existe un límite físico a lo que logra observar: la longitud de la luz que se usa. En 1873 Ernst Abbe, microscopista alemán, dedujo cuál era este límite teórico: 0.2 micrómetros (milésimas de milímetro). Es decir, aunque el microscopio permite observar células, e incluso ciertos organelos dentro de ellas, como mitocondrias o cloroplastos, no puede distinguir cosas más pequeñas –pero importantísimas para entender los procesos de la vida–, como virus o proteínas. (“Es como ver los edificios de una ciudad sin poder ver lo que hacen los ciudadanos que la habitan”, según lo describe el material de prensa distribuido por la organización Nobel. Más o menos como Google Earth, digo yo…)

Cierto, existe el microscopio electrónico, inventado alrededor de 1930, pero con él no se pueden observar células vivas.

Hell, por su lado, y Betzig y Moerner, por el suyo, comenzaron a investigar formas de superar el límite de Abbe. Hell lo logró, alrededor del año 2000, utilizando las moléculas fluorescentes (anticuerpos que, por ejemplo, se unen al ADN o a ciertas proteínas, y que brillan al ser iluminadas con cierto tipo de luz) con las que normalmente se marcan las estructuras subcelulares para localizarlas. Para aumentar la resolución, Hell inventó un mecanismo que ilumina con luz láser una diminuta área a observar dentro del campo de visión del microscopio, de modo que brille, mientras que un segundo haz más ancho de otro tipo de luz láser “apaga” la fluorescencia de todas las moléculas circundantes. Moviendo el microscopio de modo que escudriñe (“escanée”) todo el campo, Hell logró obtener microfotografías de súper-resolución. Nanografías (algo nanométrico significa que es mil veces más pequeño que algo micrométrico). Hoy el método inventado por Hell se conoce como STED (siglas en inglés de “amortiguación de emisión estimulada”).

Betzig y Moerner, en 2006, utilizaron un método distinto, hoy conocido como “microscopía de moléculas individuales”. Utilizan, como Hell, marcadores fluorescentes, pero lo que hacen es tomar una serie de microfotografías iluminando la muestra de modo que sólo algunas de las moléculas, distintas en cada foto, brillen. Luego procesan y combinan por computadora las distintas fotos, con lo que se logran distinguir con claridad todas las moléculas, aunque estén separadas por menos de 0.2 micrómetros.

La realidad es que no hay fronteras entre química y física, como tampoco la hay entre ciencia y tecnología. La nanoscopía de fluorescencia permite hoy observar el movimiento de moléculas: el nanomundo vivo. La química en acción.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 8 de octubre de 2014

La semana Nobel

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 8 de octubre  de 2014

Este año la semana Nobel empezó temprano: no amanecía todavía el lunes (en México) y ya se estaba dando el anuncio del premio de fisiología o medicina.

La brevedad de este espacio no me permitirá hablar del premio Nobel de física, que ha sido ya anunciado al escribir estas líneas. Hablemos, pues, del de medicina, otorgado mitad al fisiólogo neoyorquino John O'Keefe, y mitad a la pareja de neurofisiólogos formada por los esposos noruegos May-Britt Moser y Edvard I. Moser, “por sus descubrimientos de células que constituyen un sistema de posicionamiento en el cerebro”.

La gran mayoría de los titulares han aprovechado la metáfora del “GPS cerebral” para explicar el logro. No estoy muy de acuerdo con la imagen, pues el sistema de posicionamiento global (GPS, por sus siglas en inglés), que permite a nuestros aparatos GPS y teléfonos inteligentes localizar el lugar preciso en que estamos, lo hace conectándose por radio con una red de alrededor de 24 satélites y determinando las coordenadas del usuario por triangulación.

El sistema de posicionamiento del cerebro, en cambio, lo logra usando información proveniente de los sentidos del animal (se estudió en ratas, pero probablemente se halla en todos los mamíferos; se ha comprobado, al menos en parte, que existe en humanos).

¿Cómo puede el cerebro determinar su posición en el espacio y orientarse cuando hay movimiento? Uno pensaría que lo más sencillo es que elabore un “mapa” del territorio. Pero, ¿de qué estaría hecho ese mapa? No podría ser una simple imagen: ¿quién la vería, dentro del cerebro? En 1971, O'Keefe descubrió que las ratas tienen, en la estructura cerebral llamada hipocampo, ciertas células que se activan siempre que el animal se encuentra en un mismo sitio. Las llamó “células de posición” o "de lugar".

Más de treinta años más tarde, en 2005, los esposos Moser –que en algún momento trabajaron juntos en el laboratorio de O’Keefe en Londres– descubrieron, en otra estructura cerebral llamada corteza entorrinal, contigua al hipocampo, otro tipo de células, que llamaron “de retícula” o “reticulares”, que se activan cuando la rata, al moverse, pasa por ciertos sitios.

Las células de retícula establecen una red hexagonal que, junto con datos visuales, forma el “mapa” del espacio en que se halla la rata. (Curiosamente, también la red de telefonía celular es hexagonal. Cada “célula” es el círculo que abarca cada antena receptora. Al moverse el teléfono, la señal va pasando de una célula a la siguiente, sin perderse la conexión… o al menos así debería ser. Pero la manera en que esas celdas circulares se pueden acomodar para cubrir sin huecos un espacio plano es un acomodo, precisamente, hexagonal.)

A su vez, las células de posición marcan el sitio que ocupa la rata en ese espacio. Juntos, las células de retícula y de posición forman un entramado que determina en qué lugar se halla el animal en relación con el espacio circundante, permitiéndole –permitiéndonos– ser conscientes de nuestra posición en él.

Poco a poco, el cerebro va revelando sus secretos. Un Nobel bien merecido.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 1 de octubre de 2014

Pensar el periodismo científico

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 1 de octubre  de 2014

Inauguración del Seminario
Pocas cosas influyen tanto en las sociedades contemporáneas como la ciencia y la tecnología. Carl Sagan, el famoso astrónomo y divulgador científico, escribió en su libro El mundo y sus demonios: “Hemos organizado una civilización global en la que los elementos más cruciales(...) dependen profundamente de la ciencia y la tecnología. También hemos organizado las cosas de forma que casi nadie comprende la ciencia ni la tecnología. Ésta es una receta para el desastre.”

La principal función del periodismo es informar. En particular, el periodismo especializado en ciencia –periodismo científico– proporciona información en materia de ciencia y tecnología al ciudadano común, el que no es aficionado a estos temas, manteniéndolo informado de las novedades, combatiendo la desinformación que muchas veces se hace pasar por ciencia sin serlo, ayudándolo a tomar decisiones basadas en datos confiables, e incluso fomentando su cultura científica.

La semana pasada tuve el privilegio de asistir a la segunda edición del Seminario Iberoamericano de Periodismo de Ciencia, Tecnología e Innovación, organizado por el Consejo Nacional de Ciencia y Tecnología (Conacyt) en Quintana Roo (24 al 26 de septiembre). En él, con la asistencia de especialistas en periodismo científico de diversos estados de nuestro país, así como de naciones como España, Venezuela o Argentina, se continuó con el trabajo iniciado el año pasado en la primera reunión, celebrada en Yucatán.

Ahí se discutió, se pensó colectivamente, se conocieron nuevas ideas y se hicieron propuestas para mejorar la calidad, así como la penetración, del periodismo científico profesional –pues en su mayoría, por mucho tiempo, fue más bien improvisado– en México.

Entre otros temas, se discutió el acceso libre a la información científica, el uso de nuevas tecnologías digitales, y la nuevas narrativas en el periodismo del siglo XXI. Tres de las propuestas que más llamaron la atención fueron la creación de un repositorio nacional de la información científica producida por las instituciones de investigación públicas, la de una agencia de noticias científicas por parte del Conacyt, y la de una organización gremial que agrupe a los periodistas especializados en ciencia para promover su profesionalización, impulsar la calidad de su trabajo y ayudar a que los medios reconozcan la necesidad de contar con especialistas en esta fuente periodística (pues uno de los principales problemas del periodismo científico en México es que los editores de los medios, así como sus directivos, suelen considerar a la ciencia como una curiosidad, noticias secundarias (soft news, en la jerga periodística), algo que cualquier periodista puede cubrir, y la relegan a los lugares menos importantes de sus espacios).

En lo personal, me llamó la atención que muchos colegas den por hecho que el periodismo científico se reduce a la función y a los géneros meramente informativos, dejando de lado otras funciones del periodismo (formar, entretener, llamar a rendir cuentas…) y otros géneros, como los de opinión (un ejemplo de los cuales es esta humilde columna). Si duda el periodismo que informa con rigor y oportunidad sobre los temas de actualidad en ciencia y tecnología resulta fundamental; pero también lo es aquel que lo haga de forma amena, fascinante, y que muestre las historias y las pasiones humanas que conectan a la ciencia con todo el resto de la cultura humana. (En mi opinión, puede haber periodismo científico de investigación, confrontativo, de entretenimiento, de opinión, etcétera. Como dijo Ricardo Raphael de la Madrid, uno de los conferencistas invitados el evento, “cualquier cosa se vale, menos decir mentiras”.)

Felicidades al Conacyt (y al CIDE) por organizar este amplio evento. Seguramente en futuras ediciones continuará dando frutos para fortalecer una especialidad útil y muy necesaria en nuestro país.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 24 de septiembre de 2014

Ciencia y no ciencia

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 24 de septiembre  de 2014

Cuando se habla de ciencia, uno de los temas más polémicos es cómo distinguir al producto auténtico de sus versiones “pirata”, sus imitaciones fraudulentas.

La búsqueda de este “criterio de demarcación” ha sido larga y, si no infructuosa, porque mucho se ha avanzado en aclarar los atributos que caracterizan a la ciencia –la manera más exitosa que ha desarrollado el ser humano para obtener conocimiento confiable y aplicable sobre el mundo natural–, sí un tanto frustrante: seguimos sin hallar el deseado criterio infalible.

El filósofo austriaco Karl Popper (1902-1994) llegó a proponer que toda hipótesis científica, a diferencia de las seudocientíficas, debía ser “falsable”: tenía que estar claro qué experimento u observación, de dar un resultado opuesto al predicho por la teoría, implicaría su refutación. Las teorías científicas, en la visión de Popper, avanzan así por un proceso darwiniano de “conjeturas y refutaciones”: las que logran, conforme se acumula nueva evidencia, seguir explicando adecuadamente la realidad, sobreviven; las que fallan, se extinguen y son sustituidas por otras mejores (o, al menos, más adecuadas para explicar los datos disponibles que las anteriores). En cambio, las seudociencias siempre pueden ofrecer alguna explicación improvisada, alguna excusa, para justificar sus fallos y seguir pretendiendo ser válidas. Y por lo mismo, nunca cambian ni avanzan.

En un mundo ideal, debería estar claro que cosas como la física relativista, la química orgánica o la biología evolucionista son ciencias, mientras que, a pesar de sus pretensiones científicas, la astrología o la creencia en platillos voladores tripulados por extraterrestres anoréxicos son sólo charlatanerías.

En consecuencia, debería ser sencillo impedir que las ideas seudocientíficas fueran presentadas al público como ciencias, e incluso, cuando pueden ser dañinas (para la salud, por ejemplo), combatir su difusión.

Sin embargo, en la vida real las cosas son más complicadas. Los negacionistas del sida, los adivinos, los que venden fraudulentos “remedios milagro”, los confundidos que creen haber descubierto teorías de “gravedad repulsiva” que refutan a Einstein, los creacionistas que niegan la evolución… todos ellos siguen propagando sus ideas a un público de seguidores mal informados y siempre ansiosos de conocer “verdades ocultas”.

No cabe duda: la lucha contra las seudociencias no termina nunca. El que no se pueda marcar con total nitidez la frontera que separa a las ciencias de la charlatanería no quiere decir que tenga el mismo valor el conocimiento obtenido con base en evidencia y sometido a prueba que las simples fantasías producto de mentes confusas y ávidas de ver cumplidas sus fantasías.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 17 de septiembre de 2014

El pez que camina

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 17 de septiembre  de 2014

Es un lugar común, cuando se habla de evolución, mencionar cómo los peces “desarrollaron patas para salir del agua”. Incluso, el famoso “Darwin fish”, un pez similar al usado como símbolo del catolicismo, pero con patas, se ha convertido en un ícono de la lucha del darwinismo contra el creacionismo (que, como se sabe, es la creencia de que los seres vivos no son producto de la evolución, sino de la creación divina… o, en la nueva versión seudocientífica conocida como “diseño inteligente”, por “una inteligencia superior”).

Una confusión muy frecuente sobre la evolución es creer que ésta se presenta durante la vida de un individuo; que uno puede “evolucionar”. (No ayuda que en el cine y la TV aparezcan ejemplos de este tipo de “evolución”, como las Tortugas Ninja o los Pokemones.) En realidad, la evolución es un proceso que sólo ocurre en poblaciones. A lo largo de las generaciones, como res
ultado de las presiones que impone el ambiente, ciertos genes van predominando –presentándose con más frecuencia– en la población (debido a que los individuos que los presentan pueden prosperar mejor en dicho ambiente, y pueden heredarlos a su descendencia). Es este cambio en las frecuencias de los genes en una población lo que llamamos “evolución”.

Un interesante experimento reciente explora la relación entre evolución y cambios en un individuo.

Quizá haya usted escuchado a finales de agosto pasado la noticia (publicada en la revista Nature y difundida en muchos medios) de que se había “enseñado a caminar a un pez”. Y en efecto: Emily Standen y sus colegas, de las universidades de Ottawa y McGill, en Canadá, criaron en condiciones muy especiales a 111 ejemplares de un pez de tipo primitivo llamado Polypterus senegalus (o pez dragón africano; curiosamente, en inglés se le llama bichir, y también se le conoce como “anguila dinosaurio” –aunque no es una anguila– por su piel acorazada).

Este pez es capaz de salir de vez en cuando del agua y caminar torpemente con sus aletas, ayudándose del contoneo de su largo cuerpo. Además presenta, aparte de agallas, unos pulmones rudimentarios. Esto le permite buscar comida en los alrededores de los ríos que habita.

Aunque no está relacionado con el tipo de peces que se piensa fueron, hace 400 millones de años, los ancestros de los tetrápodos (los animales de cuatro miembros, como anfibios, reptiles, aves y mamíferos, incluyendo a la especie humana), Standen y sus colegas pensaron que sería interesante experimentar con la capacidad del Polypterus para caminar. Para ello, criaron a sus peces en acuarios sin agua, sobre un fondo rocoso (con un rocío constante de agua para que no se deshidrataran), durante ocho meses.

Al examinarlos, hallaron que no sólo habían aprendido a caminar de manera mucho más eficaz que sus congéneres acuáticos, apoyando mejor sus aletas, contoneando menos el cuerpo y gastando menos energía; en general caminando con más gracia. Además habían sufrido cambios anatómicos: al examinar sus huesos hallaron que la articulación del hombro se había vuelto más flexible, permitiéndoles mover las aletas más libremente, mientras que sus clavículas se habían vuelto más gruesas, para soportar mejor el peso del animal fuera del agua. Estos cambios son similares a los que se hallan en los fósiles de peces que sí son antecesores de los animales terrestres, como el famoso Tiktaalik.



¿Se trata entonces de evolución tipo Pokemón? No: los cambios no se heredarían a su descendencia. Lo que se observa es más bien la llamada plasticidad del desarrollo (o plasticidad fenotípica): la anatomía de los organismos se desarrolla de formas distintas en respuesta a las condiciones del medio. Es por eso que los músculos de un fisicoculturista pueden agrandarse tanto, mientras que el pie de una antigua dama china, luego de estar vendado toda su vida, queda atrofiado.

Lo que muestra el experimento es que en los genes y los cuerpos de distintos tipos de peces existía ya el potencial de adaptarse al medio terrestre, incluso más allá de lo que se pensaba. Una vez abierta esta puerta, la selección natural puede encargarse de favorecer a los ejemplares cuya plasticidad les permita adaptarse mejor. Luego de un –largo– tiempo, el genoma de la población en general reflejará estos cambios.

Los genes determinan lo que somos: pero además de sufrir mutaciones, que son la materia prima de la evolución, pueden también encenderse o apagarse, o ser regulados por otros genes en respuesta a condiciones ambientales (entre otros mecanismos que regulan su expresión). Esta plasticidad, como puede verse, permite que la selección natural tenga más opciones de dónde escoger en el surgimiento de nuevas especies.


Nota del 19/sep/14: Gracias a Miquel Nadal Palazón por señalarme que no eran las geishas japonesas, sino las mujeres chinas, las que eran sometidas a la horrible tradición de vendar el pie para deformarlo hasta lograr los "pies de loto".

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 10 de septiembre de 2014

La falacia del especialista

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 10 de septiembre  de 2014

La divulgación científica es la labor de compartir la cultura científica con un público voluntario y no especialista.

La ciencia en su forma bruta, como es producida por investigadores científicos y publicada en revistas especializadas, luego de un riguroso arbitraje por colegas, es virtualmente inaccesible a quien no sea experto. No sólo por el lenguaje ultraespecializado que utiliza, sino por la cantidad de conocimiento previo que resulta indispensable para comprenderla.

Es por eso que se necesita otro profesional, el divulgador científico –más un generalista que un especialista– que la pueda comunicar en el lenguaje adecuado y con la forma y el contexto necesarios para hacerla accesible, además de atractiva, para el gran público.

Pero este proceso requiere sacrificios. La ciencia divulgada es siempre distinta –no necesariamente de menor calidad o más pobre, sino distinta– de la ciencia académica del especialista. Cuando el investigador se enfrenta a un texto de divulgación científica (o un programa de radio o TV, o una exposición en un museo...) es frecuente que encuentre que se presenta algún concepto científico en forma esencialmente correcta, pero quizá incompleta. Porque falta parte de la historia, del detalle; probablemente por razones de espacio, por no sobrecargar al lector con conceptos complejos, abstractos y detallados en un texto que como primer requisito aspira a ser atractivo. El especialista no hallará la información con la precisión, detalle, rigor y lenguaje al que está acostumbrado. Y con frecuencia su reacción, entonces, es brincar a la conclusión de que esto se debe a la ignorancia del divulgador. Procede entonces a indignarse porque se está “distorsionando” el contenido científico, o incluso llega a lanzar la acusación de que se está “mintiendo”.

Pero cuando uno profundiza un poco en las características y necesidades de la labor de comunicación pública de la ciencia se da cuenta de que un texto de divulgación inevitablemente tendrá menos rigor científico que los textos de especialistas… porque no va dirigida a especialistas. Cuando un experto lee el texto, normalmente lo hace como experto, sin ponerse en los zapatos del verdadero público de la divulgación: el público no científico. Su queja y su crítica son, entonces, improcedentes.

El divulgador científico no trabaja para los especialistas, sino para el público que lo lee. Y si bien no es válido comunicar conceptos erróneos o cometer errores, el criterio para definir qué es “erróneo” debe basarse en las necesidades de ese público. Al especialista siempre le parecerá insuficiente la información que el divulgador incluya en su texto. Siempre le parecerá que falta rigor, que se necesita más detalle, que no se está mostrando el panorama total del tema, que se está usando un lenguaje poco preciso. Pero calificar tajantemente eso de “erróneo” es una falacia, porque se está juzgando el trabajo de divulgación con un criterio no adecuado: el del especialista, no el del comunicador.

No presentar la versión completa de un tema científico, resumir, simplificar, usar metáforas y comparaciones, seleccionar una parte de la información dejando fuera otra y hablar sólo de lo que es importante para los fines del divulgador (poner la ciencia al alcance del público), o de lo que se puede comunicar dadas las limitaciones de espacio o de conocimiento previo en el público –entre otras circunstancias– no es presentar “un concepto equivocado”. Es, en todo caso, presentar un concepto parcial, que es muy distinto.

La falacia del especialista es dañina. Lleva, en última instancia, a la falsa dicotomía entre comunicar la ciencia con un rigor total o mejor no comunicarla. Es también una falacia difícil de evitar. Pero no hacerlo lleva a juicios incorrectos. Y esto, al final, nos perjudica a todos: a los divulgadores, que somos juzgados injustamente; a los investigadores, que persisten en no entender en qué consiste y qué busca la divulgación, y principalmente, que es lo que más importa, al público.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!