lunes, 31 de mayo de 2010

2,000 suscriptores: ¡Gracias!

Queridos lectores:

Mi blog "La ciencia por gusto", donde reproduzco en versión ampliada la columna que publico semanalmente en Milenio Diario desde hace 7 años, acaba de llegar a los 2,000 suscriptores a través de Feedburner (es decir, no lectores, sino personas que eligen recibirla semanalmente en su buzón de email).


(En realidad, lo que reporta Feedburner en el recuadrito amarillo del blog (ver imagen arriba) es el número de "readers", que es algo que calculan mediante un algoritmo raro y que varía mucho. El número REAL de suscriptores por email aparece en la segunda imagen, más abajo, y como ven es de unos 2,000 y pico más lectores, para un total de 2,250; ese sí es un número exacto. Pero el que importa es el que aparece en el blog, creo).

Como se imaginarán, para mí la noticia es muy placentera, y por eso quiero compartirla y agradecerles a todos ustedes, que han ayudado a que esto suceda. ¡Muchas gracias! Y espero seguir siendo digno de su atención e interés.

Martín Bonfil Olivera

miércoles, 26 de mayo de 2010

Periodismo sin ciencia

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en
Milenio Diario, 26 de mayo de 2010

Se queja amargamente el siempre polémico Carlos Mota en Milenio Diario, el pasado jueves 20 de mayo, de “el pobrísimo tratamiento periodístico que se ha dado a la compra que ha hecho Manuel Saba de la corporación chilena Farmacias Ahumada”. Pues bien: yo también me quejo del pobre manejo periodístico, pero por otro tema.

Y es que el mismo día Milenio, como muchos otros medios, dio a conocer que soldados de la Secretaría de la Defensa Nacional (SEDENA) “peinaban” el rancho de Diego Fernández de Cevallos con un “detector molecular”. Según la nota, “Los militares pertenecientes a la 17 Zona Militar recibieron la orden de hacer uso del detector molecular GT200 con el fin de rastrear cualquier pista que lleve a la ubicación del ex candidato presidencial panista”.

¿Cuál es el problema de la SEDENA? ¿Por qué al mismo tiempo que establece estrategias útiles para combatir el narcotráfico como utilizar “imágenes satelitales para detectar y combatir el cultivo de amapola y mariguana sin necesidad de vuelos de reconocimiento”, como informó, también en Milenio, J. Jesús Rangel el lunes 23, insiste en usar un aparato reconocidamente inútil y fraudulento?

Presento nuevamente la evidencia, como ya he hecho en ocasiones anteriores:
  • 1) los principios físicos en los que supuestamente se basa el GT200 son imposibles;
  • 2) en pruebas controladas, ha fallado estrepitosamente: la varita mágica de “alta tecnología” no resulta mejor que el azar;
  • 3) ha fallado en detectar explosivos en Tailandia y otros sitios, causando la muerte de policías;
  • 4) al abrir el aparato, se constata que está hueco: no contiene ningún componente que pudiera explicar su supuesto funcionamiento;
  • 5) está más que demostrado que el movimiento de la antena que pretende apuntar hacia lo que se busca es sólo producto del “efecto ideomotor”: nuestras expectativas influyen en los movimientos involuntarios de la muñeca;
  • 6) varios gobiernos han demandado por fraude a los fabricantes de este tipo de aparatos, y en marzo el gobierno británico específicamente previno al mexicano acerca de su nula confiabilidad.

No me extraña de la SEDENA, que en marzo de 2004, ante unos videos de aparentes objetos voladores no identificados consideró que el experto al que había que recurrir era Jaime Maussán. Es ignorancia: los militares simplemente no tienen el conocimiento para distinguir fraudes de tecnología confiable.

Pero ¿y los periodistas? Fuera de Proceso, que al mencionar al GT200 (19 de mayo) al menos incluyó la frase “aunque su eficacia ha sido fuertemente cuestionada”, ningún otro medio, ni siquiera Milenio, mencionó ni tangencialmente que se trata de un fraude.

Termino citando de nuevo a Carlos Mota (entre paréntesis, añadido mío): “¿Tiene remedio este periodismo (que carece de una elemental cultura científica)? ¿Cuándo? ¿En cuántas generaciones?”.

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

miércoles, 19 de mayo de 2010

Brian Eno: ¿fraude o arte computacional?

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en
Milenio Diario, 19 de mayo de 2010


El pasado sábado fui al museo Anahuacalli a conocer la instalación 77 millones de pinturas, del inglés Brian Eno.

Encontré algo fascinante: una especie de altar mágico, un caleidoscopio electrónico donde una computadora proyecta, en un arreglo de pantallas, las permutaciones de más de 360 pinturas realizadas (en diapositivas y principalmente a mano) por Brain One (como también le llamamos sus fans). Observarlo es una experiencia absorbente, como mirar las llamas de una fogata o las olas del mar. Las imágenes van cambiando insensiblemente, combinándose y renovándose, acompañadas de la música creada por Eno, para producir un ambiente y una experiencia de paz que permite observar la obra y disfrutarla, o simplemente dejarla pasar. “Es como música visual”, dice el propio autor.

Eno (cuyo nombre completo es Brian Peter George St. John le Baptiste de la Salle Eno) es uno de los músicos más influyentes de las últimas décadas. Compositor, intérprete, productor (de varios de los mejores álbumes de grupos y artistas como U2, Talking Heads, David Bowie, James, Devo, Harold Budd, Laurie Anderson, Coldplay), investigador y maestro. He sido fan de su música –no sólo de la ambiental o “ambient”, que él inventó– y de su inteligencia durante años. Tenía curiosidad de conocer su también ya amplia obra gráfica y su exploración de los medios computacionales.

Por eso me sorprendió leer, el domingo en Milenio, la reseña que mi amigo y colega columnista Braulio Peralta publicó sobre la misma instalación. Es bien sabido que la experiencia estética es algo enormemente personal, subjetivo, pero por varias de las frases de Braulio (“lo que se exhibe no es pintura”; “nada que ver con el arte”; “superchería visual” “irresponsabilidad de quienes se atreven a trasgredir el arte sin fondo ni forma”) pensaría que vimos cosas distintas.

Y probablemente eso sucedió. Braulio, hombre culto con estudios de arte, parece adoptar una postura “tradicional”, en la que el arte tiene un valor intrínseco, esencial. De ahí que considere que algo hecho por una computadora no puede tener valor artístico. La perspectiva de Eno es distinta: para él, como expresa en una entrevista publicada en la revista Wired (¡en mayo de 1995!) Eno explica: “En la visión tradicional, clásica, los objetos de arte son contenedores de algún tipo de valor estético. Este valor fue puesto en ellos por el artista, que a su vez lo recibió de Dios o de la Musa o del inconsciente universal. Lo que está mal con esta postura es que los objetos culturales no tienen identidad notoria, fuera de la que nosotros les conferimos. Su valor es totalmente el producto de la interacción que tenemos con ellos.”

El filósofo Daniel Dennett –de quien, usted lo habrá notado, también soy fan– expresa, en un ensayo sobre una teoría darwiniana de la inteligencia creativa, que los procesos por los que una computadora crea arte no son esencialmente distintos de los que ocurren en el cerebro humano. No hay, dice, “inspiración divina”, sino procesos algorítmicos –enormemente complejos, eso sí– entre neuronas que no “piensan”, pero cuyo funcionamiento conjunto produce ese fenómeno emergente que es nuestra conciencia... y nuestra creatividad y sensibilidad artísticas.

La obra de Eno es un ejemplo de lo que se conoce como “arte generativo”: el artista pone la materia prima y la computadora produce combinaciones inesperadas, impredecibles, siempre nuevas, que llevan la “firma” del artista, pero no son directamente producidas por él. Eno ha sido uno de los principales exploradores, durante décadas, de esta vertiente que combina, en sus palabras, “arte, ciencia y juego” (por eso resulta especialmente desconcertante leer que Braulio describe su obra como “un trabajo que, desde los 70, no ha evolucionado”). Si ya desde Duchamp y su mingitorio firmado quedó claro que arte es aquello que queremos ver como tal, ¿por qué una computadora no puede crear objetos que nos permitan, como dice Eno, “disfrutar esa sensación de rendirnos y dejarnos ir, y dar constancia de que nada es permanente ni está siempre quieto”? A mí, me encantó.

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

miércoles, 12 de mayo de 2010

Petróleo vs. hidrógeno

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en
Milenio Diario, 12 de mayo de 2010


El terrible derrame petrolero frente a Luisiana causado por la explosión de una plataforma petrolera de British Petroleum el pasado 20 de abril, que libera al mar diariamente unos 800 mil litros de petróleo y había formado, hasta el lunes, una mancha de cinco mil kilómetros cuadrados, es muestra de que la actual economía basada en hidrocarburos tiene un precio oculto (en este caso, el daño económico y ambiental se calcula, según informó Milenio Diario, en 10 millones de dólares al día).

¿Qué esperamos para abandonar el petróleo? Un problema es que las energías alternativas (solar, eólica) no acaban de ser costeables. Pero hay una alternativa: el hidrógeno.

Los seres vivos requerimos energía. Si no podemos obtenerla directamente del sol, como hacen las plantas mediante la fotosíntesis, una opción es quemar combustibles. Los animales quemamos los alimentos producidos por las plantas (o los tejidos de otros animales, que a su vez se alimentan de plantas). Nuestras células, a través de un lento proceso de combustión controlada llamada oxidación, liberan la energía solar almacenada en ellos en forma de enlaces químicos.

Más allá de la fisiología, la tecnología. El ser humano descubrió que podía quemar combustibles y liberar la energía que contienen. Durante siglos quemó madera, luego carbón –en cantidades crecientes a partir de la revolución industrial– y actualmente petróleo.

Quemar es oxidar: sustituir los átomos de hidrógeno de una molécula por átomos de oxígeno. El proceso libera energía química, que puede transformarse en calorífica o de otros tipos. Pero libera también productos de combustión: en el caso de los compuestos orgánicos, el residuo es dióxido de carbono, actualmente acumulado en la atmósfera hasta causar ese otro gravísimo problema ambiental: el calentamiento global.

Pero el hidrógeno, al oxidarse –combinarse con oxígeno– libera también grandes cantidades de energía… con la ventaja de que esta reacción química produce como residuo sólo agua. Y existe también una tecnología conocida como celdas de combustible, que utiliza la oxidación de hidrógeno para producir directamente una corriente eléctrica, nuevamente produciendo sólo agua como desecho.

El problema es el hidrógeno tiene que producirse a partir de la descomposición del agua, proceso conocido como electrólisis, que requiere un catalizador que haga posible esta reacción. Es por eso que el descubrimiento de un nuevo catalizador de molibdeno, 70 veces más barato que el de platino usado hasta hoy (anunciado en la revista Nature y reseñado por Luis González de Alba el domingo en Milenio), promete hacer de la economía del hidrógeno una realidad más cercana.
La ciencia y la tecnología no existen en una torre de marfil, aisladas de la realidad. Así como pueden afectar a la sociedad o al ambiente, pueden ofrecernos soluciones para reparar el daño.

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

martes, 4 de mayo de 2010

Google aprende a pensar

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 5 de mayo de 2010

Para quien viva en el siglo 21 y use internet, Google parece una presencia ominosa y universal, que amenaza con convertirse en el tipo de inteligencia artificial totalitaria que películas como 2001, Odisea espacial nos enseñaron a temer.

Desde que fue inventado en 1997 por dos estudiantes de posgrado de la Universidad de Stanford, Larry Page y Sergey Brin (ambos de 23 años), el buscador de internet más usado del mundo (varios cientos de millones de consultas al día) ha crecido hasta convertirse en un emporio que amaga con dominar el mundo (no sólo virtual, sino incluso el real, con artefactos como celulares y computadoras).

Pero lo verdaderamente asombroso es que Google va volviéndose inteligente. Ya desde su concepción, el buscador se distinguió de sus competidores por su particular método de búsqueda. Todo buscador (Yahoo, Bing de Microsoft, el propio Google, etcétera) va recorriendo cada rincón de la red y acumulando información. Pero lo difícil es ordenarla y clasificarla, para que cuando un usuario la solicite el buscador presente justo lo que pide, y no miles de opciones no deseadas.

La gran idea detrás de Google es que, en vez de tratar de analizar y decidir qué información es más importante, se fija en qué páginas prefieren los propios usuarios de internet. Así, el algoritmo que desarrollaron Page y Brin (originalmente llamado “PageRank”, y que constituye la “fórmula secreta” que le ha dado a Google su éxito), clasifica a las páginas de internet de acuerdo al número de otras páginas que se enlazan con ellas. Es decir, las evalúa de acuerdo a su éxito práctico, no a criterios teóricos (una idea muy darwiniana; recordemos que, en evolución, el éxito se define como cualquier cosa que aumente la supervivencia de un individuo y sus descendientes).

Con esto, Google ha logrado ofrecer resultados de manera cada vez más inteligente cuando uno busca algo: lo que Google considera importante se parece mucho a lo que los humanos consideramos importante.

Y sus habilidades continúan refinándose: en un artículo aparecido en la revista Wired (febrero 2010), Steven Levy comenta cómo se ha logrado que Google aprenda a distinguir mejor entre sinónimos (un problema frecuente), usando un concepto proveniente de la filosofía. Ludwig Wittgenstein afirmó alguna vez que “las palabras carecen de significado si no se comparten” (aunque la compilación de citas Wikiquote da una versión ligeramente diferente: “el significado de una palabra es su uso en el lenguaje”). Tomando en cuenta esto, Google ahora considera qué palabras rodean a la palabra problemática, y logra ofrecer resultados más acertados. Va aprendiendo a “entender” el significado de las palabras por su contexto, de manera muy similar, en esencia, a como lo hacemos los humanos.

¿Llegará a convertirse algún día Google en algo parecido a la malévola computadora Hal 9000? No lo creo (se dice que el lema informal de la compañía es "No seas malo") , pero seguramente el momento en que las “inteligencias artificiales” se conviertan en, simplemente, inteligencias, sin calificativos, se acerca.

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!