domingo, 23 de julio de 2017

Verdad científica y consenso


Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 23 de julio de 2017

La semana pasada presenté en este espacio un comentario sobre el calentamiento global y el cambio climático que trae aparejado, y los describí como “la más grande amenaza para la supervivencia humana”.

En respuesta, más de un lector me acusó de estar propagando una falsedad, e incluso de promover “una nueva religión”. Y es que el tema, a pesar de lo que pudiera pensarse, es polémico.

Hay mucha gente en el mundo –entre ellos, por supuesto, Donald Trump– que dudan de la veracidad de los datos que indican que el calentamiento global es un fenómeno real, o no están convencidos de que sea producto de la actividad humana (la emisión de gases de invernadero producto de la quema de combustibles fósiles), sino que creen que forma parte de los ciclos naturales del sistema Tierra-Sol.

Como consecuencia, niegan sus riesgos (o afirman que es inútil tomar medidas para tratar de mitigarlos), a pesar de la cada vez más clara evidencia que se va acumulando. Estos “escépticos” (o, más adecuadamente, en mi opinión, negacionistas) del cambio climático afirman, para explicar que la inmensa mayoría de los expertos en clima estén de acuerdo en que el riesgo es real (con datos, análisis detallados y modelos complejos que sustentan su opinión), que existe una especie de complot global, organizado quizá por “países enemigos del mundo libre” como China, para propagar la versión oficial. El objetivo de esta conspiración mundial sería perjudicar la economía de los países altamente industrializados –o, en una versión alterna, la de los países emergentes–, que se verían obligados a tomar medidas de alto costo para reducir la emisión de gases de invernadero.

El problema es que, al discutir sobre el asunto, quienes niegan el cambio climático descalifican la validez del conocimiento científico que es dado por bueno por la gran mayoría de los expertos, los cuerpos colegiados internacionales –como la Convención Marco de las Naciones Unidas sobre el Cambio Climático– así como la gran mayoría de los países que han firmado compromisos como el Acuerdo de París.

Surgen entonces las discusiones sobre lo que es “verdad” en ciencia: cada bando afirma que la verdad está de su lado, y se niega aceptar los datos, interpretaciones, argumentos y conclusiones de sus adversarios. La discusión puede, de este modo, empantanarse y volverse interminable.

No sirve de mucho especular sobre las razones ideológicas, psicológicas o los intereses que pueden estar detrás de las opiniones de los negacionistas del cambio climático. (Aunque tienden a ser personas que consideran la libertad –sobre todo la de mercado– como valor supremo, y suelen estar relacionados con el mundo de las finanzas y los negocios.)

Pero parte del problema es la visión relativamente ingenua que normalmente tenemos de la ciencia. O más precisamente, del método que los científicos usan para producir conocimiento científico confiable. Se nos enseña desde la primaria que los científicos observan objetivamente, sin prejuicios ni preconcepciones, la realidad, y que hacen experimentos, y a partir de ello formulan hipótesis que expliquen lo observado. Luego someten a prueba, con más experimentos, dichas hipótesis, y si nada parece contradecirlas, las aceptan como verdaderas. (Una versión ligeramente más refinada nos dice que los científicos sólo aceptan sus hipótesis y teorías como probablemente verdaderas, las siguen sometiendo a prueba y están siempre listos a desecharlas y sustituirlas por hipótesis mejores en cuanto surjan datos que las refuten.) Finalmente, plasman sus conclusiones en artículos científicos que son enviados a revistas arbitradas, donde sus datos y argumentos son examinados por expertos, y sólo si pasan este control de calidad son publicados y pasan a ser considerados como ciencia legítima. O, en la versión ingenua que es tan popular, como “verdad científica”.

Sin embargo, lo que casi nunca se nos dice es que el quehacer científico no se limita al laboratorio ni termina con la publicación de artículos. Gran parte de la ciencia consiste en la discusión, sistemática, crítica y racional, de los datos, los modelos y las interpretaciones científicas. Una discusión continua, que va desde el momento en que se inicia una investigación hasta mucho después de haber sido publicada.

Y tampoco suele decirse que en ciencia el concepto de “verdad” no tiene mucho sentido: lo que se obtiene por este complejo proceso (presentado aquí en forma enormemente simplificada) es simplemente conocimiento que representa, en un momento dado, y según la opinión calificada de la mayoría de los expertos en un campo, la visión más confiable de lo que realmente ocurre en la naturaleza.

La idea de que la ciencia no produce verdades sino conocimiento útil y confiable ­–representaciones de lo que existe ahí afuera– y que el criterio para evaluar su validez no son tanto los datos sino el consenso de la comunidad de expertos calificados en el tema del que se trate, es indispensable para entender las interminables discusiones sobre temas polémicos como el cambio climático y otros. Vacunas, VIH/sida, visitantes alienígenas de otros mundos: en todos los casos, la ciencia no ofrece certezas absolutas, sino conocimiento avalado, con base en la evidencia y los argumentos disponibles (incluyendo la aplicación del conocimiento para hacer predicciones), por el consenso de la comunidad científica. (Ésta es, de paso, una de las características que dan a las ciencias naturales su inmenso prestigio: pocas disciplinas logran generar consensos tan generalizados, y por tanto tan confiables, entre sus expertos.)

Existen verdaderas polémicas científicas, en que las opiniones de los especialistas están divididas. Pero con el tiempo y la acumulación de pruebas, muchas veces se van resolviendo para generar consensos mayoritarios. Eso ocurrió precisamente con las teorías sobre el cambio climático, considerado probable hace unos 20 años, y algo prácticamente seguro hoy. Los movimientos negacionistas, en cambio, insisten en presentar como debates aún no resueltos temas que los expertos ya no discuten desde hace años.

En particular, el papel de los periodistas y comunicadores de la ciencia, como quien esto escribe, no es juzgar las disputas científicas ni calificar quién tiene la razón en este tipo de polémicas, sino presentar a su público la ciencia más actual y confiable. Es decir, la que representa el consenso de la comunidad científica. Y, en el caso de polémicas ya superadas, como la del cambio climático, dejar claro que el negacionismo carece de sustento científico.

Todo mundo tiene derecho a su propia opinión, y a confiar en la información que le parezca más adecuada. Lo que no es válido es presentar como ciencia versiones que, aunque en un momento dado hayan sido plausibles, hoy ya han sido desechadas. Cuando se trata de temas donde ya existe un consenso científico amplio, seguir difundiendo opiniones minoritarias es, simplemente, desinformar.
-->


¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 16 de julio de 2017

El gran peligro

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 16 de julio de 2017

Primero fue la bomba atómica, que traía consigo lo que nunca había ocurrido: la posibilidad aterradora de que el ser humano fuera la primera especie capaz de destruirse a sí misma. Los temores de un invierno nuclear, consecuencia secundaria de una posible guerra atómica, contribuyeron a formar toda una generación (los baby boomers, nacidos en la posguerra) bajo el espectro de la autodestrucción.

Luego fue el hoyo en la capa superior de ozono, causado por la emisión masiva de clorofluoroalcanos, gases usados masivamente en aerosoles y refrigeración. Amenaza que, afortunadamente, se pudo combatir, con investigación científica y acuerdos políticos y económicos internacionales. Hoy es el calentamiento global, y el cambio climático que lo acompaña –casi dan ganas de llamarlo caos climático– lo que parece amenazar la supervivencia humana, y lo que causará que las generaciones millenial y las que los siguen vivan teniendo pesadillas (los pertenecientes a la generación X, como quien escribe, no viviremos para ver sus peores efectos).

Si fue la evolución por selección natural la que nos dio el potencial de convertirnos, como especie, en lo que hoy somos, fueron descubrimientos de tipo técnico como la agricultura y el uso del fuego los que nos permitieron volvernos verdaderamente humanos: desarrollar familias, sociedades, poblados, naciones, culturas, economías. Pero fueron la ciencia y la tecnología las que nos dieron la capacidad de convertirnos en la especie dominante, al menos por nuestro potencial destructivo, en el planeta.

Irónicamente, no fueron los descubrimientos en física atómica y sus temibles aplicaciones destructivas, ni los productos de la industria química que contaminaban la atmósfera, los frutos del ingenio humano que resultaron más dañinos. Fueron los productos de la comparativamente humilde revolución industrial, iniciada en el siglo XVIII –con la máquina de vapor, y sobre todo el motor de combustión interna–, los que, al desatar un ciclo hasta hoy imparable de quema de madera, carbón y petróleo, causaron que las sociedades humanas emitiéramos, a lo largo de más de dos siglos, pero más aceleradamente en las últimas décadas, cantidades de dióxido de carbono capaces de alterar el clima, en virtud de su propiedad de dejar pasar la luz solar pero no la radiación infrarroja reflejada por la superficie terrestre, causando así el temido “efecto invernadero”.

Las consecuencias del cambio climático, las actuales y sobre todo las que vendrán en el futuro cercano, constituyen hasta ahora la más grande amenaza para la supervivencia humana. Tan grande que, como explica el periodista David Wallace-Wells en un reportaje publicado el pasado 9 de julio en la New York Magazine, los humanos “somos incapaces de comprender su alcance”. Wallace-Wells hace todo lo posible por dar un contexto que ponga en perspectiva lo que viene. Y lo que viene va mucho más allá del la simple elevación prevista en el nivel del mar, de por sí ya bastante catastrófica por los daños que puede causar en las poblaciones costeras.

El aumento de la temperatura en las zonas tropicales del mundo podría hacerlas efectivamente inhabitables, debido a los daños que el calor intenso, combinado con la humedad, puede causar en el cuerpo humano. Los habitantes de esos países podrían verse imposibilitados para trabajar las tierras de las que viven; y salir de sus casas en las horas de más calor podría volverse un riesgo grave. Otras consecuencias no sólo posibles, sino ya probables, son crisis en la agricultura y ganadería; migraciones debidas al hambre y la falta de agua; un aumento de la cantidad de ozono y partículas suspendidas, producto de los incendios, en la atmósfera baja; la liberación de metano –gas de invernadero mucho más potente que el dióxido de carbono– y de virus y bacterias dañinas que hasta ahora estaban congelados en las regiones árticas, y una crisis económica mundial de proporciones nunca vistas. Vale la pena –si tiene usted sus ansiolíticos a la mano– leer el reportaje original de Wallace-Wells, disponible en http://nym.ag/2uvppcu.

Sin duda, todavía podemos hacer algo. Quizá mucho (aunque factores como Donald Trump introducen una incertidumbre difícil de incorporar en los modelos). Pero el cambio es ya inevitable, y gran parte de lo que tendremos que hacer, tarde o temprano, será más para remediar los daños que para evitarlos.

No se puede negar que la ciencia y la tecnología son en parte los factores, entre otros muchos, que hicieron posible que los humanos nos causáramos tal perjuicio, a nosotros mismos y al planeta. Pero tampoco que son ellas mismas las que nos han permitido no sólo darnos cuenta del daño, sino buscar maneras de remediarlo o al menos atenuarlo.

Pero sería muy triste que fuera la simple quema de combustibles fósiles el factor que causó la extinción de la raza humana. Si así ocurriera, todos los grandes logros de la ciencia y la tecnología, todos los inmensos beneficios que, a lo largo de siglos, han dado a la salud, el bienestar, la cultura y el desarrollo humanos habrían sido total, absolutamente inútiles. No puedo imaginar más cruel ironía que esa.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 9 de julio de 2017

Ciencia, desarrollo y libertad humana

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 9 de julio de 2017

El intelecto humano es sin duda la mayor herramienta de supervivencia con que cuenta nuestra especie. Y es ese refinamiento del intelecto humano que conocemos como ciencia, junto con la aplicación del conocimiento que produce a través de la tecnología, lo nos ha permitido extendernos y prosperar a lo largo y ancho del mundo, hasta convertirnos no sólo en una de las especies más exitosas del planeta, sino también en una de las más peligrosas.

La ciencia logra esto porque potencia las capacidades naturales de observación, abstracción, generación de modelos y predicción que posee naturalmente nuestro sistema nervioso –producto a su vez de nuestra historia evolutiva– y las pule, eliminando muchos de sus defectos (no todos, pero cada vez más) para convertirlas en un método de alta precisión y confiabilidad para representar el mundo en que vivimos, y predecir y controlar su comportamiento.

Lo hace por medio de la observación controlada, precisa y cuantitativa; la experimentación; el desarrollo de instrumentos de precisión; el uso de la estadística, y sobre todo la amplia y abierta discusión crítica de datos, resultados e interpretaciones: un sistema colectivo no sólo de pensamiento, sino de control de calidad –quizá el más estricto que existe en actividad humana alguna–, formado por expertos que colaboran para garantizar que la empresa científica siga avanzando, y que el conocimiento que produce siga siendo confiable. La ciencia, así nos hace más libres a través de conocer y entender el mundo que nos rodea.

Pero la ciencia no sólo nos ayuda a sobrevivir: también ha transformado nuestras vidas, por medio no sólo de desarrollos tecnológicos que cambian por completo nuestros hábitos y maneras de relacionarnos (fuego, agricultura, máquinas de vapor y combustión interna, telecomunicaciones, transportes, viajes espaciales, computación…) sino también de desarrollos médicos que salvan millones de vidas (vacunas, antibióticos, técnicas quirúrgicas, terapias contra el cáncer o el VIH…) y de aplicaciones agrícolas, industriales, textiles, en construcción y muchísimos campos más. La ciencia nos hace más libres al eliminar plagas y limitaciones que nos impiden desarrollar nuestro potencial.

Al mismo tiempo, la ciencia y la tecnología han dotado a las sociedades humanas de capacidades cada vez mayores para difundir la cultura, educar, fomentar la discusión informada y crítica, y permitir así el surgimiento de sociedades democráticas modernas y más justas: desde la imprenta hasta los medios masivos de comunicación y los actuales medios digitales, la ciencia y la tecnología nos hacen más libres al permitirnos circular y discutir cada vez más ampliamente la información, formarnos nuestras propias opiniones y tomar nuestras propias decisiones como ciudadanos.

Pero las ciencias naturales, y la tecnología que de ellas deriva, se basan sólo en el estudio del mundo físico. El estudio del ser humano es mucho más complejo. Es por ello que las ciencias médicas o la psicología tienen retos mucho más arduos que la física o la química. Los sistemas que estudian –el cuerpo o la mente humanas– ya no pertenecen al mundo llanamente objetivo, de lo que está “ahí afuera”. En ellas la perspectiva subjetiva del individuo influye en la observación, y dificulta separar la información útil del ruido (el dolor y el malestar, por ejemplo, son sensaciones subjetivas; no existe un “dolorímetro”; en cuanto a los fenómenos psicológicos, su mera definición plantea problemas complicados).

En cambio, las ciencias sociales –antropología, historia, economía, ciencia política y otras–,que estudian ya no la naturaleza ni al individuo humano, sino a las sociedades que forma y los complejísimos fenómenos a los que éstas dan origen, enfrentan un reto mucho más difícil. Las ciencias sociales han procurado adoptar y adaptar, en la medida de sus posibilidades, la actitud científica de las ciencias naturales, junto con sus métodos, fuente de su enorme poder explicativo. Esto ha hecho que sus modelos sean cada vez más rigurosos, basados en datos cada día más confiables y representativos.

Pero, además, se ven obligadas a considerar otros elementos que simplemente no preocupan a las ciencias naturales. Porque se trata aquí ya no de estudiar lo que existe objetivamente, sino de construir colectivamente, mediante acuerdos basados en el rigor intelectual, definiciones, conceptos, parámetros, teorías y modelos que representen de manera útil los fenómenos humanos y sociales. Y no sólo eso: las ciencias sociales buscan entender y, de ser posible, predecir y, si no controlar, al menos sí orientar el comportamiento de estos sistemas, pero obedeciendo a ideales de tipo ético: fomentando sociedades con justicia, libertad, tolerancia y pluralidad, donde sean posibles el desarrollo social y humano.

La semana pasada tuve el privilegio de ser invitado a hablar sobre la relación entre cultura científica y participación ciudadana en la 5ª Escuela de Verano “Libertad y desarrollo” que, gracias a la iniciativa y entusiasmo del Dr. Luis Sánchez Mier, lleva a cabo cada año la Universidad de Guanajuato, con el auspicio de instituciones internacionales, para promover en los estudiantes nacionales e internacionales que participan en ella el conocimiento y la reflexión sobre la relación entre la libertad y el desarrollo humano.

Una de las cosas que aprendí es que cada vez queda más claro que son las sociedades libres, tanto a nivel personal y social como económico y político, las que ofrecen las mayores oportunidades al desarrollo de las personas (la “búsqueda de la felicidad” que menciona la Declaración de Independencia de los Estados Unidos; el propio proyecto personal). Y también las que, a través de un mayor desarrollo económico, pueden ofrecen un mayor bienestar a sus poblaciones.

Ante el resurgimiento de la intolerancia religiosa, ideológica y política, y las crisis humanitarias y políticas causadas por regímenes totalitarios como los de Corea del Norte, Turquía o, más cerca de nosotros Venezuela, que suprimen libertades individuales y sociales y dañan a sus ciudadanos, urge fomentar el pensamiento crítico y difundir el mejor conocimiento producto de las ciencias sociales, elementos indispensables para tener sociedades libres.

La defensa de los valores sociales y la búsqueda de sociedades más justas son también parte de la cultura científica.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 2 de julio de 2017

Anonymous y el sentido común

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 2 de julio de 2017

No tengo la más menor idea de qué pudiera estar pasando por la cabeza de los miembros del colectivo de ciberactivistas Anonymous cuando, el pasado martes 26 de junio, anunciaron a todo el mundo que la NASA “iba a revelar el descubrimiento de vida extraterrestre”. Llama la atención porque, hasta hace no tanto, habían sido defensores de causas relativamente razonables y racionales.

Más que un grupo formal, Anonymous es una numerosa red internacional más o menos mutable compuesta por hackers (“hacktivistas”, se llaman a sí mismos) que usan sus habilidades computacionales para organizar protestas contra causas que consideran nocivas para la libertad. En particular, la libertad en internet.

Surgió alrededor de 2003, pero se hizo famoso en 2008 cuando lanzó una feroz campaña contra la “Iglesia” de la Cienciología (mejor conocida como la organización que promueve la Dianética, un supuesto método de autoayuda que afirma borrar los traumas espirituales de vidas pasadas). Pongo la palabra “iglesia” entre comillas porque la Dianética/Cienciología, lejos de ser una religión genuina, honesta, es un culto que utiliza su estatus como “iglesia” para no pagar impuestos en los Estados Unidos, donde surgió de la mente de su creador L. Ron Hubbard, un mediocre escritor de ciencia ficción, y porque utiliza métodos altamente cuestionables y cuestionados para obtener dinero y obediencia ciega de sus seguidores.

Parte de la estrategia de la Cienciología había sido mantener sus “documentos avanzados” como secretos altamente protegidos a los que sólo se podía acceder luego de llevar numerosos cursos y pagar enormes sumas monetarias. Esto fue posible hasta antes del surgimiento de internet, pero ya en 1996 un grupo de activistas noruego los hizo públicos, a lo que la Cienciología respondió con una persecución legal que fue percibida por la comunidad de internautas como uno de los primeros intentos de censura en gran escala en la red.

Desde entonces, la Cienciología no ha dejado de tener conflictos con la comunidad de internet. La “operación Chanology”, lanzada por Anonymous en 2008, surgió a raíz de que la iglesia pretendía borrar una larga entrevista en la que el actor Tom Cruise, notorio cienciólogo, hacia una serie de revelaciones que dejaban bastante claro lo absurdas que resultan muchas de las creencias centrales de la Cienciología.

A lo largo de su historia, Anonymous ha defendido causas que podrían considerarse dignas, como la lucha contra la pornografía infantil o contra Daesh (el grupo terrorista también conocido como el “estado islámico”, o ISIS), pero también otras con un fuerte componente ideológico, como campañas contra el cobro por derechos de autor en internet, o contra agencias gubernamentales que son percibidas como enemigas de la libertad cibernética. Lo que nunca había hecho, hasta donde yo sé, es difundir tan ampliamente noticias patentemente absurdas como ésta.

¿Por qué absurdas? No porque los científicos –de la NASA y de todo el mundo– duden que exista vida extraterrestre. Al contrario. Dado todo lo que sabemos sobre la existencia de planetas semejantes a la Tierra alrededor de muchas estrellas, que podrían tener condiciones muy similares a las que permitieron el surgimiento de las primeras formas de vida, y sobre la química que hizo esto posible, parecería casi imposible que nuestro planeta sea el único en el universo que albergue vida (otra cosa es determinar qué forma de vida sea ésta: la vida microbiana es bastante probable; las civilizaciones avanzadas, un poco menos).

Quizá los miembros de Anonymous que lanzaron el aviso malinterpretaron información de la NASA sobre los últimos avances en la búsqueda de vida extraterrestre (o de sitios con condiciones favorables a la vida, que no es lo mismo). Quizá se trató de una broma.

Pero claro, como se trata de una red cuyos miembros son, eh, anónimos, no podemos estar seguros siquiera de que la noticia haya sido realmente dada a conocer por Anonymous… Quizá se trató sólo de uno o dos de sus miembros que actuaron por iniciativa propia. O de saboteadores que buscan dañar la ya de por sí muy discutida reputación del grupo. En el futuro, les convendría cuidar mejor la calidad de los contenidos que hacen públicos.

De cualquier forma, la “noticia” ya fue ampliamente desmentida. No sabemos si algún día lograremos hallar pruebas de vida extraterrestre. Pero si la encontramos lo más probable es que se trate de algo similar a seres unicelulares. Y eso sí, seguramente no nos enteraremos mediante un comunicado de Anonymous. Eso sólo ocurre en series de ciencia ficción. Mientras tanto, lo que sí podría hacer el colectivo es mejorar el control de calidad de la información que difunde.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 25 de junio de 2017

Genes turbocargados

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 25 de junio de 2017

Difusión de un gene drive
en una población
En su libro El gen egoísta, de 1976, el biólogo británico Richard Dawkins propuso un punto de vista novedoso en biología: los seres vivos no somos sino el medio que tienen los genes para reproducirse.

Aunque se trataba de una figura metafórica, la idea de los genes buscan su propia reproducción como único fin tuvo el efecto de abrir nuevas perspectivas en genética, ecología y biología evolutiva. Y, aunque normalmente los genes cumplen alguna función dentro de los organismos que los albergan, también se halló que existen verdaderos “genes egoístas” cuya única función parece ser reproducirse a sí mismos, aun a costa de dañar a los organismos dentro de los cuales existen. Los virus podrían ser vistos como un ejemplo, aunque no el único, de estas entidades autorreproductoras abusivas.

Pero, ¿qué pasaría si pudiéramos crear genes egoístas artificiales, y usarlos en beneficio de la humanidad?

En los años 70 se desarrollaron los métodos de ingeniería genética que permiten alterar los genes de organismos individuales. A partir de eso se crearon los primeros organismos genéticamente modificados: inicialmente microorganismos para investigación y uso industrial, pero más adelante vegetales como sorgo, maíz, soya, arroz o algodón, que actualmente se cultivan, ya desde hace décadas, en amplios territorios de muchos países, y que poseen propiedades como ser resistentes a plagas o tener un mayor más nutritivos. Al mismo tiempo, se desató la polémica sobre los posibles riesgos que los organismos “transgénicos” pudieran plantear al ambiente.

Uno de los argumentos contra esos temores es que, al menos en organismos sexuales –como plantas y animales– los genes alterados, aunque pudieran “escapar” de la especie modificada y “contaminar” a organismos silvestres, se irían diluyendo en la población por obra de la segregación mendeliana. Es sencillo: cada individuo tiene dos juegos de genes, heredados uno de su padre y otro de su madre. Si hereda un gen alterado, sólo una fracción de sus descendientes, no todos, lo heredarían, pues la probabilidad de heredarlo es de cuando mucho 50% (normalmente menos, pero no nos metamos en complicaciones). Después de varias generaciones de cruzas con individuos silvestres, la fracción de organismos con el gen foráneo en la población iría disminuyendo hasta desaparecer.

Pero en la naturaleza existen ciertos “genes egoístas” que logran heredarse en más del 50% de la descendencia del organismo que los porta. Se los conoce, en inglés, como gene drives (se pronuncia “yin draivs”, que podría traducirse como “impulsores genéticos” o “genes dirigidos”). En 2003 el biólogo evolutivo Austin Burt propuso que, imitándolos, podrían construirse gene drives sintéticos que permitirían hacer ingeniería genética ya no en individuos, sino en poblaciones completas.

Usando las técnicas disponibles, en 2011 Burt y un equipo de colaboradores lograron introducir en el mosquito Anopheles, que transmite la malaria o paludismo, genes que se heredaban a más del 50% de su descendencia. Demostraron así que era posible fabricar un gene drive sintético y que, al introducirlo en una población, el gen foráneo, en vez de irse diluyendo, iba heredándose a más y más individuos hasta “invadir” a la población.

Se trataba sólo de una demostración de principio. Pero en 2012 apareció una nueva tecnología de edición genética mucho más poderosa que las que existían hasta el momento. Llamada CRISPR-Cas –ya mencionada en este espacio–, permite programar, mediante fragmentos cortos de ácido nucleico, enzimas que cortan y pegan ADN de manera ultraprecisa. Usándola, es posible fabricar prácticamente cualquier gene drive que se desee.

Mecanismo de los gene drives
¿Cómo funciona un gene drive? Básicamente, se elige qué zona del cromosoma del individuo se quiere alterar (inactivar un gen, editarlo o añadir un gen nuevo) y se introducen en esa zona los genes del sistema CRISPR-Cas. Al cruzarse, ese individuo –digamos, el padre– heredará el cromosoma modificado a su descendencia. Pero ahí viene el truco: los genes CRISPR-Cas están programados para producir enzimas que cortarán la copia del mismo gen proveniente de la madre. Entonces, los mecanismos naturales de reparación de la célula tratarán de corregir el corte, pero para eso necesitan un modelo. Y usan el que está disponible: el cromosoma del padre. Así, al final los dos cromosomas del hijo contendrán los genes añadidos, y los heredarán a toda su descendencia. Al repetirse el proceso, más y más individuos de la población terminarán conteniendo la modificación genética introducida.

¿Qué alteraciones pueden realizarse en una población mediante este poderoso método? Por ejemplo, como proponía Burt, hacer que la descendencia del mosquito sea estéril: así, poco a poco se podría ir extinguiendo la población de mosquitos Anopheles. O de otros vectores de enfermedades, como el mosquito Aedes aegypti, que transmite el dengue y las fiebres zika y chikunguña. Se podrían eliminar así de la faz de la Tierra éstas y otras enfermedades, como fiebre amarilla, enfermedad de Lyme, enfermedad del sueño, esquistosomiasis y muchas otras. O bien, siendo menos drásticos, se podrían introducir modificaciones en una población sin extinguirla pero alterándola, por ejemplo para evitar que los mosquitos transmitan las enfermedades. Otros usos posibles para la tecnología de gene drives son eliminar especies invasivas en territorios donde no pertenecen, eliminar la resistencia a pesticidas en malezas, introducir genes útiles en cultivos y otros muchos usos.

Como es fácil imaginar, una tecnología capaz de modificar para siempre una población, y hasta de llevar a la extinción a especies completas, es demasiado potente como para aplicarla sin antes hacer una profunda evaluación de sus posibles consecuencias. Hasta el momento, existe una moratoria global para liberar organismos modificados con gene drives en la naturaleza. Y toda la investigación que utiliza esta tecnología debe realizarse en laboratorios de alta seguridad (niveles 2 y 3 de bioseguridad, para quien sepa de esas cosas).

Hay quien propone una prohibición absoluta y perpetua. Hay, por el contrario, quien opina que sería antiético no usar algo que puede proporcionar tantos beneficios. Hasta el momento, los expertos en bioseguridad de organismos genéticamente modificados coinciden en que, al ser tan nueva la técnica, “no hay aún suficiente información como para garantizar que la liberación de organismos modificados mediante gene drives sea segura”. Pero, al mismo tiempo, también coinciden en que “los beneficios potenciales justifican seguir adelante con la investigación para explorar estos riesgos”, y para poder comprenderlos y evaluarlos mejor.

La ciencia y la tecnología pueden, como toda herramienta –desde unas tijeras hasta un reactor nuclear– ser usadas responsable y constructivamente, o bien convertirse en un arma destructiva. De lo que podemos estar seguros es que seguirá habiendo, inevitablemente, avances tecnológicos con el poder de alterar nuestro entorno. Ante ello, más vale entenderlos a fondo para decidir si los queremos utilizar, y cómo.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 18 de junio de 2017

Transgénicos, riesgos y mitos

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 18 de junio de 2017

Desde que en 1818 la escritora inglesa Mary Shelley publicó su novela Frankenstein o el moderno Prometeo, el mito del científico como un ser cuya ambición de conocimiento lo lleva a desencadenar fuerzas que salen de su control y acaban causando un desastre pasó a formar parte de nuestra cultura. (O quizá desde mucho antes: no olvidemos al propio Prometeo, que robó a los dioses el fuego sagrado y se lo dio a los hombres, ni a Eva, que come el fruto del árbol de conocimiento y condena así a la humanidad al sufrimiento.)

Actualmente, uno de los avances científicos que más polémica causan es el desarrollo de organismos genéticamente modificados (OGMs), conocidos popularmente como transgénicos. Éstos van desde microorganismos utilizados desde hace décadas en la industria y la investigación científica básica hasta vegetales cuyo cultivo podría ofrecer ventajas –mayor rendimiento o valor nutritivo, resistencia a plagas– y animales, principalmente ganado, aunque también mosquitos que pudieran combatir la propagación de infecciones.

Pero son los vegetales genéticamente modificados los que causan la mayor inquietud, por lo extendido de su cultivo y consumo en todo el mundo. Entre los peligros que se les achacan están el poder ser tóxicos o dañinos a la salud del consumidor (algo totalmente descartado, luego de décadas de evidencia acumulada y de ser consumidos en todo el mundo sin que tales efectos se hayan manifestado); el poder dañar al ambiente circundante al sitio donde se cultivan (algo que en gran medida depende de las circunstancias de su cultivo), y el poder ser fuente de “contaminación genética”, en caso de que los genes ajenos que se han introducido al vegetal pudieran “escapar” y ser transferidos a variedades silvestres de la misma planta, o de otras especies.

Por eso fue para mí una experiencia invaluable poder asistir, como observador invitado, al 14º Simposio Internacional sobre Bioseguridad de Organismos Genéticamente Modificados, realizado en Guadalajara, Jalisco, del 4 al 8 de junio. Al evento asistieron 300 participantes de 37 países, provenientes de la academia, el gobierno, la industria y organizaciones civiles, además de estudiantes y consultores independientes.

Las ponencias, presentadas y discutidas a fondo por este público tan diverso de especialistas en los distintos aspectos de la bioseguridad me permitieron conocer un poco más la inmensa labor llevada a cabo en todo el mundo por un verdadero ejército de expertos –de biotecnólogos a agrónomos a abogados, y mucho más– para garantizar, en todas las naciones donde se usan, que el desarrollo, cultivo y consumo de organismos genéticamente modificados cumpla con los más altos estándares de seguridad para evitar –y en su caso detectar, estudiar, combatir y remediar– los posibles riesgos que pudieran presentarse.

No habría espacio aquí para comentar, ni siquiera superficialmente, los numerosos aspectos de la protección de riesgos abordados en el simposio. Entre otros, las distintas leyes nacionales y acuerdos internacionales –incluyendo el Protocolo de Cartagena, propuesto en 2003 y adoptado por 171 países, incluido México– que regulan la protección del ambiente y la salud humana ante los posibles efectos nocivos de los OGMs. Los países participantes –e incluso los que no participan, como Estados Unidos y Argentina– invierten un enorme esfuerzo en desarrollar leyes, reglamentos, definiciones, métodos de análisis y en verificar y procesar los resultados para evitar posibles riesgos ambientales.

También que está claro que muchos de los posibles riesgos planteados, por ejemplo, por los grupos ambientalistas que se oponen radicalmente al uso de OGMs, han demostrado ser menos graves de lo que se pensó inicialmente. Aunque la interacción de los OGMs con otras especies pudiera llegar a alterar los ecosistemas, y aunque la posibilidad de flujo de genes de una variedad transgénica a plantas silvestres es real, el conocimiento actual, junto con las reglas de bioseguridad y los métodos avanzados de monitoreo que se han desarrollado permiten reducir al mínimo dichos riesgos. Asimismo, hoy sabemos que el flujo de genes dentro de una especie, e incluso entre especies, es algo que, de forma inevitable, ocurre constantemente dentro de la naturaleza: la idea de especies ideales puras y genéticamente inmutables no tiene mucho sustento biológico. Y en casos donde los transgenes han llegado a ser transferidos a variedades silvestres, éstos normalmente se han diluido en forma más o menos rápida en la población, obedeciendo a las reglas de segregación de la genética mendeliana.

Sin embargo, en la cultura persiste una imagen eminentemente negativa de los organismos genéticamente modificados. Se los ve como dañinos, antinaturales y producto de un capitalismo voraz que busca sólo dañar la naturaleza (como si eso fuera buen negocio). El debate sobre ellos se ha ideologizado y politizado al extremo. Esto causa que muchos reglamentos –incluyendo el Protocolo de Cartagena– lleguen a ser, en algunos casos, excesivamente restrictivos. Por ejemplo, si una variedad de planta es producida por métodos moleculares se considera riesgosa, pero si se obtiene exactamente la misma mutación mediante cruzas tradicionales, la planta, al no ser “transgénica”, se trata como carente de riesgo.

Por otro lado, es cierto que la tecnología de manipulación genética ha avanzado mucho respecto a la “ingeniería genética” desarrollada en los años 70 y 80, y hoy se cuenta con técnicas mucho más precisas y poderosas, como CRISPR-Cas (de la que ya se ha hablado en este espacio) y los llamados gene drives (de los que hablaremos próximamente) que podrían plantear nuevos retos en bioseguridad. Retos que expertos y reguladores están ya considerando seria y responsablemente.

Luego de escuchar a tantos especialistas de tan diversas posturas, si algo me quedó claro es que, frente a la imagen popular de irresponsabilidad e imprudencia, en realidad el desarrollo de OGMs es un área donde cada paso se da con el mayor cuidado, para buscar posibles beneficios con el menor riesgo posible. Y no porque las empresas agrobiotecnológicas sean hermanas de la caridad, sino porque la comunidad internacional se ha encargado de regular el desarrollo y liberación de transgénicos de manera informada, eficaz y responsable. Enhorabuena.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!