domingo, 30 de julio de 2017

Inteligencia artificial, riesgos y amarillismo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de julio de 2017

La idea de una “inteligencia artificial”, creada por el ser humano, siempre ha causado temor.

Las raíces de este temor se remontan al Gólem de la mitología judía, y pasan por el monstruo de Frankenstein: el primero creado de arcilla y animado por uno de los nombres de Dios; el segundo, a partir de cadáveres y vuelto a la vida gracias a la ciencia, mediante la electricidad. Ambos se revelan contra sus creadores y causan caos y destrucción.

Pero fue con el desarrollo de los primeros robots y computadoras electrónicas, y a través de la ficción literaria, cinematográfica y televisiva, que la idea de una inteligencia artificial que se rebelara para dominarnos o destruirnos pasó a formar parte del imaginario colectivo.

Sólo hasta hace relativamente poco la frase “inteligencia artificial” (que la Wikipedia define como “la capacidad de un agente de percibir su entorno y llevar a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea”) comenzó a tener algún sentido.

Primero con cosas simples como que el navegador de internet o el programa de correo electrónico recordaran direcciones anteriormente usadas y las llenaran automáticamente. Luego, a través de sistemas como los de Google, Amazon o Facebook, que aprenden a reconocer nuestros hábitos y gustos y a hacernos recomendaciones acordes con ellos, o bien a identificar nuestra cara y las de nuestros conocidos en fotografías, con asombrosa precisión. Y posteriormente con “ayudantes digitales” como Siri, de Apple, o Cortana, de Microsoft, con los que se puede “conversar” de forma casi natural y obtener respuestas moderadamente satisfactorias y cada vez mejores. ¡Ah! Y no olvidemos al autocorrector de los smartphones, que tanta alegría nos da cada día. Por supuesto, en temas más serios, también se están desarrollando sistemas capaces de detectar un tumor en una radiografía o de conducir un auto.

Pero, como se ve, aunque lo logrado puede o no ser impactante, no parece ni con mucho amenazador.

Sin embargo, desde junio pasado ha circulado ampliamente una noticia que pareciera ser la primera señal de que amenazas como HAL 9000 de 2001: Odisea espacial o Skynet de Terminator podrían estar a la vuelta de la esquina: unos investigadores de Facebook que estaban trabajando con chatbots (programas de inteligencia artificial diseñados para comunicarse en lenguaje natural) a los que “entrenaban” para negociar entre ellos (lo cual logran, básicamente, por prueba y error), los dejaron sin supervisión y luego de un tiempo hallaron que habían comenzado a utilizar una derivación del idioma inglés que estaba dejando de ser comprensible para los humanos.

La noticia se exageró bastante en los medios, donde se afirmaba que se había tenido que “desconectar” a las inteligencias artificiales antes de que “se convirtieran en un sistema cerrado” y siguieran comunicándose entre ellas sin que los investigadores pudieran saber de qué hablaban. Suena casi como el inicio de la pesadilla, pero en realidad se trató de algo mucho más simple: el “nuevo lenguaje” desarrollado por los chatbots era más eficiente para comunicarse entre ellos, pero no para lograr su objetivo. Los programadores simplemente suspendieron el experimento para mejorar la programación y evitar que ocurrieran esas desviaciones.

Lo triste fue que quedó opacado lo que podría haber sido la verdadera nota: los bots descubrieron, por sí mismos, maneras de negociar que no tenían programadas pero que los humanos solemos usar, como fingir interés en algo para luego cederlo en una etapa posterior de la negociación, a cambio de otra cosa de mayor valor.

Lo cierto es que la posibilidad de que, con el tiempo, surjan inteligencias artificiales lo suficientemente avanzadas como para ser potencialmente peligrosas (e incluso conciencias artificiales, con los problemas éticos que esto traería aparejado) es casi inevitable. El punto es qué tan pronto podría suceder, y qué podríamos hacer para prevenir el riesgo.

El magnate Elon Musk, dueño de Tesla Motors, opina que el peligro es inminente y llega a decir cosas como que la gente no lo entenderá “hasta que vean robots por la calle matando gente”. Stephen Hawking, Bill Gates o Steve Wozniak comparten versiones más moderadas de sus temores. Otros, como Mark Zuckerberg, dueño de Facebook, con quien Musk acaba de tener una escaramuza al respecto, discrepan: “creo que quienes proponen estos escenarios de día del juicio son bastante irresponsables”, dijo Zuckerberg en respuesta a Musk. La mayor parte de la comunidad global de expertos en inteligencia artificial concuerdan con él.

De cualquier modo, es indudable que cierto riesgo existe. Quizá la solución sería imbuir estructuralmente en toda inteligencia artificial las famosas “tres leyes de la robótica” planteadas por el gran Isaac Asimov en sus novelas: “jamás dañar a un humano; jamás desobedecer a un humano; proteger su propia existencia”. Pero aunque enunciarlas es sencillo, programarlas en una moderna inteligencia artificial seria extraordinaria, monumentalmente complicado.

Aunque, ¿quién sabe? Por lo pronto, ya hay gente comenzando a trabajar en ello. Mientras tanto, sigamos disfrutando, o padeciendo, las “inteligencias” artificiales de las que podemos disponer cotidianamente, y esperemos a que mejoren lo suficiente como para dejar de ser una constante fuente de frustración y molestia.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

1 comentario:

Anónimo dijo...

Pues yo tenia un libro que hablaba sobre la ciencia artificial si no mal recuerdo hablaba de unos algoritmos.
Saludos