Mostrando las entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

domingo, 30 de julio de 2017

Inteligencia artificial, riesgos y amarillismo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de julio de 2017

La idea de una “inteligencia artificial”, creada por el ser humano, siempre ha causado temor.

Las raíces de este temor se remontan al Gólem de la mitología judía, y pasan por el monstruo de Frankenstein: el primero creado de arcilla y animado por uno de los nombres de Dios; el segundo, a partir de cadáveres y vuelto a la vida gracias a la ciencia, mediante la electricidad. Ambos se revelan contra sus creadores y causan caos y destrucción.

Pero fue con el desarrollo de los primeros robots y computadoras electrónicas, y a través de la ficción literaria, cinematográfica y televisiva, que la idea de una inteligencia artificial que se rebelara para dominarnos o destruirnos pasó a formar parte del imaginario colectivo.

Sólo hasta hace relativamente poco la frase “inteligencia artificial” (que la Wikipedia define como “la capacidad de un agente de percibir su entorno y llevar a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea”) comenzó a tener algún sentido.

Primero con cosas simples como que el navegador de internet o el programa de correo electrónico recordaran direcciones anteriormente usadas y las llenaran automáticamente. Luego, a través de sistemas como los de Google, Amazon o Facebook, que aprenden a reconocer nuestros hábitos y gustos y a hacernos recomendaciones acordes con ellos, o bien a identificar nuestra cara y las de nuestros conocidos en fotografías, con asombrosa precisión. Y posteriormente con “ayudantes digitales” como Siri, de Apple, o Cortana, de Microsoft, con los que se puede “conversar” de forma casi natural y obtener respuestas moderadamente satisfactorias y cada vez mejores. ¡Ah! Y no olvidemos al autocorrector de los smartphones, que tanta alegría nos da cada día. Por supuesto, en temas más serios, también se están desarrollando sistemas capaces de detectar un tumor en una radiografía o de conducir un auto.

Pero, como se ve, aunque lo logrado puede o no ser impactante, no parece ni con mucho amenazador.

Sin embargo, desde junio pasado ha circulado ampliamente una noticia que pareciera ser la primera señal de que amenazas como HAL 9000 de 2001: Odisea espacial o Skynet de Terminator podrían estar a la vuelta de la esquina: unos investigadores de Facebook que estaban trabajando con chatbots (programas de inteligencia artificial diseñados para comunicarse en lenguaje natural) a los que “entrenaban” para negociar entre ellos (lo cual logran, básicamente, por prueba y error), los dejaron sin supervisión y luego de un tiempo hallaron que habían comenzado a utilizar una derivación del idioma inglés que estaba dejando de ser comprensible para los humanos.

La noticia se exageró bastante en los medios, donde se afirmaba que se había tenido que “desconectar” a las inteligencias artificiales antes de que “se convirtieran en un sistema cerrado” y siguieran comunicándose entre ellas sin que los investigadores pudieran saber de qué hablaban. Suena casi como el inicio de la pesadilla, pero en realidad se trató de algo mucho más simple: el “nuevo lenguaje” desarrollado por los chatbots era más eficiente para comunicarse entre ellos, pero no para lograr su objetivo. Los programadores simplemente suspendieron el experimento para mejorar la programación y evitar que ocurrieran esas desviaciones.

Lo triste fue que quedó opacado lo que podría haber sido la verdadera nota: los bots descubrieron, por sí mismos, maneras de negociar que no tenían programadas pero que los humanos solemos usar, como fingir interés en algo para luego cederlo en una etapa posterior de la negociación, a cambio de otra cosa de mayor valor.

Lo cierto es que la posibilidad de que, con el tiempo, surjan inteligencias artificiales lo suficientemente avanzadas como para ser potencialmente peligrosas (e incluso conciencias artificiales, con los problemas éticos que esto traería aparejado) es casi inevitable. El punto es qué tan pronto podría suceder, y qué podríamos hacer para prevenir el riesgo.

El magnate Elon Musk, dueño de Tesla Motors, opina que el peligro es inminente y llega a decir cosas como que la gente no lo entenderá “hasta que vean robots por la calle matando gente”. Stephen Hawking, Bill Gates o Steve Wozniak comparten versiones más moderadas de sus temores. Otros, como Mark Zuckerberg, dueño de Facebook, con quien Musk acaba de tener una escaramuza al respecto, discrepan: “creo que quienes proponen estos escenarios de día del juicio son bastante irresponsables”, dijo Zuckerberg en respuesta a Musk. La mayor parte de la comunidad global de expertos en inteligencia artificial concuerdan con él.

De cualquier modo, es indudable que cierto riesgo existe. Quizá la solución sería imbuir estructuralmente en toda inteligencia artificial las famosas “tres leyes de la robótica” planteadas por el gran Isaac Asimov en sus novelas: “jamás dañar a un humano; jamás desobedecer a un humano; proteger su propia existencia”. Pero aunque enunciarlas es sencillo, programarlas en una moderna inteligencia artificial seria extraordinaria, monumentalmente complicado.

Aunque, ¿quién sabe? Por lo pronto, ya hay gente comenzando a trabajar en ello. Mientras tanto, sigamos disfrutando, o padeciendo, las “inteligencias” artificiales de las que podemos disponer cotidianamente, y esperemos a que mejoren lo suficiente como para dejar de ser una constante fuente de frustración y molestia.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 23 de abril de 2017

Prejuicios y computadoras

Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 23 de abril de 2017

Todos tenemos prejuicios. Algunos los reconocemos abiertamente; otros los negamos, o incluso no somos conscientes de tenerlos. Como sociedad, queremos combatirlos; como individuos, somos buenos para detectar y criticar los prejuicios de los demás, pero nos resistimos a reconocer los que tenemos, o somos incapaces de verlos.

¿De dónde surgen los prejuicios? En algunos casos, como los de gente que abiertamente reconocer ser racista o machista, parecieran ser producto de elecciones conscientes y racionales. Pero también es muy probable, sobre todo en los prejuicios inconscientes, que en ellos influyan la educación, la cultura y el entorno social, además de las experiencias personales.

Una de las ideas que forman parte de la cultura del combate a los prejuicios y la discriminación es que el lenguaje puede ser una herramienta para fomentar, o bien combatir, los prejuicios. De ahí las campañas, por ejemplo, de uso de lenguaje inclusivo para luchar contra los prejuicios de género.

Pero, ¿cómo podríamos saber de manera más objetiva si realmente existe una relación directa entre el lenguaje que usa un grupo social y los prejuicios que pueda tener? Uno pensaría que sólo las ciencias sociales podrían responder a esta pregunta, pero sorprendentemente hay desarrollos recientes en las ciencias de la computación, y más específicamente en el área de la inteligencia artificial, que están proporcionando herramientas para contestarla, más allá de razonamientos de sentido común y ejemplos anecdóticos.

En 1998 se introdujo un método denominado IAT (Test de Asociación Implícita) para detectar las relaciones que una persona percibe entre ciertas palabras y conceptos. Consiste en presentar dos parejas de palabras en una computadora y medir el tiempo (en milisegundos) que el sujeto tarda en oprimir teclas para indicar si halla relación entre ellas. Así se pudo demostrar con claridad, por ejemplo, que los individuos tienden más a asociar nombres masculinos con ocupaciones profesionales y nombres femeninos con ocupaciones del hogar (aun cuando, al preguntársele, los sujetos nieguen tener prejuicios de género).

Porcentaje de mujeres
en distintas ocupaciones
En el número del 14 de abril de la revista Science un grupo de investigadores de la Universidad de Princeton, encabezado por Aylin Caliskan, publicó un artículo donde muestran que una computadora, analizando qué tan frecuentemente aparecen unas palabras en relación con otras en un cuerpo de textos, puede hallar exactamente las mismas correlaciones reveladoras de prejuicios que la prueba IAT.

Los especialistas en tecnologías de la información utilizaron algoritmos ya existentes que representan cada palabra, tomada de un vocabulario de 2.2 millones de vocablos extraídos de internet, como un vector de 300 “dimensiones semánticas” (el cual representa matemáticamente la relación entre cada palabra y otras palabras junto a las que aparece frecuentemente).

Caliskan y colaboradores generaron otro algoritmo, que denominaron WEAT (test de asociación por inmersión –embedding– de palabras) para analizar matemáticamente la correlación entre los vectores que representan a cada palabra (estudiando, de manera completamente matemática y abstracta, la correlación entre los cosenos de los vectores). Dicha correlación equivalente precisamente a los tiempos de reacción en la prueba IAT. Y lograron así “extraer” de la base de datos no sólo información, sino significado.

En particular, replicaron con exactitud los hallazgos, obtenidos previamente en estudios con el método IAT en sujetos humanos, de que el lenguaje lleva implícitos ciertos juicios. Algunos son éticamente neutros (“insecto” y “arma” se correlacionan con “desagradable”, mientras que “flor” e “instrumento musical” se correlacionan con “agradable”). Otros, en cambio, reflejan estereotipos indeseables (los nombres propios comunes en la población negra se correlacionan mucho más que los nombres comunes en la población blanca con el concepto de “campesino”; los nombres masculinos se asocian más con actividades profesionales y científicas, mientras que los femeninos se asocian más con actividades del hogar y artísticas). Finalmente, otras asociaciones simplemente reflejan hechos del mundo (por ejemplo, los nombres masculinos y femeninos se correlacionan con distintas profesiones de una manera que refleja el porcentaje real de hombres y mujeres que trabajan en dichas profesiones).

Lo asombroso es que el algoritmo puramente matemático de Caliskan y su grupo, partiendo simplemente de una base de datos de millones de palabras, logra saber que los grupos humanos tienen esos juicios (y prejuicios) sin que sea necesario estudiar a personas. La inteligencia artificial detrás del algoritmo, sin tener “experiencia directa del mundo” y sin tener una comprensión consciente del lenguaje, sabe las mismas cosas, incluyendo los prejuicios, que presentamos los seres humanos como producto de nuestra educación, experiencias y cultura.

Algoritmos como el de Caliskan pueden ser herramientas utilísimas en muchas áreas. Podría permitir estudiar, por ejemplo, los prejuicios y asociaciones de grupos humanos del pasado, siempre y cuando hayan dejado suficientes textos para analizar: una mina de oro para historiadores y para sociólogos y psicólogos del pasado. Pero también permitirá estudiar y aclarar preguntas como la de si los prejuicios incrustados en el lenguaje son causa o efecto de los prejuicios culturales de una sociedad. ¿Causan las palabras los comportamientos discriminatorios, o éstos surgen primero y se reflejan luego en el lenguaje?

El método también se podrá usar para estudiar los sesgos y prejuicios inherentes en los medios electrónicos y escritos dirigidos a distintas poblaciones, y entender mejor cómo influyen en fenómenos de polarización política, racial o ideológica.

Finalmente, y conforme las inteligencias artificiales se vayan desarrollando, métodos como el de Caliskan permitirán detectar y combatir –eliminando las correlaciones no deseables– los sesgos que pudieran contaminar sus juicios. ¡Lo último que queremos son futuras máquinas inteligentes que reflejen nuestros propios prejuicios!

Quizá, con el conocimiento generado gracias a métodos como éstos, un día podamos entender mejor las raíces de nuestros prejuicios, sobre todo los inconscientes, y comprendamos en qué grado somos o no culpables de tenerlos (o si son simplemente producto de la cultura en que vivimos). Y quizá sepamos mejor cómo combatirlos y evitar que se perpetúen.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 23 de octubre de 2016

Cerebro y conciencia

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 23 de octubre de 2016

A la memoria de Luis González de Alba,
maestro divulgador de la ciencia

A Luis González de Alba lo apasionaba la ciencia, pero muy especialmente la física. Durante décadas escribió artículos y libros sobre los temas que hallaba fascinantes: relatividad, física cuántica, cosmología.

Y tenía el talento de lograr que nos fascinaran también a sus lectores. Su delicioso volumen El burro de Sancho y el gato de Schrödinger (Paidós, 2000, republicado por Cal y Arena en 2010 con el menos atractivo título de Maravillas y misterios de la física cuántica) es una clara y muy recomendable muestra.

Otro tema que también le encantaba era el estudio del cerebro humano, y en particular el llamado “problema fuerte de la conciencia”: explicar cómo es que ese kilo y medio de sesos que tenemos dentro del cráneo logra no sólo dar origen a la mente –es decir, a los procesos cognitivos que nos permiten percibir el mundo que nos rodea, interpretarlo y darle sentido para tomar decisiones que nos ayuden a sobrevivir en él–, sino también al sentido subjetivo del yo; a la conciencia. Si la mente es aquello con lo que pensamos, la conciencia es aquello con lo que nos damos cuenta de que pensamos.

Las respuestas al problema de la conciencia tienen una larga historia. Una de las más antiguas y simples es el dualismo, que propone que el yo es en realidad un espíritu inmaterial, un “alma”, que anima al cuerpo al habitarlo. René Descartes, en el siglo XVII, adoptó tal postura y postuló que el sitio a través del cual alma y cuerpo se comunicaban era la glándula pineal (cuya función, hoy sabemos, es secretar la hormona melatonina, que regula los ciclos circadianos que controlan nuestros ritmos de sueño y vigilia).

Sin embargo, la respuesta dualista al problema de la conciencia no resulta satisfactoria. Primero, porque es una explicación sobrenatural que no puede ser puesta a prueba. Segundo, porque realmente no explica nada (¿cómo funciona, de qué está hecho, cómo interactúa ese espíritu con la materia que forma al cuerpo?). Y en tercer lugar, porque la influencia de sustancias químicas como las drogas y el alcohol, que son materia, en el funcionamiento de la conciencia, y el efecto de enfermedades como el mal de Alzheimer y de alteraciones cerebrales diversas, que llegan a destruir o alterar severamente el yo, son evidencia de que sin cerebro no hay conciencia: el “alma” es producto del cerebro (el neurólogo Oliver Sacks, en su maravilloso libro El hombre que confundió a su mujer con un sombrero, de 1985, proporciona abundantes casos que lo muestran claramente).

El reto es, entonces, explicar de forma natural cómo nuestra sensación de individualidad, nuestro yo, que es lo que nos permite darnos cuenta, con Descartes, de que “pienso, luego existo”, puede surgir del funcionamiento de ese conjunto de 86 mil millones de neuronas conectadas mediante 5 mil ¡billones! de sinapsis. La respuesta no puede ser de un materialismo burdo: decir, por ejemplo, que la mente es sólo átomos (como llegara a afirmar Francis Crick en su libro The astonishing hypothesis (traducido al español como La búsqueda científica del alma, Debate, 1994).

Y ocurre que las respuestas más actuales vienen esencialmente de dos bandos. Uno es el de los físicos, que piensan que debe haber algún tipo de fenómeno desconocido subyacente al funcionamiento cerebral y que explique cómo surge ese fenómeno único que es la conciencia humana. Su principal representante es el famoso físico y matemático inglés Roger Penrose, quien propone en su libro Las sombras de la mente (Crítica, 1992), que la proteína tubulina, que forma los microtúbulos que dan forma a las neuronas, puede presentar transiciones cuánticas que darían origen a la conciencia. Según Penrose, la materia daría origen a la mente y al yo a través de procesos cuánticos “no computables”, es decir, imposibles de reproducir en una computadora, que le permitirían conectar con el mundo platónico de las ideas (lo cual explicaría las asombrosas habilidades de los genios matemáticos que logran captar verdades matemáticas de un solo vistazo).

Los tres mundos propuestos
 por Roger Penrose, conectados
a través de fenómenos cuánticos
Los físicos quieren así encontrar una explicación física (aunque, al menos en la versión de Penrose, también en parte metafísica) para la conciencia. El otro bando, predeciblemente, parte de la biología (biólogos, en particular neurobiólogos, junto con neurofilósofos). Y, también predeciblemente, su explicación es de tipo darwiniano: la mente debe ser producto de un proceso de evolución por selección natural. Quizá quien haya producido el intento más detallado y completo de cómo podría ser una explicación así sea el filósofo estadounidense Daniel Dennett, quien a lo largo de décadas ha desarrollado un modelo (que expuso en su libro La conciencia explicada, Paidós, 1995) que postula que el hardware cerebral es la base material sobre la que se ejecutan múltiples procesos mentales, en numerosísimos niveles, que dan como resultado esa sensación subjetiva de “ser” que llamamos conciencia. Para Dennett el yo sería, entonces, un fenómeno virtual no muy distinto de las realidades virtuales con las que interactuamos cada vez con más frecuencia gracias a la tecnología digital. Sólo que mucho, mucho más complejo. Y, por cierto, nada impediría que, al menos en teoría, tal proceso pudiera ser reproducido en una computadora lo suficientemente avanzada: según Dennett, algún día podríamos tener “conciencias artificiales”.

A González de Alba, con su gusto por la física, la explicación dennetiana le parecía poco convincente y quizá aburrida; le seducía mucho más la propuesta de Penrose, que es más impresionante y deslumbrante… pero, en mi opinión y la de muchos, innecesaria. ¿Para qué invocar misteriosos fenómenos cuánticos y mundos platónicos para algo que puede explicarse con evolución y neurología?

Ambas propuestas son buena ciencia, y sólo la investigación continuada irá discriminando cuál vía de explicación es la mejor. Ambas valen la pena de ser conocidas. Lo importante, y eso es lo que lograba Luis, y lo que seguiremos intentando en este espacio, es compartir la visión del mundo que nos ofrece la ciencia, y la intensa fascinación que nos puede producir.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 30 de marzo de 2016

Duelo de intelectos (o el día que la inteligencia humana perdió)


Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de marzo de 2016

Lee Se-dol, gran maestro y campeón sudcoreano del antiguo juego chino de go, sintió que una gota de sudor escurría por su frente. A pesar de poseer el noveno dan –máximo grado del juego –salvo el décimo dan, que sólo se otorga a título honorario–, a pesar de sus 18 títulos internacionales y de tener el segundo lugar a nivel mundial, estaba perdiendo.

Por cuarta vez consecutiva.

Pero eso no era lo peor, sino saber que su oponente en el torneo de cinco juegos era una computadora. O más bien, un complejísimo programa, una inteligencia artificial llamada AlphaGo, desarrollada por la compañía londinense DeepMind, adquirida hace dos años por el gigante de la computación Google.

El go, que existe desde hace más de 2 mil 500 años, y que hoy es jugado por más de 40 millones de personas en el mundo, principalmente en Asia, es considerado el juego de mesa más complejo que existe. Consiste en ir poniendo pequeñas piezas ovoides negras y blancas llamadas “piedras” en las intersecciones de las líneas del tablero, de donde no se pueden mover, y siguiendo ciertas reglas rodear con ellas las piezas del oponente (de hecho, el nombre del juego se traduce como “juego de rodear”). Gana el jugador que al final del juego ha logrado rodear más área en el tablero.

El go es mucho más complejo, por ejemplo, que el ajedrez, en cuyo tablero de 8 por 8 casillas existen alrededor de 10 a la potencia de 123 jugadas (un 1 seguido de 123 ceros). El go, en cambio, se juega en un tablero de 19 por 19 líneas cruzadas, y es posible hacer 10 a la 360 jugadas (si 10 a la 2 es cien, y 10 a la 3 es mil, diez veces más, la diferencia entre 10 a la 123 y 10 a la 360 es de 133 órdenes de magnitud: algo inimaginable).

Hace casi 20 años, en mayo de 1997, la computadora Deep Blue, desarrollada por IBM, saltó a la fama al vencer al gran maestro de ajedrez Gari Kasparov. La inteligencia artificial había derrotado al humano en un juego considerado de inteligencia pura. Sin embargo, lo logró mediante un método de “fuerza bruta”: Deep Blue tenía programadas en su memoria una cantidad enorme de partidas de ajedrez, y era capaz de revisarlas para computar por adelantado el “árbol” de posibles decisiones para cada movimiento, así como sus posibles consecuencias, previendo 20 o más jugadas por adelantado (un gran maestro puede calcular como máximo 10 o quizá 15).

El go, en cambio, es astronómicamente más complejo. Tan sólo en la primera jugada es posible escoger entre 361 posiciones. En las primeras 5, la cifra se eleva a 5 billones (cinco millones de millones). El número total de movidas posibles va más allá de lo que cualquier cantidad de memoria puede almacenar. Por eso, los diseñadores de AlphaGo tuvieron que recurrir a una estrategia distinta: imitar la manera en que funciona un cerebro humano. Para ello, usaron una arquitectura de “redes neuronales profundas”.

Una red neuronal es una simulación en computadora de unidades equivalentes a neuronas humanas conectadas entre sí, que pueden recibir señales de otras neuronas (entrada). Estas señales pueden estimularlas o inhibirlas. Si una neurona recibe suficiente estímulo, emite a su vez una señal a otras neuronas. Conforme una red neuronal se “entrena” por prueba y error para que “aprenda”, la sensibilidad de cada conexión neuronal se va ajustando. Muchos programas “inteligentes” que disfrutamos actualmente consisten en redes neuronales capaces de aprender de esta manera.

Pero la red de AlphaGo, según la describen los 20 investigadores de DeepMind, liderados por Demis Hassabis, en un artículo publicado en enero pasado en la revista científica Nature, es “profunda”: consta de 13 capas de redes neuronales, cada una de las cuales procesa los resultados de las que están más abajo. La más sencilla representa el tablero mismo y las posiciones de las fichas en él. La de más alto nivel representa las posibles jugadas en la partida y la probabilidad que cada una sea óptima (es decir, toma la decisión respecto a la siguiente jugada).

AlphaGo fue alimentada inicialmente con una base de datos de 30 millones de jugadas en partidos realizadas por expertos, para que las incorporara en las conexiones de sus redes neuronales. Luego, fue entrenada poniéndola a jugar incesantemente, millones y millones de veces, contra sí misma: la práctica hace al maestro.

El torneo contra Lee Se-dol, jugado en Seúl del 9 al 15 de marzo de este año, era la prueba de fuego para AlphaGo (que ya en octubre de 2015 había derrotado cinco juegos a cero al campeón europeo Fan Hui). Se-dol se mostraba confiado y declaró estar seguro de vencer a la computadora al menos en 4 de los 5 juegos. Cuando fue vencido en los primeros tres, la sorpresa y la tensión eran increíbles.

Se-dol se limpió el sudor. Llevaban cinco horas jugando. Apretó los puños y, con un esfuerzo máximo de concentración –una de las ventajas de la computadora era su concentración absoluta y su inmunidad al estrés psicológico, comentaría luego–, hizo una jugada totalmente inesperada, incluso para él. Logró así vencer a AlphaGo en esa cuarta partida.

El triunfo sólo sirvió para salvar su honor, pues el quinto encuentro, y el torneo, fueron ganados por su oponente. Igual que el millón de dólares del premio, que será repartido a UNICEF y otras beneficencias.

Al final, Se-dol afirmó –entre las muchas frases que se le atribuyen–, que “nunca deseaba volver a jugar un juego así” y que AlphaGo era “distinto a cualquier oponente humano que hubiera enfrentado antes; su estilo es muy diferente”. Pero también dijo que “no podría haber disfrutado más” con el torneo, y que “jugar contra AlphaGo me hizo darme cuenta de que necesito estudiar más el go”.

Como premio, AlphaGo recibió el noveno dan, el mismo que su rival. Y la humanidad entró, diez años antes de lo que esperaban los expertos (aunque había quien aseguraba que una computadora jamás vencería a un maestro de go) a una era en que la expresión “inteligencia artificial” ya no es sólo una metáfora.

Sin embargo, no todo está perdido. Como afirma el experto francés en inteligencia artificial Bruno Bouzy en una entrevista para la revista Science, los humanos somos todavía incomparablemente superiores a las computadoras cuando se trata de jugar videojuegos. Aún no llega el momento de temer al Terminator.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 27 de enero de 2016

Minsky y la singularidad

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 27 de enero de 2016


El domingo pasado por la noche falleció, debido a una hemorragia cerebral, Marvin Minsky: sin duda una de las mentes científico-tecnológicas más brillantes de los últimos 100 años. Es triste la poca atención que se le prestó al hecho en la prensa.

Minsky (1927-2016) fue un genio que, además de ser el principal impulsor del desarrollo del área de investigación conocida como “inteligencia artificial”, participó en muchos otros campos. Construyó sistemas de reconocimiento visual y brazos robóticos sensibles al tacto. En 1951 creó la primera red neuronal artificial –de bulbos– capaz de aprender; hoy las redes neuronales forman parte de mucha de la tecnología computacional que usamos cotidianamente. En 1957 patentó el microscopio confocal, que permite, usando computadoras y luz láser, estudiar una muestra en tercera dimensión sin tener que seccionarla en rebanadas (los microscopios confocales se volvieron una herramienta indispensable en el laboratorio a partir de los años 80). Y también llegó a diseñar –pues el genio suele acompañar al humor– “máquinas inútiles” cuya única función era, por ejemplo, apagarse a sí mismas.

En 1959 fundó, en el Instituto Tecnológico de Massachusetts (MIT), el Laboratorio de Inteligencia Artificial, que ha sido pionero y guía a nivel mundial en el desarrollo del área. Era, además, pianista, y su asombrosa capacidad mental se manifestaba en que era capaz de improvisar fugas barrocas a varias voces, como lo hacía Bach, algo que muy pocos seres humanos pueden hacer (aunque no sé si pudiera improvisar una fuga a seis voces, como lo lograra el Maestro). Muchos de quienes han logrado que hoy las “máquinas inteligentes” sean una realidad ­–hasta cierto punto– fueron sus alumnos. Más tarde participó en la creación de la red ARPAnet, precursora de internet, e impulsó la propuesta de que la información digital debería ser propiedad común (idea hoy encarnada en el movimiento de software libre).

Minsky definía la inteligencia artificial de manera pragmática: como “la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. Como la mayoría de los expertos en el campo, estaba convencido de que no hay una diferencia fundamental entre la inteligencia humana y la artificial, y que tarde o temprano lograremos construir máquinas tan o más inteligentes que nosotros, incluso al grado de ser conscientes. Esta idea, que puede sonar inquietante, ha dado pie a muchas obras de ciencia ficción donde aparecen computadoras malignas; entre ellas, la película 2001: Odisea del espacio, de Stanley Kubrick, quien por cierto se asesoró con Minsky para concebir a la famosa computadora HAL 9000.

Pero una de las ideas más inquietantes acerca de la inteligencia artificial es la de singularidad, término usado por el matemático polaco Stanislaw Ulam en 1958 para designar el momento en que construyamos máquinas no sólo más inteligentes que nosotros, sino capaces de construir otras máquinas más inteligentes que ellas mismas.

En física, una singularidad es una región en que, según la teoría de la relatividad, la curvatura del espaciotiempo se vuelve infinita, y las leyes normales de la física dejan de ser aplicables. Las singularidades más conocidas son las que se hallan en el centro de los agujeros negros, de cuyo interior ni siquiera la luz puede escapar; por ello, es imposible saber qué ocurre más allá del horizonte de eventos que define el límite de un agujero negro.

De manera similar, la “singularidad tecnológica” se refiere a que, cuando las máquinas adquieran la capacidad de automejorarse a sí mismas, se desatará una especie de reacción en cadena de inteligencia, que se desarrollará explosivamente hasta dejar de ser comprensible para el ser humano. La posibilidad que tendríamos los humanos de entender la inteligencia de tales máquinas sería similar a la de que una hormiga pudiera comprender la inteligencia humana. En otras palabras, es una “singularidad” porque, como tras el horizonte de eventos de un hoyo negro, no podemos ver, ni imaginar siquiera, lo que pasaría después de este evento.

Entre otros, la idea de singularidad tecnológica ha sido desarrollada y popularizada por Ray Kurzweil, uno de los seguidores de Minsky. Hay también quienes plantean objeciones a la idea, argumentando que quizá haya límites tecnológicos, o incluso físicos, a la capacidad de inteligencia que puede desarrollar cualquier sistema, o bien que las leyes de la lógica pongan límites a ésta.

Hay quien postula que la singularidad tecnológica podría presentarse entre 2030 y 2045. Ya nos enteraremos, porque la revolución puesta en marcha en gran parte gracias a Minsky no parece frenarse. Hoy Minsky ha rebasado su propio horizonte de eventos y se halla en una singularidad, más allá de nuestro alcance. Seguramente lamentó no poder ver el final de esta historia.


¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 30 de diciembre de 2015

Dolor en año nuevo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de diciembre de 2015

Navidad y año nuevo son dos épocas especialmente propicias para el dolor y la depresión. Probablemente porque son tiempos en que la soledad, la ausencia de seres queridos y otras experiencias penosas tienden a estar más presentes en nuestra mente que de costumbre.

El dolor, tanto físico como emocional, es una de las experiencias más difíciles de definir. Y también de medir, lo que ha limitado considerablemente su estudio científico. De hecho, el dolor es uno de los ejemplos clásicos de qualia: experiencias subjetivas conscientes, que son intrínsecamente personales y por lo tanto inefables (imposibles de describir) e incomunicables. Otros ejemplos clásicos de qualia son las experiencias de “qué se siente” percibir el color rojo o el sabor del café. Uno no puede describirle a una persona ciega, por ejemplo, qué se siente ver una manzana roja. Y alguien con migraña no puede hacer que quien nunca la ha padecido sepa qué se siente tenerla.

Una discusión científico-filosófica que ha durado décadas es la de si los qualia son entidades reales, o si pueden describirse fisiológicamente al detallar exactamente qué nervios y qué áreas del cerebro se activan al sentir, por ejemplo, el dolor de una aguja pinchando la piel. Pero para eso se requeriría primero poder medir objetivamente dicho dolor. ¿Cómo?

Ha habido numerosos intentos por lograrlo, con “dolorímetros” y “escalas de dolor” de distintos tipos inventados al menos desde 1940, que usan estímulos como calor, presión u objetos punzantes, y que tradicionalmente usaban la valoración subjetiva de los pacientes (qué tanto decían que les dolía) para estimar la intensidad del dolor producido. Por desgracia, estos métodos son tan variables y poco estandarizados que no han sido muy útiles para obtener una medida objetiva y precisa del dolor.

Y ¿por qué querríamos medir el dolor de manera objetiva? En primer lugar por lo mismo que se hacen muchos estudios científicos: por curiosidad, para tratar de entender mejor cómo funciona el mundo. Pero también hay abundantes casos en que saber si una persona siente dolor y la intensidad de éste sería muy útil. Por ejemplo, con pacientes que no pueden comunicarse, niños demasiado pequeños, personas semi-inconscientes o con deficiencias cognitivas. (Incluso, comenzando a especular, para desenmascarar a timadores o hipocondriacos que dicen sufrir dolor sin sentirlo… ¡y ni hablemos de los jugadores de futbol que se tiran al suelo gritando!)

El problema es que, si el dolor es un quale (singular de qualia), no debería ser posible medirlo fisiológicamente. En cambio, si al detectar los cambios precisos que tienen lugar en el cerebro se pudiera saber, e incluso predecir, cuándo una persona está sufriendo dolor (por ejemplo), incluso si el sujeto no lo expresa, ello significaría que los qualia, tal como los han entendido los filósofos, no existen realmente como algo separado, “mas allá” del funcionamiento cerebral.

Un artículo publicado en abril de 2013 en el New England Journal of Medicine por un equipo de neurólogos encabezado por Ethan Kross, de la Universidad de Michigan, en Estados Unidos, llamó mucho la atención al presentar un estudio en que se logró, mediante métodos de visualización de la actividad cerebral (resonancia magnética funcional o fMRI, que detecta qué áreas específicas del cerebro presentan mayor flujo de sangre, y por tanto están más activas), establecer una firma neurológica (un patrón específico de actividad de distintas regiones del cerebro) que les permitió identificar precisamente cuándo un paciente siente dolor.

El estudio empleó a 114 voluntarios sanos de ambos sexos, y los dividió en cuatro grupos, a los que se les realizaron diversos estudios. En un primer experimento, les aplicaron calor en la piel del antebrazo izquierdo con intensidades que iban de lo inocuo a lo doloroso, mientras observaban por fMRI qué áreas cerebrales se activaban. Con base en esos datos, derivaron mediante un algoritmo “inteligente” de computadora (es decir, que es capaz de ir aprendiendo, al comparar datos conocidos con sus resultados, a predecir el resultado de nuevos datos), la “huella digital cerebral” del dolor.

A continuación, en un segundo experimento, aplicaron calor con diversas intensidades a un grupo distinto de voluntarios, y lograron predecir con un 95% de éxito, sólo con base en qué áreas cerebrales se activaron, si los pacientes sentían o no dolor. Es éste el logro que hace interesante al estudio. Se demostró que se puede saber, mediante este método, si un paciente siente dolor, incluso si es incapaz de expresarlo.

Por supuesto, se trata sólo de un estudio inicial; habrá que confirmarlo y ver si los resultados se pueden generalizar a dolores en distintas partes del cuerpo, o de distintos tipos (cutáneo o en órganos internos, por ejemplo), o con diversas causas clínicas. Probablemente, comentan los autores, para aplicarlo en hospitales y otros sitios habrá que generar varias “firmas neurológicas” distintas.

Pero no contentos con eso, los investigadores hicieron otros dos experimentos para investigar otros aspectos de la experiencia dolorosa. En el tercero utilizaron pacientes que habían tenido una ruptura amorosa reciente y aún dolorosa, y aparte del estímulo térmico midieron su respuesta cerebral al “dolor social” mostrándoles una foto de sus ex-parejas (y también la de un amigo cercano, como control). Detectaron que, aunque se activaban áreas cerebrales similares, el patrón de activación era claramente distinto respecto al del dolor físico.

Finalmente, en un último grupo, inyectaron un analgésico potente a los pacientes antes de aplicar el estímulo térmico, y detectaron que, además de disminuir la sensación subjetiva de dolor, la activación de las áreas cerebrales asociadas disminuía también en un 53%. De modo que el método podría también servir para saber si un tratamiento contra el dolor está realmente funcionando.

Como se ve, el avance científico parece, en este caso, estar dejando atrás la noción filosófica de los qualia. Aunque habrá quien replique que lo que se observa es sólo el “correlato” fisiológico de la sensación subjetiva del dolor. De cualquier modo, si el método funciona y ayuda a dar mejor tratamiento a los pacientes que sufren, ¿qué importa la diferencia?

Le deseo que disfrute, no sufra, con el año nuevo.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!