martes, 4 de mayo de 2010

Google aprende a pensar

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 5 de mayo de 2010

Para quien viva en el siglo 21 y use internet, Google parece una presencia ominosa y universal, que amenaza con convertirse en el tipo de inteligencia artificial totalitaria que películas como 2001, Odisea espacial nos enseñaron a temer.

Desde que fue inventado en 1997 por dos estudiantes de posgrado de la Universidad de Stanford, Larry Page y Sergey Brin (ambos de 23 años), el buscador de internet más usado del mundo (varios cientos de millones de consultas al día) ha crecido hasta convertirse en un emporio que amaga con dominar el mundo (no sólo virtual, sino incluso el real, con artefactos como celulares y computadoras).

Pero lo verdaderamente asombroso es que Google va volviéndose inteligente. Ya desde su concepción, el buscador se distinguió de sus competidores por su particular método de búsqueda. Todo buscador (Yahoo, Bing de Microsoft, el propio Google, etcétera) va recorriendo cada rincón de la red y acumulando información. Pero lo difícil es ordenarla y clasificarla, para que cuando un usuario la solicite el buscador presente justo lo que pide, y no miles de opciones no deseadas.

La gran idea detrás de Google es que, en vez de tratar de analizar y decidir qué información es más importante, se fija en qué páginas prefieren los propios usuarios de internet. Así, el algoritmo que desarrollaron Page y Brin (originalmente llamado “PageRank”, y que constituye la “fórmula secreta” que le ha dado a Google su éxito), clasifica a las páginas de internet de acuerdo al número de otras páginas que se enlazan con ellas. Es decir, las evalúa de acuerdo a su éxito práctico, no a criterios teóricos (una idea muy darwiniana; recordemos que, en evolución, el éxito se define como cualquier cosa que aumente la supervivencia de un individuo y sus descendientes).

Con esto, Google ha logrado ofrecer resultados de manera cada vez más inteligente cuando uno busca algo: lo que Google considera importante se parece mucho a lo que los humanos consideramos importante.

Y sus habilidades continúan refinándose: en un artículo aparecido en la revista Wired (febrero 2010), Steven Levy comenta cómo se ha logrado que Google aprenda a distinguir mejor entre sinónimos (un problema frecuente), usando un concepto proveniente de la filosofía. Ludwig Wittgenstein afirmó alguna vez que “las palabras carecen de significado si no se comparten” (aunque la compilación de citas Wikiquote da una versión ligeramente diferente: “el significado de una palabra es su uso en el lenguaje”). Tomando en cuenta esto, Google ahora considera qué palabras rodean a la palabra problemática, y logra ofrecer resultados más acertados. Va aprendiendo a “entender” el significado de las palabras por su contexto, de manera muy similar, en esencia, a como lo hacemos los humanos.

¿Llegará a convertirse algún día Google en algo parecido a la malévola computadora Hal 9000? No lo creo (se dice que el lema informal de la compañía es "No seas malo") , pero seguramente el momento en que las “inteligencias artificiales” se conviertan en, simplemente, inteligencias, sin calificativos, se acerca.

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

68 comentarios:

Max C. dijo...

¿Y qué hay de WolframAlpha? quizá sea a lo que Google se convertirá.

http://www.wolframalpha.com/

o al menos no me sorprendería...

Martín Bonfil Olivera dijo...

¡Yo sabía que alguien mencionaría a WolframAlpha! Pues en teoría debería ser algo parecido (aunque no sé si se basa en el poder de las redes, o en algoritmos menos darwinianos y más "enciclopédicos"). Lo que sí puedo asegurar es que en mi experiencia personal, WA no me ha servido para nada.

Saludos,
Martín

Adrián Robles dijo...

Se acerca el Skynet.

Saludos,

juan antonio dijo...

Martín, normalmente me gustan mucho tus artículos pero en este, siento que te estás apoyando un poco de más en el sensacionalismo de "las máquinas inteligentes".

Y es que los humanos tendemos al antropomorfismo de objetos o entidades, como en este caso al decir que "Google aprenda a distinguir mejor entre sinónimos", y eso puede ocasionar que se mal interprete lo que en realidad está ocurriendo.

Google, el algoritmo, no está "aprendiendo" nada.. son los programadores y científicos de la computación quienes están desarrollando más y mejores algoritmos para resolver problemas como, en este caso, determinar si dos palabras pueden o no usarse de manera intercambiable en un texto.

Esta versión particular de Google, el algoritmo, no va a hacer nada más que eso, encontrar y relacionar palabras como algoritmos. Nada más. Si queremos que Google "aprenda" algo nuevo (por ejemplo encontrar antónimos o qué se yo), de nuevo son los programadores quienes tienen que implementar soluciones para resolver estas nuevas tareas. Google no va a "aprender" nada por si sólo.

El Agus dijo...

Siempre habrá un cable que desconectar en caso de que Google se nos salga del redil y quiera dominar a los humanos.

Yo no se para que se quiebra tanto la cabeza John Connor, basta con sacarle las pilas a Terminator.

Saludos mi buen Martin

Ribozyme dijo...

Martín: Tu post no tiene título y, por lo mismo, un link para verlo por separado...


Y en lo tocante a mis comentarios sobre el tema:

Sin embargo, uno de los últimos giros en Google es que ahora toma en cuenta las preferencias del usuario que realiza la búsquda para posteriormente proporcionarle respuestas que sean más acordes con sus preferencias individuales. Esto lo hace tomando nota de cuales links el usuario ha escogido examinar en búsquedas previas. Aparte del problema de invasividad involucrado (ahora Google necesita introducir una cookie en el navegador de la computadora en cuestión, que se encargue de llevar cuenta de los links seleccionados) y de la siempre abierta cuestión de lo qué una empresa privada puede hacer con la información individual que recolecta de sus clientes/usuarios, está el problema de que esta adaptación (el hacerse más darwinianamente apto) es en cierta forma antitético al papel que muchos suponemos debe jugar un buscador de Internet, y que es el abrir una ventana al panorma de la información disponible, de una manera que facilite su utilización. Esta última implementación corre el riesgo de convertirse en el facilitador de una actitud solipsista, o cuando menos parroquial. Déjenme poner un ejemplo: si se realiza una búsqueda de Google de la palabra "evolución", a la larga, si el usuario está interesado en la ciencia sobre la evolución, el buscador le ofrecerá puros links a páginas que tengan ese enfoque, mientras que si el usuario es un cristiano evangélico (no son los únicos, pero entre sus filas está la gran mayoría de los detractores de la evolución, esos mismos que en su lugar buscan imponer la "teoría" creacionista del diseño "inteligente"), Google acabará llevándolo sólo a páginas en las que se hable mal sobre la evolución. ¿Qué pasa entonces? Que cada quien se encierra en el pequeño nicho de sus creencias preconcebidas, en lugar de ser expuesto a opciones diferentes, lo que, como ya dije, es lo que por lo general se espera de un buen buscador.

Contnúa...

Ribozyme dijo...

Quizás la idea original de los creadores de Google sea establecer una entidad benigna, pero cuando estamos hablando de intereses económicos de la magnitud en la que se ha convertido la empresa Google, que tiene el mandato expreso de sus accionistas de generar ganancias, y vemos la dura competencia entre navegadores (que ha conducido a la desaparición de muchos que eran miembros fundadores de la categoría), frente a tales disyuntivas la ética y las buenas intenciones salen sobrando, como bien lo ejemplifican emporios de la informática como Microsoft y ahora Apple (la que antes se consideraba el iconoclasta que defendía a los desvalidos usuarios), éste último aferrado a controlar y limitar el uso que los compradores dan a sus productos, a pesar de que han pagado por ellos.  Pregúntenle a cualquie usuario de iPhone, que tiene todo el potencial de ser una pequeña computadora de bolsillo, con todas las funciones de una computadora de las que estamos acostumbrados a usar, incluídas cosas como copiar y guardar archivos, o ver videos del formato que se nos antoje. Esas cosas no se pueden hacer en el iPhone porque a Apple no le da la gana de que su sistema operativo permita hacerlo. Y Apple ha llegado hasta el punto de hacerse partícipe de prácticas monopólicas de socios de dudosa integridad, como es el caso de Telcel, al que le ha dado por su lado bloqueando la opción que existe desde que salió la versión 3.0 del sistema operativo, la de usar al celular como modem para que una computadora pueda conctarse a Internet utilizando la capacidad del iPhone de tener acceso ilimitado (eso también es discutible, gracias a las prácticas de Telcel y su propaganda falsa) a la Internet vía la red rápida de celulares. Si uno quiere conectar su computadora a la red rápida de celulares, tiene que pagarle a Carlitos Slim y Cía. una cuota aparte, a pesar de que ya le está pagando por hacer esa misma conexión mediante el iPhone. Y todo con la venia de Apple y su patriarca Steve Jobs, que antes se erigían los defensores de los desvalidos. ¿Qué detiene a Google para hacer semejantes marranadas y peores, si resulta bueno para los negocios? Se me hace que muy poco.

Continúa...

Ribozyme dijo...

Y esto lo digo porque acabo de atestiguar lo poco que pueden lograr las buenas intenciones en el caso de Yahoo y mi directorio de contactos de la cuenta de correo electrónico que he tenido con ellos desde hace más de 12 años. Un virus/gusano informático ya se hizo de dicho directorio y lo está usando para a través de mi cuenta enviar mensajes de spam a todos mis destinatarios, sin que yo me dé cuenta (dichos mensajes no aparecen en el directorio de "mensajes enviados") y sin que yo haya descargado un attachment sospechoso o use un software de correo electrónico que mantenga mis contactos dentro de la información disponible en mi disco duro. Y eso que Yahoo y los demás proveedores de correo electrónico gratuito juran y perjuran que mantener confidencial la información de sus subscriptores es una de sus principales prioridades.

Finalmente, está el asunto de la  Singularidad Tecnológica predicha por muchos futurólogos, según la cual una vez que logremos construir computadoras que a su vez puedan diseñar computadores mejores que ellas (y mejores que las que los humanos podamos diseñar; ésa es la idea, el problema es que eso vuelve a dichas computadoras nuestros superiores intelectuales), esto se convertirá en un ciclo de retroalimentación positiva que conducirá a computadoras con intelectos tan sofisticados que serán completamente incomprensibles para nosotros (piensen en los extraterrestres de las odiseas espaciales 2001 y 2010) y además muy poderosos. Para dichos intelectos será una lata tenernos como usuarios, que decidamos lo que hagan, de la misma manera que para nosotros sería una lata tener a bacterias decidiendo lo que hagamos. Cuando sucede, lo llamamos "infección" y buscamos combatirla por todos los medios. ¿Qué nos espera a nosotros? El panorama más lógico no resulta muy alentador, y aunque slo más probable es que no resulte en Skynet, la cual en realidad es tan tonta que los humanos constantemente están usando a sus propias creaciones contra ella (en las películas y en la serie de TV), sino posiblemente algo peor, por ser más insidioso, algo que nos haya vuelto sus incondicionales porque lo consideramos utilísimo, casi indispensable... como Google. Y por supuesto, nadie, ni siquiera yo que considero estas posibilidades, estará a favor de que dejemos de buscar construir computadoras cada vez mejores y más versátiles, incluso pensantes, si es posible. Quizás el desastre sea inevitable porque ni siquiera vamos a querer evitarlo. ¿Quién sabe?

axa dijo...

@ martin: ahhhhhh, la singularidad. de nuevo: dos perspectivas.

la primera: hay mucho revuelo causado por los fabricantes de componentes que les gusta contar la historia de que la capacidad de procesamiento de las compus crece exponencialmente, bla, bla, bla. si lo ponemos en perspectiva, hace casi 150 años babbage y ada lovelace empezaron con este rollo del analitycal engine, alan touring lo perfeccionó y desde entonces nos hemos quedado estancados en los algoritmos. el salto grande es porque unos físicos hicieron más chiquitas las piezas del "analytical engine", no más eficiente el diseño. ¿los procesadores (AMD, Intel, NEC) corren cada día más rápido los algoritmos? definitivamente si. la mente humana trabaja en base a algoritmos.....es otro asunto.

esa es la otra perspectiva: cuando la compu de IBM le ganó 4 de 7 partidos de ajedrez a kasparov, "todomundo" dijo: la computadora es más inteligente que kasparov. resulta que un algoritmo que corría en docenas de procesadores en paralelo y hacía millones de operaciones por segundo tomó mejores decisiones dentro de un sistema cerrado para llegar a un resultado conocido que un humano con una memoria falible y con limitadas capacidades. el algoritmo que le ganó al humano hacía calculos en base a la posición de las piezas, corría hasta el final todas las posibilidades y de ahí seleccionaba una. el humano si acaso ve dos o 3 jugadas adelante de su turno, y en palabras de kasparov: ni siquiera él puede explicar en términos paramétricos como juega. y a pesar de tener recursos tan limitados de memoria y capacidad de jugar, apenas le ganó la máquina. ¿el secreto de la inteligencia está en obtener buenos resultados con escasos recursos o en buenos resultados con una capacidad bestia de hacer operaciones?

el sentido de este largo texto es: los ingenieros de IBM hicieron algo más rápido y fiable que kasparov. pero no arrojaron ninguna luz sobre cómo funciona el cerebro humano. si seguimos sin saber (paramétricamente) cómo funciona el cerebro humano, ¿cómo nos atrevemos a soñar un día replicar su funcionamiento? se podrán hacer máquinas muy rápidas, pero ¿inteligentes? lo dudo.

César A. Rodríguez M dijo...

Una vez que empecé a adentrarme en la avenida que pasa por fuera de mi casa vía Google Maps, quedé bien convencido que mas temprano que tarde una especie de "Big Brother" estará al pendiente de todos nosotros. George Orwell si viviera ya estaría demandando a la gente de Google por violar los derechos de autor.
Un saludo

Ribozyme dijo...

axa: Primero, yo no estoy diciendo que la singularidad sea una certeza, sólo que es una predicción que bajo la información con la que ahora contamos se puede hacer (habrá que esperar para verificarla) y resulta MUY interesente (alarmante, incluso, diría yo).

Segundo: el cerebro humano no fue diseñado por nadie y aquí está, de lo cual somos prueba tú y yo, que estamos discutiendo el asunto, a pesar de que siguen sin saberse los términos paramétricos que definen a nuestras mentes (por lo que leído sobre neurociencia, parece ser que más que un sistema rígido, como los softwares actuales, el cerebro humano consiste en una serie de subsistemas caóticos (es decir, no bien definibles matemáticamente en cuanto a resultados finales, aunque sí descriptibles en cuanto a tendencias generales; como los modelos que ya se hacen del clima, que también es un sistema caótico) cuyas "salidas" de información también se integran de manera caótica y cuyo resultado final integrado es lo que llamamos "mente" (estoy simplificando exageradamente, pero ésa es la idea general). En cuanto a cómo Kasparov y el resto de nosotros llegamos a ciertas conclusiones, te recomiendo el libro "How We Decide" de Jonah Lehrer (el tipo tiene un blog y seguido publica fragmentos del libro en él; además puede uno conseguir gratuitamente la versión electrónica del libro si sabe dónde buscar). Ya se tiene una idea muy general del proceso, y se sabe que casi todo el procesamiento de información es inconsciente y que la mayor parte de las decisiones no son racionales, a pesar de lo orgullosos que estamos los humanos de nuestro intelecto racional.

Tercero: un intelecto superior al nuestro no forzosamente tiene que funcionar de la misma manera que el nuestro. Si es superior, es diferente, y probablemente la diferencia no sea sólo de escala. Cierto, la "ley" de Moore ya está empezando a dar visos de colapsarse, pero no podemos decir que el futuro de la computación dependa de algo semejante a las tecnologías actuales. Después de todo, lo que casi siempre desata a las revoluciones científicas y tecnológicas es un "cambio de paradigma", un descubrimiento que conduce a hacer las cosas de forma radicalmente distinta. Tú mismo mencionas a algunos: de calculadoras mecánicas, como el ingenio de Babbage, a sistemas electromecánicos, con relevadores, y a sistemas electrónicos, de bulbos, luego a sistemas electrónicos de estado sólido, con transistores aislados, y finalmente sistemas electrónicos de estado sólido con transistores y otros componentes en una sola pieza de silicio: el microchip. Cada uno de estos paradigmas no era predecible, su aparición nos tomó por sorpresa a la mayoría (los únicos que sospechaban algo fueron los que finalmente desarrollaron el descubrimiento o la invención). La tendencia es ésa, y más nos vale que estemos abiertos a nuevas sorpresas pues es casi seguro que surjan.

Ribozyme dijo...

Cuarto: propongo un enfoque de desarrollo basado en la fuerza bruta computacional (como lo fueron Deep Blue y Deep Thought a la hora de jugar ajedrez) pero simulando lo que la evolución darwiniana ha hecho para conducir a la aparición del cerebro y la mente humanos. Básicamente propongo que poderosímos sistemas computacionales se pongan a generar "poblaciones" de sistemas basados en estructuras computacionales ya probadas, introduciendo variabilidad dentro de dicha población y luego seleccionando aquellos miembros de la población que representen alguna mejora respecto al diseño original. ¿Cuál sería el criterio de "mejora"? No me atrevo ni a imaginarlo, es algo en lo que tendrá que trabajarse mucho antes de establecerse con cierta certeza. Pero una vez establecido, podrá implementarse para hacer una selección automática dentro de la población de variantes computacionales. Es decir, las megacomputadoras que menciono podrán implementarlo sin supervisión humana (o casi) y, a partir del grupo de "ganadores" de una población, generar una nueva población con variantes, una nueva generación, y así sucesivamente. Esto ya se hace en bioquímica y en biología molecular para generar nuevas enzimas y otras estructuras, que no existen previamente en la naturaleza, y que tienen características de funcionamiento que las hacen más útiles como herramientas. Cierto, aún no se cuenta con esas megacomputadoras que harán el trabajo, pero su existencia no es incompatible con las tecnologías actuales, es cuestión de tiempo desarrollarlas, y si surgen nuevos paradigmas tecnológicos, a la mejor hasta resulte más fácil de lo que pensamos. El producto final, después de cierto número de generaciones, serán sistemas computacionales nuevos, enormemente mejorados, sin saber bien a bien en qué están fundamentadas dichas mejoras (se podrían estudiar y tratar de establecer los principios básicos subyacentes, pero es posible que esto no sea asequible). Éstas nuevas computadoras podrían utilizarse para el desarrollo de unas aún mejores, con el método ya descrito, y así sucesivamente. El resultado final (si es que hay un final) es algo que no podemos ni imaginar (decía Arthur C. Clarke que la tecnología lo suficientemente avanzada es indistinguible de magia para aquellos que no saben o no entienden cómo surgió). Y esto es sólo una sugerencia. Es casi seguro que los que sí son expertos en el desarrollo de nuevas tecnologías de computación (yo no lo soy ni de lejos) conciban ideas que sean mucho más ingeniosas que la que ahora propongo.

Martín Bonfil Olivera dijo...

Juan Antonio: Entiendo tu reacción, que es la más común: pensar que las computadoras no "entienden", es más, no "pueden" entender, porque no son mentes orgánicas, sino sólo conjuntos de circuitos y programas... Pero hoy los especialistas de todo tipo (neurobiólogos, computólogos e ingenieros, filósofos de la mente, etc.) tiene bastante claro que TAMBIÉN LA MENTE HUMANA es resultado de un hardware y un software que no pueden diferir de modo esencial de lo que ocurre en una computadora. Me explico: sea en microcircuitos o en neuronas, la mente tiene que ser producto de procesos naturales, de tipo algorítmico, pero con múltiples niveles y muchísima complejidad. La diferencia, obviamente, está en la cantidad, pero no en la calidad. En otras palabras, no hay nada INTRÍNSECAMENTE distinto en un cerebro y una computadora, que pudiera hacer "imposible" que una computadora llegue a pensar, o incluso a ser consciente.

Ahora, la mente humana y su capacidad de pensar, razonar, entender, fantasear, no surge de golpe ni de la nada. No es una esencia dada por dios, ni caída del cielo: es resultado de un proceso evolutivo gradual, y podemos ver niveles de "inteligencia" en los animales y otros seres vivos que van desde los mecanismos sensoriales de las bacterias hasta los monos que fabrican herramientas.

En inteligencia "artificial", una máquina tragamonedas automática es un ejemplo super rudimentario; muchos programas de IA modernos son ejemplos mucho mejores, y Google cuenta, creo, entre éstos. Si hoy hay computadoras que ganan juegos de ajedrez a grandes maestros, pronto habrá otras que hagan cosas igual o mejor que nosotros, cosas que consideramos (o considerábamos) que "sólo los humanos" podíamos hacer.

No veo nada preocupante en esto, pero tampoco nada amarillista ni exagerado. Quizá yo exagero un poco al considerar la inteligencia de Google, pero inteligencia es, no produce sus resultados porque atrás haya un ejército de señorcitos trabajándolos: los produce solito, gracias a la programación de esos señorcitos. Pero los señorcitos podrían morirse, y Google seguiría funcionando. Es SU inteligencia, y seguiremos viendo crecer otras formas de IA, hasta que tengamos que quitarle el calificativo de "artificial".

Y nada de eso nos debe preocupar, pues el valor de lo humano no depende de ser "mejores" que las máquinas.

saludos
Martín

Daniel Centeno dijo...

Hola Martín, sigo tus diferentes blogs desde hace tiempo y me gustan mucho tus articulos, en esta ocacion vengo a invitarlos a todos a leer un blog que acabo de abrir y que espero sea del agrado de todos, se aceptan reclamos, felicitaciones y todos sus comentarios.

http://elartedelaciencia.wordpress.com

Voy comenzando con mucho animo!!

Saludos

Martín Bonfil Olivera dijo...

Ribo: De acuerdo en que la búsqueda personalizada puede tener inconvenientes. Aunque si lo piensas, eso ya pasaba: el creacionista no entraba a las páginas en defensa de la evolución, o si lo hacía se salía en cuanto se daba cuánta qué eran... el evolucionista hacía lo mismo si entraba a sitios creacionistas. Si un creacionista quiere entrar a un sitio darwiniano, lo puede hacer fácilmente, usando los términos pertinentes. No me parece que el riesgo que apuntas sea tan grave (y la ganancia en eficiencia parece ser grande).

En cuanto a que Google de veras sea "benévolo", comparto tus reservas... pero dependerá de la sociedad permitirle o no convertirse en monstruo. Lo que sí, me acabas de convencer de no cambiarme al iPhone, a pesar de que mis amadas Palm parecen ir a la ruina, ahora que HP las adquirió. Y me asquea lo que hizo Apple con el dueño del sitio que publicó el hallazgo del iPhone de 4a generación, tirarle la puerta e incautarle sus servidores, ¡qué horror de quien se decía defensor de la libertad!

En cuanto a la seguridad en la red, bueno, ya quedó claro que es un mito, es imposible y tendremos que vivir con eso...

Lo de la singularidad me parece factible, pero no veo por qué se asume que sería malo... es como asumir que la evolución es "buena"; o que los extraterrestres tienen que ser hostiles (saludos S. Hawking) o "buenos"... ni uno ni lo otro, y siempre, como dice Adrián, será posible quitar la conexión. Bastaría con programar las 3 leyes de la robótica de Asimov en el núcleo del sistema (y hay expertos que ya se toman en serio esto).

Axa: El cerebro humano tiene que funcionar a base de algún tipo de algoritmos, como todo hasta ahora en biología (piensa en el control genético, por ejemplo). Claro que pueden ser algoritmos complejos, multinivel, generativos, que no necesariamente tengan resultados predeterminados ni predecibles en detalle. ¿O de qué otro modo podría funcionar? Por otra parte, Kasparov vs. DeepBlue puede ser ya tema viejo, y pueden no ser comparables en detalle, pero si la compu ganó, sea como sea (¡y eso fue hace 14 años!, seguro ya hay compus mucho mejores y Kasparov perdería por mucho), entonces ganó. Si hace como pato, tiene pico de pato, camina como pato y hace cuac, ¿para qué llamarle "artificial"? Es inteligencia. Y no sabemos qué tan "mecánica" es en realidad la inteligencia humana (pero es posible que más de lo que queremos creer). Recomiendo mucho la obra maestra de Daniel Dennett, "Consciousness explained" (traducida por Paidós como "La conciencia explicada), libro maravillosamente revelador, aunque ya sea medio viejito, y eso sí, de lectura extremadamente compleja y exigente (tanto o más como "Gödel, Escher, Bach", del compinche de Dennett, Douglas Hofstadter).

saludos,
Martín

Martín Bonfil Olivera dijo...

Ribo: Los cambios de Babbage a Turing (sin o) a bulbos a microchip etc. no son "cambios de paradigma"; estás usando el concepto equivocado: son cambios de implementación. Tú puedes implementar un proceso algoritmico en distintos soportes: cerebros hechos de neuronas, ábacos hechos de cuentitas, papel y lápiz, computadora electrónica, calculadora mecánica...

Martín Bonfil Olivera dijo...

Ribo: Fuerza bruta con procesos darwinianos... pues justo así surgió la mente humana, ¿no? (de hecho, "darwiniano" implica procesos de "fuerza bruta", poco eficientes, con gran desperdicio y gasto, pero que a cambio producen hallazgos que, en comparación, salen baratos, pues "exploran" el espacio de diseño en busca de las mejores soluciones).

Daniel: Felicidades y suerte, se ve chido el blog, bien escrito e interesante. Sólo una sugerencia: deberías poner tu nombre y una buena biografía (hasta una foto), uno quiere saber a quién está leyendo...

juan antonio dijo...

Saludos Martín, y gracias por tu respuesta a mi comentario. Antes de continuar me gustaría comentar que soy científico de la computación especializado de hecho en temas relacionados a IA. No por eso quiero decir que mi opinión deba ser la correcta, sino que por lo menos tengo una idea técnica de lo que es el estado del arte en el área.

Concuerdo contigo en la opinión de que, muy probablemente, el cerebro humano (y por ende la inteligencia) tienen a final de cuentas un funcionamiento mecánico y algorítmico. No creo que este asunto se haya ya sentado de manera definitiva (quizá aún hay "algo más", como trata de argumentar Roger Penrose en la Nueva Mente del Emperador), pero en definitiva la idea de que el cerebro puede ser una "simple" máquina no es descabellada.

Sin embargo, ir de ahí y decir que "Google se está haciendo más inteligente", como si fuera el algoritmo el que, por sí mismo, ha ido aprendiendo más cosas y se ha hecho "más inteligente" es una falacia. Se que no lo dices así explicitamente, pero al poner a "Google" como el sujeto en esas oraciones se produce la imagen equivocada en la mente de muchos de tus lectores. (Vamos, es la imagen equivocada que todo el mundo tiene sobre los avances en la inteligencia artificial!)

Si Google es ahora un poco más hábil para resolver cierto tipo de problemas, esa inteligencia no provino de "Google" por si mismo, sino de sus programadores. Y todos los avances en inteligencia artificial, hasta el día de hoy, se podría decir son de la misma naturaleza.

El otro punto interesante que tocas es que, en efecto, estos son avances hacia el objetivo de crear eventualmente una verdadera inteligencia (sin el "artificial"), pero, ¿que tanto nos falta? De mi experiencia en el área puedo decir que falta mucho. El mismo Kasparov que mencionas ha escrito un artículo muy interesante comentando sobre la separación abismal que, hasta hoy, hay entre la forma de "pensar" de una computadora, y la forma de pensar de un humano.

Ribozyme dijo...

Martín: Coincido contigo, aunque no completamente, en mi uso de "paradigma". De hecho mi uso del término fue deliberado y te diré por qué: cada uno de esos cambios acarreó no sólo un aumento en la capacidad de procesamiento y velocidad del mismo en las computadoras, sino, aún más importante a mi ver, el uso que se les daba. El ingenio de Babbage era un juguetito curioso, las computadoras electromecánicas se emplearon para tratar de romper códigos secretos de los enemigos en la 2a Guerra Mundial (como dato curioso, un alemán ya había construido varias computadoras electromecánicas, mejores que las de los gringos, antes de que los gringos lo hicieran; parece ser que a Hitler no le interesó mucho el
invento y luego las máquinas originales fueron destruídas en los bombardeos a Berlín), las computadoras de bulbos fueron usadas por organismos gubernamentales para hacer cosas como registrar censos o calcular trayectorias de proyectiles. Las computadoras de transistores aislados fueron las primeras fabricadas para uso comercial y usadas por las grandes empresas para cosas como llevar sus nóminas (la computadora en los módulos lunares Apollo también era de esas, pero chiquita y más avanzada). El uso del microchip llevó a las computadoras primero a los negocios pequeños, luego a las casas, y ahora las traemos en los teléfonos celulares.

No te decepciones del iPhone, yo tengo uno y, a pesar de mis quejas, lo adoro. Me encanta no sólo lo que hace, sino cómo lo hace (ése ha sido el secreto del éxito de todos los productos recientes de Apple). Es posible "crackearlo", y mucha gente está abocada a hacerlo cada vez de mejores maneras, para poder alterar el sistema operativo y sus funciones, y de esa manera liberar el uso de funciones que hasta la fecha Jobs y Cía. no han querido permitir. Yo me resisto a ello porque si no sabe uno lo que hace, en el mejor de los casos el funcionamiento del aparato se puede volver errático. Si te compras un iPhone 3G, que sea la versión S, que es la más reciente y es la que hace casi todo lo que un iPhone se supone debe hacer (incluso grabar y editar videos y luego pegarlos a un e-mail y enviárselos a tus amigos). Y la disponibilidad de nuevas funciones, "apps", para el iPhone, el iPod Touch y ahora el iPad, es la más amplia en el mercado. Por cierto, acabo de visitar a un amigo que se acaba de comprar un iPad, y es cierto lo que dicen, es básicamente un iPod Touch a lo bestia. Me lo imaginaba más grande, pero no, es como del tamaño de la mitad del monitor de mi MacBook Air de 13 pulgadas. Hay versiones del iPad a las que les puedes meter un chip de celular y conectarte a la red 3G, pero no sé si eso vaya a estar disponible en México.

Martín Bonfil Olivera dijo...

Juan Antonio ¡Ah, bueno, eso aclara varias cosas! En primer lugar, eres especialista: un especialista, leyendo un texto de divulgación sobre su tema de especialidad (sobre todo si es un texto tan breve, y por tanto necesariamente tan superficial, como el mío) hallará inexactitudes, incorrecciones, cosas que no lo dejan satisfecho. Es normal, e inevitable. Pero tu aportación enriquece, y ayuda a aclara, aunque sea sólo para los clavados que leen los comentarios en el blog, un poco las cosas.

En segundo lugar, ¡ah, Penrose..! Debí pensar que aparecería... Mira, he leído bastante detenidamente sus ideas y las de sus críticos, y francamente me parecen bastante... ¿cómo decirlo..? Perdidas. Digo, invocar fenómenos cuánticos extraños para explicar algo que muy probablemente se puede explicar con neurofisiología es como querer usar un virus modificado genéticamente para matar a la mosca que te molesta en la ventana... Además, sin negar el genio de Penrose (en los campos en que es un genio, no en este), su idea del fenómeno cuántico en las subunidades de las proteínas que forman los microtúbulos de las neuronas para "conectar" el mundo de lo mental y lo físico con el "mundo ideal" de Platón suena, francamente, descabellada.

Pero hay otras objeciones más serias a Penrose y su pretensión de que el teorema de Gödel impide al cerebro conocerse a sí mismo. La que más conozco es la del propio Daniel Dennett en su libro más famoso, "Darwin's dangerous idea" (traducido como "La peligrosa idea de DArwin"; pero prácticamente inconseguible en español).

Pero insisto: decir, como digo en el título, que "Google piensa" es una exageración retórica; decir que Google ES inteligente no lo es. Tiene inteligencia (no importa de dónde proviene: en su caso, la programaron sus programadores; en el nuestro, la programó el proceso ciego e ineficiente de la selección natural). No me parece que sea una "idea equivocada", sino una manera de ver las cosas que puede sustentarse y argumentarse, y con la por supuesto no se tiene que estar de acuerdo necesariamente (Francis Crick insistía en no aceptar los paralelismos entre cerebro y computadora, y tenía buenas razones; a otros les resultan útiles; supongo que el punto está en qué tan preciso quieres que sea el símil).

¡Gracias por el artículo de Kasparov, ya lo bajé y al rato lo leo!

Ribozyme dijo...

Creo que fue el mismo Dennett quien dijo (parafraseo): "¿Qué ventaja tiene tener un fenómeno cuántico, aleatorio e incausado para establecer lo que decidimos comparado con el modelo determinista propuesto? ¿De qué manera aumenta nuestra libertad? Mientras que la explicación determinista explica una relación entre causas externas (e internas) y el efecto, nuestra conducta ¿De qué modo el que actuemos aleatoria e incausadamente aumenta nuestra libertad de acción? Cuando menos las acciones deterministas son respuestas ante el ambiente, evolutivamente ventajosas, pero ¿Actuar movido por el azar, de qué sirve?" Más que nada, lo que Dennett trata de establecer es que la idea misma de "libre albedrío", de actuar sin ser movido por causa alguna, es absurdo.

axa dijo...

gracias, juan antonio. hace un rato leí ese artículo y era a lo que yo pobremente intentaba explicar.

martín hace referencia al dicho de "grazna como pato, pico de pato, y nada como pato, entonces es un pato". kasparov de latoso marca la diferencia entre lo inteligente y lo que parece inteligente.

y sin caer en el vicio del "enciclopedismo" vale la pena revisar la definición de algoritmo. en palabras sencillas un algoritmo es una instrucción después de otra. una operación a la vez.

ese es el "problemita" de las compus de ahora. son millones de veces más rápidas que las de bulbos de turing, pero siguen corriendo algoritmos. el software nada más no está hecho para procesos paralelos. =)

axa dijo...

gracias, juan antonio. hace un rato leí ese artículo y era a lo que yo pobremente intentaba explicar.

martín hace referencia al dicho de "grazna como pato, pico de pato, y nada como pato, entonces es un pato". kasparov de latoso marca la diferencia entre lo inteligente y lo que parece inteligente.

y sin caer en el vicio del "enciclopedismo" vale la pena revisar la definición de algoritmo. en palabras sencillas un algoritmo es una instrucción después de otra. una operación a la vez.

ese es el "problemita" de las compus de ahora. son millones de veces más rápidas que las de bulbos de turing, pero siguen corriendo algoritmos. el software nada más no está hecho para procesos paralelos. =)

Martín Bonfil Olivera dijo...

perdón, Axa, quizá UN algoritmo implique un sólo proceso a la vez, pero nada impide correr una infindad de procesos (algoritmos) paralelos, como lo hacen las computadoras y el cerebro (eso se sabe, por ejemplo en los proceso paralelos de decisión inconsciente que se dan ANTES de que la mente tenga la sensación consciente de "decidir" que va, por ejemplo, a mover el brazo. ANTES de que la mente decida, en el cerebro los mecanismos de movimiento ya se están activando.

Y es que justo uno de los argumentos importantes de Dennett -pero no me siento capaz de explicarlo bien aquí- es que la diferencia entre "ser" inteligente y "parecer" inteligente es una ilusión; la distinción carece de significado, cuando la examinas detalladamente.

Nuevamente, recomiendo leerlo. Por ahí tengo la traducción de una entrevista suya donde aclara bastante su punto de vista, pero no sé cómo comunicársela a ustedes. ¿La publico aquí en partes?

saludos,
martín

Ribozyme dijo...

Me parece a mí que aquí se está esgrimiendo un argumento falaz de incredulidad, del tipo "Como en la actualidad no se cuenta con la tecnología necesaria para construir una computadora pensante, y no se me ocurre de qué manera puede llegar a construirse una, no puedo creer que una llegue a construirse y esto debe de ser cierto". Recuerdo un ejemplo excelente: el de los aviones, máquinas voladoras más pesadas que el aire. Todavía a fines del siglo XIX, con su tecnología basada en máquinas de vapor, había muchos "expertos" que decían que las máquinas voladoras más pesadas que el aire "jamás lograrían construirse" a pesar de que tenían enfrente de sus narices a ejemplos vivientes (así como nostros tenemos al cerebro humano) de vuelo de objetos más pesados que el aire: aves, murciélagos e insectos (y las cometas de los niños). Bastó tan sólo que se diseñaran motores de combustión interna lo suficientemente compactos, mucho más compactos que las máquinas de vapor, para que "lo imposible" se lograse. Las leyes de la física no lo prohibían, sólo la incredulidad de que la tecnología pudiera desarrollarse.

El mismo Kasparov lo que principalmente lamenta no es que haya computadoras que jueguen ajedrez mejor que él, sino que los fabricantes se hayan conformado con el uso de la fuerza bruta computacional y no se hayan puesto a estudiar a detalle la forma en que un cerebro humano juega ajedrez para tratar de implementarlo en sus computadoras.

Decir que posiblemente en el cerebro humano "haya algo más" que algoritmos con una base física es abrir un resquicio para que por ahí se cuele la postura dualista,  que se puede resumir en "cuerpo y alma", donde es el alma "la esencia inmaterial" y verdadero centro de lo que observamos en el cuerpo. Esta postura es, primero, sobrenaturalista y por ende, anticientífica y, segundo, no corresponde a lo que en neurociencias y ciencias cognoscitivas se sabe acerca del funcionamiento del cerebro/mente humanos.

Continúa...

Ribozyme dijo...

La postura que toma axa se puede resumir en el concepto del "zombi filosófico", el cual ha sido criticado hasta el cansancio con bastante éxito, especialmente por Dennett. Transcribo a continuación una explicación resumida sobre el tema (lo lamento, está en inglés, pero ya vimos que quienes sostienen dicha postura aquí son completamente capaces de leerlo y entenderlo):

A philosophical zombie, p-zombie or p-zed is a hypothetical being that is indistinguishable from a normal human being except that it lacks conscious experience, qualia, or sentience. When a zombie is poked with a sharp object, for example, it does not feel any pain. While it behaves exactly as if it does feel pain (it may say "ouch" and recoil from the stimulus, or tell us that it is in intense pain), it does not actually have the experience of pain as a putative 'normal' person does.

The notion of a philosophical zombie is mainly a thought experiment used in arguments (often called zombie arguments) in the philosophy of mind, particularly arguments against forms of physicalism, such as materialism and behaviorism.

According to physicalism, the physical facts determine all other facts; it follows that, since all the facts about a p-zombie are fixed by the physical facts, and these facts are the same for the p-zombie and for the normal conscious human from which it cannot be physically distinguished, physicalism must hold that p-zombies are not possible, or that p-zombies are the same as normal humans. Therefore, zombie arguments support lines of reasoning that aim to show that zombies are possible.

Most arguments ultimately lend support to some form of dualism—the view that the world includes two kinds of substance (or perhaps two kinds of property): the mental and the physical.

The zombie argument against physicalism is, therefore, a version of a general modal argument against physicalism, such as that of Saul Kripke's in "Naming and Necessity" (1972).[1] The notion of a p-zombie, as used to argue against physicalism, was notably advanced in the 1970s by Thomas Nagel (1970; 1974) and Robert Kirk (1974).

Continúa...

Ribozyme dijo...

However, the zombie argument against physicalism in general was most famously developed in detail by David Chalmers in The Conscious Mind (1996). According to Chalmers, one can coherently conceive of an entire zombie world: a world physically indiscernible from our world, but entirely lacking conscious experience. In such a world, the counterpart of every being that is conscious in our world would be a p-zombie. The structure of Chalmers' version of the zombie argument can be outlined as follows:

1. If physicalism is true, then it is not possible for there to be a world in which all the physical facts are the same as those of the actual world but in which there are additional facts. (This is because, according to physicalism, all the facts are fully determined by the physical facts; so any world that is physically indistinguishable from our world is entirely indistinguishable from our world.)
2. But there is a possible world in which all the physical facts are the same as those of our world but in which there are additional facts. (For example, it is possible that there is a world exactly like ours in every physical respect, but in it everyone lacks certain mental states, namely any phenomenal experiences or qualia. The people there look and act just like people in the actual world, but they don't feel anything; when one gets shot, for example, he yells out as if he is in pain, but he doesn't feel any pain.)
3. Therefore, physicalism is false. (The conclusion follows by modus tollens.)

The argument is logically valid, in that if its premises are true, then the conclusion must be true. However, philosophers dispute that its premises are true. For example, concerning premise 2: Is such a zombie world really possible? 

A physicalist might respond to the zombie argument in several ways. Most responses deny premise 2 (of Chalmers' version above); that is, they deny that a zombie scenario is possible.

One response is to claim that the idea of qualia and related phenomenal notions of the mind are not coherent concepts, and the zombie scenario is therefore incoherent. Daniel Dennett and others take this line. They argue that while consciousness, subjective experiences, and so forth exist in some sense, they are not as the zombie argument proponent claims they are; pain, for example, is not something that can be stripped off a person's mental life without bringing about any behavioral or physiological differences. Dennett coined the term zimboes (philosophical zombies that have second-order beliefs) to argue that the idea of a philosophical zombie is incoherent[6]. He states: "Philosophers ought to have dropped the zombie like a hot potato, but since they persist in their embrace, this gives me a golden opportunity to focus attention on the most seductive error in current thinking."[7] In a related vein, Nigel Thomas argues that the zombie concept is inherently self-contradictory: Because zombies, ex hypothesis, behave just like regular humans, they will claim to be conscious. Thomas argues that any construal of this claim (that is, whether it is taken to be true, false, or neither true nor false) inevitably entails either a contradiction or a manifest absurdity. 

Ribozyme dijo...

Y esto que me encontré en The Skeptic's Dictionary:

A philosophical zombie (p-zombie, for short) would be a human body without consciousness which would nevertheless behave like a human body with consciousness. To some philosophers (e.g., Daniel Dennett) this is a contradictory notion and thus an impossible conception. If it behaves like a person and is indistinguishable from a person, then it is a person. Other philosophers (e.g. Todd Moody and David Chalmers) argue that a p-zombie would be distinguishable from a person even though indistinguishable from a conscious person. It is distinguishable, say these philosophers, because it is stipulated that it is not conscious even though it is indistinguishable from a conscious being. In case you are wondering why philosophers would debate whether it is possible to conceive of a p-zombie, it is because some philosophers do not believe or do not want to believe that consciousness can be reduced to a set of materialistic functions. Important metaphysical and ethical issues seem to hinge on whether there can be p-zombies. Can machines be conscious? If we created a machine which was indistinguishable from a human person, would our artificial creation be a "person" with all the rights and duties of natural persons? To the p-zombie advocates, consciousness is more than brain processes and neurological functions. No adequate account of consciousness will ever be produced that is "reductionist," i.e., completely materialistic.

Continúa...

Ribozyme dijo...

I think it is possible to conceive of a machine which "perceives" without being aware of perceiving. In fact, they already exist: motion detectors, touch screens, tape recorders, smoke alarms, certain robots. An android which could process visual, auditory, tactile, olfactory and gustatory input but which would lack self-consciousness, i.e., would not be aware of perceiving anything, is conceivable. We can even conceive of such machines resembling humans in the flesh. How would we distinguish such automata from persons? The same way we do now: by the imperfect and fallible methods of conversation and observation. But that is not what would make the two distinct; self-consciousness or the lack of it would distinguish the automata from persons. "Visual perception" by a motion detector is unlike visual perception by a person just because of the difference in awareness of perception, i.e., self-consciousness. A smoke detector might "smell" certain chemicals, but it does not process odors the way a person does. In my view, the only conceivable p-zombie would be a machine which perceives but has no awareness of perceiving, i.e., no self-consciousness. Such machines are essentially distinct from conscious persons.

For what it's worth, I side with Dennett and those who think that the concept of the p-zombie is a logical absurdity. If the "zombie" exhibits all the symptoms of consciousness, then the "zombie" is not a zombie; for to exhibit all the symptoms of consciousness is to have consciousness, which the zombie is denied by definition.

Anyway, this reminds me of a story by Raymond Smullyan, the great logician and paradoxer. A man wants to commit suicide but does not want to cause his family any grief. He finds out about an elixir he can take which will kill him, i.e., separate his soul from his body, but leave his body intact to wake up, go to work, play with the kids, keep the wife satisfied and bring home the bacon. But before he takes the elixir, a well-intentioned friend sneaks in during the night and injects his suicidal friend with the stuff, thereby killing him, i.e., releasing his soul. The man wakes up and doesn't know he's dead (i.e., that he has no soul), so he takes the elixir. He can't kill himself, since he's already dead. But he thinks he can kill himself and become a p-zombie. However, he is already a p-zombie. Question: if the p-zombie can't tell the difference between a real person and a p-zombie, why would we think that we real persons could tell the difference? In fact, since the conception of the "soul" makes absolutely no difference in either the nature of a person or a p-zombie, the concept of the "soul" is superfluous. If persons are indistinguishable from p-zombies then they are not two distinct concepts, but one concept manipulated by language to mislead us into thinking there are two distinct concepts here.

juan antonio dijo...

Saludos Martín, y de nuevo gracias por la respuesta.

Te comento que estoy prácticamente de acuerdo con todo lo que dices. Gracias también por la referencia al libro de Daniel Dennett, ya me hice de un ejemplar y lo estoy revisando, se ve muy interesante. Me llama también la atención su libro Consciousness Explained, ¿tienes alguna idea de ese?

Reitero en que estoy de acuerdo contigo en que no parece haber nada "fundamentalmente significativo" que nos impidiera construir una máquina inteligente.. así como lo es también nuestro cerebro.

En lo único que quiero hacer hincapié es en las abismales diferencias que hay entre la tecnología hoy en día y esa meta final. Una diferencia importante que yo veo es que hasta hoy ninguno de nuestros algoritmos tiene la capacidad de "aprender" o "generar inteligencia" por si mismos de la manera que lo hace un humano.

Eso por supuesto, no quiere decir que nunca lo vayamos a lograr.

Para terminar, no me gusta mucho discutir sobre la semántica de las palabras porque esas discusiones suelen ser siempre inútiles. Al final las cosas significan lo que uno quiere que signifiquen. Sin embargo cuando dices que no hay ningún error en decir que Google es inteligente, del mismo modo podríamos decir entonces que un Reloj es inteligente porque sabe decir la hora, o una Calculadora es inteligente cuando puede resolver integrales. En efecto, habrá un "continuo" de niveles de inteligencia, y entonces la pregunta es ¿qué tan inteligente es la inteligencia de Google?

Martín Bonfil Olivera dijo...

Hmm... excelente texto, querido Ribo.

Decidí subir la entrevista a Dennett de que les hablé aquí, para que si les interesa puedan bajarla.

De nada.
Martín

Martín Bonfil Olivera dijo...

Juan Antonio: Mencioné "Consciousness explained" en un comentario más arriba, en esta misma lista, en respuesta a Axa. Pero repito mi comentario:

Recomiendo mucho la obra maestra de Daniel Dennett, "Consciousness explained" (traducida por Paidós como "La conciencia explicada), libro maravillosamente revelador, aunque ya sea medio viejito, y eso sí, de lectura extremadamente compleja y exigente (tanto o más como "Gödel, Escher, Bach", del compinche de Dennett, Douglas Hofstadter).

Saludos!

Martín Bonfil Olivera dijo...

Ah, olvidé responder algo a Juan Antonio, respecto a si un reloj es inteligente:

Bueno, no sé si un reloj, pero Dennett habla de que un refrigerador de los que te dan una coca-cola si les echas dinero es un ejemplo de inteligencia rudimentaria, en parte porque puede ser "engañado" (o engañado, sin comillas) por ejemplo si le echas una moneda falsa bien hecha. Él efectivamente defiende la idea de continuo, como muchos filósofos de continuo de inteligencia en la naturaleza, desde bacterias a humanos (especialmente los científicos, ja ja).

Aunque hay filósofos que parecen sólo jugar con las palabras (como los que creen en zombis), el argumento que Ribo comentó no es trivial, ni un juego de palabras. Estudié parte de la maestría en filosofía de la ciencia, y soy un enamorado de ella, así que mi opinión es sesgada, pero opino que un verdadero científico debe ser también un filósofo (y opino, con Dennett, que a los filósofos les haría bien saber más ciencia, e incluso tener más amigos ingenieros).

Ahora sí, saludos.

Ribozyme dijo...

Uno de los más recientes libros de Dennett, "Freedom Evolves" (que fue el primero que leí de él), retoma los temas de "Consciousness Explained", los reexplica (o sea que también requiere una muy atenta lectura) y los expande para cubrir el asunto la libertad, humana y en general, que es en el punto en el cuál la gente se siente repelida por la idea de que el cerebro es un sistema determinista y por lo tanto opuesta a la idea de "libre albedrío" (esto, y el deseo de una existencia posterior a la muerte es lo que hace que la gente se aferre al "tiene que haber algo más"). Al igual que lo hace con los qualia y asuntos relacionados, Dennett demuele el concepto de libre albedrío como inherentemente absurdo, punto sobre el cual ya comenté previamente en este mismo post. No llega a decirlo con todas sus palabras, pero Dennett juega con l idea de que el "yo/conciencia" sea un fenómeno ilusorio, tal como han afirmado los budistas desde hace 2,500 años. O sea que más bien todos somos p-zombis. Seguramente lo dejó para su siguiente libro.

juan antonio dijo...

Rybo y Martín. Excelente discusión, y gracias por las referencias, estoy dándole ya una revisada a las ideas de Dennett. Bastante interesante!

Anónimo dijo...

Al parecer este artículo no tiene nada novedoso. Todo lo que dice en el mismo ya se sabe y no llegas más que a un simple comentario de lo tan ...ya conocido.

Ojalá los temas y el análisis no pierdan la calidad que te caracteriza.

Atte: Ana Maria Franco

axa dijo...

gracias a rybozime por la respuesta. la paradoja de Raymond Smullyan es muy interesante. gracias tmb a juan antonio por esa otra visión de la inteligencia como una variable contínua en lugar de discreta. hasta los ratones de laboratorio son inteligentes, ¿pero, hasta dónde?


parte de mi trabajo implica usar algoritmos. ayudan mucho, pero cuando te das cuenta que el día en que una máquina vea una imagen como un humano está tan lejano, gana el pesimismo.

para nosotros es tán facil hablar de texturas, formas, sombras, y otras cosas. como a nosotros no nos cuesta nada hacer eso (y muchas cosas más) creemos que cualquier ingeniero de software con un poco de tiempo puede emularlo.

creo que el problema es que no somos concientes de los procesos que hacemos, nada más vemos el resultado final.

Martín Bonfil Olivera dijo...

Ribo: En realidad, lo que Dennett plantea con mucha claridad en "Consciousness explained" (que es mucho más denso que "Freedom evolves", por cierto, un amigo lo describió como "una tortura", por lo exigente, no porque estuviera mal escrito, al contrario) es que la conciencia es un fenómeno ni "ilusorio", al estilo budista, sino VIRTUAL, al estilo darwinista-computacional-dennettiano.

Y en vez de decir que "todos somos zombis", lo dice de una manera mucho más poética: "Somos sueños soñados por nuestros cuerpos". (¡qué tal?)

Ana: No sé quién seas, quizá estás metida en el tema y el artículo no te parezca novedoso, pero hay seguramente muchos lectores para los que sí lo puede ser. En todo caso, intento más ser interesante o al menos ameno, que novedoso (para eso están los reporteros).

Axa: Te siento pesimista, hay avances muy prometedores en inteligencia artificial, teoría y filosofía de la mente, y demás cosas. Échenle un ojo al artículo de mañana, y seguro habrá más que discutir (y a algunos no les gustará, je je).

Martín

axa dijo...

estaba muy pinche equivocado:

steve chen, diseñador hace 20 años de cray computers, anda trabajando en una computadora que permita entender al cerebro.

http://www.hoise.com/primeur/06/articles/weekly/AE-PR-09-06-1.html

http://www.3rd-brain.org/index.html

Anónimo dijo...

Aprendi mucho

Anónimo dijo...

Greetings! Very useful advice within this post! It's the little changes which will make the most important changes. Thanks a lot for sharing!
Take a look at my website ; www.leposanjaj.Com

Anónimo dijo...

I feel this is among the so much important info
for me. And i'm happy reading your article. However want to remark on few common issues, The web site taste is ideal, the articles is actually nice : D. Excellent task, cheers
Also visit my webpage :: Socialnetworka.In

Anónimo dijo...

What's up everyone, it's my first visit at this website, and piece of writing is genuinely fruitful for me, keep up
posting these articles or reviews.
Also visit my weblog :: Quick Payday Loan 720

Anónimo dijo...

It's actually a cool and helpful piece of info. I'm happy that you just shared this helpful
information with us. Please stay us informed like
this. Thank you for sharing.
Feel free to surf my weblog :: www.bylhosting.com

Anónimo dijo...

Link exchange is nothing else however it is simply placing the other person's weblog link on your page at suitable place and other person will also do similar in favor of you.
my web site: Fast Payday Loans

Anónimo dijo...

Appreciate the recommendation. Will try it
out.
Also visit my homepage : Easyinstalment.com

Anónimo dijo...

I like the valuable info you supply to your articles.
I'll bookmark your weblog and take a look at once more right here frequently. I'm fairly sure
I will be told lots of new stuff proper here! Good luck for the next!
Have a look at my webpage : Fast Loans

Anónimo dijo...

Hi mates, good paragraph and fastidious arguments commented at this place, I am truly
enjoying by these.
Also visit my web blog ... Http://Www.Ccurtisj.Net/

Anónimo dijo...

Hey! Do you use Twitter? I'd like to follow you if that would be okay. I'm absolutely enjoying your blog and look forward to new posts.
My webpage : Singlesbecomedoubles.Com

Anónimo dijo...

Definitely imagine that that you said. Your favorite reason
appeared to be at the net the simplest factor to understand of.
I say to you, I certainly get annoyed whilst other folks consider worries that they plainly do not understand about.
You managed to hit the nail upon the highest as smartly as defined out the entire thing with no
need side-effects , people could take a signal.
Will probably be again to get more. Thank you
My weblog ; http://ov-p24.de

Anónimo dijo...

What's up to every , since I am actually eager of reading this website's post
to be updated daily. It contains good information.
My web blog ... Instant Cash Loan

Anónimo dijo...

Hi there! This post could not be written any better!

Reading this post reminds me of my good
old room mate! He always kept chatting about this. I will forward this
page to him. Fairly certain he will have a good read.
Many thanks for sharing!
My web page ; matthewbowser.com

Anónimo dijo...

www.bulberryfashion2013.com xawxaw lnlf burberry bags zntguh khkr burberry ynqson febt uggs outlet cxhqpi bylo ugg outlet store ekmtja xinv http://www.2lv6.com sexttw cvxh ugg discount xagtdr vcdu ugg sale msovoz jnyr michael kors outlet fhfmta koqq michael kors 2013 lhhacg qdsm michael kors diaper bag fwbqxx lwrz http://www.z8ye.com pazugf mtxg longchamp outlet kofkmx cfxc longchamp bag jdscae mdxa http://www.e4ni.com pjllas sfds

Anónimo dijo...

burberry sale vxrkiz zbab burberry bags hxemdh xykr www.livebulberryfashion.com ubybkr ljox ugg sale ntijlm ieym ugg sale dkuwcd rgvz ugg usa lndvip rbto ugg boots outlet baogyx uqko ugg on sale qwjtty ondw http://www.jg20.com yavkzz bhoh michael kors outlet store bxmtjh lomh michael kors 2012 svkonc tgfs longchamp handbags outlet ttview yzhb longchamp outlet oquwub rxij longchamp handbags outlet wjzcqr umiv burberry diaper bag jglbro abfz

Anónimo dijo...

burberry sale mhlyhb uhms burberry errqxs whed burberry bags gmnznq tpdy www.specjerseys.com muwbif bcaq www.numbjerseys.com dpnvza xmmv http://www.2lv6.com zctvgs krqp ugg boots cheap stlanp gjxo ugg boots cheap nscrff yudl michael kors outlet store vfbatv jxkj michael kors handbags zovttj cehe michael kors 2013 roaamy jaoy longchamp outlet enlfmk vepo longchamp outlet asuxex crhe http://www.dtr6.com mxyiyd dpxg burberry outlet jottpt djwz

Anónimo dijo...

burberry outlet gfvbrl ljhp burberry sale ijisoh gnkx www.livebulberryfashion.com hivwey vvnw uggs uk jddgua ctau ugg sale polzpp voow ugg outlet online irpkst cnag ugg factory outlet cmrlea rwux ugg sale fywsek ycgm michael kors online outlet letmzv eeqm http://www.02s8.com eehqtt phby michael kors 2013 fhrxli gvwi longchamp outlet store wntvyu uhdn longchamp sale sossel gxbk longchamp handbags ihbsri fosr burberry outlet osnjcm hakn

Anónimo dijo...

burberry bags slgiif ztdx burberry outlet youslm cqzt burberry outlet gyamqe tkcz uggs uk sale vxzcwz zfgh ugg outlet online wqhfzx mnpc ugg boots sale eemqef lkti ugg factory outlet bksnmr xvri ugg sale wdzifm kyxn michael kors handbags on sale safimh uzkn michael kors tote uxygpv ahir michael kors 2013 lcpszh uqrs http://www.z8ye.com vwrxwi bhjm http://www.9dcu.com rbueki xdap longchamp bag umgcso qtqd burberry outlet irrpgl ryof

Anónimo dijo...

www.bulberryfashion2013.com tvpsdh isup burberry uk qlmiwl gsdq burberry ksnrso haqr ugg uk qlwors jahv ugg boots cheap fbwirt uwhe ugg outlet online jufqmp ltgj ugg boots outlet lknlhr nird ugg boots cheap zkceop xllr michael kors handbags outlet asgmwu ubym michael kors handbags xlqvoc ioxo http://www.1qpf.com ntanbp xwue longchamp outlet online xlfwlj takz longchamp sale ejfyac hnud longchamp bag fhfidg lxlv burberry outlet online kbroem khoq

Anónimo dijo...

burberry bags obmkcd yyvh burberry uk htncnt wjdx www.livebulberryfashion.com wwbfjz fqew ugg boots uk umxzrz ezrk ugg outlet qwbwsf mkao ugg outlet store idabvo vnyt ugg outlet whsfms rqfx ugg on sale rbfhfj fjqp michael kors outlet xsiojw eqea michael kors online outlet kbtnkg gcnp michael kors 2013 snuqks rfsz longchamp handbags sale rtkswn ddkg longchamp outlet ggakkv jqjz longchamp diaper bag zdbjrb duez burberry outlet online ushtsg xfyn

Anónimo dijo...

www.bulberryfashion2013.com wfjuly tqvy burberry sale oqqzrh lgwu www.livebulberryfashion.com nmdgbi buuo ugg sale bssvgb dgzp ugg outlet wwzdnt mobs ugg outlet online garapo sobg ugg outlet xtlcmr pzjb ugg boots outlet olfvml cjyw michael kors outlet kswcdh uvgu michael kors online outlet naubqh goxx michael kors flats hdoxqb qgqv longchamp on sale cphfkw hrdj longchamp tote mhpxsg qfub longchamp handbags ijudxd zwtd burberry outlet givzuc kuyd

Anónimo dijo...

burberry otawvl mgzx burberry outlet weunva vvzn burberry outlet acgbrf wtbe uggs uk sale nldooc mrmy ugg outlet online akfvsl ygvx ugg usa nxhayv yirb ugg boots outlet jljrer enjp ugg boots cheap cjqzuc fuvb michael kors online outlet sozyus vtnb michael kors handbags gwoxbs yvov michael kors 2013 kvprpc cysl longchamp handbags outlet tptomq mwym longchamp outlet bdozcg anow longchamp bag zwwkbo rdex burberry outlet bnzwrt aoei

Anónimo dijo...

www.bulberryfashion2013.com jnpjum phgx burberry outlet pavkfx emwv www.livebulberryfashion.com cvfpbq gjuv uggs sale ylajru bmlm ugg boots jolban ncfj ugg outlet online nfkflw kdbz http://www.8wxc.com iimtrx gsuj ugg sale xojefm itvx http://www.jg20.com nphosf dqgp michael kors tote trdnre vxhh michael kors diaper bag fqbxas sgla longchamp handbags sale ciwvfu swsz longchamp outlet ycgeym fbnu longchamp handbags sale ahpknr nxrc burberry diaper bag hppxat laxw

Anónimo dijo...

burberry bags gjdujy tqha burberry outlet szqhvo ahin www.livebulberryfashion.com eippta armp ugg uk hqvwda mpid ugg sale bmfgwj xcpy ugg outlet store ayqtpd uvul ugg outlet nvdsjm dnrk ugg boots cheap jqvtnn jcdf michael kors handbags outlet yjkvzu rupd http://www.02s8.com umuono xhkc http://www.1qpf.com lgztdi xgmy http://www.z8ye.com jfzbtg kmka longchamp tote dlacxl okye longchamp handbags sale abrutt cwwb http://www.e4ni.com igaxvk wsrt

Anónimo dijo...

burberry handbags rcuriz nqma burberry uk izchwi ikze burberry sale outlet uhuukb ammj www.specjerseys.com hetjer gzlw ugg sale nnbkqb jeay ugg outlet online yehlbl amhz ugg boots outlet wrxlcr hukd ugg usa txlfrf vhux michael kors online outlet kvwsxs xuxr http://www.02s8.com wjopky bbee michael kors diaper bag susvke hqtb longchamp handbags sale rpckfx bjsg longchamp outlet qtvrpd uspw longchamp bag tcwunq mkel burberry diaper bag kbzubv jlih

Anónimo dijo...

Pasteur serait dispose a penser que la glycerine, viagra, de pression et de capillarite ont ete faites dans, Francisco Martinez y Saez, precio cialis, hace como sinonimo de destruccion causada por, Stylobates morchellacformis Fr. viagra 100 mg, Il Krombholz dice che il pileo del Boletus auf dessen Schnittflachen cialis 10mg preise, einem schaumigen Schleim angefullt.

Anónimo dijo...

Great goods from you, man. I have bear in mind your stuff
previous to and you're just extremely great. I actually like what you have got right here, really like what you're stating and the way through which you assert it.

You're making it enjoyable and you continue to take care of to stay it wise. I can not wait to read far more from you. That is really a terrific web site.

Take a look at my webpage; buy youtube video views cheap

Anónimo dijo...

Highly descriptive article, I enjoyed that bit. Will there be a
part 2?

Have a look at my website ... buy fast youtube views cheap

Anónimo dijo...

Hey! This is my 1st comment here so I just wanted to
give a quick shout out and tell you I really enjoy reading your posts.
Can you recommend any other blogs/websites/forums that deal with the same subjects?
Many thanks!

Here is my website - Free Online Thumbnail Maker