Mostrando las entradas con la etiqueta Mente. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Mente. Mostrar todas las entradas

domingo, 15 de julio de 2018

Democracia y sesgos cognitivos

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 15 de julio de 2018

El primero de julio pasó, pero el clima de polarización en los espacios de discusión pública sobre política no parece amainar. Y seguramente continuará así más allá de la toma de posesión del nuevo gobierno el primero de diciembre, y al menos durante los primeros años del sexenio de “la cuarta transformación”.

Parte del encono viene de las percepciones de quienes pertenecen a cada bando: los que apoyan al triunfador electoral, Andrés Manuel López Obrador, y quienes no concuerdan con su discurso. Sobre todo de los más radicales en cada facción.

Durante las elecciones, los lopezobradoristas presentaban a su candidato como la única opción posible, que traería automáticamente la solución a todos los graves problemas nacionales y además transformaría el viejo régimen en una nueva república amorosa de justicia y prosperidad para todos. Los antilopezobradoristas, por su parte, advertían sobre la amenaza de un populismo demagógico y autoritario que convertiría al país en una “Venezuela del norte”, dando al traste con las políticas de estabilidad macroeconómica de los últimos sexenios y que impondrían la dictadura de una mayoría incondicional ante los designios del líder carismático.

Ambas visiones, por supuesto, son exageraciones llenas de inexactitudes, medias verdades, sobresimplificaciones y francas mentiras. Pero ambas tienen también rastros de verdad. Por desgracia, ante el triunfo de López Obrador, muchos de sus partidarios más extremos han adoptado un tono de triunfalismo con tintes de intolerancia ante quienes se oponen a él, mientras que éstos a su vez se niegan a reconocer cualquier virtud en las propuestas que el gobierno entrante está planteando, y refuerzan sus vaticinios de catástrofe nacional.

Dado que, por desgracia, no nos vamos a poner de acuerdo, convendría al menos tratar de recordar que en una democracia funcional –que es lo que, por sobre todas las cosas, queremos mantener y, si es posible, mejorar en nuestro país– uno de los principales requisitos es aprender a reconocer, tolerar, respetar y defender el derecho de los demás ciudadanos a discrepar de nuestras opiniones. Como reza la frase falsamente atribuida a Voltaire, y que sintetiza uno de los fundamentos de la democracia, “Podré no estar de acuerdo con lo que dices, pero defenderé con mi vida tu derecho a decirlo”.

Al respecto, vale la pena recordar que la mente humana está sujeta a diversos sesgos cognitivos que hacen que, aunque creamos percibir la realidad de forma confiable y objetiva, y basar nuestros juicios en “los hechos desnudos”, en realidad tendemos a interpretar las cosas de forma que coincidan con nuestras creencias, prejuicios e ideología. A continuación, tres importantes sesgos cognitivos:

1) El sesgo de confirmación: inevitablemente, tendemos a conceder más atención e importancia a los hechos que coinciden con lo que esperábamos, y a ignorar o desdeñar los que contradicen nuestras expectativas. Así, quienes apoyan al cuasi-presidente electo destacan sus aciertos e ignoran, niegan o justifican sus posibles fallas, mientras que sus detractores niegan cualquier posible acierto y magnifican cualquier error o incongruencia en su discurso.

El efecto "tiro por la culata"
(Crédito: Pictoline)
2) El efecto de “tiro por la culata”: cuando tenemos convicciones muy arraigadas, tendemos a defenderlas incluso en presencia de información y evidencia confiable que las contradice. Probablemente para mantener nuestra estabilidad psíquica, pues hemos invertido emocionalmente en ellas, e incluso pueden formar parte de nuestra identidad. Es por eso que las discusiones sobre política, sobre todo en tiempos de polarización como los actuales, suelen no llevar a ningún lado.

3) El efecto Dunning-Kruger: es indudable que la inteligencia de los individuos varía. Pero curiosamente, las personas menos inteligentes suelen creerse mucho más inteligentes de lo que son en realidad, precisamente porque carecen de la inteligencia suficiente para darse cuenta de sus limitaciones. Por el contrario, los más inteligentes subestiman su propia inteligencia, creyendo que todos como ellos. Gracias a esto, es frecuente que personas intelectualmente limitadas, pero que argumentan de manera más vehemente, radical e intolerante, logren dominar las discusiones, mientras que quienes entienden mejor las cosas prefieran quedarse callados.

Quizá, si tomamos en cuenta estas debilidades de la mente humana a las que todos estamos expuestos, podríamos generar un clima de discusión política menos encarnizado y más productivo, donde el objetivo fuera no ganarle al otro, sino avanzar de forma colectiva para el bien común.

Claro: ¡luego tendríamos que convencer a los políticos de que hicieran lo mismo!

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx


domingo, 23 de abril de 2017

Prejuicios y computadoras

Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 23 de abril de 2017

Todos tenemos prejuicios. Algunos los reconocemos abiertamente; otros los negamos, o incluso no somos conscientes de tenerlos. Como sociedad, queremos combatirlos; como individuos, somos buenos para detectar y criticar los prejuicios de los demás, pero nos resistimos a reconocer los que tenemos, o somos incapaces de verlos.

¿De dónde surgen los prejuicios? En algunos casos, como los de gente que abiertamente reconocer ser racista o machista, parecieran ser producto de elecciones conscientes y racionales. Pero también es muy probable, sobre todo en los prejuicios inconscientes, que en ellos influyan la educación, la cultura y el entorno social, además de las experiencias personales.

Una de las ideas que forman parte de la cultura del combate a los prejuicios y la discriminación es que el lenguaje puede ser una herramienta para fomentar, o bien combatir, los prejuicios. De ahí las campañas, por ejemplo, de uso de lenguaje inclusivo para luchar contra los prejuicios de género.

Pero, ¿cómo podríamos saber de manera más objetiva si realmente existe una relación directa entre el lenguaje que usa un grupo social y los prejuicios que pueda tener? Uno pensaría que sólo las ciencias sociales podrían responder a esta pregunta, pero sorprendentemente hay desarrollos recientes en las ciencias de la computación, y más específicamente en el área de la inteligencia artificial, que están proporcionando herramientas para contestarla, más allá de razonamientos de sentido común y ejemplos anecdóticos.

En 1998 se introdujo un método denominado IAT (Test de Asociación Implícita) para detectar las relaciones que una persona percibe entre ciertas palabras y conceptos. Consiste en presentar dos parejas de palabras en una computadora y medir el tiempo (en milisegundos) que el sujeto tarda en oprimir teclas para indicar si halla relación entre ellas. Así se pudo demostrar con claridad, por ejemplo, que los individuos tienden más a asociar nombres masculinos con ocupaciones profesionales y nombres femeninos con ocupaciones del hogar (aun cuando, al preguntársele, los sujetos nieguen tener prejuicios de género).

Porcentaje de mujeres
en distintas ocupaciones
En el número del 14 de abril de la revista Science un grupo de investigadores de la Universidad de Princeton, encabezado por Aylin Caliskan, publicó un artículo donde muestran que una computadora, analizando qué tan frecuentemente aparecen unas palabras en relación con otras en un cuerpo de textos, puede hallar exactamente las mismas correlaciones reveladoras de prejuicios que la prueba IAT.

Los especialistas en tecnologías de la información utilizaron algoritmos ya existentes que representan cada palabra, tomada de un vocabulario de 2.2 millones de vocablos extraídos de internet, como un vector de 300 “dimensiones semánticas” (el cual representa matemáticamente la relación entre cada palabra y otras palabras junto a las que aparece frecuentemente).

Caliskan y colaboradores generaron otro algoritmo, que denominaron WEAT (test de asociación por inmersión –embedding– de palabras) para analizar matemáticamente la correlación entre los vectores que representan a cada palabra (estudiando, de manera completamente matemática y abstracta, la correlación entre los cosenos de los vectores). Dicha correlación equivalente precisamente a los tiempos de reacción en la prueba IAT. Y lograron así “extraer” de la base de datos no sólo información, sino significado.

En particular, replicaron con exactitud los hallazgos, obtenidos previamente en estudios con el método IAT en sujetos humanos, de que el lenguaje lleva implícitos ciertos juicios. Algunos son éticamente neutros (“insecto” y “arma” se correlacionan con “desagradable”, mientras que “flor” e “instrumento musical” se correlacionan con “agradable”). Otros, en cambio, reflejan estereotipos indeseables (los nombres propios comunes en la población negra se correlacionan mucho más que los nombres comunes en la población blanca con el concepto de “campesino”; los nombres masculinos se asocian más con actividades profesionales y científicas, mientras que los femeninos se asocian más con actividades del hogar y artísticas). Finalmente, otras asociaciones simplemente reflejan hechos del mundo (por ejemplo, los nombres masculinos y femeninos se correlacionan con distintas profesiones de una manera que refleja el porcentaje real de hombres y mujeres que trabajan en dichas profesiones).

Lo asombroso es que el algoritmo puramente matemático de Caliskan y su grupo, partiendo simplemente de una base de datos de millones de palabras, logra saber que los grupos humanos tienen esos juicios (y prejuicios) sin que sea necesario estudiar a personas. La inteligencia artificial detrás del algoritmo, sin tener “experiencia directa del mundo” y sin tener una comprensión consciente del lenguaje, sabe las mismas cosas, incluyendo los prejuicios, que presentamos los seres humanos como producto de nuestra educación, experiencias y cultura.

Algoritmos como el de Caliskan pueden ser herramientas utilísimas en muchas áreas. Podría permitir estudiar, por ejemplo, los prejuicios y asociaciones de grupos humanos del pasado, siempre y cuando hayan dejado suficientes textos para analizar: una mina de oro para historiadores y para sociólogos y psicólogos del pasado. Pero también permitirá estudiar y aclarar preguntas como la de si los prejuicios incrustados en el lenguaje son causa o efecto de los prejuicios culturales de una sociedad. ¿Causan las palabras los comportamientos discriminatorios, o éstos surgen primero y se reflejan luego en el lenguaje?

El método también se podrá usar para estudiar los sesgos y prejuicios inherentes en los medios electrónicos y escritos dirigidos a distintas poblaciones, y entender mejor cómo influyen en fenómenos de polarización política, racial o ideológica.

Finalmente, y conforme las inteligencias artificiales se vayan desarrollando, métodos como el de Caliskan permitirán detectar y combatir –eliminando las correlaciones no deseables– los sesgos que pudieran contaminar sus juicios. ¡Lo último que queremos son futuras máquinas inteligentes que reflejen nuestros propios prejuicios!

Quizá, con el conocimiento generado gracias a métodos como éstos, un día podamos entender mejor las raíces de nuestros prejuicios, sobre todo los inconscientes, y comprendamos en qué grado somos o no culpables de tenerlos (o si son simplemente producto de la cultura en que vivimos). Y quizá sepamos mejor cómo combatirlos y evitar que se perpetúen.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 19 de febrero de 2017

Pseudología fantástica


Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 12 de febrero de 2017

Otro título para esta columna podría haber sido “Mentirosos patológicos”, o “compulsivos”. Pseudología fantástica es el nombre (originalmente en latín) usado para describir el desorden psiquiátrico también conocido como “mitomanía”.

Si usted jamás había conocido alguien que lo padeciera, felicidades. Estas personas, que se caracterizan por su enorme capacidad para estar constantemente generando mentiras, que mantienen con una enorme convicción y serenidad, logran engañar, a veces durante mucho tiempo, a las personas que los rodean, y les pueden llegar a causar grandes daños, tanto psicológicos y emocionales como laborales, monetarios y sociales.

Desgraciadamente, hoy usted conoce ya a un gran mentiroso patológico, que además está rodeado de un equipo de otros mitómanos que lo apoyan. Y está afectando la vida de miles de personas en todo el mundo. No necesito decir su nombre.

La mitomanía no es una enfermedad bien reconocida por la comunidad psiquiátrica. Aunque aparecía en la tercera edición del Manual diagnóstico y estadístico de los trastornos mentales (DSM-III), editado por la Asociación Estadounidense de Psiquiatría, y que constituye una de las referencias clave para definir y diagnosticar alteraciones psiquiátricas, no fue incluido en la cuarta edición, ni en la actual, la quinta. No obstante, desde que fue descrita en 1891 por el psiquiatra alemán Anton Delbrück, ha sido aceptada como una entidad clínica real por numerosos especialistas que, a falta de criterios diagnósticos estandarizados, lo determinan con base en los patrones de comportamiento del individuo, mediante la observación, o a través de reportes de sus seres queridos.

He aquí algunas de las características que presentan los pacientes con pseudología fantástica (tomadas del blog especializado Compulsive Lying Disorder):

–No pueden controlar sus mentiras y no sienten remordimiento, sin importar cómo las mentiras los afecten a sí mismos o a otros.

–La falta de remordimiento es debida a que el individuo se involucra tanto en la mentira que está diciendo que comienza a creerla él mismo.

–Si se le confronta con sus mentiras, insistirá en que está diciendo la verdad.

–Con el paso del tiempo, el individuo se vuelve tan hábil para decir mentiras que es muy difícil para los demás determinar si está diciendo la verdad.

–Sus mentiras no son totalmente improbables; contienen un elemento de verdad (son plausibles, lo que diferencia a estos individuos de quienes padecen psicosis o alucinaciones).

–La tendencia a mentir es crónica, de larga duración.

–Se puede determinar clínicamente que el motivo de las mentiras es interno, no externo; es un rasgo de la personalidad del mentiroso, no un producto de las circunstancias del momento.

–Las mentiras tienden a presentar al mentiroso de manera favorable (por ejemplo, como héroe o víctima).

Aunque no se conocen las causas de este trastorno, hay evidencia de que podría estar relacionado con desbalances neurológicos del lóbulo frontal del cerebro, o con alteraciones en el tálamo. Se sabe, eso sí, que tienden a presentarlo individuos con baja autoestima que buscan, conscientemente o no, atención, popularidad y amor, o que buscan encubrir un fracaso.

¿Le suena conocido?

Quizá el fenómeno de la mitomanía tenga que ver con el hecho de que el cerebro humano es, esencialmente, una máquina de buscar sentido a las cosas. Cuando no entendemos algo, tenemos una enorme tendencia a inventarle una explicación. Y a creérnosla. Esto ocurre incluso en casos clínicos donde un paciente con alguna alteración psiquiátrica, por ejemplo de la memoria, fabula explicaciones incoherentes para los demás, pero que le permiten a él explicar, por ejemplo, por qué salió de su casa sin ponerse los pantalones (cuando en realidad olvidó ponérselos). Un caso más extremo es el de los “miembros fantasma”, que presentan algunas personas que han sufrido una amputación. Una persona que perdió un brazo, por ejemplo, puede llegar a sufrir comezón o dolor en dicha extremidad, o sentir que se mueve o que está torcida en una postura incómoda. El doctor Vilayanur Ramachandran propone que dicho fenómeno podría deberse a que el cerebro trata de interpretar los estímulos que recibe del muñón dentro de un “modelo” cerebral que incluye el brazo amputado, y genera así una “mentira” que, para la percepción del paciente, para su propio cerebro, se siente real.

Tal vez, para los mentirosos patológicos, sus mentiras sean la manera que tiene su cerebro de adaptar la información que reciben del exterior para que no contradiga su modelo interno de la realidad, ni entre en conflicto con su autoestima y su personalidad. Lo cierto es que, independientemente de las causas, el daño que pueden llegar a causar los mitómanos, cuando llegan a ocupar posiciones de poder que afectan a otras personas, puede ser terrible.

Por desgracia, varios miembros del equipo presidencial de Donald Trump, incluyendo a su ex-vocera y hoy consejera Kellyanne Conway, sus asesores Steve Bannon y Stephen Miller (cada uno más terrorífico que el otro) y su vocero Sean Spicer, parecen estar afectados por este inquietante trastorno. Ojalá pronto más gente se dé cuenta de que el presidente de los Estados Unidos, y muchos de sus principales colaboradores, son en realidad pacientes psiquiátricos que requieren atención urgente.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aquí!

domingo, 23 de octubre de 2016

Cerebro y conciencia

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 23 de octubre de 2016

A la memoria de Luis González de Alba,
maestro divulgador de la ciencia

A Luis González de Alba lo apasionaba la ciencia, pero muy especialmente la física. Durante décadas escribió artículos y libros sobre los temas que hallaba fascinantes: relatividad, física cuántica, cosmología.

Y tenía el talento de lograr que nos fascinaran también a sus lectores. Su delicioso volumen El burro de Sancho y el gato de Schrödinger (Paidós, 2000, republicado por Cal y Arena en 2010 con el menos atractivo título de Maravillas y misterios de la física cuántica) es una clara y muy recomendable muestra.

Otro tema que también le encantaba era el estudio del cerebro humano, y en particular el llamado “problema fuerte de la conciencia”: explicar cómo es que ese kilo y medio de sesos que tenemos dentro del cráneo logra no sólo dar origen a la mente –es decir, a los procesos cognitivos que nos permiten percibir el mundo que nos rodea, interpretarlo y darle sentido para tomar decisiones que nos ayuden a sobrevivir en él–, sino también al sentido subjetivo del yo; a la conciencia. Si la mente es aquello con lo que pensamos, la conciencia es aquello con lo que nos damos cuenta de que pensamos.

Las respuestas al problema de la conciencia tienen una larga historia. Una de las más antiguas y simples es el dualismo, que propone que el yo es en realidad un espíritu inmaterial, un “alma”, que anima al cuerpo al habitarlo. René Descartes, en el siglo XVII, adoptó tal postura y postuló que el sitio a través del cual alma y cuerpo se comunicaban era la glándula pineal (cuya función, hoy sabemos, es secretar la hormona melatonina, que regula los ciclos circadianos que controlan nuestros ritmos de sueño y vigilia).

Sin embargo, la respuesta dualista al problema de la conciencia no resulta satisfactoria. Primero, porque es una explicación sobrenatural que no puede ser puesta a prueba. Segundo, porque realmente no explica nada (¿cómo funciona, de qué está hecho, cómo interactúa ese espíritu con la materia que forma al cuerpo?). Y en tercer lugar, porque la influencia de sustancias químicas como las drogas y el alcohol, que son materia, en el funcionamiento de la conciencia, y el efecto de enfermedades como el mal de Alzheimer y de alteraciones cerebrales diversas, que llegan a destruir o alterar severamente el yo, son evidencia de que sin cerebro no hay conciencia: el “alma” es producto del cerebro (el neurólogo Oliver Sacks, en su maravilloso libro El hombre que confundió a su mujer con un sombrero, de 1985, proporciona abundantes casos que lo muestran claramente).

El reto es, entonces, explicar de forma natural cómo nuestra sensación de individualidad, nuestro yo, que es lo que nos permite darnos cuenta, con Descartes, de que “pienso, luego existo”, puede surgir del funcionamiento de ese conjunto de 86 mil millones de neuronas conectadas mediante 5 mil ¡billones! de sinapsis. La respuesta no puede ser de un materialismo burdo: decir, por ejemplo, que la mente es sólo átomos (como llegara a afirmar Francis Crick en su libro The astonishing hypothesis (traducido al español como La búsqueda científica del alma, Debate, 1994).

Y ocurre que las respuestas más actuales vienen esencialmente de dos bandos. Uno es el de los físicos, que piensan que debe haber algún tipo de fenómeno desconocido subyacente al funcionamiento cerebral y que explique cómo surge ese fenómeno único que es la conciencia humana. Su principal representante es el famoso físico y matemático inglés Roger Penrose, quien propone en su libro Las sombras de la mente (Crítica, 1992), que la proteína tubulina, que forma los microtúbulos que dan forma a las neuronas, puede presentar transiciones cuánticas que darían origen a la conciencia. Según Penrose, la materia daría origen a la mente y al yo a través de procesos cuánticos “no computables”, es decir, imposibles de reproducir en una computadora, que le permitirían conectar con el mundo platónico de las ideas (lo cual explicaría las asombrosas habilidades de los genios matemáticos que logran captar verdades matemáticas de un solo vistazo).

Los tres mundos propuestos
 por Roger Penrose, conectados
a través de fenómenos cuánticos
Los físicos quieren así encontrar una explicación física (aunque, al menos en la versión de Penrose, también en parte metafísica) para la conciencia. El otro bando, predeciblemente, parte de la biología (biólogos, en particular neurobiólogos, junto con neurofilósofos). Y, también predeciblemente, su explicación es de tipo darwiniano: la mente debe ser producto de un proceso de evolución por selección natural. Quizá quien haya producido el intento más detallado y completo de cómo podría ser una explicación así sea el filósofo estadounidense Daniel Dennett, quien a lo largo de décadas ha desarrollado un modelo (que expuso en su libro La conciencia explicada, Paidós, 1995) que postula que el hardware cerebral es la base material sobre la que se ejecutan múltiples procesos mentales, en numerosísimos niveles, que dan como resultado esa sensación subjetiva de “ser” que llamamos conciencia. Para Dennett el yo sería, entonces, un fenómeno virtual no muy distinto de las realidades virtuales con las que interactuamos cada vez con más frecuencia gracias a la tecnología digital. Sólo que mucho, mucho más complejo. Y, por cierto, nada impediría que, al menos en teoría, tal proceso pudiera ser reproducido en una computadora lo suficientemente avanzada: según Dennett, algún día podríamos tener “conciencias artificiales”.

A González de Alba, con su gusto por la física, la explicación dennetiana le parecía poco convincente y quizá aburrida; le seducía mucho más la propuesta de Penrose, que es más impresionante y deslumbrante… pero, en mi opinión y la de muchos, innecesaria. ¿Para qué invocar misteriosos fenómenos cuánticos y mundos platónicos para algo que puede explicarse con evolución y neurología?

Ambas propuestas son buena ciencia, y sólo la investigación continuada irá discriminando cuál vía de explicación es la mejor. Ambas valen la pena de ser conocidas. Lo importante, y eso es lo que lograba Luis, y lo que seguiremos intentando en este espacio, es compartir la visión del mundo que nos ofrece la ciencia, y la intensa fascinación que nos puede producir.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 3 de agosto de 2016

Cerebro, estadística y error

Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 3 de agosto de 2016
Durante siglos, el cerebro fue uno de los mayores enigmas para la ciencia. Se sabe que en él reside aquello que nos hace humanos: nuestra actividad mental, nuestra memoria, nuestra conciencia. (Y sí, también de nuestros sentimientos, por más que persista la imagen del corazón como su sede.)

Más allá de investigaciones en animales y cadáveres, el estudio de la función del cerebro humano vivo comenzó a ser posible en el siglo 19, gracias a los análisis de personas con diversas lesiones cerebrales o con padecimientos como la epilepsia, y más tarde mediante la estimulación eléctrica de distintas áreas cerebrales de pacientes vivos. Se pudo así ir correlacionando ciertas funciones con dichas áreas del cerebro. Estos estudios continuaron durante el siglo 20, y más tarde la llegada del electroencefalógrafo proporcionó una manera relativamente burda de estudiar la actividad eléctrica del cerebro vivo.

Pero fue hasta el desarrollo de las técnicas de visualización (o “imagenología”) funcional del cerebro que se pudo comenzar realmente a profundizar en la función de este órgano, considerado, con sus 100 mil millones de neuronas conectadas entre sí mediante más de 100 billones de sinapsis, la estructura más compleja del universo.

Quizá la más popular de estas nuevas técnicas es la conocida como visualización por resonancia magnética funcional (fMRI), que logra medir la cantidad de flujo sanguíneo en diversas áreas del cerebro, la cual indica una mayor actividad nerviosa, y la presenta de manera visual en tres dimensiones y en tiempo real. Esto se logra gracias a los cambios en las propiedades magnéticas de la hemoglobina oxigenada y desoxigenada contenida en los glóbulos rojos (eritrocitos) de la sangre, cambios que son detectados mediante campos magnéticos y analizados de manera instantánea con avanzadas computadoras.

La fMRI divide el cerebro en cubitos de hasta 1 mm llamados “vóxels” (el equivalente tridimensional de los pixeles) y puede detectar cambios en la escala de un segundo.

Gracias a ella, a lo largo de los últimos 15 años se han realizado un estimado de 40 mil estudios publicados en revistas científicas que analizan la correlación de la actividad cerebral con funciones como mover una mano, observar una imagen, tocar el violín, memorizar un dato, realizar una operación aritmética, reconocer un rostro e incluso experimentar una emoción. Se sigue debatiendo qué tan válido es inferir que porque se ve la activación de una región cerebral se está “observando” un fenómeno mental; hay quien afirma que ésta es una exageración equivalente a decir que con observar qué microcircuitos se activan en un microchip se estaría entendiendo, por ejemplo, por qué un juego de computadora presenta cierto comportamiento anormal (o bug).

Pero ahora todo esto podría entrar en crisis. En julio pasado se publicó en la revista de la Academia Nacional de Ciencias de los Estados Unidos (PNAS) un estudio que cuestiona la manera en que el software comercial incluido en los equipos de fMRI procesa estadísticamente los datos obtenidos para interpretarlos visualmente.

Y es que, como ocurre muy frecuentemente en ciencia, los datos no se observan directamente ni son objetivos, sino que se construyen mediante análisis estadísticos. Y las decisiones que se tomen a la hora de analizar los datos pueden alterar el resultado. En particular, los autores del estudio, encabezados por el neurobiólogo sueco Anders Eklund, de la Universidad de Linköping, afirman que unos 3 mil 500 artículos podrían contener errores estadísticos graves que invalidarían sus conclusiones.

El escándalo ha sido mayúsculo, aunque probablemente un poco excesivo. Pero obligará a revisar y mejorar las técnicas estadísticas y la manera como se interpretan los estudios de fMRI. Lo cual, tomando en cuenta la tendencia a exagerar los resultados de este tipo de estudios, y a reducir la actividad mental a la simple activación de ciertas áreas cerebrales, no le vendrá nada mal a las neurociencias.

En ciencia, cuando se trabaja bien, siempre se aprende; hasta cuando se descubren errores.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

miércoles, 30 de diciembre de 2015

Dolor en año nuevo

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de diciembre de 2015

Navidad y año nuevo son dos épocas especialmente propicias para el dolor y la depresión. Probablemente porque son tiempos en que la soledad, la ausencia de seres queridos y otras experiencias penosas tienden a estar más presentes en nuestra mente que de costumbre.

El dolor, tanto físico como emocional, es una de las experiencias más difíciles de definir. Y también de medir, lo que ha limitado considerablemente su estudio científico. De hecho, el dolor es uno de los ejemplos clásicos de qualia: experiencias subjetivas conscientes, que son intrínsecamente personales y por lo tanto inefables (imposibles de describir) e incomunicables. Otros ejemplos clásicos de qualia son las experiencias de “qué se siente” percibir el color rojo o el sabor del café. Uno no puede describirle a una persona ciega, por ejemplo, qué se siente ver una manzana roja. Y alguien con migraña no puede hacer que quien nunca la ha padecido sepa qué se siente tenerla.

Una discusión científico-filosófica que ha durado décadas es la de si los qualia son entidades reales, o si pueden describirse fisiológicamente al detallar exactamente qué nervios y qué áreas del cerebro se activan al sentir, por ejemplo, el dolor de una aguja pinchando la piel. Pero para eso se requeriría primero poder medir objetivamente dicho dolor. ¿Cómo?

Ha habido numerosos intentos por lograrlo, con “dolorímetros” y “escalas de dolor” de distintos tipos inventados al menos desde 1940, que usan estímulos como calor, presión u objetos punzantes, y que tradicionalmente usaban la valoración subjetiva de los pacientes (qué tanto decían que les dolía) para estimar la intensidad del dolor producido. Por desgracia, estos métodos son tan variables y poco estandarizados que no han sido muy útiles para obtener una medida objetiva y precisa del dolor.

Y ¿por qué querríamos medir el dolor de manera objetiva? En primer lugar por lo mismo que se hacen muchos estudios científicos: por curiosidad, para tratar de entender mejor cómo funciona el mundo. Pero también hay abundantes casos en que saber si una persona siente dolor y la intensidad de éste sería muy útil. Por ejemplo, con pacientes que no pueden comunicarse, niños demasiado pequeños, personas semi-inconscientes o con deficiencias cognitivas. (Incluso, comenzando a especular, para desenmascarar a timadores o hipocondriacos que dicen sufrir dolor sin sentirlo… ¡y ni hablemos de los jugadores de futbol que se tiran al suelo gritando!)

El problema es que, si el dolor es un quale (singular de qualia), no debería ser posible medirlo fisiológicamente. En cambio, si al detectar los cambios precisos que tienen lugar en el cerebro se pudiera saber, e incluso predecir, cuándo una persona está sufriendo dolor (por ejemplo), incluso si el sujeto no lo expresa, ello significaría que los qualia, tal como los han entendido los filósofos, no existen realmente como algo separado, “mas allá” del funcionamiento cerebral.

Un artículo publicado en abril de 2013 en el New England Journal of Medicine por un equipo de neurólogos encabezado por Ethan Kross, de la Universidad de Michigan, en Estados Unidos, llamó mucho la atención al presentar un estudio en que se logró, mediante métodos de visualización de la actividad cerebral (resonancia magnética funcional o fMRI, que detecta qué áreas específicas del cerebro presentan mayor flujo de sangre, y por tanto están más activas), establecer una firma neurológica (un patrón específico de actividad de distintas regiones del cerebro) que les permitió identificar precisamente cuándo un paciente siente dolor.

El estudio empleó a 114 voluntarios sanos de ambos sexos, y los dividió en cuatro grupos, a los que se les realizaron diversos estudios. En un primer experimento, les aplicaron calor en la piel del antebrazo izquierdo con intensidades que iban de lo inocuo a lo doloroso, mientras observaban por fMRI qué áreas cerebrales se activaban. Con base en esos datos, derivaron mediante un algoritmo “inteligente” de computadora (es decir, que es capaz de ir aprendiendo, al comparar datos conocidos con sus resultados, a predecir el resultado de nuevos datos), la “huella digital cerebral” del dolor.

A continuación, en un segundo experimento, aplicaron calor con diversas intensidades a un grupo distinto de voluntarios, y lograron predecir con un 95% de éxito, sólo con base en qué áreas cerebrales se activaron, si los pacientes sentían o no dolor. Es éste el logro que hace interesante al estudio. Se demostró que se puede saber, mediante este método, si un paciente siente dolor, incluso si es incapaz de expresarlo.

Por supuesto, se trata sólo de un estudio inicial; habrá que confirmarlo y ver si los resultados se pueden generalizar a dolores en distintas partes del cuerpo, o de distintos tipos (cutáneo o en órganos internos, por ejemplo), o con diversas causas clínicas. Probablemente, comentan los autores, para aplicarlo en hospitales y otros sitios habrá que generar varias “firmas neurológicas” distintas.

Pero no contentos con eso, los investigadores hicieron otros dos experimentos para investigar otros aspectos de la experiencia dolorosa. En el tercero utilizaron pacientes que habían tenido una ruptura amorosa reciente y aún dolorosa, y aparte del estímulo térmico midieron su respuesta cerebral al “dolor social” mostrándoles una foto de sus ex-parejas (y también la de un amigo cercano, como control). Detectaron que, aunque se activaban áreas cerebrales similares, el patrón de activación era claramente distinto respecto al del dolor físico.

Finalmente, en un último grupo, inyectaron un analgésico potente a los pacientes antes de aplicar el estímulo térmico, y detectaron que, además de disminuir la sensación subjetiva de dolor, la activación de las áreas cerebrales asociadas disminuía también en un 53%. De modo que el método podría también servir para saber si un tratamiento contra el dolor está realmente funcionando.

Como se ve, el avance científico parece, en este caso, estar dejando atrás la noción filosófica de los qualia. Aunque habrá quien replique que lo que se observa es sólo el “correlato” fisiológico de la sensación subjetiva del dolor. De cualquier modo, si el método funciona y ayuda a dar mejor tratamiento a los pacientes que sufren, ¿qué importa la diferencia?

Le deseo que disfrute, no sufra, con el año nuevo.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!