Análisis de mamografías para afinar en la detección precoz del cáncer, reconocimiento facial, traducción de textos instantánea, bots conversacionales. Toda esta tecnología tiene detrás inteligencia artificial, cada vez más cotidiana, pero ¿hasta dónde llegarán los algoritmos? ¿Serán inteligentes? ¿Y conscientes?
Más bien no. Lo que es artificial está claro, pero no tanto lo que es la inteligencia ni la consciencia en el ser humano, detallan expertos, que ven alrededor de los augurios de la inteligencia artificial (IA) cierta exageración alimentada por el imaginario colectivo y por los intereses de determinadas tecnológicas.
Desde la digitalización, proliferación y revolución de los datos, la IA está cada vez más extendida, pero su presencia es más sutil que lo que nos enseña el cine o la literatura.
¿La ciencia ficción tiene la culpa?
“Uno de los mayores problemas que tiene la IA es la idea equivocada que ofrece la ciencia ficción”, señala José Manuel Molina López, de la Universidad Carlos III de Madrid (UC3M), quien recalca lo complicadísimo que es lograr por ejemplo que un robot mueva las manos.
Este profesor del departamento de Ciencias de la Computación explica que, si bien la inteligencia “es algo muy abstracto”, sí hay consenso en el sector sobre qué es la IA: algoritmos que sirven para resolver problemas de una manera muy parecida a como lo haría un humano.
La primera vez que se habló de IA fue en 1956 en la conferencia de Dartmouth (Estados Unidos) y lo hizo John McCarthy, un pionero de la informática que terminó recibiendo el Premio Turing. Desde entonces se ha avanzado mucho en el aprendizaje automático, los modelos de redes neuronales o el aprendizaje profundo.
Estas técnicas de IA existen desde los 70-80, detalla Molina, quien apunta que el salto real vino con la multiplicación de datos: “cuando nosotros empezamos, trabajábamos con 20 imágenes y ahora Google, por ejemplo, dispone de millones y encima etiquetadas por los usuarios”.
Y es que para que los sistemas afinen en sus funciones, como es el caso de Google Lens con el reconocimiento de imágenes del mundo real o de Siri de Apple como asistente personal, tienen que tener datos, cuantos más mejor. Los sistemas de IA se adaptan a la información que tienen.
Sentido común, razonamiento, pensamiento. Las máquinas escudriñan millones de datos, pero no razonan, no entienden el sentido común; cuando el sistema recita poemas de Gloria Fuertes “no sabe” que está generando textos de esta poeta. Esto podría entenderse como una limitación, pero ¿es realmente necesario? Molina cree que no.
“El paradigma de que una IA va a resolver los problemas como un humano se ha roto. Hemos encontrado una forma de resolverlos (...) en la que no hay lógica detrás, no hay sentido común, ni interpretación”.
¿Y qué pasa con LaMDA?
El pasado 11 de junio el ingeniero Blake Lemoine hizo pública una transcripción de una conversación que mantuvo con LaMDA, el sistema de inteligencia artificial de Google, y afirmó que este había alcanzado la consciencia; la compañía finalmente lo despidió.
Google sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia, y que cientos de sus investigadores e ingenieros han conversado con LaMDA llegando a una conclusión distinta a Lemoine.
“La consciencia humana sigue siendo un misterio”, asevera Álex Gómez-Marín, físico teórico y neurocientífico del Instituto de Neurociencias de Alicante: “no hay unanimidad en la definición de consciencia, hay tantas definiciones y teorías como cepillos de dientes, cada uno tiene el suyo y nadie quiere usar el del otro”.
La consciencia es la experiencia subjetiva que todos tenemos y el gran reto para conocerla científicamente es cómo medirla en el laboratorio, subraya el investigador, para quien esta va más allá de la neurociencia; por ejemplo, las humanidades también la abordan.
Además, su estudio es un campo muy joven. Las teorías sostienen que distintas zonas del cerebro juegan un papel importante para sostenerla: hay algunas que dicen que tiene que ver con la parte frontal mientras que otras hablan de la parte de atrás del cerebro.
“Si bien se ha avanzado mucho en los últimos 30 años, el estudio de la consciencia aún está en su adolescencia”.
Entonces ¿por qué hay quien habla de una IA consciente? Gómez-Marín ve mucha profecía en esto y “mucho humo caro”.
Una cosa -argumenta- es que la tecnología vaya a avanzar exponencialmente y otra distinta decir que las máquinas se harán humanas; “a día de hoy solo imitan. Para un futuro tendería a pensar que las máquinas no tendrán consciencia, cada vez nos imitarán mejor, pero nunca se convertirán en el original”.
¿El robot me habla a mí?
Precisamente es en esas similitudes donde se percibe “la humanidad” de las máquinas.
En un reciente estudio publicado en Technology, Mind and Behavior, el equipo liderado por Agnieszka Wykowska, investigadora del Instituto Italiano de Tecnología, constató que cuando los robots parecen interactuar con las personas y muestran emociones parecidas, el observador puede percibirlos como capaces de “pensar” o actuar según sus propias creencias y deseos y no sus algoritmos y millones de datos y patrones.
Después de varios experimentos con 119 participantes y el robot iCub, el equipo demostró que la mera exposición a un robot de aspecto humano no es suficiente para que la gente crea que es capaz de tener pensamientos y emociones; es el comportamiento similar al humano lo que podría ser crucial para ser percibido como un agente intencional.
No obstante, la relación entre la forma antropomórfica, la actuación similar a la humana y la tendencia a atribuirles un pensamiento independiente y comportamiento intencionado está aún por entender, según Wykowska.