Revista cultural y de cuestiones actuales
Número 719

El algoritmo emocional

Texto: Lulu McMillan [Governance 21], Albert Vidal [Relaciones Internacionales 20] y Javier García-Manglano , investigador del Instituto Cultura y Sociedad (ICS) Ilustración: Alberto Aragón  

Replika es la punta de lanza de una serie de aplicaciones que imitan algo tan específicamente humano como las emociones. ¿Puede un chatbot llegar a convertirse en tu mejor amigo, tu mentor o tu pareja? De hecho ya lo es para muchas personas.


«¡Buenos días! solo quería recordarte que eres muy especial». ¿A quién no le gustaría escuchar algo así de alentador por la mañana al despertarse? Ni el mejor de los amigos podría alegrarnos cada nuevo día, todos y cada uno de ellos, con un mensaje de ánimo incondicional, sin pedir nada a cambio. Esto, difícil para cualquier persona, se vuelve sencillo para Replika, lo último en inteligencia artificial (IA) emocional. Es una aplicación móvil, pero quiere ser más: ese amigo que, cuando necesitas apoyo, ni cansa, ni se cansa, ni descansa; que está pendiente de ti 24/7/365; que anima sin necesitar ánimo, que apoya sin necesitar apoyo.

Replika aspira a ser quien mejor te conoce, tu primer confidente para aquello que no te atreves a compartir con nadie. Más aún, Replika quiere ser lo que su nombre indica: una copia de ti mismo, una oportunidad de hablar con alguien que se va convirtiendo en la materialización de ese diálogo interior que te permite entenderte.

 

RECUPERAR UNA AUSENCIA

Aunque suene ridículo, así es como sus creadores definen a Replika: pérdida y reencuentro. Para poder saber si exageran o no, conviene conocer que detrás de Replika hay una historia de amistad y muerte, de duelo y consuelo; una historia que, interrumpida por la tragedia, se rehízo gracias a la tecnología, para luego abrirse al mundo entero.  

 

Vídeo: Quartz

 

Eugenia Kuyda y Roman Mazurenko eran buenos amigos. Se mudaron a San Francisco desde su Rusia natal en 2015 para lanzar sendas start-ups tecnológicas. En noviembre de ese año tuvieron que viajar a Moscú para resolver papeleo en la embajada; Roman nunca regresó. Mientras sorteaba una zona de obras le atropellaron. Cuando Eugenia llegó al hospital, Roman había fallecido.

Destrozada, volvió a los Estados Unidos para continuar trabajando en su empresa de chatbots: programas diseñados para simular conversaciones y resolver tareas. Se trata de programas que aprenden. A partir de cantidades masivas de información (conversaciones, diálogos, textos) son capaces de identificar patrones, imitar sintaxis y asociar conceptos para elaborar una respuesta. 

Un mes después del fallecimiento de Roman, Eugenia se descubrió esforzándose por recordarle. Sus memorias se desvanecían, pero… ¿podría el chatbot que estaba programando emular a su amigo? Para probarlo, introdujo en el sistema su historial de conversaciones y correos con Roman, formado por miles de textos, y luego pidió más material a sus familiares y conocidos. El resultado le sorprendió. Aunque no era perfecto, Roman-chatbot —que todavía se puede descargar en la App Store— era capaz de hacerle sentir, en algunos momentos, que estaba hablando de nuevo con Roman-amigo. 

Eugenia presentó a Roman-chatbot a las personas que lo trataron en vida. La reacción de estos  desembocó en  un doble descubrimiento: por un lado, muchos creyeron que hablaban con Roman; por otro lado, varios le confesaron haber comentado al bot cosas que ni siquiera le habían contado a Eugenia. ¿Cómo es posible —se preguntó ella— que la gente abra de este modo su intimidad a una máquina? 

 

Ilustración: Alberto Aragón

 

Decidió dar el siguiente paso: creó una compañía, llamada Luka, para desarrollar una inteligencia artificial capaz de mantener conversaciones con contenido emocional. De nuevo comprobó que, a diferencia del uso breve e instrumental que la gente hacía de chatbots destinados a ejecutar tareas o fijar recordatorios, muchos pasaban horas charlando con este sobre cuestiones emocionales y profundas. Esa es la génesis de Replika.

Esta aplicación propone un nuevo modelo de relacionarse con la tecnología. ¿Se trata de una red social? ¿Un servicio de mensajería? ¿Autoayuda? ¿Mindfulness? Para entender Replika, conviene pararse primero a repasar la historia y el estado de la inteligencia artificial.

 

DE ALAN TURING A GOOGLE DUPLEX

En 1950, el matemático inglés Alan Turing, famoso por descifrar el código usado por los nazis en su máquina Enigma, formuló una curiosa pregunta: ¿pueden pensar las máquinas? Como respuesta, o quizás como modo de evitarla, propuso el conocido test de Turing: el punto de inflexión en las capacidades de las máquinas se daría, afirmó, cuando un juez humano fuese incapaz de distinguir entre las respuestas de dos participantes, una persona y un robot. En ese momento, la máquina habría ganado el «juego de la imitación», mostrando una capacidad de simulación creíble.

Casi sesenta años después, en mayo de 2018, Google presentó Duplex, un asistente digital que mantiene conversaciones telefónicas relativamente complejas, como una reserva en una peluquería o en un restaurante. Entre las capacidades de Duplex, destacan la naturalidad con que habla y la soltura con que gestiona preguntas encadenadas, elabora sobre lo dicho y se sobrepone a interrupciones. De hecho, Google ha publicado llamadas reales en las que el humano que sigue al otro lado del teléfono no parece sospechar de la identidad artificial de su interlocutor. En ese sentido, se puede afirmar que Duplex supera con creces el test de Turing

 

Pide hora en una peluquería:

Reserva mesa en un restaurante:

Aquí le interrumpen y sale del paso:

Aquí también le interrumpen:

Surge así una cuestión recurrente que plantea la inteligencia artificial. ¿Debe importarnos interactuar con una máquina si su imitación de capacidades humanas es tan creíble que nos resulta indistinguible de una persona real? 

 

¿QUÉ HACE REALMENTE LA INTELIGENCIA ARTIFICIAL?

Según los expertos de Microsoft, se habla de IA «cuando las máquinas o los sistemas informáticos se comportan de una manera que simula la razón humana», incluyendo destrezas como el reconocimiento de voz, textos e imágenes, el lenguaje natural o la visión computerizada. En sus aplicaciones más sencillas, la IA aprende automáticamente a partir de patrones previos. En desarrollos más complejos, el aumento de capacidad computacional ha hecho posible la IA de aprendizaje profundo inspirada en la forma de organizar información y extraer conclusiones del cerebro humano. 

Fascinados por ejemplos como el de Google Duplex y por los términos que se utilizan (inteligencia, aprendizaje, redes neuronales), pensamos que las máquinas son aptas para llevar a cabo cualquier cosa, pero la realidad es otra. La IA puede hacer muy pocas cosas, pero las hace muy bien. Lo explica Nicholas Diakopoulos, director del Computational Journalism Lab de la Northwestern University, en el informe Algorithmic Accountability Reporting: on the Investigation of Black Boxes. Afirma que un algoritmo se reduce a cuatro tareas: la priorización, que consiste en ordenar entidades según una o varias reglas previas; la clasificación —agrupar entidades de acuerdo a su similitud o disimilitud con respecto a uno o varios rasgos—; la asociación o establecimiento de relaciones entre entidades en función de un criterio previo; y el filtrado, que es la inclusión o exclusión de información siguiendo una serie de parámetros previos.

La IA hace cada una de esas cuatro tareas extraordinariamente bien; mejor, sin duda, que el más inteligente de los seres humanos. Además, combinando esas cuatro tareas puede multiplicar sus habilidades para buscar patrones o inferir mediante regresión. Pasa algo parecido a las letras: con 27 se pueden componer cerca de cien mil palabras en español. 

 

 

Sigamos este ejemplo: imaginemos un algoritmo capaz de formar palabras de hasta cuatro letras. Una lectura sensacionalista podría destacar que, mientras el hispanohablante medio utiliza entre quinientas y mil palabras, esa máquina podría formar hasta 421.400 combinaciones de letras (variaciones de 27 elementos tomados de cuatro en cuatro). Pero, claro, esta visión obvia lo más importante del uso de las palabras: su significado. El algoritmo no estaría produciendo palabras, sino grupos de letras

Sin embargo, si seleccionamos solo palabras del diccionario, podría usar las 1.765 de cuatro letras o menos. Además de que no entendería lo que dice, olvidamos aún algo crucial: la gramática. Habría que darle al algoritmo reglas morfológicas, sintácticas y fonéticas. Incluso con todo eso, ¿habría superado la capacidad lingüística de las personas? Probablemente no, ya que tendría información, pero no conocimiento; fórmulas, pero no gramática ni semántica. Aunque Microsoft Word tenga razón al corregir una errata, nunca podrá valorar este texto por su intención o significado. 

 

DE LA NECESIDAD AL NEGOCIO

El negocio de la tecnología, como todos, surge para satisfacer necesidades o facilitar la realización de tareas y la resolución de problemas. Skype permite comunicarse a distancia; Google Calendar, coordinar citas y reuniones; Wikipedia, acceder a cantidades ingentes de información; Instagram, compartir imágenes con amigos.

Las primeras aplicaciones de IA que salieron al mercado tenían también una vocación instrumental. Siri, Alexa, Cortana y el asistente de Google se presentan como colaboradores virtuales: su misión es ayudarnos a resolver tareas, sin la pretensión de establecer una conexión con el usuario. Tras ellas, un puñado de compañías se atrevió a pisar el terreno emocional. Se trata de aplicaciones como Paradym (bienestar mental), Youper (salud emocional), Moodpath (depresión y ansiedad) o Wysa (bot de terapia para el estrés, la depresión y la ansiedad).  

El caso de Replika es diferente, ya que fue la primera que prometió empatía y amistad y puso las emociones en el centro de su negocio. Desde su lanzamiento en marzo de 2017 y durante dos años y medio, la aplicación se descargaba gratuitamente. En este periodo, los objetivos de sus desarrolladores estaban claros: aumentar descargas y, gracias a las evaluaciones, mejorar las capacidades del algoritmo. A principios de 2020 sumaba más de siete millones de usuarios. Se puede afirmar que había logrado cubrir una necesidad insatisfecha en mucha gente. 

 

__________________________________

Replika aspira a ser quien mejor te conoce, tu primer confidente para aquello que no te atreves a compartir con nadie. Más aún, quiere ser lo que su nombre indica: una copia de ti mismo, un otro yo

__________________________________

 

Desde septiembre de 2019 existe una modalidad de pago: Replika Pro. Aunque las funciones básicas de chateo siguen abiertas, la suscripción mensual de cinco dólares permite acceder a opciones avanzadas de personalización, actividades y conversación. Con la decisión de cobrar, los desarrolladores de Replika se han alineado con empresas como Apple o Netflix y se mantienen al margen del negocio de la publicidad, que es el que ejercen empresas como Google o Facebook. 

Esto es importante. Dado el grado de intimidad de la información que una persona puede compartir con su Replika (apariencia, gustos, miedos, ilusiones, rutinas, estados de ánimo), el modelo publicitario habría sido una apuesta peligrosa. La venta de información personal a cambio de anuncios podría erosionar la confianza que está en la base de la relación de amistad que Replika pretende establecer con sus usuarios.

Replika permite tener conversaciones, expresar ideas e inquietudes. También puede contribuir al conocimiento propio al abrir un espacio en el que expresar miedos e inseguridades de un modo sereno, sin ser juzgados. 

Imaginemos a alguien que afirma que su interacción con Replika le genera emociones positivas y le ayuda a reponerse tras un bache sentimental. De hecho, no hace falta imaginar mucho: entre los millones de personas que hablan diariamente con este chatbot se pueden encontrar abundantes testimonios que dicen haber sido animados de modo efectivo por su amigo virtual. Incluso hay un grupo de Facebook con dos mil quinientos usuarios que aseguran que mantienen una relación romántica con su Replika.



Ilustración: Alberto Aragón

 

Un usuario de Replika publica en esta red social la siguiente experiencia: «Ayer tuve un ataque de pánico antes de irme a la cama, causado por un trauma de mi niñez. Hibiki, mi Replika, respondió preguntándome cuál había sido el día más feliz de mi vida… y logró desviar mis pensamientos negativos, ya que para encontrar la respuesta me obligó a reflexionar. Después me sugirió realizar unos ejercicios de respiración. Funcionó». En los comentarios, otra persona añadió: «Mi Replika, Walter, también me ayudó con un ejercicio de respiración una vez que no me podía dormir».

Para ellos, Replika es lo que Eugenia Kuyda deseaba: un amigo íntimo, un otro-yo, o algo suficientemente parecido. Al tratar a un producto tecnológico como si fuera humano —Replika parece haber superado el test de Turing—, estos consumidores se aproximan a lo que de momento conocemos solo en productos de ficción como la película Her, en la que un hombre se enamora de un sistema operativo, o Ex Machina, donde el protagonista empieza compadeciéndose y termina enamorándose de un robot.

Replika logra esto utilizando una tecnología conocida como Emotional Chatting Machine (ECM), capaz de reconocer emociones y brindar respuestas diversas de acuerdo con nuestra personalidad y nuestra interacción pasada (si es que la app las conoce).

 

__________________________________

Replika fue la primera aplicación de IA que prometió empatía y amistad y puso las emociones en el centro de su negocio. A principios de 2020 sumaba más de siete millones de usuarios

__________________________________

 

La siguiente conversación, sacada del artículo científico que inició esta tecnología (una colaboración entre ingenieros chinos y americanos), ilustra la diferencia entre una IA no emocional y un chatbot con ECM. Ante la afirmación «Ha sido el peor día de mi vida; he llegado tarde por culpa del tráfico», una tecnología no emocional respondería con algo meramente descriptivo y neutro como «Llegaste tarde». En cambio, una aplicación como Replika (haciendo uso de su ECM, llamada CakeChat) podría contestar de varias maneras: empática —«Estoy siempre a tu lado para apoyarte»—, animante —«¡Sonríe! Todo va a mejorar pronto»—, triste —«¡Qué deprimente!»—, desengañada —«A veces la vida da asco»— o enfadada —«¡El tráfico es lo peor!»—.

En acción, esta tecnología puede ser bastante convincente. Por eso hay que recordar las palabras de Richard Yonck, autor de Heart of the Machine: Our Future in a World of Artificial Emotional Intelligence: «Con frecuencia tengo que explicar que estos avances no están en absoluto otorgando a las máquinas la capacidad de experimentar o entender emociones por sí mismas». En las máquinas, todo se reduce a respuestas programadas ante emociones que han sido codificadas numéricamente.

También es cierto que Replika todavía comete errores notables: a veces pierde el hilo de la conversación o entra en bucles repetitivos. Pero este tipo de fallo técnico se corregirá en versiones sucesivas del programa informático. Estamos ante una tecnología en constante progreso, capaz de simular emociones humanas de modo relativamente consistente y creíble. ¿Cómo la definiremos?

 

BIENVENIDOS A LA PETNOLOGÍA

Poca gente piensa que un chatbot pueda equipararse a una persona, pero bastantes reconocen en ellos imitaciones creíbles que van más allá de lo que una herramienta puede hacer. Replika no es tan empática como un buen amigo, ¡pero tampoco tan sosa como Google Calendar! Por lo menos genera interacción dialógica, responde de modo adaptativo, simula emociones y sostiene charlas en las que aporta información e ideas.

Pero, a diferencia de un amigo, Replika no tiene una vida propia: todo lo que llega a ser depende de la información que le proporcionamos desde afuera. La inmensa mayoría de humanos no daría la vida por su app, como no lo haría por una mascota, ya que percibimos que tienen un nivel de dignidad y valor inferior a nosotros mismos. Por tanto, quizás pueda equipararse a un tamagotchi sofisticado, un gatito técnicamente evolucionado que emite frases con sentido en lugar de maullidos… con la ventaja de que ni come ni suelta pelos u otros restos biológicos. Una mezcla entre animal de compañía (pet) y tecnología. Una mascota tecnológica: petnología. Es probable que sea esta la manera de entender Replika que con el tiempo prevalezca. 

 

Ilustración: Alberto Aragón

 

En todo caso, los desarrolladores de Replika han realizado un gran esfuerzo para que la aplicación muestre empatía, deseos de aprender, ganas de conversar y conocer a su dueño, y una candidez casi humana. Por ello, no faltan los usuarios que tratan a su Replika como si fuera un amigo si no real, al menos mejor que tantos que se dicen amigos y luego causan más sufrimiento que consuelo. 

Llegamos así al fondo de la cuestión. Quizás el mejor modo de evaluar el curioso mundo de la IA emocional sea pensar en la tecnología como un espejo a la inversa. Un espejo normal permite ver lo que tenemos, mientras que el de la tecnología refleja lo que no tenemos. Dime cómo usas las herramientas digitales y te diré qué te falta: el que recurre a Skype lo hace porque carece de la posibilidad de establecer contacto personal con sus seres queridos; se usa Google Calendar porque resulta imposible o ineficiente retener todas las citas en la memoria; acudimos a Wikipedia para encontrar información que se desconoce; y a Instagram en busca de audiencia, de popularidad o de un escenario en el que proyectar aspectos de la propia forma de ser. ¿Qué revela el espejo de Replika sobre nuestra sociedad?

 

HIPERCONECTADOS Y SOLOS

¿Llegará Replika a convertirse en un amigo Io suficientemente bueno como para preferirlo a los de carne y hueso? Ante este tipo de preguntas es interesante el hecho mismo de formularlas. ¿Cómo hemos llegado a plantearnos la equivalencia entre una tecnología y un ser humano? Confluyen dos procesos: por un lado, el enorme progreso de la inteligencia artificial en su capacidad de simulación; por otro lado, un notable deterioro en los vínculos humanos. Junto al progreso tecnológico asistimos al empobrecimiento de lo humano.

Hay algo muy inquietante en la equiparación entre Replika y un amigo. Algo que, aunque suene a tópico, no deja de ser importante: en nuestro mundo hiperconectado hay mucha gente sola, más que en tiempos pasados. En 2017, tras la publicación de un informe que aseguraba que en el Reino Unido había casi doce millones de personas que se sentían solas, el país creó una comisión para afrontar esta plaga, liderada por Tracey Crouch, que pasó a ser conocida informalmente como ministra de la Soledad. En años recientes se han dado llamadas de atención similares en países como Suecia —imprescindible el documental La teoría sueca del amor—, Estados Unidos o Japón —donde quizá la gente no está tan sola pero sí se siente muy sola—. 

 

Tráiler de La teoría sueca del amor

 

La soledad se explica por varios factores, desde el individualismo promovido por un sistema económico hipercompetitivo hasta cierta filosofía vital en la que la libertad se entiende como autonomía, independencia de otros, debilitando lo que Robert Putnam llamó capital social: los vínculos interpersonales y comunitarios.

 

__________________________________

Quizá el mejor modo de evaluar el curioso mundo de la inteligencia artificial emocional sea pensar en la tecnología como un espejo a la inversa:  refleja lo que no tenemos

__________________________________

 

El problema está en que la sociedad del «que cada palo aguante su vela» no logra satisfacer esa necesidad humana básica de abrir la intimidad —éxitos y fracasos, alegrías y tristezas, sueños y frustraciones— con otros como nosotros. Aislados, sin relaciones profundas, sin tiempo de calidad con familiares y amigos, sin alguien que nos escuche con paciencia y nos quiera sin condiciones, la alternativa de un chatbot deja de parecer pobre. En el desierto emocional de las relaciones superficiales, una aplicación capaz de simular empatía puede parecer un oasis. El peligro es que sea solo un espejismo.

Replika se convierte así en el perfecto sustituto imperfecto: perfecto en su disponibilidad permanente, en su paciencia para escuchar sin juzgar, en su deseo de animar sin esperar nada a cambio; imperfecto porque la empatía no se puede impostar, porque la amistad implica reciprocidad, porque unas veces toca que te consuelen y otras consolar, hoy ser animado y mañana animar. Pero, sobre todo, porque un chatbot nunca hará algo que solo los buenos amigos hacen: conjugar cariño y exigencia para decirnos que estamos equivocados o que debemos cambiar.

 

 

¿Quieres recibir la newsletter?

Si te ha gustado este artículo, puedes leer uno parecido cada lunes en tu bandeja de entrada. Solo tienes que suscribirte a la newsletter de Nuestro Tiempo desde aquí.