Inteligencia emocional artificial: el próximo paso
  • Los asistentes de voz nos ayudan a encontrar restaurantes, a llevar nuestra agenda y a realizar llamadas y revisar correos.
  • El siguiente paso es la detección de nuestro estado emocional y una reacción similar a la empatía.

César González Granados
Periodista


Siri, Bixby, Alexa, Google… todos estos son nombres de asistentes digitales de diferentes compañías que operan mediante inteligencia artificial, que son capaces de comprender su tono de voz y sus comandos y obedecer una serie de instrucciones que van desde agendar eventos en su agenda digital hasta hacer sonar la música de su predilección.

Pueden entre otras cosas realizar llamadas, contestar mensajes, pedir un taxi, encontrar direcciones, dar recetas de cocina, contar chistes, pedir comida express por usted y muchas cosas más. Sin embargo, la interacción con estos asistentes digitales está lejos de parecerse a una verdadera interacción humana, pues falta el contenido emocional.

Varios son los pasos que se están dando en esta materia. Google ha desarrollado avances significativos en cuanto a Inteligencia Artificial aplicada a su asistente de voz. El asistente más avanzado, que todavía no está disponible en el mercado, es capaz de identificar las variaciones en los tonos de la voz humana y a través de ellos identificar emociones. Y no sólo las identifica: modula su voz para responder empáticamente. Los tonos utilizados por el asistente de Google varían dependiendo del estado de ánimo del interlocutor, como sucede en las conversaciones reales.

Sumado a esto, la gran G ha programado a su asistente con ciertos dejos fonéticos, pausas y entonaciones que hacen que sea muy difícil para un ser humano identificar si se está hablando con un robot o con otro ser humano.

En la presentación de esta tecnología llamada Google Duplex, en el evento denominado I/0 2018, el asistente virtual realizó una llamada real y en vivo a un salón de belleza para pedir una cita para un corte de pelo. La peluquera ni siquiera se dio cuenta que hablaba con una máquina. Pasó lo mismo con una reservación de un restaurante.

El identificar los tonos emocionales de una persona, sus inflexiones, si está confundida o no, y modismos y palabras locales hace que la interacción con estos asistentes sea mucho más natural.

Apple y Samsung hacen esfuerzos para poner sus asistentes al día, mientras Amazon invierte en el desarrollo de computadoras cuánticas que le permitan avanzar a mayor velocidad en esta materia.

A pesar de los grandes avances de Google Dúplex, las respuestas del asistente todavía no pueden considerarse como empatía. Todavía no existe un asistente capaz de sintonizar en el mismo estado emocional de su interlocutor humano, entender cómo se siente y ofrecer retroalimentación, como sucede en la película de ciencia ficción “Her” en donde Joaquín Phoenix incluso se enamora de su asistente digital.

Pero con el desarrollo de las redes neuronales informáticas, con la convergencia entre biología y tecnología, dentro de muy poco tiempo los seres humanos podríamos estar desarrollando relaciones sociales significativas con computadoras y aparatos y estos incluso podrían ofrecernos contención psicológica de emergencia ante alguna eventualidad, mientras se pone en contacto con alguien cercano.

Todo esto lo veremos dentro de pocos años, en el transcurso de nuestra vida y tendrá un impacto social significativo en el manejo de la soledad, la depresión, el cuido de personas vulnerables y la manera misma en cómo nos comunicamos.

Lic. Sergio Bonilla Bastos
Licda. Andrea Marín Mena
Licda. Teresita Arana Cabalceta
Licda. Melania Chacón Chaves
Licda. Sandra Castro Mora
Lic. César González Granados
Licda. Mónica Chavarría Bianchini
Montaje: Licda. Karen Quirós Fumero
Diseño Gráfico: Iván Pacheco León

Poder Judicial de la República de Costa Rica, ® Derechos Reservados 2018