Los robots toman el ‘call center’

Grandes empresas de telefonía, energía y banca incorporan los chatbots con Inteligencia Artificial a sus servicios de información al cliente 

23 julio 2019 15:54 | Actualizado a 03 agosto 2019 18:10
Se lee en minutos
Participa:
Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
Comparte en:

Desde el sofá de casa, de repente soltamos: «Oye Alexa, abre Endesa. ¿Han cobrado la última factura de luz? ¿Me puedes dar el consumo y el importe?». Acabamos de poner en marcha un chatbot. No es Amazon quien nos responderá. Ni siquiera Alexa, el asistente personal que poco a poco va entrando en nuestros hogares. Es Endesa, con la información al cliente de call center de toda la vida, pero con la voz y las posibilidades de interacción y experiencia de usuario que ofrecen los nuevos asistentes virtuales.

Grandes empresas de telefonía, energía o banca han empezado a abrazar los chatbots para comunicarse con sus clientes, pero en un futuro muy cercano van a venir muchos más. Porque los chatbots han tomado el call center.

Lo cuenta Jordi Cabot, profesor investigador ICREA de la UOC y experto en Inteligencia Artificial: «Nunca como ahora ha sido tan fácil hacer chatbots». La explicación está en el importante salto tecnológico del análisis semántico. Poco a poco, la frustrante experiencia que suponía mantener un diálogo en el que la mayoría de las respuestas de la anterior generación de chatbots era ‘No le he comprendido. ¿Me puede repetir la pregunta?’, va desapareciendo.

«Detrás de los chatbots había un proceso de coger el texto y hacer un análisis semántico de qué te quería decir el cliente, y el resultado es que llegaba a reconocer muy poco la semántica de la frase», explica Cabot. Pero los nuevos asistentes virtuales de «Google, Microsoft o Amazon ahora sí te reconocen la frase», asegura.

El cambio de paradigma es sustancial. Ya no se reconocen frases literales, sino ejemplos. «Tú defines las posibles interacciones del visitante a la web -relata Cabot- y, en lugar de decir frases, les das tres o cuatro ejemplos que pueden utilizar». Siguiendo con el caso de Endesa, las frases que decidió utilizar el equipo de desarrollo de ese chatbot fueron ‘Está pagada mi última factura’, ‘El estado de mi última factura de luz’ y ‘Ha pagado mi marido la factura’.

Hoy por hoy, los chatbots son meramente informativos. Con voz y una interacción que enriquece la experiencia de cliente, pero una interficie más. Para que den el salto y pasen de informar sobre un servicio a gestionar el alta en él falta todavía un trecho.

¿Qué pasa si el usuario, en lugar de repetir una de estas tres frases, suelta ‘han cobrado ya la luz o qué’? Pues que muy probablemente el chatbot, ahora, lo va a entender. «La magia -explica Jordi Cabot- es que Google, Amazon o Microsoft pueden inferir ahora todas las variantes sobre aquellas frases». A partir de tres frases, esas inteligencias artificiales imaginan hasta 200 variaciones más, perfectamente posibles.

Una vez el chatbot ha entendido lo que queremos decir, ya solo le queda responder. «Cuando la intención de lo que le decimos está reconocida -prosigue Cabot-, tú le escribes la respuesta que ha de dar». ¿Y si el problema no es de semántica, sino de dicción? Para Jordi Cabot, eso no supone actualmente un reto tecnológico: «Al final, es traducir la voz a texto, y eso no es un gran problema».

Chatbots especializados

Vistas las posibilidades que nos abre esta tecnología, ¿Alexa nos lo podrá responder todo? Pues depende de la cantidad de chatbots que pueda abrir. «Es inviable que un chatbot pueda responder a cualquier pregunta -explica este profesional-, pero sí que puede hacerlo a preguntas específicas».

«Por eso las empresas de telefonía o las eléctricas -prosigue- los están utilizando mucho. Porque si un chatbot puede responder a las tres, cinco o diez preguntas más frecuentes, eso soluciona mucho. A partir de ahí, para otro tipo de preguntas, pasas al humano».

"En los 'call center', de cada cien personas que hay atendiendo, se pasará a diez" (Jordi Cabot, profesor investigador ICREA de la UOC)

El futuro inmediato que vaticina Cabot es que «en los call center, de cada cien personas que hay atendiendo, se pasará a diez, que serán quienes resolverán las cosas que salen de la norma. Y todo lo que sea fácil de automatizar, se automatizará».

«Lo que me sorprende -observa Jordi Cabot- es que, mientras las grandes empresas los están utilizando cada vez más, la Administración Pública los utilice tan poco, cuando podría utilizarlos desde citas previas a pagos de impuestos o a agendas culturales».

¿Llegarán a las pymes? Ya lo están haciendo, aunque en una versión algo distinta de la que usa la gran empresa. «Ahora mismo -relata Cabot-, los chatbots salen rentables a las grandes empresas, es una cuestión de coste-beneficio. Pero requiere una inversión, porque has de partir de cero. Para las pymes hay robots ya preentrenados para cosas concretas». Por ejemplo, chatbots de restauración preentrenados, a los que solo hay que enseñarles la carta de platos y los horarios.

En esta experiencia de usuario, sin embargo, Cabot identifica «un gran pero» a la nueva generación de asistentes virtuales sobre los que corren estos chatbots, «y es que el catalán no está soportado». El debate sobre «el derecho a hablarle en catalán a la tostadora», desatado hace un par de semanas, no es un chiste para no pocos consumidores.

Comentarios
Multimedia Diari