Científicos de la Universidad de Granada y de la Universidad Carlos III de Madrid
Algunas personas dicen que nos van a comer las máquinas en el futuro. Aunque parezca mentira, poco a poco van cogiendo más y más campos de nuestra vida diaria. El caso es que científicos de la Universidad de Granada (UGR), en colaboración con la Universidad Carlos III de Madrid, han desarrollado un nuevo sistema informático que permite a una máquina reconocer automáticamente cuál es el estado de ánimo de una persona que se está comunicando oralmente con ella.
Para detectar el estado emocional del usuario, los investigadores se centraron en las emociones negativas del mismo que pueden hacer que se frustre al hablar con un sistema automático. En concreto, su trabajo ha considerado el enfado, el aburrimiento y la duda. Para detectarlas automáticamente, utilizaron información sobre el tono de voz, la velocidad con la que se habla, la duración de las pausas, la energía de la señal de voz y así hasta un total de 60 parámetros acústicos distintos.
Por otra parte, también emplearon información acerca de cómo se ha desarrollado el diálogo para ajustar la probabilidad de que un usuario esté en un estado emocional u otro. Por ejemplo, el que el sistema no haya reconocido bien varias veces lo que su interlocutor desea decirle, o le ha pedido al usuario que repita información que ya había proporcionado, pueden ser factores que hagan que el usuario se enfade o se aburra de interactuar con el sistema.
Los autores han definido las pautas para conseguir esta adaptación, realizando una evaluación empírica con usuarios reales en la que se demuestra que el sistema adaptable funciona mejor en términos objetivos (por ejemplo, produce diálogos más cortos y con mayor éxito) y es percibido como más factible por los usuarios.