Ingenieros de la Universidad de Rochester encabezados por Na Yang, han desarrollado un programa de computación que mide el sentimiento humano por medio del análisis de 12 características de la voz, tales como tono y volumen, para identificar una de seis emociones grabadas con 81% de exactitud.
El programa ha sido utilizado para crear el prototipo de una aplicación que muestre ya sea una cara feliz o una triste después de grabar y analizar la voz del usuario. La investigación se encuentra aún en sus primeros pasos, pero es fácil prever una aplicación más compleja que pueda utilizar esta tecnología para mostrar colores en el celular o hacer sonar música de acuerdo el estado de ánimo.
La investigadora Melissa Sturge-Apple, utiliza el programa en análisis de comunicación entre padres y sus hijos adolescentes, y explicó que las emociones modifican la manera en que las personas alteran el volumen, tono, e incluso los armónicos de su voz.
Los investigadores establecieron 12 características específicas en el habla que son medidas en cada grabación a intervalos cortos. Luego, categorizaron cada una de las grabaciones y las usaron para enseñarle al programa de computación como suena estar triste, feliz, temeroso, disgustado, o neutral. Posteriormente, el sistema analiza nuevas grabaciones y trata de determinar si la voz es similar a los ejemplos conocidos de emociones. Si el programa de computación no puede decidir entre una o más emociones, deja la grabación como no clasificada.
Los investigadores se centran en la forma de minimizar este efecto, por medio del entrenamiento del sistema con una voz en el mismo grupo de edad y género. Aún existen retos a superar si se desea utilizar este sistema en un ambiente de la vida real, pero se sabe que el algoritmo desarrollado es efectivo.