El sistema computacional podría ayudar a detectar mensajes de odio o problemas relacionados con la salud mental de las personas como la depresión.

Los avances tecnológicos asombran cada día al mundo entero. De hecho, un grupo de investigadores europeos inventó una herramienta computacional capaz de detectar las emociones que una persona experimenta al leer textos en formato digital.

En conversación con Agencia EFE, los expertos informaron que se trata de un sistema que trabaja con inteligencia artificial, que en ningún caso sirve para “espiar”. Los creadores mencionaron que este invento representa un avance en esta materia.

El sofisticado sistema computacional es “capaz” de pensar como lo podría hacer una persona y que puede ser usado para detectar mensajes de odio o detectar a tiempo problemas de salud mental como la depresión.

¿Cómo opera esta tecnología?

Bautizada con el nombre de “DepecheMood++”, fue diseñada por investigadores de la Universidad Politécnica de Madrid (UPM), la Fundación Bruno Kessler de Italia, la Universidad de Twente (Países Bajos) y de la compañía francesa Recital.

Esta herramienta utiliza modelos de procesamiento de lenguaje natural e inteligencia artificial para realizar mediciones precisas de las emociones que se expresan al leer un texto, ofreciendo un informe completo que puede ser analizado posteriormente.

El Grupo de Sistemas Inteligentes de la UPM ha colaborado en este proyecto que permite detectar las emociones en la red de una manera automática y está además implicado en la iniciativa europea Participation que emplea la inteligencia artificial para estudiar cómo se distribuyen los contenidos extremistas en internet y cómo llegan a afectar a la sociedad.

¿En qué consiste la herramienta?

El investigador Óscar Araque explicó que es “un léxico”, un vocabulario anotado que expresa la emoción que se le asocia a cada palabra, y detalló que se trata de un recurso muy extendido en el campo del Procesamiento del Lenguaje Natural para aportar una subjetividad, necesaria, pero de la que el ordenador carece.

“Enseñamos al sistema cómo expresamos las emociones los humanos”, precisó Óscar Araque, y detalló que para ello su equipo utiliza algoritmos de aprendizaje -que están en todos los dispositivos conectados y analizan toda la información que genera un usuario en internet- y redes neuronales.

Pero ha insistido en que se trata de un recurso que se está usando únicamente para investigación y que incluso han rechazado propuestas de empresas para obtener un beneficio económico.

“Nada se usa para espiar”, aunque se puede implementado para conocer las emociones que expresan los usuarios, por ejemplo en las redes sociales, afirmó el investigador de la UPM, y alertó del riesgo que siempre tienen los sesgos (de raza o género) en todos los sistemas de inteligencia artificial y en las consecuencias que pueden tener en la vida cotidiana de las personas.

Lee también...

Según Areque es relevante poder analizar de una forma automática las emociones que los usuarios expresan, sin necesidad de que haya una persona haciendo específicamente esa labor.

El investigador citó como ejemplo una empresa que tenga una gran actividad en redes sociales y quiera saber lo que opinan sus clientes sin necesidad de recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día; eso puede hacer esta herramienta.

“DepecheMode+++” es capaz de detectar hasta seis emociones diferentes (miedo, diversión, felicidad, tristeza, molestia y enfado) con un recurso que de momento se ha desarrollado en dos idiomas (inglés e italiano).

Óscar Araque explicó que el proyecto Participation estudia la radicalización y su expansión en internet, sobre todo entre los usuarios más jóvenes, señalando que los estudios psicológicos y sociales apuntan que las emociones desempeñan un rol básico a la hora de diseminar ese tipo de contenidos. Además, recalcó que este tipo de recursos pueden ser muy útiles para detectar y frenar esos contenidos no deseados.

“Generar una pieza de desinformación es relativamente fácil, pero analizar y argumentar por qué esa información es falsa es mucho más costoso”, aseguró el investigador.

Asimismo, insistió en que, más allá de la utilidad que pueda tener para detectar lenguaje de odio o para analizar la propaganda, la herramienta puede servir para analizar los mensajes de personas que están padeciendo una depresión e incluso para recomendarle buscar un tratamiento.