Investigadores en IA buscan parlamento para analizar los discursos de odio

Investigación

La herramienta del Instituto Universitario Valenciano de Investigación en IA de la Universitat Politécnica ya se ha utilizado para diseccionar la toxicidad de las intervenciones de diez sesiones de las Corts Valencianes

Horizontal

El president de la Generalitat, Carlos Mazón, durante una intervención en el pleno de las Corts Valencianes el pasado febrero 

Biel Aliño / EFE

Un equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) ha desarrollado una metodología con un sistema de inteligencia artificial modular que es capaz de identificar con una mayor precisión la ironía, la crítica mordaz o el sarcasmo para detectar cuándo el lenguaje político cruza el umbral de la toxicidad. 

Y ahora buscan parlamento donde aplicarlo, después de una primera incursión en las intervenciones de los diputados y diputadas de hasta diez sesiones de las Corts Valencianes, en las que seleccionaron 875 muestras, la mitad de las cuales, 435, tenían una puntuación de toxicidad superior al 50%, lo que implica una mayor probabilidad de toxicidad, mientras que la otra mitad tenía una puntuación de toxicidad inferior al 50%.

Primera evaluación

En la mitad de las muestras seleccionadas de las Corts Valencianes la puntuación de toxicidad fue superior al 50%

Probarlo en las Corts resultada interesante para el equipo, explican, porque es un parlamento bilingüe, en el que aproximadamente la mitad de los discursos son en una lengua y en otra. Además, los discursos están transcritos, una facilidad añadida para una herramienta que pronto también podrá auditar las locuciones. Observaron que, de las sesiones de dos días analizadas en las Corts, el miércoles no había tanta toxicidad en los discursos; “pero el jueves por la mañana, que es la sesión de control, esta aumentaba”, explica uno de los investigadores del equipo VRAIN, Antoni Mestre. “La oposición tiene un nivel más tóxico que el gobierno”, confiesa.

De izquierda a derecha, los investigadores de VRAIN de la UPV, Antoni Mestre, Manoli Albert, Vicente Pelechano, Miriam Gil y Joan Fons

De izquierda a derecha, los investigadores de VRAIN de la UPV, Antoni Mestre, Manoli Albert, Vicente Pelechano, Miriam Gil y Joan Fons 

NEBO COMUNICACIÓN

Junto a Manoli Albert, ambos explican a La Vanguardia que su aplicación en los parlamentos permitiría a sus intervinientes y responsables moderar el debate de manera “más equitativa y precisa”, garantizando un discurso más respetuoso y constructivo.  ¿Cómo? El sistema avisaría del tono, y del empeoramiento de este, en tiempo real, - “a modo de cardiograma”, matiza el investigador-, lo que daría herramientas al responsable de moderar el debate para llamar al orden, como que quien en esos momentos tiene el turno de palabra pausara las críticas. Mestre asegura que al aplicarlo en las cámaras parlamentarias ayudaría “a combatir el sesgo” y permitiría un control “no político ni partidista de las intervenciones”. 

Lee también

Beatriz Gallardo: “Las mentiras en política no son nuevas, lo nuevo es su impacto e impunidad”

Salvador Enguix
Beatriz Gallardo en su despaco

Albert también amplía el foco de la herramienta, pues explica que podría usarse para analizar el ciberbulling ya que “no solo detecta el insulto fácil, pues reconoce la sorna y la sátira”; y también serviría para repasar el contenido de, por ejemplo, los e-mails que se intercambian los empleados de una empresa. “El resultado sería interesante de cara a las certificaciones”, esgrime la investigadora.

El equipo de investigadores de VRAIN de la UPV, formado también por Vicente Pelechano, y la investigadora del departamento de informática de la Universitat de València, Miriam Gil, junto al investigador de la Università degli Studi del Sannio en Benevento (Italia), Franccesco Malafarina, presentaron las conclusiones recientemente en la conferencia internacional de agentes e inteligencia artificial (ICAART) 2025 celebrada en la ciudad de Porto, bajo el título IA enriquecida en sentimientos para la detección de discursos tóxicos; Un caso de estudio de discursos políticos en Les Corts Valencianes

ICAART 2025

Los autores presentaron las conclusiones en la conferencia internacional de agentes e inteligencia artificial de Porto

En las próximas semanas tendrán diversas reuniones para plantear la herramienta a parlamentarios interesados en explorarla. Mientras, insisten en que necesitan seguir probando la herramienta de IA en otros escenarios donde poder afinar sus resultados. Añaden como podría ayudar a saber qué comisiones parlamentarias tienen más nivel de toxicidad o qué Consellers o  diputados se ponen más nerviosos cuando intervienen. 

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...