Secciones
Servicios
Destacamos
En un mundo donde las redes sociales como X (anteriormente Twitter) dominan la interacción digital, comprender el significado real de los mensajes es fundamental para empresas, instituciones y personas. Desde Valencia, el Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN), de la Universitat Politècnica de ... València (UPV), ha desarrollado herramientas punteras en el análisis del lenguaje natural. Hablamos de EN-IRONIC, ES-IRONIC y SENTAT, tres proyectos que abordan retos como la detección de la ironía y el análisis de sentimientos en las redes sociales.
La ironía es una de las formas más desafiantes de comunicación para cualquier sistema de inteligencia artificial (IA). Como explica Lluis Felip Hurtado Oliver, investigador de VRAIN, «un comentario como 'Es emocionante ver cómo los políticos se preocupan… por ellos' puede confundir incluso a los sistemas más avanzados». Para superar este obstáculo, VRAIN desarrolló EN-IRONIC y ES-IRONIC, diseñados específicamente para detectar ironía en inglés y español, respectivamente. Estos sistemas utilizan modelos de aprendizaje profundo basados en arquitecturas de Transformers, entrenados con enormes volúmenes de datos de X.
«Detectar la ironía, igual que detectar emociones, es una tarea de clasificación. Dado un texto el modelo debe decidir si en ese texto está presente la ironía o no», indica Hurtado Oliver. EN-IRONIC demostró su eficacia obteniendo la segunda posición en la competición internacional SemEval2018, mientras que ES-IRONIC alcanzó el primer lugar en IroSVA-2019. Ambos sistemas están disponibles de forma abierta a través de contenedores Docker y son accesibles desde cualquier sistema operativo gracias a una API REST.
Lluis Felip Hurtado Oliver
Investigador de VRAIN
Complementando a ES-IRONIC y EN-IRONIC, SENTAT analiza los sentimientos en tweets, tanto positivos como negativos. Hurtado Oliver destaca que esta herramienta es especialmente relevante en debates de todo tipo como políticos o deportivos, donde los sentimientos negativos y el lenguaje agresivo predominan. «X hace tiempo que se ha convertido en una jungla que se retroalimenta donde puedes encontrar información útil pero donde debatir serenamente es prácticamente imposible», comenta. Entrenado con variantes del español de España e Hispanoamérica, SENTAT permite a empresas y organizaciones comprender mejor la percepción del público y tomar decisiones estratégicas informadas. «El análisis de opiniones en redes sociales es mucho más complejo que en otros entornos debido al texto informal, la ironía y el sarcasmo», explica Hurtado Oliver.
Una de las filosofías clave de VRAIN es la ciencia abierta. Los modelos de EN-IRONIC, ES-IRONIC y SENTAT están disponibles gratuitamente para quienes deseen utilizarlos. Aunque también se realizan adaptaciones específicas para empresas, la accesibilidad es un principio fundamental. Según explica el investigador, estas herramientas permiten a las empresas captar las opiniones reales de los usuarios, incluso cuando están disfrazadas de ironía. «Esto mejora significativamente la toma de decisiones estratégicas», destaca Hurtado Oliver. En sectores como el marketing, la tecnología facilita entender mejor las reacciones del público ante campañas y productos.
Noticia relacionada
Elísabeth Rodríguez
Además de analizar emociones y sentimientos, VRAIN también ha estudiado el discurso del odio en redes sociales. Un reciente artículo publicado en 'Social Science Computer Review' revela cómo la polarización y el lenguaje agresivo proliferan en X. Hurtado Oliver, junto a investigadoras de la Universidad de Valladolid y la Universitat de València, analizó más de 60.000 tweets relacionados con ataques a la exministra Irene Montero tras comentarios de la diputada de VOX Carla Toscano. El estudio concluyó que más de la mitad de los mensajes contenían discurso de odio, contribuyendo a la escalada de la polarización. «La responsabilidad de los periodistas es clave en este fenómeno», afirma Hurtado Oliver, destacando cómo algunos redactores de medios influyentes amplificaron el discurso del odio en lugar de mitigarlo.
Por ello, los investigadores proponen dos medidas autorregulatorias para combatir este problema. Primero, sugieren que, cuando las cuentas de los y las profesionales se vinculen a un medio de comunicación en su biografía, es esencial que los medios establezcan pautas claras para regular el discurso de odio expresado por sus trabajadores en X. Segundo, proponen la implementación de normas que limiten la difusión excesiva de discursos de odio en piezas periodísticas, tanto los vertidos por terceros como por los propios periodistas.
El artículo destaca también que el discurso de odio no solo está presente en las interacciones entre usuarios, sino que se ve agravado por la participación de periodistas con amplia audiencia. Durante el estudio, se examinaron 63.926 tuits publicados entre el 23 y el 25 de noviembre de 2022, relacionados con la campaña de violencia política contra Irene Montero. Los resultados mostraron que, de los 83 periodistas analizados con más de 10.000 seguidores cada uno, un 37,58% utilizó lenguaje de odio en sus propios mensajes, mientras que un 11,41% amplificó este discurso al citar a otros.
Cada posición ideológica tuvo su propia estrategia de incivismo. Los periodistas con tendencia progresista utilizaron insultos como «fascistas» o «horda nazi», mientras que los de orientación conservadora emplearon estereotipos y construcciones divisorias, justificando los ataques hacia Montero con alusiones a la polémica ley 'Solo Sí es Sí' promovida por su ministerio. Estas dinámicas refuerzan la necesidad de reflexionar sobre la ética y la responsabilidad del periodismo en redes sociales.
El estudio también reveló que 42 empresas periodísticas participaron en el debate online, y un porcentaje significativo de sus publicaciones reproducía discursos de odio. Aproximadamente el 2,38% de los tuits publicados por cuentas oficiales de medios incorporó directamente lenguaje ofensivo, mientras que un 27,38% citaba expresiones de odio de otros. Entre las publicaciones con mayor interacción, más del 76% incluían algún tipo de contenido hostil, ya sea en las declaraciones recogidas o directamente en el texto periodístico.
Noticia relacionada
VRAIN no se detiene aquí. Actualmente, el equipo lidera BEWORD, un proyecto subvencionado por el Ministerio de Ciencia e Innovación que busca extraer conocimiento de documentos multimedia, incluyendo programas de televisión, radio y podcasts. Este enfoque multidimensional promete abrir nuevas fronteras en el análisis de datos. Otro campo prometedor en el que trabaja el instituto valenciano es la detección precoz de trastornos mentales a través de publicaciones en redes sociales. Aunque aún en fases iniciales, Hurtado Oliver subraya la importancia de abordar este tema de manera ética y responsable.
Con el crecimiento exponencial de la IA en todos los ámbitos de la comunicación, las implicaciones éticas cobran una relevancia crucial. Hurtado Oliver destaca la necesidad de avanzar hacia una Inteligencia Artificial Explicable (XIA), que permita entender las decisiones que toman estos modelos. Señala que los datos con los que entrenamos los modelos pueden estar sesgados y que se debe garantizar que la tecnología sea justa y transparente. En un mundo donde las redes sociales reflejan y amplifican las emociones humanas, las herramientas desarrolladas por VRAIN no solo ayudan a desentrañar las complejidades del lenguaje, sino que también ofrecen un vistazo al futuro de una IA más inclusiva, responsable y alineada con las necesidades sociales.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.