Secciones
Servicios
Destacamos
E. Rodríguez
Lunes, 19 de diciembre 2022
El mundo de la Inteligencia Artificial (IA) y las realidades híbridas y abre un mundo de posibilidades, pero también de riesgos. Ir a conciertos en el metaverso o pasearse por mercados o lugares concretos a través de estos escenarios también permitirá interactuar con otras ... personas que se encuentren en estos mismos espacios. Sin embargo, también existe la posibilidad de que detrás de un avatar no haya otro usuario como nosotros, sino un bot con rasgos humanoides y con capacidad de generarnos empatía, cuya intención sea estafar o manipular.
Ante estos peligros, el investigador valenciano Vicente Botti lidera el desarrollo, junto a un equipo de la Universitat Politècnica de Valencia, de un guardián del metaverso. «Supón en que en esta realidad te ponen un avatar que es un mimosín, que te crea mucha empatía. Eso le da mayor capacidad de influir sobre ti. Es como cuando te llega un mensaje de que tu cuenta bancaria ha sido atacada y que debes pulsar este botón para ponerte en contacto con tu banco. Te ha generado una situación en la que no estás siendo racional, sino más bien emocional, para que presiones ese botón», explica Botti, que realiza este desarrollo en el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN).
Con técnicas de Inteligencia Artificial (IA), este guardián detecta comportamientos maliciosos y prácticas manipuladoras en entornos de realidades sociales híbridas como el metaverso. «En estos entornos sociales y abiertos llevamos muchos años y ya hemos visto que es posible que se introduzcan mecanismos para intentar vendernos información errónea y estafarnos…entonces es importante que intentemos anticiparnos», agrega el investigador, quien explica que el guardián pretende garantizar una interacción segura y sofisticada utilizando las herramientas de la Inteligencia Artificial. «La idea es tener un asistente que nos puede prevenir de los ataques que podamos tener tanto a nuestra privacidad como que se nos venda información sesgada o fraudulenta», sostiene.
Este desarrollo, que se enmarca en el proyecto guardIA, se ha llevado a cabo con técnicas de IA y modelos computacionales del Grupo de Investigación de Tecnología Informática e Inteligencia Artificial de VRAIN. Y es que, si bien hoy ya existen interacciones intencionadas con los sistemas de recomendación y publicidad, basados en el comportamiento en línea, los agentes que controlen las interacciones y los flujos de información en las futuras realidades sociales híbridas tendrán todavía mayores ventajas para explotar las debilidades de las personas que se encuentren en estos entornos.
Este guardián personal virtual interaccionará con el usuario final y lo sensibilizará y concienciará sobre posibles intentos maliciosos y prácticas manipuladoras que mitigarán sus efectos. «Nuestro asistente trata de analizar esos mensajes fraudulentos, así como las imágenes. Cuando te llega una noticia que sospechas de que es una fake news, sueles ir a una plataforma a consultarlo. Este asistente haría esto por ti. Habría que interpretar también las emociones que hay en el texto para ser empático. La IA nos va a permitir poder interpretar esos intentos de estafa», señala.
Noticia Relacionada
Arturo Cervellera
El proyecto guardIA consta, en una primera fase de desarrollo, de un ejemplo teórico y tecnológico que anticipa cómo las redes sociales híbridas van a redefinir las relaciones sociales y cuáles van a ser las nuevas formas de interacción social que surgirán en los entornos virtuales e identificar aquellas de mayor riesgo. En segundo lugar, el desarrollo de un asistente personalizado de código abierto, basado en técnicas de IA, que participará en una sofisticada interacción con el usuario final, lo sensibilizará y ayudará a reconocer posibles intentos maliciosos y patrones de manipulación para que se reduzcan sus efectos. Y, en tercer lugar, un proceso de comprensión de esta herramienta a nivel público que también va a poder ser aplicable en diversos campos.
«Hemos desarrollado ya modelos computacionales y ahora tenemos que empezar a hacer pruebas de plataformas de realidades sociales híbridas, en una plataforma donde puedan interactuar mi agente software con agentes humanos. Esto podríamos hacerlo de manera controlada y veremos si nuestro modelo guardia va detectando estas malas prácticas!, explica Botti, quien estima que en un año podría tener el primer prototipo, aunque se trata de un proyecto a cuatro años.
Tal y como destacan los expertos, en los próximos 10-15 años existirán nuevas herramientas en las redes sociales del futuro a disposición de quienes quieran manipular a los usuarios con fines políticos, comerciales o de cualquier otro tipo. Estas no solo se centrarán en la esencia de un mensaje sino en su forma. Por ejemplo, los bots con IA configurados con edad, género y voz similar al de las personas para desencadenar emociones e influir en su estado de ánimo y su capacidad de decisión. O imágenes de personas en las que se confía para poder engañar.
Noticia Relacionada
En este sentido, el director de VRAIN explica que este proyecto pretende contribuir a una interacción social más segura en las redes sociales híbridas y facilitar el proceso de aceptación y adaptación de los usuarios a este nuevo entorno sociotecnológico. «Por ello, se ha prestado una gran atención a las estrategias de diseño y la participación activa de los usuarios en el ecodiseño del mismo, mediante estudios de validación y actividades de prueba específicas para aumentar la confianza hacia este desarrollo», agrega.
El objetivo de este proyecto, añade Vicent Botti coincide con la visión de VRAIN de mostrar una IA confiable y centrada en sus beneficios para las personas y la sociedad y para abordar un problema que, aunque todavía no exista, va a surgir en el futuro más cercano en un plazo de 10 a 15 años.
GuardIA busca, entre otros, resolver problemas como la desinformación y la manipulación que son fenómenos crecientes que van a adoptar nuevas formas con los rápidos avances tecnológicos, incluso hasta llegar a un punto en el que las imágenes reales no puedan ser diferenciadas de las falsas. O el crecimiento de los asistentes personales, que, aunque en la actualidad están limitados a hacer pocas tareas, se espera que en unos años muestren un comportamiento inteligente como verdaderos compañeros humanos.
GuardIA es un proyecto Prometeo financiado por la Conselleria d'Innovació, Universitats, Ciència i Societat Digital de la Generalitat Valenciana para grupos de investigación de Excelencia, con una duración de cuatro años que en la actualidad se encuentra en su primer año de desarrollo. El proceso de creación de VRAIN comenzó en 2019, fruto de la unión de seis grupos investigadores. En 2020, se fusionó con el Centro de Investigación en Métodos de Producción de Software PROS y en 2021 se constituyó finalmente como Instituto Universitario de Investigación con la aprobación de la Generalitat Valenciana.
En la actualidad, cuenta con 130 investigadores divididos en nueve áreas de investigación; Procesamiento de Lenguaje Natural, planificación y Razonamiento, Análisis, Verificación y Testing de software, Aprendizaje Automático y Aprendizaje Profundo, Computación Natural, Lógica Computacional y Razonamiento Automático, Agentes Inteligentes e Inteligencia Artificial centrada en el humano, Inteligencia Artificial en Privacidad y Seguridad, y Métodos de Producción de Software. Este bagaje le hace ser uno de los mayores centros en IA de España.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.