Urgente Óscar Puente anuncia un AVE regional que unirá toda la Comunitat en 2027
Canal E/Start

Vicent Botti: «El problema no es la IA, es el uso que nosotros le damos»

El director del instituto VRAIN de la UPV reflexiona sobre los retos y los peligros de la inteligencia artificial

Chema Bermell

Lunes, 17 de julio 2023

Chat GPT ha sido protagonista en los medios de comunicación desde su lanzamiento al público general en noviembre de 2022. Pese a que la inteligencia artificial (IA) generativa no es algo nuevo, la herramienta de Open AI ha popularizado su uso y ha generado un ... verdadero auge informativo. Se ha hablado tanto de las virtudes de esta tecnología como de los peligros que entraña. Se ha llegado a decir, incluso, que pone en riesgo a la humanidad. La posibilidad de que la IA adquiera consciencia y eventualmente pueda superar al ser humano no es una noción nueva. Ya en 2014, en una entrevista para la BBC, el eminente físico Stephen Hawking advertía sobre los peligros potenciales de una explosión de inteligencia artificial. «Podemos enfrentarnos a una explosión de IA que, en última instancia, resulte en máquinas cuya inteligencia supere a la nuestra en más de lo que la nuestra supera a la de los caracoles», explicó Hawking. «El desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana», señaló.

Publicidad

Esta preocupación ha estado presente desde hace tiempo y se ha intensificado con la disponibilidad generalizada de herramientas como Chat GPT. Para Vicent Botti, director del Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV, se ha hecho una «interpretación alarmista» por parte de algunos medios de comunicación y señala que escenarios de ficción como el de Terminator y Skynet están lejos de hacerse realidad. «Una IA que sea totalmente independiente y decida por sí misma no es viable hoy en día», expone Botti y añade que «las inteligencias artificiales están hechas por humanos y trabajan sobre máquinas que siempre se pueden desconectar».

«Es necesario regular el mal uso de la IA»

El experto de la UPV asegura que los avances y la investigación en IA no son el problema sino el mal uso que se hace de las herramientas que emplean esta tecnología. «Al igual que sucedió con la energía nuclear o la pólvora, una misma tecnología puede usarse para el bien o para el mal. No debería limitarse el uso ni la investigación en IA ya que produce y hace mucho bien a la sociedad», indica Botti. Si bien es cierto que la IA ofrece innumerables beneficios en áreas como la medicina, la industria o la educación, también se hace un mal uso de ella como son las campañas de desinformación y las fake news. Frente a ello, el director de VRAIN expresa la necesidad de regular su mal uso, en lugar de limitar la investigación en inteligencia artificial. «Habría que intentar llegar a esos acuerdos a nivel internacional sobre el uso de la IA. Una regulación coercitiva podría limitar su mal uso», recalca el investigador de la UPV.

En esta línea, apunta que la cuestión de la ética es fundamental en el desarrollo y despliegue de la IA. La confianza en la tecnología es esencial para su adopción generalizada y para ello, propone Botti la instauración de organismos evaluadores que aseguren que las aplicaciones de inteligencia artificial cumplen ciertos códigos éticos y no están sesgadas. Además, sugiere que las IA sean explicables, lo que implica que se pueda conocer el proceso de toma de decisiones de estas. «La IA tiene que ser ética. Por ejemplo, si se utilizan datos, tenemos que tener garantías de que no están sesgados. Y cuando la IA tome decisiones, tenemos que ser capaces de conocer qué motiva esa decisión», recalca Botti y señala que la inteligencia artificial tiene que ser evaluable, explicable, ética y segura.

Publicidad

Para el director de VRAIN, es urgente que países y empresas se sienten a debatir sobre el uso y la regulación de la IA. En este sentido, apunta que la Unión Europea (UE) es una abanderada en establecer una inteligencia artificial responsable y explica que se está trabajando en métodos para evaluar esta tecnología y hacerla explicable. En esta línea, la Unión Europea ha tomado medidas para regular el uso de la inteligencia artificial mediante la Ley de Inteligencia Artificial, la primera ley integral sobre IA en el mundo. Esta normativa establece obligaciones para proveedores y usuarios según el nivel de riesgo de la IA, con el objetivo de garantizar un desarrollo y uso seguro y responsable de esta tecnología innovadora.

El 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. Ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de este año. Como señalan desde el Parlamento Europeo, «la prioridad es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente» y añaden que los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales. El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de inteligencia artificial.

Publicidad

Concluye el experto en inteligencia artificial señalando que aunque las preocupaciones sobre esta tecnología y su potencial impacto en la sociedad son comprensibles, la IA supone un gran beneficio en numerosas áreas si se regula de manera adecuada, ética y segura. Para ello, la colaboración internacional y la participación de múltiples actores será clave para lograr un futuro donde la inteligencia artificial sea una herramienta útil y confiable para el bienestar de la humanidad.

VRAIN evaluará la IA en Europa

El instituto VRAIN de la Universitat Politècnica de València (UPV) también ha contribuido a la discusión sobre la regulación de la IA y la promoción de su uso ético en Europa. En concreto, un equipo de 15 investigadores del instituto, liderados por Vicent Botti, participa en la iniciativa de los TEF (Testing and Experimentation Facilities) de la Unión Europea. Los TEF son instalaciones permanentes en la UE donde se pueden comprobar tecnologías digitales complejas en entornos del mundo real. El equipo de VRAIN forma parte del TEF CitCom.ai, un grupo encargado de la tecnología aplicada a ciudades y comunidades inteligentes. La idea es que estas unidades actúen como filtro y salvaguarda entre los proveedores y empresas de tecnología y la sociedad para garantizar un uso adecuado de la IA. «Su objetivo es probar la IA y la robótica antes de que entre en lugares donde viven y se mueven los humanos. Y en este sentido estamos probando su aplicación en diversos dominios como energía, movilidad y en diversos servicios orientados a los ciudadanos», explica el director de VRAIN-UPV, Vicent Botti.

Este contenido es exclusivo para suscriptores

Empieza febrero de la mejor forma y suscríbete por menos de 5€

Publicidad