LP

Los valencianos encargados de evaluar a Chat GPT-4: «Esta herramienta es una revolución»

Un equipo de investigadores de la UPV ha participado en el «red team» de GPT-4 con el objetivo de encontrar fallos y vulnerabilidades en el sistema

Chema Bermell

Lunes, 15 de enero 2024, 17:27

La Inteligencia Artificial (IA) ha emergido como una fuerza transformadora, remodelando industrias, optimizando procesos y desafiando las nociones convencionales de lo que es posible. En este contexto, ChatGPT, una creación de OpenAI, ha sido el hito que ha abierto la puerta a un ... nuevo paradigma de interacción entre humanos y máquinas.Un equipo de investigadores del instituto VRAIN de la Universitat Politècnica de València (UPV) colaboró el pasado año con OpenAI en la evaluación y mejora de GPT-4, el último modelo de lenguaje basado en inteligencia artificial lanzado por la compañía estadounidense en marzo de 2023. Han sido parte del «red team» de GPT-4, cuya misión era encontrar fallos y vulnerabilidades en el sistema, así como evaluar sus capacidades y posibles riesgos asociados a su uso.

Publicidad

Compuesto por Yael Moros, Lexin Zhou, Wout Schellaert y dirigido por los investigadores de la UPV, Cèsar Ferri y José Hernández-Orallo, el equipo ha trabajado en la identificación de riesgos y vulnerabilidades en el sistema. Cuenta su experiencia el profesor de la UPV, Cèsar Ferri, quien señala que esta herramienta es «una revolución».

- Desde que se ha abierto el uso de herramientas de IA al conjunto de la sociedad están surgiendo innumerables aplicaciones, ¿cómo están transformando a la sociedad?

- Sí que ha habido una pequeña revolución desde la irrupción de herramientas generativas de IA y aún estamos en una fase muy prematura. ChatGPT lleva poco funcionando para todo el mundo y aún estamos observando las primeras transformaciones. Sectores como la educación, el derecho, e incluso el periodismo, están viviendo el impacto de estas aplicaciones. Estas herramientas acaban de llegar, con lo que estamos aún viendo los primeros efectos en la sociedad.

- Ante este auge de IA ha surgido un cierto miedo por parte de la sociedad. ¿Puede de verdad convertirse en una amenaza el uso de estas herramientas?

- Cualquier irrupción disruptiva siempre genera muchos miedos. Esto recuerda un poco lo que pasó cuando llegó Internet y se popularizaron las redes sociales. Al final tuvimos que aprender que cualquier contenido que existe en Internet no significa que sea cierto. Estamos en una situación parecida ahora. Tenemos que aprender que cualquier texto o imagen bien elaborada no significa que sea cierto. Sí, tenemos que tenerle miedo, pero tenemos que aprender a adaptarnos a esta situación, porque es muy difícil regular este tipo de herramientas, es como ponerle puertas al campo.

Publicidad

- ¿Cómo perderle el miedo?

- Debemos entender cómo funcionan. Son herramientas que generan texto de manera más o menos inteligente, pero detrás no hay razonamiento ni sentido común. Debemos entender que estas herramientas son útiles para generar textos relativamente bien escritos, pero no tenemos que dar por sentado que lo que genera es certero. Necesitamos un filtro o una verificación humana para asegurarnos que lo que genera tiene sentido. Son herramientas que nos van a ayudar a mejorar la productividad pero debemos comprender cómo funcionan y que tienen limitaciones.-Al final siempre habrá una persona detrás… Actualmente es necesario tener una persona detrás que verifique que el contenido generado es válido para cumplir su función. -En esta línea, ¿qué esfuerzos se están haciendo para que se haga un buen uso de la IA?Se han hecho esfuerzos, como los que hicimos nosotros con la colaboración con OpenAI, para intentar filtrar el contenido que muestra la herramienta, en este caso Chat GPT. Por ejemplo, evitar que te enseñe a montar un arma o una bomba o que genere texto con sesgos sexistas o racistas. Sí que se puede intentar colocar filtros para evitar hacer un uso malévolo de estas herramientas. Es complicado, pero si se logra filtrar la mayoría de prompts que generan texto peligroso, es un paso adelante. Es por ahí por donde están yendo estas compañías.

Publicidad

- ¿Cómo fue la experiencia con OpenAI? ¿Qué tarea realizasteis?

- Nos dieron acceso a GPT-4 en septiembre de 2022 y estuvimos trabajando en la evaluación, en el red team, hasta que se puso en marcha en marzo de 2023. Parte de nuestra labor fue evaluar lo bien que lo hacía la herramienta en algunas tareas básicas como, por ejemplo, tareas aritméticas, tareas de lógica o tareas de razonamiento. Aparte de esto, también realizamos labores de detección de texto que pudiera ser peligroso. Intentábamos ver los prompts que permitían que la herramienta ofreciera información sensible para pasarlo a la compañía y que ellos lo filtraran.

- ¿A qué conclusiones llegastéis?

- La herramienta sí que tenía filtros, con lo que muchas veces detectaba los prompts más obvios, pero algunos que eran un poco más elaborados no eran detectados. Las conclusiones fueron que en cierta manera había que trabajar y hacer los filtros más sofisticados que es lo que hizo la compañía. Durante este periodo de 6 meses, todo el equipo de red team, que éramos entre 40 y 50 personas en todo el mundo, proporcionó información a Open AI para mejorar esta labor de filtrado de resultados peligrosos.

Publicidad

- Por otro lado, ¿qué potencialidades vistéis en GPT-4?

- Nos maravilló la capacidad de resolución de problemas que tiene. Problemas que a priori no debería resolver pero la herramienta es capaz de hacerlo. Evaluamos problemas lógicos, de razonamiento, y muchas veces funcionaba bastante bien. Recientemente evalúe en compañía de un alumno para su trabajo de fin de grado la capacidad de jugar al ajedrez y la herramienta era capaz de jugar o de resolver puzzles de ajedrez. Nosotros en VRAIN tenemos más de 20 años de experiencia en IA, el salto que ha supuesto esta herramienta es tremendo. Es una revolución.

- ¿Seguís colaborando con OpenAI?

Publicidad

- Sí, actualmente tenemos una colaboración activa con OpenAI. Ahora mismo no estamos trabajando en el red team, pero sí que nos dan acceso prematuro a futuras herramientas o actualizaciones que realizan.

- ¿Qué esperar en el futuro?

- Esta herramienta, ChatGPT, y su empresa matriz, OpenAI, han marcado el camino a seguir. En cierto sentido, empresas como Google o Amazon están apostando por la creación de modelos de lenguaje masivos en la misma línea. Sin embargo, se está trazando un camino cada vez más extenso y potente, lo que puede generar problemas más complejos. Aunque la herramienta muestra resultados prometedores, existe una crítica debido a que genera texto sin un conocimiento profundo y puede cometer errores triviales sin ser consciente. La IA enfrenta críticas sobre la falta de razonamiento y sentido común en sus enfoques. A pesar de sus ventajas, la herramienta no es perfecta y presenta debilidades.

Noticia Patrocinada

- ¿Cómo fue la experiencia a nivel personal?

- Para mí ha sido una experiencia fantástica. El hecho de poder utilizar de primera mano estas herramientas desde antes de su lanzamiento, como investigador en IA, ha sido una experiencia fabulosa. Es estar en la cresta de la ola en el momento adecuado, porque esta herramienta ha sido una revolución.

- Por último, ¿cómo será el futuro que marque la IA?

- Yo soy optimista y creo que herramientas como ChatGPT, si se hace un buen uso, pueden facilitar y reportar beneficios importantes a la sociedad. Todo tiene sus riesgos, pero al final es como cualquier revolución tecnológica, depende del uso que hagamos de ella es lo que va a determinar si ayudan a la sociedad o no. Desde luego el beneficio para la sociedad si somos capaces de articularlo correctamente va a ser importante.

Este contenido es exclusivo para suscriptores

Empieza febrero de la mejor forma y suscríbete por menos de 5€

Publicidad