Urgente Tres afortunados se reparten 105.000 euros con la Primitiva de este lunes
Lorenzo Cotino, catedrático de Derecho Constitucional de la UV. LP

Lorenzo Cotino: «La regulación de la IA asegura que un automóvil o sistema en el corazón no sea hackeable»

El experto aporta algunas claves sobre el marco regulatorio aprobado en Bruselas tras 36 horas intensas de negociaciones y que ha soliviantado al sector por considerar que lastra la innovación

Lunes, 18 de diciembre 2023, 19:59

La expresión de luces y sombras va como anillo al dedo para todo lo relacionado con la Inteligencia Artificial (IA), tan en boga últimamente. Y ... es que, ofrece tantas posibilidades como riesgos y peligros. Precisamente, por esta segunda esfera, el Parlamento de la Unión Europea anunció el pasado 9 de diciembre el primer acuerdo a nivel mundial para legislar la inteligencia artificial (IA).

Publicidad

Sin embargo, este nuevo marco regulatorio, que ha requerido 36 horas de intensa negociación, ha puesto en pie al sector tecnológico al considerar que supondrá un lastre para la innovación. Pero para conocer mejor los aspectos clave de este entramado jurídico, LAS PROVINCIAS ha recurrido a Lorenzo Cotino, catedrático de Derecho Constitucional de la Universitat de Valencia (UV) y experto de la Fundación ValgrAI.

Lo primero de todo, Cotino admite que «es cierto» que la regulación puede jugar en contra del desarrollo en cierto sentido. «Sin duda alguna puede frenar la innovación, pero lo que ha hecho Europa es sólo regular lo que es más peligroso», afirma. En ese sentido, agrega que la Unión Europea funciona con un modelo de regular todo aquello que conlleve un riesgo. «El modelo en general sí que es positivo. A más riesgo, más obligaciones. Si bien es cierto que cumplir estas normativas nos sitúa a los europeos en desventaja respecto a otras zonas donde desarrollar IA será más fácil», matiza.

Pero, ¿qué es lo que ha hecho exactamente la Unión Europea? ¿Qué prohíbe y qué permite? «Lo que se publicó el fin de semana anterior fue un acuerdo con 4.000 enmiendas, porque siempre hay divergencias entre Parlamento y el Consejo. Había muchos temas que discutir. Pero el armazón lo han sacado adelante y contiene, por un lado, la lista de tecnologías prohibidas, las de alto riesgo y, luego, la regulación para modelos fundacionales, que son estos chatbots como ChatGPT de Open AI y Bard de Microsoft», explica Cotino.

Publicidad

A los que quedan fuera de estas tres opciones, en principio, no se les aplica el reglamento, salvo que voluntariamente se lo quieran aplicar. En concreto, en la lista de prohibidos se contemplan aquellos sistemas que manipulen y hagan daño a las personas, como las técnicas subliminales. También se prohíbe el uso de la IA para el control social desde el sector público, tal y como hace China, que cuenta con un sistema de crédito socia para descalificar a los ciudadanos y basarse en hechos e, incluso, predicciones para vetarles ayudas, subvenciones o espacios.

«Uno de los grandes melones son los sistemas de reconocimiento facial e identificación biométrica, porque permite tener controlada a la población. Hay parte que estaba prohibido y otra que excepcionalmente se puede hacer si hay autorización judicial, pero habrá que ver los detalles», indica Cotino, que subraya que el reconocimiento facial denominado «uno a uno», que ya se utiliza a través de los 'smartphone', es «menos peligroso» y ya tiene mucha regulación.

Publicidad

«Pero una cuestión diferente es poner ese sistema en la calle, para que directamente, cuando entres a un supermercado, a la compañía le aparezcan datos respecto a la persona. Eso puede ser muy bueno para la seguridad, al poder identificar terroristas y personas peligrosas, pero se necesitan muchas garantías. A todos nos gustan que nos protejan y lo importante es que si se hace, se hagan con todas las garantías», señala Cotino al respecto de este dilema.

Al reconocimiento facial le sigue el reconocimiento de emociones a través de la IA, una herramienta que puede usarse en una entrevista de trabajo o en un juicio para ver si una persona miente o no miente. «Distintas instituciones pedían que se prohibiera o bien permitirla sólo en algunos casos. Se ha puesto en el listado de prohibiciones, pero con excepciones. Lo que habría que ver es cómo se utiliza, ya que podía usarse para detectar depresiones con un simple informe de consentimiento. Ahora, lo que se ha hecho es restringirlo al sector público», prosigue el experto, que añade que el reconocimiento de emociones «nos lo están haciendo ya».

Publicidad

Hay que tener en cuenta que el 95% del reglamento se centra en regular los sistemas de alto riesgo. «El modelo que tiene Europa es una normativa parecida a la que rige el funcionamiento de los ascensores o el sector del juguete. Normalmente cuando hay un producto con algún tipo de peligro, la UE establece unas directrices», ejemplifica. En ese sentido, destaca la importancia de la regulación cuando la IA se aplica a campos sanitarios o del transporte, donde se pone en juego la vida. Y por ello, el nuevo marco regulatorio establece obligaciones de supervisión. «Se trata de controlar de manera competente y recibe el nombre de obligaciones de supervisión humana. De este modo, aseguramos que un coche autónomo o un sistema en el corazón no sea 'hackeable'», expresa.

No solo los relacionados con el sector sanitario o radioeléctrico son considerados de alto riesgo, también hay otros ámbitos como el educativo, donde la IA se puede emplear para la evaluación de alumnos o su admisión en un centro; en el empleo, para decidir a quién se contrata; o incluso financiero, para saber si otorgar créditos bancarios o autorizar ciertas operaciones. Esto mismo también se puede aplicar desde el sector público para comprobar a quién dar o no subvenciones o en el ámbito penal para averiguar si una persona tiene riesgo de ser reincidente. En todos estos casos habrá una serie de obligaciones y restricciones específicas.

Publicidad

«Además, deben cumplir una serie de normas técnicas y diseño que promuevan el uso de datos de calidad. También se exige a la empresa desarrolladora informe bien sobre la tecnología al cliente», añade Cotino, quien destaca que uno de los aspectos más polémicos ha sido la negociación de los modelos fundacionales, es decir, la regulación de sistemas como ChatGPT. «Son sistemas de IA que sirven un poco para todo; desde crear un virus hasta para que te explique el propio reglamento de IA», afirma.

«Aunque estos modelos se regulen, se deja claro que no son de alto riesgo, pero tienen que cumplir una serie de obligaciones, parecidas a las anteriores. Por ejemplo, se están creando muchas aplicaciones usando ChatGPT. Entonces, se trata que los desarrolladores tengan información suficiente por parte de ChatGPT de los errores que puede tener esta herramienta; que diga cuáles son sus bases de datos, que haya transparencia para identificar sesgos y errores», explica. Todo este marco, además, se coronará con una autoridad encargada de vigilar que toda esta normativa se cumpla.

Noticia Patrocinada

Ahora, falta ver la redacción final y, sobre todo, cómo lo aplicarán las empresas desarrolladoras de herramientas basadas en la IA. Por lo pronto, está pendiente de la ratificación por parte del Parlamento Europeo y el Consejo de la Unión Europea, que representa a los Gobiernos de los Estados miembro.

Este contenido es exclusivo para suscriptores

Suscríbete a Las Provincias: 3 meses por 1€

Publicidad