_
_
_
_
En colaboración conLa Ley
_

La UE se prepara para endurecer el uso del ChatGPT

Los proveedores de sistemas de IA de alto riesgo deberán someterse a un severo test

Getty Images

España ejercerá por quinta vez la presidencia del Consejo de la Unión Europea (UE) en el próximo semestre y durante su mandato tendrá que cerrar el expediente legislativo de la herramienta de inteligencia artificial (IA).

Actualmente, el reglamento por el que se establecen normas armonizadas en materia de IA se encuentra a debate en el Parlamento Europeo a la espera de que en los próximos días se apruebe su versión definitiva. La Comisión Europea, el Parlamento y el Consejo tendrán que consensuar una opinión común, y España será la encargada de terminar todas las negociaciones de este triálogo para su aprobación final.

La norma está “previsto que se apruebe en enero de 2024”, ha reconocido Carme Artigas, secretaria de Estado para la Digitalización y la Inteligencia Artificial, en una reciente entrevista en El País. España ha mostrado su compromiso con el reglamento al liderar el sandbox (banco de pruebas) regulatorio que incluye el estudio de algoritmos para ensayar la eficacia de un marco jurídico que no pretende regular los sistemas de IA, sino los riesgos de sus aplicaciones.

Uno de los principales escollos del reglamento ha sido “establecer el concepto de IA para que sea aplicable conceptualmente también a los nuevos avances tecnológicos”, aseguró Julián García Marcos, magistrado de la Audiencia Provincial de Gipuzkoa, durante un reciente encuentro organizado por La Ley.

Definición de IA

El Consejo de la UE ha definido la IA como un sistema diseñado para funcionar con un cierto nivel de autonomía con datos proporcionados para lograr unos objetivos definidos por humanos utilizando aprendizaje para producir contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que el sistema interactúa. García Marcos considera que “es una definición tecnológicamente neutra y que responderá bien al paso del tiempo”.

La regulación legal de esta tecnología se fundamenta en los diferentes riesgos que se pueden distinguir en su utilización. El reglamento establece un riesgo inaceptable y, por tanto, prohíbe el uso de sistemas contrarios a los valores fundamentales de la UE. Entre estas prohibiciones se encuentra la utilización de técnicas subliminales con el objetivo de alterar el comportamiento de las personas; los sistemas que aprovechen las vulnerabilidades de un grupo específico de personas, o la utilización de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público por las autoridades encargadas de la prevención, investigación, detección o enjuiciamiento de delitos. En cambio, destaca García Marcos, la herramienta no está prohibida cuando la usan empresas y personas privadas, aunque sí se considera de alto riesgo.

Otro de los pilares de la futura norma es considerar una serie de sistemas de IA como de alto riesgo, siempre que cumplan dos condiciones. En primer lugar, que sean componentes de seguridad de productos contemplados en la legislación de armonización de la UE, como máquinas, juguetes, embarcaciones, equipos de protección, etc. Además, deben estar incluidos en el listado de sectores del anexo III de la propuesta: biometría, educación, empleo, acceso a servicios esenciales, aplicación de la ley, migración o justicia.

Dentro de los sistemas de alto riesgo se encuentran, entre otros, los destinados a la selección de puestos de trabajo o al acceso a servicios públicos esenciales.

Uso de ChatGPT

El Consejo Europeo ha introducido una nueva categoría denominada sistemas de IA de propósito general que realizan funciones genéricas como reconocimiento de imágenes y de voz, generación de audio y vídeo, detección de patrones, y ofrecen respuestas a preguntas como es el ChatGPT. El magistrado García Marcos asegura que “los proveedores de estos sistemas habrán de sujetarse al procedimiento de verificación previsto para la IA de alto riesgo”, garantizando que sus usuarios estén informados de que interactúan con un sistema de inteligencia artificial.

En el ámbito europeo Italia ha sido el primer país que ha prohibido el uso de ChatGPT porque le falta una base legal para la recopilación de datos y además está abierto a personas menores de edad.

Archivado En

_
_