La Eurocámara se opone a la vigilancia en tiempo real y regula los sistemas GPT
Órgano aprobó ayer la ley de inteligencia artificial que se negocia en Bruselas.
El Parlamento Europeo se opuso ayer a la vigilancia biométrica en tiempo real e impuso condiciones para los nuevos sistemas como ChatGPT, al aprobar la ley de inteligencia artificial que se está negociando en Bruselas para impulsar su desarrollo, limitando a su vez los posibles riesgos.
Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara fijó así su posición de cara a las negociaciones que empezaron ayer con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley.
Entre las demandas del Parlamento Europeo está prohibir la vigilancia biométrica en tiempo real en espacios públicos, contrario a lo que defienden el Ejecutivo comunitario y los países de la UE, que apuestan por permitirla si la autoriza un juez, en casos muy específicos.
Gpt
En pleno debate sobre la necesidad de regular los sistemas que son capaces de generar texto y material audiovisual, el Parlamento quiere que sus desarrolladores demuestren que redujeron los riesgos que la tecnología pueda generar a la salud, a los derechos fundamentales y al sistema democrático.
Los eurodiputados también quieren que los usuarios que utilicen esta tecnología para generar imágenes falsas ("deep fakes") especifiquen que el contenido se ha manipulado mediante inteligencia artificial.
Asimismo, piden que los desarrolladores de estos sistemas expliquen de forma "suficientemente detallada" qué datos protegidos por derechos de autor utilizaron para entrenar a la inteligencia artificial.
Identificación biométrica
El Parlamento Europeo se opuso a la utilización de los sistemas de identificación biométrica en tiempo real en espacios públicos. Los eurodiputados, no obstante, sí abrieron la puerta a poderlos utilizar a posteriori, siempre con autorización judicial, para perseguir "delitos graves".
La Eurocámara rechazó así la enmienda del Partido Popular Europeo, más laxa con la protección de los derechos fundamentales.
El PPE se mostró a favor de poder utilizar estos sistemas, con permiso de un juez, para buscar a personas desaparecidas (incluidos menores), prevenir un atentado terrorista y localizar a quienes hayan cometido un delito que acarree al menos tres años de prisión.
Alto riesgo
La normativa califica de alto riesgo a una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.
Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.
Tras un voto que la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager, calificó de "histórico", se iniciaron las negociaciones entre las tres instituciones europeas para pactar el texto definitivo.Si concluyen este año, la ley no se empezaría a aplicar hasta 2026, por lo que Bruselas propuso un pacto entre las grandes tecnológicas para etiquetar ahora todo el contenido falso que se genere con inteligencia artificial.-