Parlamento Europeo ratifica la Ley de inteligencia artificial y en esto consiste

Se planea regular modelos de IA como ChatGPT de OpenAI o Google Gemini.

0
442

(Aeronoticias): El Parlamento Europeo ratificó la primera Ley de inteligencia artificial, pactada en diciembre pasado, por lo que avanza en su aprobación definitiva en la Unión Europea. ¿En qué consiste esta normativa y qué consecuencias traerá si se pone en vigencia en el 2026?

La ley, conocida como «Ley de IA», fue propuesta por primera vez en abril de 2021 por la Comisión Europea, el brazo ejecutivo de la UE. Pero no fue hasta el 2022, con el lanzamiento de ChatGPT, que se puso sobre la mesa seriamente.

La regulación de gran alcance fue aprobada con el apoyo de 523 legisladores en el Parlamento Europeo en Estrasburgo, Francia, y 46 votaron en contra. Se espera que los 27 estados de la Unión Europea respalden la Ley de inteligencia artificial en abril antes de que se publique en el Diario Oficial de la UE en mayo o junio.

«Hoy es nuevamente un día histórico en nuestro largo camino hacia la regulación de la IA», dijo Brando Benifei, un legislador italiano que impulsó el texto en el parlamento junto con el eurodiputado rumano Dragos Tudorache.

«(Esta es) la primera regulación en el mundo que está abriendo un camino claro hacia un desarrollo seguro y centrado en el ser humano de la IA», añadió Benifei.
«Logramos encontrar ese equilibrio tan delicado entre el interés de innovar y el interés de proteger», dijo Tudorache a los periodistas antes de la votación.

La normativa para regular la inteligencia artificial, incluidos sistemas potentes como ChatGPT de OpenAI, entrará en vigor 12 meses después de que la ley se haga oficial, mientras que las empresas deben cumplir con la mayoría de las demás disposiciones en dos años.

¿En qué consiste la ley de inteligencia artificial?
Las normas se basan en el riesgo: cuanto más riesgoso es el sistema, más estrictos son los requisitos, con prohibiciones absolutas de las herramientas de IA que se consideran más amenazantes.

Por ejemplo, los proveedores de IA de alto riesgo -que deberán ser definidos por la UE- deben realizar evaluaciones de riesgos y garantizar que sus productos cumplan con la ley antes de ponerse a disposición del público.

«Regulamos lo menos posible y lo necesario, con medidas proporcionadas para los modelos de IA», afirmó Breton a la AFP. De acuerdo a la ley de IA, los desarrolladores de modelos de inteligencia artificial tendrán que dar detalles sobre qué contenido utilizaron (como texto o imágenes) para entrenar sus sistemas y cumplir con la ley de derechos de autor de la UE.

Las infracciones pueden hacer que las empresas reciban multas que oscilan entre 7,5 millones y 35 millones de euros (entre 8,2 y 38,2 millones de dólares), dependiendo del tipo de infracción y del tamaño de la empresa.

Los ciudadanos de la UE tendrán derecho a quejarse de los sistemas de IA, mientras que los organismos públicos deberán registrar los sistemas de IA de alto riesgo que implementen en una base de datos pública de la UE. Las normas también prohíben el reconocimiento facial en tiempo real en espacios públicos.

En ese sentido los agentes de policía no pueden utilizar tecnología de reconocimiento facial en tiempo real, que utilizan información biométrica para inferir la raza, religión u orientación sexual de un individuo, con excepciones de sospechosa de un delito grave, como violación o terrorismo. La policía puede solicitar el uso de la tecnología para encontrar víctimas de secuestro o trata, sujeto a la aprobación de un juez u otra autoridad judicial, y para un uso limitado en tiempo y lugar.

Las normas también estipulan que los ciudadanos deben ser conscientes cuando tratan con IA.

Por ejemplo, las imágenes deepfake producidas con IA deben etiquetarse como tales, mientras que los chatbots deben decir que funcionan con inteligencia artificial en sus interacciones. 

Fuente: Andina Agencia Peruana de Noticias

Dejar respuesta

Please enter your comment!
Please enter your name here