MEPs en Europa aprobaron nuevas reglas transparentes y de gestión de riesgos para sistemas de Inteligencia Artificial (IA) para asegurar un desarrollo ético y centrado en el ser humano. Una vez aprobadas, serán las primeras normas en el mundo de IA. Los diputados incluyeron prohibiciones sobre la vigilancia biométrica, el reconocimiento de emociones y sistemas de IA de predicción policial, y también diseñaron regímenes personalizados para IA general y modelos fundamentales, como GPT. Los usuarios tendrán el derecho de presentar quejas sobre sistemas de IA. Con 84 votos a favor, 7 en contra y 12 abstenciones, el Comité del Mercado Interior y el Comité de Libertades Civiles adoptaron un mandato de negociación en un proyecto de reglas. Con sus enmiendas a la propuesta de la Comisión, los diputados buscan asegurarse de que los sistemas de IA sean supervisados por personas y sean seguros, transparentes, rastreables, no discriminativos y respetuosos con el medio ambiente. También quieren tener una definición uniforme para la IA diseñada para ser tecnológicamente neutral, para que pueda aplicarse a los sistemas de IA de hoy y de mañana.
Las reglas siguen un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios según el nivel de riesgo que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas se prohibirán estrictamente, incluyendo sistemas que utilicen técnicas subliminales o manipulativas de manera intencional, exploten las debilidades de las personas o se utilicen para la clasificación social (clasificación según el comportamiento social, estado socioeconómico, características personales).
Los diputados sustancialmente ampliaron la lista para incluir prohibiciones sobre el uso intrusivo y discriminatorio de sistemas de IA, como sistemas de identificación biométrica remota en tiempo real en espacios públicos, sistemas de identificación biométrica remota y sistemas de categorización biométrica utilizando características sensibles, como género, raza, etnia, ciudadanía, religión o orientación política. Los sistemas de policía predictiva, los sistemas de reconocimiento de emociones en las fuerzas de seguridad, la gestión de fronteras, el lugar de trabajo y las instituciones educativas y el rastreo indiscriminado de datos biométricos de las redes sociales o imágenes de CCTV también se incluyeron en la lista.
Los diputados ampliaron la clasificación de áreas de alto riesgo para incluir el daño a la salud, seguridad, derechos fundamentales o el medio ambiente y añadieron sistemas de IA para influir en los votantes en campañas políticas y sistemas recomendados utilizados por plataformas de redes sociales (con más de 45 millones de usuarios según la Ley de Servicios Digitales) a la lista de alto riesgo.
Los diputados también incluyeron obligaciones para proveedores de modelos fundamentales, una nueva y rápida evolución en el campo de la IA, que tendrán que garantizar la protección robusta de los derechos fundamentales, la salud, la seguridad, el medio ambiente, la democracia y el estado de derecho. También deberán evaluar y mitigar los riesgos, cumplir con los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE. Los modelos de fundación generativos, como GPT, tendrán que cumplir con requisitos adicionales de transparencia, como revelar que el contenido fue generado por la IA, diseñar el modelo para evitar la generación de contenido ilegal y publicar resúmenes de los datos con derechos de autor utilizados para el entrenamiento.
Para impulsar la innovación de IA, se agregaron exenciones a estas reglas para actividades de investigación y componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve cajas de arena reguladoras o entornos controlados establecidos por autoridades públicas para probar la IA antes de su implementación.
Los diputados quieren aumentar el derecho de los ciudadanos a presentar quejas sobre sistemas de IA y recibir explicaciones de decisiones basadas en sistemas de IA de alto riesgo que afectan significativamente sus derechos. Los diputados también reformaron el papel de la Oficina de IA de la UE, que se encargaría de supervisar la implementación del reglamento de IA.
Una vez que se apruebe el mandato de negociación en un proyecto de reglas, se pueden comenzar las negociaciones con el Consejo sobre la forma final de la ley, y se espera que la votación tenga lugar durante la sesión del 12 al 15 de junio.