Con el ánimo de regular el uso de la Inteligencia Artificial, la Unión Europea (UE) alcanzó un acuerdo provisional sobre un proyecto de ley en la materia.
El Consejo Europeo comunicó que acordó con el Parlamento Europeo y la Comisión Europea (CE) el histórico proyecto de Ley de IA que busca garantizar que los sistemas utilizados en la UE respeten los derechos humanos fundamentales.
Se especifica que el reglamento no se aplicaría a los despliegues de IA para aplicaciones militares y de defensa, a las de investigación y a las no profesionales para los consumidores.
La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, enfatizó en el valor y las posibilidades que abre esta nueva ley. Centrándose en los “riesgos identificables”, la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación.
Las autoridades han acordado un formato según el cual los sistemas de IA se clasificarían como de riesgo mínimo, alto o inaceptable.
Tecnologías como los filtros de correo no deseado (spam) y las recomendaciones inteligentes se clasificarán como de riesgo mínimo; en cambio, la IA utilizada en infraestructuras críticas, dispositivos médicos, instituciones laborales o educativas, control de fronteras, administración de justicia y policía se consideran de alto riesgo.
Los sistemas de IA considerados “una clara amenaza” a los derechos fundamentales del público serán prohibidos por considerarlos “riesgos inaceptables”. Ello incluye los sistemas que habilitan una vigilancia policial predictiva, el crédito social y la manipulación del comportamiento humano.
También se prohibirán algunos usos de la identificación o el monitoreo biométrico, con “estrechas excepciones” para la vigilancia de espacios públicos.
La CE señaló que existirán “obligaciones vinculantes adicionales” para los modelos de IA de propósito general más potentes “que puedan plantear riesgos sistémicos”.
La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de “alto impacto”, que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.
Sanciones
Se prevén varios niveles de sanciones financieras para las empresas que no cumplan las normas propuestas: 35 millones de euros o el 7% de la facturación anual global “por violaciones de aplicaciones de IA prohibidas”; 15 millones de euros o el 3% por incumplimiento de “otras obligaciones”; y 7,5 millones de euros o el 1,5% “por proporcionar información incorrecta”.
Las autoridades han prometido unos límites “más proporcionados” para las pymes y las empresas incipientes.
Dado que la directiva deberá ser aprobada formalmente por las instituciones europeas y, posteriormente, por cada uno de los 27 Estados miembros, es poco probable que entre en vigor antes del año 2025.