Ley de Inteligencia Artificial de la Unión Europea: las claves para entenderla
La inteligencia artificial es una tecnología de la que se lleva hablando mucho en la última década. Y en los últimos dos o tres años ha experimentado un avance importante. Además, muchos desarrollos basados en IA se han dado a conocer entre el gran público, de manera que el usuario a pie de calle ya emplea inteligencia artificial directa o indirectamente. Era cuestión de tiempo que la Unión Europea se planteara crear una ley de inteligencia artificial para no quedarse atrás.
Asistentes virtuales, chatbots, buscadores, procesadores de texto, editores de imagen y video, mensajería instantánea… Prácticamente, cualquier herramienta digital que usamos hoy en día potencia y mejora su funcionamiento mediante inteligencia artificial. Y desde hace años, grandes descubrimientos en campos científicos y de investigación han sido posibles gracias al empleo de modelos de IA que han sido capaces de encontrar respuestas que el ser humano hubiera tardado décadas o siglos.
Como explica la propia Comisión Europea en su página oficial, “la mayoría de sistemas de IA no implican ningún riesgo y pueden contribuir a resolver muchos desafíos sociales”. Pero, claro está, esta ley de inteligencia artificial pretende anticiparse a los “riesgos que crean ciertos sistemas de IA”. Y así “evitar resultados indeseables” antes de que sucedan. Por ejemplo, “la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales sacadas de internet”.
¿Por qué una ley de Inteligencia Artificial?
“La ley de inteligencia artificial tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a los usos específicos de la IA”. Además, quiere facilitar a empresas y desarrolladores la posibilidad de trabajar en proyectos relacionados con inteligencia artificial. Reduciendo la burocracia y facilitando la financiación. O dicho de otra forma, por un lado, hay que poner ciertos límites. Y, por otro lado, conviene que la Unión Europea desarrolle sus propios modelos de IA para no depender de los que existen actualmente, principalmente en Estados Unidos.
La propuesta legislativa de la Unión Europea, la ley de inteligencia artificial, a través de la Comisión Europea, pretende “abordar los riesgos creados específicamente por las aplicaciones de IA” y “prohibir las prácticas de IA que plantean riesgos inaceptables”. Para ello, quienes trabajen en desarrollos de inteligencia artificial tendrán unas “obligaciones específicas”. Entre ellas, hacer una “evaluación antes de la puesta en servicio o la introducción en el mercado de un sistema de IA”.
En resumen, la Unión Europea quiere que los productos y servicios basados en inteligencia artificial “sean seguros y respeten los derechos de los ciudadanos”. Por ejemplo, una medida incluida en esta ley de inteligencia artificial sería “la obligación de los usuarios de un sistema de reconocimiento de emociones de informar a las personas físicas a las que se exponga un sistema de este tipo”.
Los niveles de riesgo de la IA
En la preparación de la ley de inteligencia artificial se han definido cuatro niveles de riesgo que la inteligencia artificial puede suponer para los ciudadanos europeos. Riesgo mínimo, riesgo limitado, alto riesgo y, finalmente, riesgo inaceptable. Hay que tener en cuenta que la IA está presente en toda clase de productos y servicios. Como explica la propia UE, “desde la puntuación social por parte de los gobiernos hasta los juguetes que utilizan asistencia de voz que fomentan comportamientos peligrosos”.
La IA de riesgo mínimo, claro está, puede usarse libremente. Aquí se englobarían videojuegos o filtros de spam. “La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría” según explica la Comisión Europea. En segundo lugar, la IA de riesgo limitado tiene que ver con la falta de transparencia. Esta nueva normativa europea, conocida como ley de inteligencia artificial, obliga a que el usuario esté informado cuando esté manejando un producto que emplea IA. Aquí destacan los chatbots. El cliente o usuario deberá saber que está hablando con una máquina operada por inteligencia artificial. Y que el contenido ha sido generado artificialmente. Esto afecta a texto, audio y video.
El nivel de riesgo alto es más delicado. Afecta a infraestructuras críticas como el transporte, formación educativa o profesional, seguridad de los productos (cirugía asistida por robot), empleo y gestión de trabajadores, servicios públicos o privados esenciales (calificación crediticia), solicitudes de visado, búsqueda de resoluciones judiciales… Estos usos de la IA deberán ser evaluados, alimentados por datos de calidad para minimizar resultados discriminatorios, garantizar la trazabilidad de los resultados, incluir documentación detallada del sistema de IA y facilitar la supervisión humana.
El largo viaje de la ley de inteligencia artificial
Propuesta por la Comisión Europea en la primavera de 2021, en diciembre de 2023, “el Parlamento Europeo y el Consejo de la UE alcanzaron un acuerdo político” sobre esta ley de inteligencia artificial. La ley entrará en vigor 20 días después de publicarse en el Diario Oficial. Y se aplicará dos años después. Es decir, en 2025. Las excepciones: las prohibiciones entrarán en vigor después de seis meses, las normas de gobernanza y obligaciones se aplicarán a los 12 meses. Y, finalmente, las normas para los sistemas de IA se aplicarán a los 36 meses.
Y para “garantizar el cumplimiento de la nueva normativa”, se creó la Oficina de la IA en la Comisión Europea. Su papel es “supervisar que los Estados miembros aplican las nuevas normativas”. Por otro lado, se creó el Pacto de la IA, una iniciativa para apoyar a desarrolladores y empresas europeos y de otros países en el cumplimiento de las obligaciones que se derivan de la ley de inteligencia artificial.
Artículo cortesía de Blog Think Big/ Por: José María López