Introducción
El avance de la tecnología en los últimos diez años ha supuesto grandes beneficios, pero también múltiples desafíos para la humanidad. Entre estos retos se encuentra la regulación de la Inteligencia Artificial (IA) en sus aplicaciones.
El presente documento desvelará información sobre el estado actual de la regulación de la Inteligencia Artificial en la Unión Europea (UE), así como diferentes aspectos de la Ley de IA de la Comisión Europea (Ley de IA), la cual se prevé que entre en vigor en 2026.
Atención
PAÍSES QUE LEGISLAN REGULACIONES PARA LA IA
Europa, junto con China y el G7, han sido los primeros en establecer una serie de pautas y comenzar a legislar las limitaciones que el ser humano debe tener en cuenta a la hora de desarrollar cualquier sistema afectado por la IA.
VÍDEO
Se explica por qué es necesario regular el uso de la IA, qué debe contener la normativa y cuáles son las iniciativas actuales para establecer un marco ético y legal. Se introduce la Ley de Inteligencia Artificial de la Comisión Europea de abril de 2021 sin profundizar en ella demasiado.
¿Por qué es necesario regular la Inteligencia Artificial?
Se prevé que la IA aportará muchos beneficios económicos y sociales en diferentes sectores. Esta tecnología es muy útil para mejorar la predicción, optimizar operaciones y recursos, o personalizar servicios.
Nota
RIESGO CONTRA LA CARTA DE DERECHOS FUNDAMENTALES
No obstante, existen preocupaciones sobre cómo los sistemas IA podrían afectar a los derechos fundamentales, como la no discriminación, o la seguridad y privacidad de los usuarios que utilizan productos o servicios que integran IA.
Los objetivos principales de la Ley de IA de la Comisión Europea son:
1 | Garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
2 | Estimular la inversión y la innovación en el ámbito de la IA en Europa. El acuerdo establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor.
Antecedentes
Ante el vertiginoso avance, la regulación de la IA se ha convertido en una cuestión central en la UE. Los políticos trabajan para desarrollar un enfoque “humano” que garantice que las políticas benefician a los ciudadanos de la unión, respetando los valores de la UE.
A nivel internacional, otros países están implementando legislación y políticas para regular la IA. Aunque inicialmente algunos países como Estados Unidos adoptaron un enfoque menos estricto, impera la tendencia hacia una mayor regulación.
Organizaciones como la Organización para la Cooperación y el Desarrollo Económico (OCDE) y las Naciones Unidas (UNESCO) han establecido principios y recomendaciones éticas para guiar el desarrollo y el uso responsable de la IA.
Atención
EL LIBRO BLANCO SOBRE LA IA (2020)
Esto concluyó en la propuesta de una serie de normas que abordaban riesgos y promovían el uso responsable de la IA, recogidas en “El libro blanco sobre IA” en 2020.
Saber más
Briefing EU Artificial Intelligence act (e.digitall.org.es/ai-act). Parlamento Europeo (2024).
Las claves de la nueva ley de Inteligencia Artificial. (e.digitall.org.es/europa-ia). Comisión Europea (2024).
Categorías de riesgo
La Comisión Europea ha propuesto un marco regulatorio para abordar los desafíos y riesgos asociados al uso de la IA en la Unión Europea. Este marco se centra en un enfoque basado en el riesgo, que busca equilibrar la promoción de la innovación y el desarrollo tecnológico con la protección de los derechos fundamentales y la protección de los ciudadanos.
A continuación, se exponen las cinco categorías y algunos ejemplos: riesgo mínimo, alto riesgo, riesgo inadmisible, riesgo específico de transparencia, y riesgos sistémicos.
Riesgo mínimo
El riesgo mínimo en la IA se refiere a los sistemas que no representan una amenaza significativa para la seguridad o los derechos fundamentales de las personas. Estos sistemas pueden operar dentro de las leyes y regulaciones existentes.
Atención
FILTROS DE SPAM
Por ejemplo, un filtro de spam en el correo electrónico es un sistema de IA de bajo riesgo. Analiza los correos electrónicos entrantes y clasifica automáticamente los mensajes como spam o no spam. Este sistema no tiene un impacto significativo en la privacidad o la seguridad de los usuarios, ya que simplemente ayuda a organizar y mejorar la eficiencia del correo electrónico.
Alto riesgo
Los sistemas de IA de alto riesgo son aquellos que pueden tener un impacto significativo en la seguridad o los derechos fundamentales de las personas. Estos sistemas a menudo se utilizan en situaciones críticas donde se requiere precisión y fiabilidad.
Atención
LOS DIAGNÓSTICOS MÉDICOS APOYADOS EN IA
Por ejemplo, un sistema de IA utilizado en diagnósticos médicos es considerado de alto riesgo. Este sistema analiza imágenes médicas para detectar enfermedades o anomalías. Dado que las decisiones basadas en estos diagnósticos pueden afectar directamente al tratamiento y la atención médica de los pacientes, es crucial que el sistema sea altamente preciso y fiable.
Riesgo inadmisible: los usos prohibidos
Este tipo de riesgo se refiere a usos extremadamente perjudiciales de la inteligencia artificial que violan los valores y principios fundamentales. Estos sistemas tienen el potencial de causar daños graves a los individuos o a la sociedad en su conjunto. A continuación, se exponen ejemplos significativos del uso prohibido de la IA.
1 | Puntuación social con fines públicos o privados. Se refiere a la clasificación y puntuación de individuos en función de su comportamiento en línea o en la vida real. Esto puede ser utilizado para discriminar a las personas en áreas como la contratación, préstamos bancarios o acceso a servicios públicos. Este uso está prohibido porque viola el derecho a la privacidad y puede conducir a la discriminación injusta y al trato desigual de las personas.
2 | Identificación biométrica en lugares públicos. Implica el uso de sistemas de inteligencia artificial para identificar a personas mediante el reconocimiento facial en lugares públicos, sin su consentimiento. Esto podría utilizarse para la vigilancia masiva y la infracción de la privacidad de las personas en espacios públicos. Está prohibido debido a que vulnera el derecho a la privacidad y la libertad de movimiento de las personas.
3 | Actuación policial predictiva individual. Consiste en el uso de algoritmos de IA para predecir el comportamiento criminal de individuos específicos. Este enfoque está prohibido porque implica la criminalización anticipada de las personas sin evidencia concreta, lo que incumple el principio de presunción de inocencia y puede llevar a la discriminación étnica o racial.
4 | Reconocimiento de emociones en el lugar de trabajo y en instituciones Educativas. Implica el uso de IA para detectar y analizar las emociones de las personas en entornos laborales o educativos, sin su consentimiento explícito. Esta práctica está prohibida debido a que vulnera la privacidad emocional de los individuos y puede conducir al uso indebido de la información para tomar decisiones injustas o invasivas.
Riesgo específico para la transparencia
Este tipo de riesgo se refiere a los sistemas de IA que pueden ser susceptibles a la manipulación o tener un impacto negativo en los usuarios si no se comprenden completamente. Estos sistemas pueden requerir una mayor transparencia para garantizar su uso ético y responsable.
Atención
LOS SISTEMAS DE RECONOCIMIENTO FACIAL
Por ejemplo, un sistema de reconocimiento facial utilizado para el acceso a lugares públicos podría requerir transparencia adicional. Las personas deben ser conscientes de cuándo están interactuando con una máquina y no con una persona, para evitar confusiones o malentendidos sobre el propósito y la capacidad del sistema.
Se refieren a posibles consecuencias negativas derivadas del uso extendido de modelos de IA avanzados. Estos modelos, como los grandes modelos generativos, son altamente potentes y versátiles, pero su amplio alcance puede ocasionar problemas si no se gestionan adecuadamente.
Atención
SISTEMAS DE DESINFORMACIÓN MASIVA Y CIBERATAQUES
Por ejemplo, podrían generar desinformación masiva o ser utilizados en ciberataques extensos. También pueden propagar sesgos nocivos en múltiples aplicaciones, como discriminación racial en sistemas de reconocimiento facial.
Saber más
La Comisión se congratula del acuerdo político sobre la Ley de Inteligencia Artificial (e.digitall.org.es/comision-ia). Comisión Europea (2023).
Inteligencia Artificial: Preguntas y respuestas. (e.digitall.org.es/ia-faqs) Comisión Europea (2023).
Desafíos complicados de legislar
Crear una ley para el uso de la IA enfrenta varios desafíos debido al dinamismo de esta tecnología. Uno de los principales desafíos se encuentra en la clasificación de diferentes tipos de IA, sobre todo a la hora de categorizar los sistemas considerados de alto riesgo.
Atención
LEGISLACIÓN FLEXIBLE
Además, la legislación debe ser lo suficientemente flexible para adaptarse y evolucionar con el tiempo para abordar los nuevos desafíos y riesgos que puedan surgir a medida que la tecnología avanza. Esto requiere mecanismos flexibles de actualización y revisión de la legislación, así como una colaboración estrecha entre los gobiernos, la industria y cualquier agente participante.
Cualquier riesgo que conlleve la posible vulneración de los derechos fundamentales de las personas supone un límite que debe reflejar la legislación. Es por lo tanto lógico que unos límites sean más difíciles de definir que otros. Este es el caso de la regulación de la identificación biométrica y de los sesgos que puede producir una IA por su entrenamiento. A continuación, se expone cómo la Ley de IA de la Comisión Europea enfrenta estos desafíos.
Regulación de la identificación biométrica
La Ley de IA regula el uso de la identificación biométrica de manera estricta. Se prohíbe específicamente su uso en tiempo real en lugares públicos, como el reconocimiento facial con cámaras de seguridad, a menos que se aplique en casos concretos bien definidos, para la prevención de delitos graves como el terrorismo o la trata de personas.
Atención
PERMISO JURÍDICO JUSTIFICADO
Para realizar la identificación biométrica remota, las autoridades necesitan el consentimiento y autorización explícita de un juez o jueza, asegurando que se respeten los derechos fundamentales de las personas. Además, en grabaciones también se requiere dicha autorización, protegiendo la privacidad de los ciudadanos.
Regulación de los sesgos raciales y de género en la Inteligencia Artificial
La IA puede incorporar sesgos de género y raciales debido a la naturaleza de su entrenamiento. Los algoritmos de IA aprenden a partir de conjuntos de datos históricos, que a menudo reflejan los sesgos presentes en la sociedad.
Por ejemplo, si los datos de entrenamiento están sesgados hacia ciertos grupos demográficos o reflejan estereotipos, es probable que el algoritmo reproduzca esos mismos sesgos en sus decisiones y resultados. Este fenómeno puede ocurrir de manera inadvertida, pero puede tener consecuencias significativas, manteniendo la discriminación y la desigualdad en las aplicaciones de IA.
Para que esto no ocurra, la Ley de IA establece las siguientes medidas:
- Requisitos obligatorios para sistemas de alto riesgo.
- Entrenamiento con datos representativos.
- Detección y corrección de sesgos.
- Realizar auditorías y seguimientos periódicos.
Saber más
Inteligencia Artificial: Preguntas y respuestas. (e.digitall.org.es/ia-faqs) Comisión Europea (2023).
Sanciones por infracción
En caso de que se utilicen o comercialicen sistemas de IA que no cumplan con los requisitos establecidos por la Ley de IA, los países de la UE deben aplicar sanciones efectivas, proporcionadas y disuasorias, que incluyan multas administrativas, por los delitos contra los derechos fundamentales. Debe informarse a la Comisión.
El Reglamento establece diferentes umbrales a considerar para estas multas.
INFRACCIONES Y MULTAS REFLEJADOS EN LA LEY DE IA
Tipo de infracción | Multa | Ejemplo |
---|---|---|
Incumplimiento o prácticas prohibidas sobre los datos | Hasta 35 millones de euros o el 7% del volumen de negocios anual. | Recopilación y venta de datos personales sin consentimiento explícito del usuario. |
Incumplimiento de otros requisitos u obligaciones de la Ley de IA | Hasta 15 millones de euros o el 3% del volumen de negocios anual total. | Uso de algoritmos discriminatorios en procesos de selección de personal. |
Suministro de información incorrecta, incompleta o engañosa a los organismos notificados | Hasta 7,5 millones de euros o el 1,5% del volumen de negocios total anual. | Presentar informes financieros que ocultan información importante para las autoridades. |
Saber más
Inteligencia Artificial: Preguntas y respuestas. (e.digitall.org.es/ia-faqs) Comisión Europea (2023).
Derecho a presentar denuncia ante vulneración de la ley
La Ley de Inteligencia Artificial (IA) establece el derecho a presentar denuncias ante las autoridades nacionales, lo que ayuda a supervisar el mercado de manera adecuada. Además, se propone una Directiva de Responsabilidad en IA para facilitar indemnizaciones por daños causados por sistemas de alto riesgo.
Atención
Directiva de Responsabilidad en IA
Esta medida busca identificar a los responsables y recopilar pruebas necesarias para las reclamaciones. También se revisará la Directiva de Responsabilidad por Productos Defectuosos para garantizar compensaciones por lesiones o daños causados por productos imperfectos, incluyendo aquellos con tecnología de IA.
Saber más
Inteligencia Artificial: Preguntas y respuestas. (e.digitall.org.es/ia-faqs) Comisión Europea (2023).
BIBLIOGRAFÍA
Comisión Europea (2023) Inteligencia artificial: preguntas y respuestas*. Recuperado el 12/03/24 de https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683
Comisión Europea (2021) Una Europa Adaptada a la Era Digital: la Comisión propone nuevas normas y medidas para favorecer la excelencia y la confianza en la inteligencia artificial. Recuperado el 12/03/24 de https://ec.europa.eu/commission/presscorner/detail/es/IP_21_1682
Comisión Europea (2020) Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica. Recuperado el 12/03/24 de https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52020DC0064
Comisión Europea (2018) Inteligencia artificial para Europa. Recuperado el 12/03/24 de https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52018DC0237
Comisión Europea (2024) Las claves de la nueva ley de Inteligencia Artificial. Recuperado el 13/03/2024 de https://spain.representation.ec.europa.eu/noticias-eventos/noticias-0/las-claves-de-la-nueva-ley-de-inteligencia-artificial-2024-01-25_es
Parlamento Europeo (2023) Artificial Intelligence Act. Recuperado el 12/03/24 de https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf
Parlamento Europeo (2023) Ley de IA de la UE: primera normativa sobre inteligencia artificial. Recuperado el 12/03/24 de https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial#:~:text=En%20abril%20de%202021%2C%20la,una%20mayor%20o%20menor%20regulaci%C3%B3n