En el mundo hay dos clases de persona: los lanzados a favor de la innovación a toda costa y los garantistas que prefieren ir paso a paso para que nadie salga perjudicado, aunque se tarde más tiempo en materializar y consolidar los avances.
Son las dos caras del progreso: el europeo, lento pero seguro, y el estadounidense, abriéndose paso a codazos entre la multitud. Por no hablar de los métodos de otras culturas, cuyos propios gobiernos son los que vulneran los derechos fundamentales en beneficio propio.
Un estudio de la empresa de ciberseguridad Surfshark pone de manifiesto el contraste entre estas dos visiones de una misma realidad. Si bien en Estados Unidos no existe una legislación federal que agrupe todas las normativas que deben seguirse, en los gobiernos de cada estado y entidades locales se trabaja para contener los aspectos más perniciosos de la inteligencia artificial.
Cámaras en las calles de algunos países controlan la vida cotidiana de las personas.
El problema es que están lejos de alcanzar una homogeneidad en la legislación. Aunque en algunos estados como Nueva York o Texas se han impulsado alrededor de un centenar de proyectos de ley, en la mayoría escasean las iniciativas.
La situación actual podría dar a entender que la legislación sobre IA es muy activa y en constante evolución en Estados Unidos. Sin embargo, la mayoría de las propuestas siguen en consideración y solo una pequeña fracción ha pasado a ley de momento.
Iniciativas legislativas de regularización de la IA por estado, en EEUU.
Líneas rojas europeas
Estado actual de la legislación sobre la IA en la UE, clasificada por nivel riesgo para las personas
En contraste con los esfuerzos estatales fragmentados que se ven en EEUU, la UE introdujo la Ley de Inteligencia Artificial (Ley de IA) en 2024. Es el primer marco legal integral diseñado específicamente para dirigir el desarrollo, el despliegue y el uso de tecnologías de IA.
La Ley de IA busca garantizar que los sistemas de IA utilizados dentro de la UE sean seguros, transparentes y respeten los derechos fundamentales. Clasifica las aplicaciones de IA según el nivel de riesgo, creando unos requisitos más estrictos en los determinados como de alto riesgo. Al igual que hizo el Reglamento General de Protección de Datos (GDPR) por la privacidad de los datos, esta legislación debería influir en toda la gobernanza de la IA de forma global.
El incumplimiento de la Ley de IA puede resultar en importantes penalizaciones económicas. Según el artículo 99: La penalizaciones, por infracciones del Artículo 5, que prohíbe las prácticas de IA que conllevan riesgos inaceptables, pueden llevar a multas de hasta 35 millones de euros o hasta un 7% de la facturación anual del período financiero anterior, la suma más alta.
La IA está integrada en todos los aspectos de nuestra convivencia.
Unión europea
Lentitud farragosa
El lado menos amable de la legislación europea es, como sucede en otros ámbitos legislativos, la lentitud y espesor burocrática que ralentiza cualquier posibilidad de avanzar en innovación, desarrollo y progreso a velocidades parecidas a las de otras regiones que no reparan tanto en el respeto de los derechos fundamentales. Y encontrar un equilibrio, ante la situación que se presenta, es poco menos que misión imposible.
“Esta regulación de la inteligencia artificial parece que vuelve a repetir la misma situación que con la privacidad de los datos. El RGPD llegó tarde a la UE, y esta regulación de la IA no es una excepción”, comenta Karolis Kaciulis, ingeniero jefe de sistemas de Surfshark. “Ahora que la IA se está desarrollando a un ritmo aún más rápido, esta regulación se está quedando aún más rezagada. Las nuevas leyes sobre IA intentan replicar la misma presión a la que se enfrentaron las empresas en los inicios de la legislación sobre privacidad, pero hay un problema: nuestros datos ya se han cedido a los grandes modelos de lenguaje (LLM) y no hay forma de eliminarlos”.
Ahora que la IA se está desarrollando a un ritmo aún más rápido, esta regulación se está quedando aún más rezagada
“En la actualidad, los LLM se basan en enormes conjuntos de datos extraídos de internet sin transparencia, responsabilidad ni posibilidad de que las personas puedan no aceptarlo. Esto es totalmente contrario a la legislación centrada en la privacidad, y eso tiene que cambiar”, añade Kaciulis.
Todo lo que hacemos en internet acaba alimentando uno o más modelos de lenguaje para inteligencia artificial.
Legislación de la IA
El día y la noche
En la Unión Europea, la legislación de la IA está caracterizada por un marco centralizado establecido a nivel de la Unión. La próxima Ley de IA ejemplifica este modelo, proporcionando un estándar legal unificado que será de aplicación directa en todos los países miembros. La aplicación y supervisión se delegan a las autoridades de cada país miembro. Este enfoque vertical está diseñado para minimizar la fragmentación legal, armonizar la supervisión de IA y proporcionar reglas claras y coherentes para los desarrolladores y usuarios en el mercado interno.
Legislación de la IA
Foco y prioridades en la UE
▪️Proteger los derechos fundamentales: la legislación enfatiza la protección de los individuos, en particular en áreas sensibles, como el reconocimiento, la supervisión y la toma de decisiones de alto impacto;
▪️Gestión de riesgos: sistemas de IA de riesgo alto, como los utilizados en infraestructuras críticas, cuidado sanitario, educación y aplicación de la ley, están sujetos a estrictos requisitos de transparencia, responsabilidad y supervisión humana;
▪️Transparencia y responsabilidad: la UE prioriza hacer que los sistemas de IA sean explicables y asegurar una línea clara de responsabilidad a lo largo de los procesos de desarrollo y despliegue;
▪️Promover la innovación: además de la regulación, la UE quiere crear un entorno de apoyo para la innovación ética en IA, proporcionando entornos regulatorios controlados y guía para las empresas y los investigadores;
▪️Armonización entre Estados miembros: estableciendo estándares en toda Unión y una red coordinada de autoridades supervisoras, la UE busca prevenir los enfoques nacionales fragmentados y crear un solo mercado fiable de IA.
Por el contrario, los Estados Unidos han adoptado un enfoque muy descentralizado para la legislación sobre la IA. La ausencia de una ley de IA federal integral ha llevado a un mosaico de iniciativas a nivel estatal. Cada estado puede proponer, promulgar o rechazar sus proposiciones de ley relacionadas con la IA, a menudo centradas en distintos sectores o preocupaciones políticas, lo cual resulta en estados que proponen varias leyes y otras que tienen poca o ninguna legislación. El resultado es un paisaje regulador diverso, con una cobertura y unos estándares incoherentes, que reflejan las prioridades locales y la voluntad política, en lugar de una estrategia nacional coordinada.
“La única solución realista es empezar desde cero. Esto significaría detener el desarrollo de los sistemas existentes y rediseñarlos de acuerdo con las nuevas normas legales. Este enfoque haría que los chatbots respetaran los derechos de los usuarios en lo que respecta a la recopilación de datos y con total transparencia. Aunque este rediseño puede parecer poco realista dado el ritmo y la escala actuales del desarrollo de la IA, es probable que sea la única vía para lograr un cumplimiento significativo y la confianza del público en los sistemas de IA”, conclyue Kaciulis.



