Legislación comparada sobre IA: EE. UU., Europa, China y resto del mundo

Estandarte de clase y curso sobre IA de Jon AI, Stelio Inacio
de Stélio Inácio, fundador de Jon AI y especialista en IA

Legislación comparada en materia de IA: un mundo de diferencias

Como hemos visto, la inteligencia artificial no es solo otra tecnología; es una «tecnología de uso general», una fuerza fundamental como la máquina de vapor o la electricidad, capaz de remodelar nuestro mundo. Debido a que su impacto es tan profundo, ha surgido un consenso mundial en el sentido de que debe regularse. Pero la cuestión fundamental ya no es «si se debe regular» la IA, sino «cómo*».

Esto ha provocado una carrera mundial por escribir el reglamento de la IA, y se trata de una carrera en la que hay mucho en juego desde el punto de vista filosófico. Los marcos legales que se están diseñando hoy en día no son solo documentos técnicos, sino que son un poderoso reflejo de los principios fundamentales de una nación y de su visión para el futuro. Al observar el mundo entero, vemos que el panorama se divide según distintas líneas filosóficas y que están surgiendo tres «polos» principales de gobernanza: la Unión Europea, basada en los derechos, los Estados Unidos, impulsados por la innovación, y la República Popular China, controlada por el Estado.

Los tres polos de la gobernanza de la IA

1. La Unión Europea: el regulador integral y basado en los derechos

La UE se ha posicionado como el regulador de Al más completo del mundo a través de su histórica Ley de IA. Este marco legalmente vinculante prioriza la protección de los derechos fundamentales, la seguridad y los valores democráticos por encima de todo. El núcleo de la Ley es un enfoque escalonado y basado en el riesgo que clasifica todos los sistemas en función de su potencial de causar daños:

  • Riesgo inaceptable: estos sistemas están prohibidos rotundamente. Esto incluye la IA para la calificación social dirigida por el gobierno, las técnicas subliminales manipuladoras y la mayoría de los usos del reconocimiento facial en tiempo real en público por parte de las fuerzas del orden.
  • De alto riesgo: esta es la categoría más regulada y abarca la IA utilizada en áreas críticas como el empleo, la educación, la aplicación de la ley y el acceso a servicios esenciales como la calificación crediticia. Los proveedores de estos sistemas se enfrentan a obligaciones estrictas, que incluyen la gestión de riesgos, la gestión de datos de alta calidad, la supervisión humana y una amplia documentación técnica antes de poder vender sus productos.
  • Riesgo limitado: estos sistemas, como los chatbots o los deepfakes, están sujetos a obligaciones de transparencia, lo que significa que se debe informar a los usuarios de que están interactuando con una IA o viendo contenido sintético.
  • Riesgo mínimo: la gran mayoría de los sistemas de IA (por ejemplo, los filtros de spam o la IA en los videojuegos) están incluidos en este ámbito y no tienen nuevas obligaciones legales.

Con multas masivas de hasta el 7% de la facturación global de una empresa por incumplimiento, la UE pretende utilizar su poder de mercado para exportar estas normas a todo el mundo, una estrategia conocida como el «efecto Bruselas».


2. Estados Unidos: el mosaico impulsado por el mercado y a favor de la innovación

Por el contrario, EE. UU. defiende una filosofía «a favor de la innovación» impulsada por el mercado y diseñada para mantener su liderazgo mundial en materia de IA. Ha evitado deliberadamente una ley única y general y, en cambio, ha creado un «mosaico» de políticas que es dinámico, flexible y, a veces, incierto. El enfoque estadounidense se basa en dos pilares:

  • Liderazgo ejecutivo: la política federal de inteligencia artificial está impulsada en gran medida por órdenes ejecutivas, que pueden cambiar drásticamente con cada nuevo presidente. Por ejemplo, la EO 14110 de la Administración Biden sobre «Inteligencia artificial segura, protegida y confiable» fue posteriormente anulada y reorientada por la EO 14179 de la Administración Trump, que hacía hincapié en la competitividad y en eliminar los «prejuicios ideológicos». Esta volatilidad crea incertidumbre regulatoria para las empresas.
  • El marco de gestión de riesgos de IA (RMF) del NIST: es la piedra angular técnica del enfoque estadounidense. Fundamentalmente, el RMF es un marco voluntario. Proporciona orientación a las empresas para gestionar los riesgos de la IA mediante cuatro funciones: gobernar, mapear, medir y gestionar. Esto depende de las empresas y de los reguladores sectoriales existentes (como la FTC y la FDA) para aplicar las normas, y no de una nueva autoridad central en materia de inteligencia artificial.

3. China: el marco centrado en el estado y orientado al control

El enfoque de China es un modelo único de «autoritarismo ágil», diseñado para lograr el doble objetivo de la supremacía tecnológica y la estabilidad social y política absoluta. En lugar de una gran ley, China ha promulgado una serie de reglamentos rápidos y específicos para tecnologías específicas a medida que van surgiendo. La normativa clave incluye normas para la «síntesis profunda» (deepfakes) y la IA generativa. El núcleo de este marco es el control estatal:

  • Control ideológico y de contenido: los proveedores son legalmente responsables de garantizar que cualquier contenido generado por la IA se adhiera a los «valores fundamentales del socialismo» y no ponga en peligro la seguridad nacional ni perjudique la imagen de la nación. De hecho, esto prohíbe las aplicaciones de IA que podrían utilizarse para la disidencia política.
  • Registro de algoritmos y evaluaciones de seguridad: una herramienta clave del control estatal es el proceso de presentación obligatorio. Los servicios de IA con «atributos de opinión pública o capacidad de movilización social» deben someterse a una evaluación de seguridad y presentar sus algoritmos a la Administración del Ciberespacio de China (CAC) antes de su lanzamiento. Esto le da al estado una visión y un control incomparables.

De un vistazo: comparación de los marcos globales de IA

Los diferentes enfoques filosóficos dan como resultado sistemas regulatorios muy diferentes.

Característica Unión Europea Estados Unidos China
Estatus legal Ley vinculante (Ley AI) Marco federal voluntario; mosaico de leyes estatales y sectoriales Leyes vinculantes (reglamentos específicos)
Filosofía fundamental Basado en los derechos, cautelar Impulsado por el mercado, a favor de la innovación Centrado en el estado, orientado al control
Cuerpo primario Oficina de IA de la UE y autoridades nacionales Reguladores sectoriales existentes (FTC, FDA, etc.) Administración del Ciberespacio de China (CAC)
Enfoque del riesgo Niveles de riesgo prescriptivos (inaceptable, alto, etc.) Gestión de riesgos voluntaria y basada en el contexto Orientado por aplicación; centrado en la seguridad del Estado
Mecanismo de control clave Evaluaciones de conformidad previas a la comercialización para la IA de alto riesgo. Aplicación ex post (después de los hechos) utilizando la legislación vigente. Evaluaciones de seguridad previas a la comercialización y registro de algoritmos.

Comprobación rápida

¿Qué jurisdicción ha adoptado un enfoque integral, legalmente vinculante y basado en el riesgo que prohíbe rotundamente ciertas prácticas de IA, como la puntuación social?

Resumen: Legislación comparada sobre IA

Lo que cubrimos:
  • El mundo se está fracturando en tres «polos» regulatorios principales para la IA, cada uno de los cuales refleja valores fundamentales diferentes.
  • La UE tiene una ley integral y basada en los derechos (la Ley de IA) que clasifica la IA según el riesgo y prohíbe determinadas aplicaciones.
  • Los Estados Unidos tienen un enfoque «fragmentario» a favor de la innovación e impulsado por el mercado, que se basa en los marcos voluntarios y en los reguladores sectoriales existentes.
  • China utiliza un modelo de «autoritarismo ágil» centrado en el estado, mediante la implementación de leyes específicas y vinculantes centradas en el control del contenido y la estabilidad social.

Por qué es importante:
  • Esta divergencia regulatoria global crea un entorno complejo y desafiante para las empresas. Las normas que se redacten hoy determinarán no solo el futuro de la tecnología, sino también el futuro del comercio internacional y la alineación geopolítica en la era digital.

A continuación:
  • A continuación, veamos «Recursos: mantenerse actualizado en un mundo de IA que cambia rápidamente»