El 8 de diciembre de 2023, las instituciones europeas alcanzaron un hito trascendental al lograr un acuerdo político histórico en la regulación de la inteligencia artificial (IA). Este acuerdo, que se espera sea aprobado a principios de 2024, establece un marco normativo pionero que aspira no solo a salvaguardar los derechos fundamentales, sino a convertirse en un estándar global para la regulación de la IA en otras jurisdicciones.
La definición de sistema de IA adoptada en el acuerdo se alinea con el enfoque propuesto por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), marcando así un paso significativo hacia la creación de estándares internacionales en el ámbito de la IA. Sin embargo, cabe destacar que se excluyen del ámbito de aplicación de la regulación los sistemas utilizados con fines militares, de defensa, investigación e innovación, así como el uso no profesional por individuos, y no afectará las competencias de los Estados miembros en seguridad nacional.
La regulación propuesta adopta un enfoque basado en riesgos, clasificando los sistemas de IA en cuatro categorías distintas. Los sistemas de riesgo inaceptable, como aquellos de clasificación social y reconocimiento de emociones en lugares de trabajo, son explícitamente prohibidos al considerarse amenazas claras a los derechos fundamentales. Por otro lado, los sistemas de IA de alto riesgo estarán sujetos a obligaciones tanto antes como después de su comercialización. Estas obligaciones incluyen la elaboración de documentación detallada, trazabilidad, supervisión humana, ciberseguridad, así como la implementación de sistemas de gestión de calidad y riesgo. Estos son sistemas que, si no se utilizan adecuadamente, pueden afectar negativamente los derechos fundamentales o la seguridad de las personas, y abarcan aspectos como los relacionados con el suministro de infraestructuras críticas.
La gran mayoría de los sistemas de IA en uso hoy en día pertenecen a la categoría de sistemas de riesgo mínimo. Aunque para esta categoría, el reglamento no establece obligaciones adicionales, se incentiva que adopten estándares de conducta voluntarios para fomentar la confianza ciudadana.
Otro aspecto crucial del acuerdo se refiere a los sistemas de IA propósito general (GPAI), que generaron intensas discusiones en las negociaciones. Inicialmente, se consideraba su categorización como simples chatbots, sujetos únicamente a requisitos de transparencia. Sin embargo, la explosión de aplicaciones populares como ChatGPT o Bard llevó a una reconsideración. El reglamento introduce normas específicas centradas no solo en el uso, sino en la potencia y capacidades de estos sistemas y los modelos de IA en los que se basan. Esta decisión ha suscitado críticas de aquellos que argumentan que podría obstaculizar la competitividad tecnológica en la Unión Europea.
Asimismo, se contemplan obligaciones más estrictas para los sistemas con riesgo sistémico y normas de transparencia adicionales para los sistemas capaces de realizar una amplia gama de tareas, como generar vídeo, texto e imágenes: la llamada inteligencia artificial generativa y multimodal.
Después de prolongadas negociaciones, se ha optado por una referencia genérica al cumplimiento de la normativa de propiedad intelectual, sin entrar en una regulación específica.
Otro punto destacado en las discusiones ha sido la vigilancia biométrica en tiempo real en espacios públicos. La balanza se inclinaba entre aquellos que abogaban por una prohibición absoluta y los que defendían su permisión con fines de seguridad nacional. La decisión final ha sido permitir esta práctica, pero con salvaguardias adicionales y limitando las excepciones a casos muy concretos, como la prevención de amenazas de atentados terroristas o la localización de personas sospechosas de los delitos más graves.
La gran pregunta que surge es si este reglamento actuará como un freno o un impulso para la innovación en IA. En un panorama de indiscutible popularización de la IA, el reglamento busca garantizar que los sistemas sean seguros y respeten los derechos fundamentales y la legislación vigente. Sin embargo, las cargas regulatorias impuestas a las empresas en aras de proteger los derechos de los ciudadanos europeos generan una tensión palpable entre innovación y regulación, siendo especialmente gravosas para las startups y medianas empresas.
Mientras Europa marca un hito, en Latinoamérica, diferentes países exploran sus propias vías de regulación ética de la inteligencia artificial. En México, el diputado Ignacio Loyola presentó una iniciativa para expedir la “Ley para la regulación ética de la inteligencia artificial y la robótica”. En Argentina, se busca modificar una ley existente para «regular el funcionamiento ético de los sistemas». En Chile, se presentó una norma centrada en el uso ético de la inteligencia artificial para «asegurar la protección de los derechos fundamentales». Estas propuestas demuestran la diversidad de perspectivas en la búsqueda de un equilibrio entre innovación y protección de derechos fundamentales en el ámbito de la inteligencia artificial.
