La Inteligencia Artificial (en adelante, la “IA”) es un campo de la informática enfocado en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento o la percepción. En este sentido, España lidera tanto a nivel nacional como autonómico el avance regulatorio en esta materia.

En el plano nacional, el pasado 9 de noviembre se publicó en el Boletín Oficial del Estado el Real Decreto 817/2023 (en adelante, el “RD”), que establece un entorno controlado de pruebas para la aplicación experimental de la propuesta del Reglamento de la UE sobre la IA. Esta norma analiza el denominado “entorno controlado”, popularmente conocido como “caja de arena” o “sandbox”. La caja de arena puede identificarse como el entorno virtual de prueba aislado y controlado que se utiliza en IA para probar un software o aplicación nueva antes de su lanzamiento al mercado sin comprometer la estabilidad y seguridad del sistema principal. Con esta herramienta se puede simular un entorno de producción en pequeña escala para probar la escalabilidad y la interoperabilidad de la aplicación con el fin de establecer un entorno controlado de pruebas para ensayar el cumplimiento de ciertos requisitos por parte de sistemas de IA que pueden suponer riesgos para la seguridad, la salud y los derechos fundamentales de las personas. 

La participación en el entorno controlado de pruebas está abierta a aquellos proveedores de IA y usuarios residentes o con establecimiento permanente en España, pudiendo participar tanto las personas jurídicas y privadas y administraciones públicas y entidades del sector público que hagan uso de algunos de los sistemas de inteligencia artificial de alto riesgo definidos en el artículo 3 del RD. 

Para la validación de las pruebas se debe cumplir y respetar la transparencia algorítmica, la explicabilidad, la cognoscibilidad, la ética, la protección de datos personales y la observancia de los derechos de propiedad intelectual. Una vez validadas las pruebas, es decir, una vez que hayan completado las fases del entorno controlado, los participantes recibirán un documento acreditativo de su participación, junto con un informe de valoración de los resultados obtenidos. En el caso de que las pruebas realizadas arrojen un resultado negativo, supondrá que el usuario participante no cumple con los estándares de seguridad requeridos. En caso contrario, si el informe es positivo, el mismo supondrá una situación de ventaja comercial frente aquellas empresas que no hayan superado la caja de arena. 

Durante este proceso, un grupo de personas expertas colaborarán con los proveedores de IA y usuarios participantes en el cumplimiento de los requisitos, así como en la autoevaluación de cumplimiento del entorno controlado de pruebas. Este grupo, que estará integrado por profesionales independientes de reconocido prestigio y experiencia técnica en campos afines del conocimiento, actuará tanto como asesor como auditor. 

En definitiva, la creación de un entorno de prueba controlado establece el mejor espacio de ensayo para crear una IA resiliente, ética y robusta. De esta forma, el propósito de la nueva norma es obtener unas guías básicas para la evidencia y la experimentación que faciliten a la sociedad el alineamiento con la propuesta del futuro Reglamento de la UE.

Este RD, que entró en vigor el 10 de noviembre de 2023, tendrá una vigencia máxima de treinta y seis meses.