La medida se originó a partir de la sentencia T-067 de 2025 de la Corte Constitucional, que ordenó crear unos estándares mínimos sobre transparencia algorítmica.
En esa decisión, el alto tribunal señaló que «el principio de transparencia algorítmica, en su faceta activa y pasiva, es un elemento esencial del derecho de acceso a la información pública». Para la elaboración de la norma, el Ministerio Público contó con el apoyo técnico de la Agencia Nacional Digital y el Ministerio de Tecnologías de la Información y las Comunicaciones.
La directiva aplica a un amplio espectro de entidades, denominadas «sujetos obligados» por la Ley de Transparencia 1712 de 2014. Esto incluye a todas las entidades públicas de las ramas del poder en los niveles nacional, departamental y municipal; los órganos autónomos y de control; las personas naturales o jurídicas, públicas o privadas, que presten servicios o funciones públicas; los partidos políticos; y las entidades que administren fondos o recursos de naturaleza pública.
Los estándares se deberán cumplir siempre que estos sujetos desarrollen, adquieran o implementen sistemas algorítmicos que utilicen inteligencia artificial, que se clasifiquen como un Sistema de Toma de Decisiones Automatizadas (SDA) —definido como una tecnología que asiste o reemplaza el juicio humano—, o que recolecten datos sensibles de los individuos, como la geolocalización.
El eje central de la directiva es la obligación de la «transparencia activa», que exige a las entidades publicar de forma proactiva y en un lenguaje claro información detallada sobre los algoritmos que utilizan. Como mínimo, deberán divulgar en sus sitios web el nombre del sistema, su objetivo, la función que cumple dentro de la entidad, el estado en que se encuentra (desarrollo, implementación o descontinuado), si utiliza o no datos personales y quién fue el desarrollador (la propia entidad o un tercero).
Además, se establecieron exigencias de divulgación mayores para los sistemas considerados de alto riesgo. Estos son los que se utilizan para evaluar o asignar beneficios como subsidios o empleos; predecir riesgos de criminalidad o fraude; generar perfiles de personas; diagnosticar enfermedades; o afectar de alguna manera a poblaciones vulnerables como niños, niñas, adolescentes o minorías étnicas.
En estos casos, las entidades deberán publicar también los criterios generales de decisión que usa el sistema, los hallazgos de un análisis de impacto algorítmico previo a su implementación y las medidas que se tomaron para mitigar posibles riesgos o sesgos.
La directiva también fortalece la «transparencia pasiva», es decir, el derecho de toda persona a solicitar y recibir información sobre los algoritmos del Estado.
En este sentido, la norma establece un punto clave sobre el acceso al código fuente de los sistemas. Tras una solicitud ciudadana, la entidad deberá evaluar si para garantizar una «transparencia significativa» entrega el código o, en su lugar, proporciona una explicación en lenguaje sencillo y claro sobre cómo el sistema toma una determinada decisión.
Todas las entidades deberán habilitar un canal de contacto para que los ciudadanos presenten objeciones o solicitudes de revisión frente a decisiones que hayan sido tomadas de manera total o parcialmente automatizada. Si una persona considera que sus derechos fueron vulnerados por un sistema algorítmico, puede acudir a la Procuraduría o a la Defensoría para recibir acompañamiento en el proceso de defensa y protección.
Para vigilar el cumplimiento de estas nuevas reglas, el Ministerio Público realizará una encuesta anual a todos los sujetos obligados sobre los sistemas algorítmicos que utilizan. Asimismo, se conformará una Mesa de Seguimiento Interinstitucional para monitorear la implementación de los estándares y proponer mejoras.