Colombia: alertas por el decreto que reglamenta la Ley 2489 sobre entornos digitales para niñas, niños y adolescentes

Por: Carolina Martínez Elebi

Organizaciones de la sociedad civil advirtieron que el proyecto de decreto, aunque busca proteger a niñas, niños y adolescentes en Internet, habilita riesgos de censura, vigilancia y afectación de derechos como la libertad de expresión, la privacidad y el acceso a información plural.

Un conjunto de organizaciones de la sociedad civil envió observaciones críticas al proyecto de decreto que busca reglamentar la Ley 2489 de 2025, orientada a la creación de entornos digitales “sanos y seguros” para niños, niñas y adolescentes en Colombia. Si bien las organizaciones coinciden en la necesidad de reforzar la protección de esta población en Internet, advierten que el texto propuesto presenta serios riesgos desde una perspectiva de derechos humanos, en particular para la libertad de expresión, la privacidad y el acceso a información plural.

Las observaciones fueron remitidas al Ministerio TIC por Fundación Karisma junto a Dejusticia, la Fundación para la Libertad de Prensa (FLIP), El Veinte y el Centro de Internet y Sociedad de la Universidad del Rosario (ISUR). El documento señala que, tal como está formulado, el decreto corre el riesgo de habilitar mecanismos de censura indirecta, vigilancia y recolección excesiva de datos, incluso sobre los propios niños, niñas y adolescentes que busca proteger.

Uno de los primeros cuestionamientos apunta al proceso de reglamentación. El proyecto fue publicado para comentarios el 31 de diciembre, sin instancias previas de diálogo ni mesas de trabajo, y con plazos acotados que limitaron la participación efectiva de la sociedad civil. Las organizaciones recuerdan que la participación ciudadana no es un trámite formal sino una obligación constitucional, y que regular derechos fundamentales sin un debate amplio debilita la legitimidad y la calidad de la política pública.

Otro eje central de preocupación es el enfoque adoptado por el decreto. El texto se apoya en un modelo de gestión de riesgos y en la clasificación y etiquetado de contenidos, una lógica que ya se utiliza en otros contextos regulatorios, como la Unión Europea, pero que —trasladada sin ajustes— puede generar efectos adversos en el contexto colombiano. Las categorías previstas para clasificar contenidos son amplias y ambiguas, lo que crea incentivos para la sobre-moderación por parte de plataformas y servicios digitales que buscan evitar sanciones. En la práctica, esto podría derivar en la restricción de contenidos legítimos, incluidos materiales educativos, informativos, artísticos o de protesta.

El etiquetado aparece, así, como una posible forma de censura indirecta. Aunque el proyecto menciona excepciones para contenidos con fines educativos o informativos, no establece salvaguardas claras que impidan que ese etiquetado termine en bloqueos, pérdida de visibilidad o eliminación automática. Además, traslada la carga a las personas usuarias, que deberían demostrar que su contenido está protegido, en lugar de partir de la presunción de libertad de expresión. Este diseño fomenta la autocensura y afecta de manera particular a periodistas, docentes y creadores de contenido.

La verificación de edad constituye otro punto crítico. El denominado “Modo Niña, Niño o Adolescente” presupone mecanismos para determinar la edad de las personas usuarias, pero el decreto no define cuáles son aceptables ni prohíbe prácticas intrusivas. La experiencia internacional muestra que no existen sistemas de verificación de edad que sean a la vez precisos, no invasivos y respetuosos de la privacidad. Sin límites claros, se incentiva el uso de documentos oficiales, datos biométricos o inferencias algorítmicas, con el consiguiente aumento de riesgos de vigilancia y filtraciones de información sensible.

También genera inquietud la idea de un “diseño seguro por defecto” que limite los sistemas de recomendación algorítmica para niños, niñas y adolescentes. Si bien estas medidas pueden parecer protectoras, aplicadas de forma indiscriminada pueden restringir el acceso a información diversa y relevante, creando entornos excesivamente controlados. Las organizaciones advierten que reducir algoritmos no reemplaza políticas integrales de alfabetización digital ni fortalece, por sí solo, la autonomía y el pensamiento crítico de adolescentes.

El proyecto de decreto propone además un Sistema Integral de Monitoreo y Evaluación, cuyo alcance y controles no están claramente definidos. No se especifica qué datos se recolectarán, con qué finalidades ni qué mecanismos de supervisión independiente existirán. En ausencia de salvaguardas robustas, este sistema podría derivar en prácticas de monitoreo desproporcionado del comportamiento digital de niños, niñas y adolescentes, incompatibles con los principios de necesidad y proporcionalidad.

Un aspecto llamativo del texto es lo que deja fuera. Si bien menciona de manera marginal los riesgos de consumo, no aborda de forma estructural los diseños adictivos de las plataformas digitales, como los sistemas de recompensas, el desplazamiento infinito o las notificaciones persistentes. Diversos estudios han mostrado que estas dinámicas son centrales en los impactos negativos sobre el bienestar digital de niños y adolescentes. Ignorar este problema implica centrar la regulación en el control del contenido y de las personas usuarias, sin intervenir sobre los incentivos y modelos de negocio que generan los mayores riesgos.

Finalmente, las organizaciones alertan sobre la ineficacia de un enfoque fragmentado y excesivamente técnico. Experiencias recientes en países como Australia, Reino Unido o algunos estados de Estados Unidos muestran que las políticas centradas en la verificación de edad y el etiquetado amplio de contenidos suelen ser fácilmente eludidas. El aumento del uso de VPN y la aparición de mercados informales de cuentas verificadas no solo debilitan los objetivos de protección, sino que exponen a niños, niñas y adolescentes a nuevos riesgos, como estafas, robo de datos y servicios inseguros.

En conjunto, las observaciones sostienen que proteger a niños, niñas y adolescentes en entornos digitales es una obligación ineludible del Estado, pero advierten que esa protección no puede construirse a costa de derechos fundamentales. Incorporar criterios claros de proporcionalidad, salvaguardas efectivas contra la censura y la vigilancia, y un enfoque más integral que incluya alfabetización digital y regulación de los diseños adictivos aparece como una condición clave para que la reglamentación de la Ley 2489 de 2025 no termine produciendo más daños que soluciones.

👉 Los comentarios pueden leerse completos aquí.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Filtros

Telegram Sumate a nuestro canal de Telegram