%%{init: {'theme':'neutral'}}%%
graph LR
A[Monitoreo Docente] --> D[Dashboard Comunitario]
B[Monitoreo Estudiantil] --> D
C[Monitoreo Familiar] --> D
D --> E[Alertas Tempranas]
D --> F[Reconocimientos]
D --> G[Ajustes de Reglas]
style A fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
style B fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
style C fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
style D fill:#e8f5e8,stroke:#6c757d,stroke-width:2px,rx:8,ry:8
style E fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
style F fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
style G fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
5 Hacia un sistema de medición multidimensional
5.1 De métricas de distribución a métricas de apropiación
El indicador operativo actual del programa es “porcentaje de centros educativos con uso reportado de micro:bit”. En 2024, ese número rondaba el 40%, reflejando una adopción significativa en la fase inicial de implementación.
La oportunidad de mejora radica en enriquecer este indicador para capturar dimensiones adicionales: intensidad de uso (frecuencia semanal vs actividad esporádica), calidad pedagógica (replicación de tutoriales vs diseño de soluciones originales), equidad de participación (todos los estudiantes programan o solo algunos), sostenibilidad institucional (dependencia de docentes específicos vs prácticas institucionalizadas), e impacto en competencias transferibles.
Esta evolución es análoga a lo ocurrido en economía del desarrollo, donde las métricas pasaron de medir solo inversión física a incorporar capital humano, calidad institucional y productividad total de factores. Uruguay tiene la oportunidad de liderar una transición similar en la evaluación de programas de educación digital.
5.2 El Índice de Capital Digital: propuesta conceptual
La propuesta es construir un índice compuesto que capture cuatro dimensiones del capital digital, adaptado al contexto específico de micro:bit y factible de implementar con recursos existentes.
5.2.1 Dimensión 1: Acceso material efectivo
Más allá de la distribución inicial, el índice captura disponibilidad funcional (placas operativas considerando roturas y pérdidas), tiempo curricular asignado (horas semanales destinadas a programación), y calidad de infraestructura complementaria (conectividad, computadoras, espacios adecuados).
Fuentes de datos: Registros administrativos de inventario, encuesta breve a directores, y logs de plataforma MakeCode.
Indicador sintético: Índice de acceso efectivo = (placas funcionales / matrícula) × (horas semanales asignadas / horas esperadas) × (índice de infraestructura / máximo posible)
5.2.2 Dimensión 2: Competencias técnicas
La medición de competencias requiere ir más allá de autoreportes. La evidencia internacional muestra sesgos sistemáticos en autoevaluación, particularmente en dominios con estereotipos de género, sugiriendo la necesidad de evaluación directa de desempeño centrada en capacidad de resolver problemas nuevos, no en memorización de sintaxis.
Instrumento 1: Rúbrica de proyectos
Adaptada de los frameworks de Brennan & Resnick (2012) para Scratch, la rúbrica identifica cuatro niveles de apropiación: - Replicación (seguir tutoriales paso a paso), - Modificación (cambiar parámetros o combinar bloques de formas nuevas), - Adaptación (transferir lógica a contextos diferentes), y - Creación (diseñar soluciones originales a problemas no estructurados).
La evaluación se realiza sobre proyectos reales desarrollados en clase, requiriendo documentación de al menos dos proyectos por estudiante por año.
Instrumento 2: Prueba de transferencia
Inspirada en el trabajo de Grover et al. (2015), la prueba presenta problemas no computacionales que requieren pensamiento algorítmico. Por ejemplo: “Organizar una liga deportiva con 8 equipos donde cada uno juegue contra todos los demás una vez. ¿Cuántos partidos se necesitan? ¿Cómo verificar que no hay errores?”
La o el estudiante con pensamiento computacional desarrollado descompondrá el problema, identificará patrones, abstraerá representaciones, diseñará un algoritmo y verificará con casos de prueba, sin necesidad de escribir código.
Instrumento 3: Análisis de logs de MakeCode
La plataforma genera datos conductuales que representan una oportunidad de aprovechamiento: tiempo entre primer intento y código funcional (eficiencia de debugging), número de iteraciones antes de solución (persistencia y método), uso de funciones avanzadas (complejidad), y frecuencia de consulta de documentación (autonomía).1
Indicador sintético: Índice de competencia técnica = promedio ponderado de nivel en rúbrica (40%) + desempeño en prueba de transferencia (30%) + métricas de logs (30%)
5.2.3 Dimensión 3: Actitudes y autoeficacia
Esta dimensión requiere instrumentos validados psicométricamente que minimicen sesgos de deseabilidad social.
Instrumento principal: Escala de autoeficacia en programación
Instrumento: Escala de autoeficacia en programación Adaptada de Askar & Davenport (2009), con ítems específicos para micro:bit:
-“Si mi código no funciona, generalmente puedo encontrar el error por mi cuenta”
“Cuando veo un programa que hace algo interesante, puedo imaginarme cómo modificarlo”
“Si un compañero me pide ayuda con su código, me siento capaz de orientarlo”
“Creo que podría aprender a programar otros dispositivos además de micro:bit”
Escala Likert 1-5, administrada al inicio y al final del año. Lo crítico es la evolución, no el nivel absoluto.
Y lo crítico al cuadrado es desagregar por género. Si los varones aumentan autoeficacia y las chicas la mantienen constante, hay un problema. Si ambos aumentan pero las chicas parten de más bajo y la brecha persiste, también hay problema.
Instrumento complementario: Observación estructurada
En una muestra de aulas, observadores con entrenamiento previo documentan patrones de participación:
- Quién levanta la mano primero cuando hay una pregunta técnica
- Quién programa vs quién “ayuda” en trabajos grupales
- Cómo reaccionan docentes ante errores de varones vs errores de mujeres
- Qué lenguaje usan para describir capacidades (“ella es muy prolija” vs “él es un genio”)
Este instrumento captura sesgos sutiles que ni docentes ni estudiantes reportarían en encuestas porque están naturalizados.
Indicador sintético: Índice de actitudes = cambio en autoeficacia (60%) + observaciones de equidad de género (40%)
5.3 Del índice a la decisión: diagnóstico diferencial
La potencia del enfoque multidimensional radica en que permite diagnóstico diferencial y respuestas específicas según el patrón observado, maximizando la eficiencia de las intervenciones.
Escenario 1: Acceso alto, competencias bajas
Las placas están disponibles pero la apropiación pedagógica es limitada. La intervención prioritaria es intensificar formación docente en mediación pedagógica (no en habilidades técnicas adicionales), incluyendo estrategias de andamiaje, identificación de errores comunes, y diseño de proyectos con dificultad graduada.
Escenario 2: Competencias técnicas altas, autoeficacia baja (especialmente en mujeres)
Hay desempeño objetivo pero falta confianza, sugiriendo oportunidades de mejora en reconocimiento de logros y atribución de errores. La intervención incluye trabajo con docentes sobre cómo dar retroalimentación diferencial por género, visibilización de modelos femeninos en tecnología, y normalización explícita del error como parte del proceso de aprendizaje.
Escenario 3: Competencias y actitudes altas, capital social bajo
El aprendizaje ocurre pero de forma atomizada, limitando sostenibilidad y difusión de innovaciones.
5.4 Implementación pragmática: secuenciar es elegir
Construir el sistema de medición completo de un saque es inviable. Requiere desarrollo de instrumentos, validación psicométrica, capacitación de evaluadores, infraestructura de datos, presupuesto.
La estrategia pragmática es secuencial:
Año 1 (2026):
Instrumentos de bajo costo: encuesta de autoeficacia + análisis de logs de MakeCode (ya existen, solo hay que conseguirlos y procesarlos)
Muestra representativa, no censo: 50 centros estratificados por tamaño, contexto socioeconómico, departamento Objetivo: Probar instrumentos, estimar magnitud de brechas, identificar outliers positivos para estudiar
Año 2 (2027):
Agregar rúbrica de proyectos en la misma muestra + observación estructurada en una submuestra de 15 aulas
Primera medición longitudinal: re-encuestar centros del Año 1 para ver evolución
Análisis causal exploratorio: correlacionar índice de capital digital con variables de contexto (características del centro, formación docente, intensidad de uso)
Año 3 (2028):
Escalar a muestra más grande (200 centros)
Incorporar prueba de transferencia
Aprovechar variación natural en el período de implementación para identificación causal: comparar centros que recibieron acompañamiento intensivo en 2027 vs 2028
Este cronograma asume una restricción presupuestal realista. Si hubiera recursos para acelerar, mejor. Pero lo importante es empezar con lo simple y robusto, no con lo perfecto e inviable.
5.5 Dashboard comunitario
La gobernanza efectiva de bienes comunes requiere monitoreo mutuo y transparente. Un dashboard comunitario donde docentes, estudiantes y familias visualicen el uso de las placas -con alertas tempranas cuando hay acaparamiento, reconocimientos cuando hay uso ejemplar, y mecanismos para ajustar reglas- operacionaliza los principios de Ostrom en el contexto digital educativo.
Este indicador está disponible en fase piloto para micro:bit Uruguay↩︎