5  Hacia un sistema de medición multidimensional

Fecha de modificación

10 de noviembre de 2025

5.1 De métricas de distribución a métricas de apropiación

El indicador operativo actual del programa es “porcentaje de centros educativos con uso reportado de micro:bit”. En 2024, ese número rondaba el 40%, reflejando una adopción significativa en la fase inicial de implementación.

La oportunidad de mejora radica en enriquecer este indicador para capturar dimensiones adicionales: intensidad de uso (frecuencia semanal vs actividad esporádica), calidad pedagógica (replicación de tutoriales vs diseño de soluciones originales), equidad de participación (todos los estudiantes programan o solo algunos), sostenibilidad institucional (dependencia de docentes específicos vs prácticas institucionalizadas), e impacto en competencias transferibles.

Esta evolución es análoga a lo ocurrido en economía del desarrollo, donde las métricas pasaron de medir solo inversión física a incorporar capital humano, calidad institucional y productividad total de factores. Uruguay tiene la oportunidad de liderar una transición similar en la evaluación de programas de educación digital.

5.2 El Índice de Capital Digital: propuesta conceptual

La propuesta es construir un índice compuesto que capture cuatro dimensiones del capital digital, adaptado al contexto específico de micro:bit y factible de implementar con recursos existentes.

5.2.1 Dimensión 1: Acceso material efectivo

Más allá de la distribución inicial, el índice captura disponibilidad funcional (placas operativas considerando roturas y pérdidas), tiempo curricular asignado (horas semanales destinadas a programación), y calidad de infraestructura complementaria (conectividad, computadoras, espacios adecuados).

Fuentes de datos: Registros administrativos de inventario, encuesta breve a directores, y logs de plataforma MakeCode.

Indicador sintético: Índice de acceso efectivo = (placas funcionales / matrícula) × (horas semanales asignadas / horas esperadas) × (índice de infraestructura / máximo posible)

5.2.2 Dimensión 2: Competencias técnicas

La medición de competencias requiere ir más allá de autoreportes. La evidencia internacional muestra sesgos sistemáticos en autoevaluación, particularmente en dominios con estereotipos de género, sugiriendo la necesidad de evaluación directa de desempeño centrada en capacidad de resolver problemas nuevos, no en memorización de sintaxis.

Instrumento 1: Rúbrica de proyectos

Adaptada de los frameworks de Brennan & Resnick (2012) para Scratch, la rúbrica identifica cuatro niveles de apropiación: - Replicación (seguir tutoriales paso a paso), - Modificación (cambiar parámetros o combinar bloques de formas nuevas), - Adaptación (transferir lógica a contextos diferentes), y - Creación (diseñar soluciones originales a problemas no estructurados).

La evaluación se realiza sobre proyectos reales desarrollados en clase, requiriendo documentación de al menos dos proyectos por estudiante por año.

Instrumento 2: Prueba de transferencia

Inspirada en el trabajo de Grover et al. (2015), la prueba presenta problemas no computacionales que requieren pensamiento algorítmico. Por ejemplo: “Organizar una liga deportiva con 8 equipos donde cada uno juegue contra todos los demás una vez. ¿Cuántos partidos se necesitan? ¿Cómo verificar que no hay errores?”

La o el estudiante con pensamiento computacional desarrollado descompondrá el problema, identificará patrones, abstraerá representaciones, diseñará un algoritmo y verificará con casos de prueba, sin necesidad de escribir código.

Instrumento 3: Análisis de logs de MakeCode

La plataforma genera datos conductuales que representan una oportunidad de aprovechamiento: tiempo entre primer intento y código funcional (eficiencia de debugging), número de iteraciones antes de solución (persistencia y método), uso de funciones avanzadas (complejidad), y frecuencia de consulta de documentación (autonomía).1

Indicador sintético: Índice de competencia técnica = promedio ponderado de nivel en rúbrica (40%) + desempeño en prueba de transferencia (30%) + métricas de logs (30%)

5.2.3 Dimensión 3: Actitudes y autoeficacia

Esta dimensión requiere instrumentos validados psicométricamente que minimicen sesgos de deseabilidad social.

Instrumento principal: Escala de autoeficacia en programación

Instrumento: Escala de autoeficacia en programación Adaptada de Askar & Davenport (2009), con ítems específicos para micro:bit:

-“Si mi código no funciona, generalmente puedo encontrar el error por mi cuenta”

  • “Cuando veo un programa que hace algo interesante, puedo imaginarme cómo modificarlo”

  • “Si un compañero me pide ayuda con su código, me siento capaz de orientarlo”

  • “Creo que podría aprender a programar otros dispositivos además de micro:bit”

Escala Likert 1-5, administrada al inicio y al final del año. Lo crítico es la evolución, no el nivel absoluto.

Y lo crítico al cuadrado es desagregar por género. Si los varones aumentan autoeficacia y las chicas la mantienen constante, hay un problema. Si ambos aumentan pero las chicas parten de más bajo y la brecha persiste, también hay problema.

Instrumento complementario: Observación estructurada

En una muestra de aulas, observadores con entrenamiento previo documentan patrones de participación:

  • Quién levanta la mano primero cuando hay una pregunta técnica
  • Quién programa vs quién “ayuda” en trabajos grupales
  • Cómo reaccionan docentes ante errores de varones vs errores de mujeres
  • Qué lenguaje usan para describir capacidades (“ella es muy prolija” vs “él es un genio”)

Este instrumento captura sesgos sutiles que ni docentes ni estudiantes reportarían en encuestas porque están naturalizados.

Indicador sintético: Índice de actitudes = cambio en autoeficacia (60%) + observaciones de equidad de género (40%)

5.2.4 Dimensión 4: Capital social digital

Las redes de apoyo, aunque no directamente observables, pueden aproximarse mediante indicadores a tres niveles.

Nivel estudiante: ¿Tiene al menos una o un compañero con quien consulta cuando se tranca con el código? ¿Ha compartido proyectos en comunidades online? ¿Conoce a alguien fuera del aula que programa?

Nivel docente: ¿Participa en comunidades de práctica sobre enseñanza de programación? ¿Tiene referente territorial de Ceibal con quien consulta dudas? ¿Ha colaborado con docente de otro centro en proyectos conjuntos?

Nivel institucional: ¿Existe equipo de docentes que coordinan integración curricular de micro:bit? ¿Hay instancias regulares de socialización de proyectos estudiantiles?

Indicador sintético: Índice de capital social = promedio de densidad de red estudiantil (33%) + conectividad docente (33%) + estructura institucional (33%)

5.3 Del índice a la decisión: diagnóstico diferencial

La potencia del enfoque multidimensional radica en que permite diagnóstico diferencial y respuestas específicas según el patrón observado, maximizando la eficiencia de las intervenciones.

Escenario 1: Acceso alto, competencias bajas

Las placas están disponibles pero la apropiación pedagógica es limitada. La intervención prioritaria es intensificar formación docente en mediación pedagógica (no en habilidades técnicas adicionales), incluyendo estrategias de andamiaje, identificación de errores comunes, y diseño de proyectos con dificultad graduada.

Escenario 2: Competencias técnicas altas, autoeficacia baja (especialmente en mujeres)

Hay desempeño objetivo pero falta confianza, sugiriendo oportunidades de mejora en reconocimiento de logros y atribución de errores. La intervención incluye trabajo con docentes sobre cómo dar retroalimentación diferencial por género, visibilización de modelos femeninos en tecnología, y normalización explícita del error como parte del proceso de aprendizaje.

Escenario 3: Competencias y actitudes altas, capital social bajo

El aprendizaje ocurre pero de forma atomizada, limitando sostenibilidad y difusión de innovaciones.

5.4 Implementación pragmática: secuenciar es elegir

Construir el sistema de medición completo de un saque es inviable. Requiere desarrollo de instrumentos, validación psicométrica, capacitación de evaluadores, infraestructura de datos, presupuesto.

La estrategia pragmática es secuencial:

  • Año 1 (2026):

  • Instrumentos de bajo costo: encuesta de autoeficacia + análisis de logs de MakeCode (ya existen, solo hay que conseguirlos y procesarlos)

  • Muestra representativa, no censo: 50 centros estratificados por tamaño, contexto socioeconómico, departamento Objetivo: Probar instrumentos, estimar magnitud de brechas, identificar outliers positivos para estudiar

  • Año 2 (2027):

  • Agregar rúbrica de proyectos en la misma muestra + observación estructurada en una submuestra de 15 aulas

  • Primera medición longitudinal: re-encuestar centros del Año 1 para ver evolución

  • Análisis causal exploratorio: correlacionar índice de capital digital con variables de contexto (características del centro, formación docente, intensidad de uso)

  • Año 3 (2028):

  • Escalar a muestra más grande (200 centros)

  • Incorporar prueba de transferencia

  • Aprovechar variación natural en el período de implementación para identificación causal: comparar centros que recibieron acompañamiento intensivo en 2027 vs 2028

Este cronograma asume una restricción presupuestal realista. Si hubiera recursos para acelerar, mejor. Pero lo importante es empezar con lo simple y robusto, no con lo perfecto e inviable.

5.5 Dashboard comunitario

La gobernanza efectiva de bienes comunes requiere monitoreo mutuo y transparente. Un dashboard comunitario donde docentes, estudiantes y familias visualicen el uso de las placas -con alertas tempranas cuando hay acaparamiento, reconocimientos cuando hay uso ejemplar, y mecanismos para ajustar reglas- operacionaliza los principios de Ostrom en el contexto digital educativo.

%%{init: {'theme':'neutral'}}%%
graph LR
    A[Monitoreo Docente] --> D[Dashboard Comunitario]
    B[Monitoreo Estudiantil] --> D
    C[Monitoreo Familiar] --> D
    D --> E[Alertas Tempranas]
    D --> F[Reconocimientos]
    D --> G[Ajustes de Reglas]
    
    style A fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
    style B fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
    style C fill:#f8f9fa,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
    style D fill:#e8f5e8,stroke:#6c757d,stroke-width:2px,rx:8,ry:8
    style E fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
    style F fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8
    style G fill:#fff3e0,stroke:#6c757d,stroke-width:1px,rx:8,ry:8


  1. Este indicador está disponible en fase piloto para micro:bit Uruguay↩︎