8  Conclusiones y agenda de investigación

Fecha de modificación

10 de noviembre de 2025

8.1 Logros consolidados y agenda de profundización

8.1.1 Lo que Uruguay ha logrado

El programa micro:bit en Uruguay (2018-2025) representa un caso de estudio de valor global: un país de ingreso medio-alto en América Latina que logró cobertura universal de una tecnología educativa avanzada en tiempo récord.

Los logros verificables incluyen:

  1. Cobertura universal efectiva: La distribución alcanzó todos los subsistemas educativos, incluyendo contextos rurales, con una logística operativa notable.

  2. Apropiación docente significativa: Los reportes cualitativos muestran entusiasmo genuino y valoración de la herramienta por parte de docentes que la han integrado a sus prácticas.

  3. Infraestructura institucional consolidada: 800 docentes certificados, estructuras de acompañamiento territorial, y una plataforma de aprendizaje robusta.

  4. Posicionamiento internacional: Uruguay es referente regional en implementación de pensamiento computacional a escala.

8.1.2 Oportunidades de profundización

Construyendo sobre estos logros, emergen tres agendas prioritarias:

1. De acceso a apropiación profunda

El desafío ya no es distribuir placas sino maximizar su uso pedagógico efectivo. Esto requiere: - Fortalecer comunidades de práctica docente para compartir innovaciones - Desarrollar repositorios de proyectos contextualizados - Generar espacios de socialización de experiencias exitosas entre centros

2. De uso a impacto medible

Uruguay tiene la oportunidad de convertirse en líder global en evaluación de programas de pensamiento computacional mediante: - Desarrollo de instrumentos de medición multidimensional del capital digital - Sistemas de monitoreo que capturen no solo distribución sino apropiación y resultados - Investigación longitudinal que documente trayectorias estudiantiles de largo plazo

3. De equidad de acceso a equidad de resultados

El programa puede profundizar su compromiso con la equidad mediante: - Intervenciones específicas para fortalecer autoeficacia en grupos subrepresentados - Monitoreo sistemático de brechas emergentes con retroalimentación a docentes - Articulación con trayectorias técnico-profesionales que amplíen oportunidades laborales

8.2 Lo que sabemos

El programa micro:bit en Uruguay (2018-2025) representa un experimento natural de valor global: qué pasa cuando un país de ingreso medio/alto en América Latina logra cobertura universal de una tecnología educativa avanzada en tiempo breve.

Lo que la evidencia disponible permite afirmar:

  1. La distribución funcionó: La logística operativa fue exitosa. Las placas llegaron a todos los subsistemas, incluyendo contextos rurales.

  2. Hay entusiasmo docente real: Los reportes cualitativos son consistentes. Docentes que usan micro:bit valoran la herramienta, estudiantes se enganchan.

  3. El acceso no garantiza impacto: Los datos de “uso reportado” no dicen nada sobre desarrollo de competencias, equidad, o sostenibilidad.

  4. Existen riesgos de canalización por género: La evidencia de plataformas similares en Uruguay muestra patrones preocupantes. No hay razón para creer que micro:bit esté exento.

  5. La gobernanza local es heterogénea: Algunos centros desarrollaron instituciones robustas para gestionar el bien común. Otros operan en anarquía o monopolio de facto.

8.3 Lo que no sabemos (y necesitamos saber)

Las brechas de conocimiento son extensas:

Sobre aprendizaje: - ¿Qué fracción de estudiantes desarrolla competencias de pensamiento computacional transferibles? - ¿Cómo varía esto por género, contexto socioeconómico, tipo de centro? - ¿Qué estudiantes persisten en trayectorias STEM y cuáles no?

Sobre pedagogía: - ¿Qué prácticas docentes distinguen centros de alto impacto de bajo impacto?

  • ¿Cómo median las y los buenos docentes cuando hay heterogeneidad de nivel en el aula?

  • ¿Qué rol juegan los tutoriales estructurados vs proyectos abiertos en diferentes etapas?

Sobre equidad:

  • ¿Emergen brechas de autoeficacia por género incluso cuando las competencias técnicas son equivalentes?

  • ¿La comunidad docente tiene sesgos implícitos en cómo retroalimentan errores de varones vs mujeres?

  • ¿Las mujeres estudiantes tienen menos acceso a roles de liderazgo en proyectos grupales?

Sobre sostenibilidad:

  • ¿Qué características institucionales predicen uso sostenido más allá del comportamiento de una/un docente heroico?

  • ¿Cómo evolucionan las placas en su ciclo de vida? (tasas de rotura, reposición, reasignación)

  • ¿Las comunidades de práctica docente generan mejoras de calidad en el tiempo?

Sobre efectos de largo plazo:

¿Las y los estudiantes que usaron micro:bit en primaria eligen bachilleratos técnicos a mayor tasa?

  • ¿Tienen mejor desempeño en materias STEM en secundaria?

  • ¿Desarrollan trayectorias laborales diferentes?

library(ggplot2)
library(dplyr)

Attaching package: 'dplyr'
The following objects are masked from 'package:stats':

    filter, lag
The following objects are masked from 'package:base':

    intersect, setdiff, setequal, union
#| fig-width: 9
#| fig-height: 6
#| echo: false
#| warning: false

# Datos 2024 - Docentes
intencion_continuidad_doc <- data.frame(
 grupo = "Docentes",
 respuesta = c("1Sí, seguro", "2Sí, probablemente", "3Difícilmente", "4No", "5NS/NC"),
 porcentaje = c(64, 31, 2, 1, 3)
)

# Datos 2024 - Estudiantes
intencion_continuidad_est <- data.frame(
 grupo = "Estudiantes",
 respuesta = c("1Sí, seguro", "2Sí, probablemente", "3Difícilmente", "4No", "5No sabe"),
 porcentaje = c(45, 39, 5, 6, 5)
)

intencion_combinada <- bind_rows(intencion_continuidad_doc, 
    intencion_continuidad_est)

ggplot(intencion_combinada, 
 aes(x = respuesta, y = porcentaje, fill = grupo)) +
 geom_col(position = "dodge", width = 0.7) +
 geom_text(aes(label = paste0(porcentaje, "%")),
 position = position_dodge(width = 0.7),
 vjust = -0.3, size = 3.5) +
 scale_fill_manual(values = c("#2ecc71", "#3498db"),
  labels = c("Docentes (n=593)", "Estudiantes")) +
 labs(
 title = "Intención de Continuar Usando micro:bit el Próximo Año (2024)",
 subtitle = "95% docentes y 84% estudiantes planean continuar - Señal de sostenibilidad del programa",
 x = NULL,
 y = "Porcentaje (%)",
 fill = NULL
 ) +
 theme_minimal() +
 theme(
 legend.position = "top",
 plot.title = element_text(face = "bold", size = 12),
 axis.text.x = element_text(angle = 20, hjust = 1, size = 9)
 ) +
 scale_y_continuous(limits = c(0, 70), breaks = seq(0, 70, 10))

8.4 Agenda de investigación: las preguntas de economía

Este libro argumentó que evaluar micro:bit requiere ir más allá de indicadores educativos de uso. Las preguntas de economía que merecen atención rigurosa:

  1. Identificación causal del impacto

Aprovechar variación natural en la entrega y disponibilidad, así como la intensidad de implementación para identificar efectos causales usando diferencias-en-diferencias, variables instrumentales, o discontinuidades de regresión. Específicamente:

  • Comparar cohortes que recibieron micro:bit en 4to año de escuela vs 5to vs 6to

  • Usar distancia geográfica a referentes territoriales de Ceibal como instrumento para intensidad de acompañamiento

  • Explotar discontinuidades en umbrales de matrícula para asignación de recursos

  1. Economía de la información en sistemas educativos

¿Cómo cambian las decisiones de actores (docentes, directores, familias, estudiantes) cuando tienen acceso a información sobre capital digital?

Experimentos de información:

  • Proveer a la mitad de docentes datos sobre brecha de género en sus aulas: ¿cambian prácticas?

  • Dar a mujeres estudiantes información sobre desempeño comparado: ¿mejora autoeficacia?

  • Mostrar a directores benchmarks de centros similares: ¿ajustan asignación de recursos?

  1. Economía política de la adopción de innovaciones

¿Por qué algunos centros adoptan profundamente y otros superficialmente?

Estudiar variables de economía política institucional:

  • Estructura de poder en equipos docentes (vertical vs horizontal)

  • Rotación de directores e incentivos de corto plazo

  • Presiones externas (inspecciones, familias) sobre currículo

  • Autonomía presupuestal y discrecionalidad de recursos

  1. Retornos de largo plazo en mercado laboral

En diez años, cuando los primeros estudiantes con micro:bit intensivo entren al mercado laboral, hacer seguimiento:

  • Primas salariales asociadas a habilidades técnicas
  • Probabilidad de empleo en sector tecnológico
  • Movilidad ocupacional intergeneracional
  • Diferencias por género en retornos a misma formación

Este tipo de evaluación requiere infraestructura de datos longitudinales que vincule registros educativos con registros de seguridad social. Uruguay tiene ventaja comparativa aquí: escala manejable, registros administrativos de calidad, identificadores únicos de personas.

  1. Análisis costo-efectividad comparado

¿Cuál es el retorno social de la inversión en micro:bit comparado con usos alternativos de recursos?

  • Costo por estudiante que desarrolla competencias transferibles (no costo por placa distribuida)

  • Comparación con programas alternativos: formación docente en pedagogía general, reducción de tamaño de clase, infraestructura edilicia

  • Análisis de sensibilidad a supuestos sobre externalidades (efectos de largo plazo, difusión social del conocimiento)

9 Hoja de ruta 2026-2030: De la cobertura a la profundización

9.1 Fase 1 (2026-2027): Fortalecimiento de sistemas de información

  • Desarrollo e implementación piloto del Índice de Capital Digital en 50 centros representativos
  • Análisis de logs de MakeCode para identificar patrones de uso efectivo
  • Primera medición de autoeficacia y competencias técnicas con instrumentos validados

9.2 Fase 2 (2028-2029): Escalamiento y ajustes

  • Ampliación del sistema de medición a 200 centros
  • Identificación de prácticas pedagógicas efectivas y su sistematización
  • Fortalecimiento de comunidades de práctica con base en evidencia

9.3 Fase 3 (2030): Consolidación y proyección

  • Evaluación de impacto longitudinal: seguimiento de primeras cohortes
  • Articulación con sector productivo para validación de competencias
  • Posicionamiento como caso de estudio global en educación digital equitativa

9.4 Inversión estimada y retornos esperados

[no sé si deberíamos hablar de esto en este libro]

9.5 Para quién es este conocimiento

Este libro se escribió para múltiples audiencias, cada una con intereses diferentes:

Para quienes diseñan políticas públicas en Uruguay: La evidencia sobre qué funciona y qué no, para tomar decisiones informadas sobre continuidad, ajustes, o rediseño del programa.

Para la comunidad internacional de educación en computación: Uruguay es un caso de estudio único por escala y velocidad. Las lecciones positivas (y las negativas) son transferibles a otros contextos.

Para economistas del desarrollo: Micro:bit es un experimento natural sobre cómo tecnologías de propósito general interactúan con instituciones educativas y estructuras de desigualdad preexistentes.

Para la comunidad educativa uruguaya: Docentes, directores, referentes territoriales que están en la primera línea de implementación. El marco de Capital Digital les da lenguaje conceptual para articular intuiciones prácticas.

Para las familias: Padres y madres que quieren entender qué está aprendiendo su hijo o hija, por qué importa, y cómo pueden apoyar desde el hogar sin necesariamente saber programar.

9.6 El imperativo ético de la evaluación rigurosa

Terminamos con una nota normativa.

Uruguay invirtió recursos públicos significativos en este programa. Esos recursos tienen costo de oportunidad: son aulas que no se construyeron, docentes que no se contrataron, becas que no se otorgaron. La justificación ética de esa inversión es que genera beneficios sociales que exceden los costos.

Pero esa justificación requiere evidencia. No basta con buenas intenciones o testimonios anecdóticos. Hace falta una evaluación rigurosa que permita responder: ¿esto funcionó? ¿Para quién? ¿Bajo qué condiciones? ¿A qué costo?

La evaluación representa una oportunidad de aprendizaje institucional. En lugar de verla como un control, podemos concebirla como un sistema de retroalimentación que nos permite mejorar continuamente y garantizar que cada recurso invertido genere el máximo impacto en las trayectorias educativas de la comunidad de estudiantes.

Un sistema robusto de evaluación es, ante todo, una herramienta de equidad. Nos permite identificar tempranamente qué estudiantes, escuelas o regiones necesitan apoyos adicionales, asegurando que el programa llegue con calidad a todos los contextos.

Las y los estudiantes de contextos socioeconómicos bajos no tienen referentes parentales que puedan presionar por mejores programas. Las mujeres estudiantes enfrentan barreras sutiles que ni ellas mismas reconocen como tales. Las docentes en escuelas del interior no tienen el networking para hacer escuchar sus necesidades.

La evaluación rigurosa es el mecanismo que da voz a los sin voz, que hace visible lo invisible, que fuerza a las instituciones a rendir cuentas basadas en resultados, no en promesas. Y por eso es un imperativo ético, no metodológico.

10 Epílogo: Una conversación pendiente

En octubre de 2025, mientras terminábamos de escribir este libro, Carla, coordinadora del programa micro:bit en Ceibal y una de las autoras dijo algo que nos quedó dando vueltas:

“Conceptualmente, micro:bit es GRANDE. Tiene llegada y potencial. Pero no tenemos la foto completa de la magnitud real del programa. Los datos están desagregados, pero falta el panorama integrado.”

Desde la perspectiva de Carlota Pérez, las revoluciones tecnológicas siguen un patrón recurrente que comprende una fase de instalación (con tecnologías emergentes y aumento de desigualdades), un punto de inflexión marcado por crisis institucionales, y una fase de despliegue con difusión masiva e instituciones inclusivas. El programa micro:bit en Uruguay representa un esfuerzo por transitar directamente hacia el despliegue inclusivo, construyendo instituciones (como la gobernanza Ostromiana de los recursos digitales) que históricamente han emergido tras periodos de crisis profundas. Esta mirada subraya que nuestro desafío central reside en lo institucional-político: diseñar arreglos que garanticen que la revolución digital en educación beneficie a toda la comunidad estudiantil, incluyendo especialmente a quienes parten con menos capital inicial.

Ese es exactamente el problema que este libro intentó abordar. No porque nos interese la evaluación como ejercicio académico abstracto. Sino porque sin esa “foto completa”, estamos volando a ciegas.

Y volar a ciegas cuando llevás pasajeros que confiaron en vos, en este caso, 400.000 estudiantes de Uruguay, no es ineficiente, es éticamente inaceptable.

La buena noticia es que es un problema que se puede solucionar. Uruguay tiene las capacidades técnicas, la infraestructura de datos, y la tradición de políticas basadas en evidencia. Lo que falta es decisión política de priorizar la evaluación con la misma intensidad que se priorizó la distribución.

Al final del día, Uruguay tiene la oportunidad de consolidar su liderazgo regional no solo en cobertura sino en rigor evaluativo. Medir el impacto de micro:bit de forma multidimensional es coherente con el compromiso histórico del país con la equidad educativa. Además de saber si el programa funciona en promedio, se trata de identificar para quién funciona mejor y qué ajustes maximizan su potencial transformador. Los países que se convierten en referentes globales son aquellos que documentan sus procesos con transparencia, aprendiendo tanto de los aciertos como de los desafíos. La evaluación propuesta en este libro no es un ejercicio de rendición de cuentas retrospectiva, es la herramienta que permitirá que cada nueva cohorte de estudiantes reciba una versión mejorada del programa, construyendo sobre la experiencia acumulada para garantizar que la tecnología educativa cumpla su promesa de democratización del conocimiento.

11 Referencias

[completar]

12 Sobre las autoras

Este análisis retrospectivo fue elaborado por Virginia Robano, Carla Degregorio y Florencia Talmón, desde sus roles en Ceibal, basado en la experiencia acumulada de implementación y la reflexión sistémica sobre el programa.

El trabajo se benefició de conversaciones extensas con la comunidad docente, directores, referentes territoriales y estudiantes a lo largo de todo el territorio uruguayo.Sus voces (no siempre visibles en los datos agregados) fueron fundamentales para entender la complejidad de la implementación en contextos reales.

La responsabilidad por cualquier error u omisión es exclusivamente nuestra.

13 Nota metodológica sobre fuentes de datos

Este análisis se basa en múltiples fuentes:

  • Registros administrativos de Ceibal: Datos de distribución de placas (2018-2024), registros de participación en formación docente, reportes de uso de centros educativos.

  • Plataforma MakeCode: Logs de actividad de programación (disponibles pero no explotados sistemáticamente al momento de este análisis).

  • Entrevistas semi-estructuradas y observaciones de aula

  • Literatura académica: Revisión sistemática de investigación sobre micro:bit, educación en computación, brechas digitales, y economía de la educación (168 papers consultados, 52 citados).

Las limitaciones principales son la ausencia de: (1) datos de panel longitudinal siguiendo mismos estudiantes en el tiempo, (2) mediciones directas de competencias técnicas usando instrumentos validados, (3) datos de autoeficacia y actitudes con instrumentos psicométricos robustos, (4) grupo de comparación adecuado para identificación causal rigurosa.

Estas limitaciones no invalidan el análisis pero sí circunscriben el tipo de inferencias que podemos hacer responsablemente. Cuando hay incertidumbre, la explicitamos.