¿Has sentido alguna vez esa sensación de probar algo por primera vez y que… zas, funcione? Al principio juegas, exploras, pruebas, te sorprendes. Y poco a poco —casi sin darte cuenta— aquello que nació de tu curiosidad se convierte en una práctica. Algo que empiezas a incorporar una y otra vez, hasta que llega el día en que te das cuenta de que podrías escalarlo.
En Monday Happy Monday, la curiosidad está en nuestro ADN. Y hoy me gustaría poner el foco en cómo esa curiosidad nos ha llevado a incorporar la IA en las experiencias de aprendizaje que diseñamos para nuestros clientes. Y es que, para nosotras, el aprendizaje forma parte del impacto que queremos generar en las organizaciones: nos apasiona andamiar las condiciones necesarias para que las personas puedan trabajar de otra manera.
Un pequeño espóiler: estamos usando IA, por ejemplo, para desarrollar empatía —ese músculo que mueve la innovación humano céntrica— como si fuera un simulador. Nos está permitiendo crear un entorno seguro donde las personas pueden ensayar, probar, escuchar, reformular, equivocarse y volver a intentarlo. Porque la empatía no se aprende solo entendiéndola: se aprende practicándola. Y cuanto más preparada llega una persona a la interacción real, más probabilidades hay de que esa empatía sea auténtica, útil y transformadora.
Y precisamente porque funciona, llega la segunda fase: la importante. La que te obliga a madurar el entusiasmo y convertirlo en criterio. Preguntarnos si lo estamos haciendo bien como diseñadoras de experiencias de aprendizaje significativas, y bajo qué condiciones tiene sentido llevarlo más allá: a otras competencias, a otras partes del proceso, a otros equipos y a otros perfiles.
Y ahí es donde un marco te ayuda a ordenar el mapa: cuándo sí, cuándo no y bajo qué condiciones.
Un marco que nos ayudó a poner criterio
En esa búsqueda llegamos al Oxford Rubric, un whitepaper publicado a principios del 2026 para ayudar al mundo educativo a decidir si un uso de IA es apropiado.
Me interesó por un motivo sencillo: no es una guía de herramientas. No entra a recomendar plataformas. Entra a lo que de verdad necesitamos cuando algo empieza a funcionar: criterios claros.
El documento propone cinco criterios y, para cada uno, preguntas guía e indicadores para distinguir lo “apropiado” de lo “problemático”. Son simples de recordar (y eso es una virtud). Si uno falla, el mensaje es claro: no se trata de “ajustar un detalle”, sino de replantear el caso de uso.
- Safety (Seguridad) ¿Es seguro para las personas? ¿Protege datos, bienestar y salvaguarda?
- Efficacy (Eficacia) ¿Mejora el aprendizaje de verdad… o solo acelera tareas?
- Accountability (Responsabilidad) Si algo sale mal, ¿quién responde? ¿Quién decide, revisa y corrige?
- Transparency (Transparencia) ¿Se entiende cuándo se usa IA, para qué, con qué límites y con qué datos?
- Agency (Autonomía y criterio) ¿Hace a las personas más capaces… o más dependientes?
Cómo lo traducimos al aprendizaje en organizaciones
En organizaciones, la pregunta ya no es “¿podemos usar IA en experiencias de aprendizaje?”, sino “¿con qué criterios decidimos escalar su uso?”. Escalar el piloto aquí significa llevarlo más allá del piloto: a otras competencias, equipos, perfiles y entornos.
Lo que sigue es una reinterpretación de los cinco criterios del Oxford Rubric aterrizada a Learning & Development y al aprendizaje de personas adultas en organizaciones: un apoyo para decidir cuándo sí, cuándo no y con qué límites.
1. Safety → no solo privacidad: “no daño profesional”
Más allá del RGPD, seguridad también es evitar daños “invisibles”: que nadie quede expuesto/a, que no haya vigilancia encubierta, que no se cuelen sesgos que afecten oportunidades y que la práctica no se convierta en evaluación encubierta. En el fondo, se trata de que el aprendizaje siga siendo un espacio seguro —no una fuente de riesgo, desconfianza o consecuencias inesperadas.
Pregunta guía: ¿Podría este uso de IA perjudicar a alguien (por datos, sesgo, exposición o valoraciones derivadas del uso) aunque el contenido parezca inocuo?
2. Efficacy → aprendizaje real + transferencia, no solo eficiencia
La IA puede reducir el tiempo. Pero el aprendizaje adulto necesita otra cosa: criterio, práctica y transferencia.
Pregunta guía: ¿Esto fortalece la competencia real en el puesto o simplemente “resuelve” por la persona?
3. Accountability → gobernanza clara (no “lo decide la herramienta”)
Esto se refiere a acuerdos de gobernanza. Es decir: dejar muy claro, entre las áreas implicadas (People, IT, Legal, etc.), qué herramientas se usarán, qué datos pueden entrar (y cuáles no), qué se guarda y durante cuánto tiempo, quién tendrá acceso y quién responde si hay un problema.
Pregunta guía: ¿Quién decide este caso de uso, quién asume riesgos, quién revisa impactos y quién actúa ante incidencias?
4. Transparency → el contrato psicológico
Las personas adultas necesitan claridad: qué hace la IA, qué no hace, qué se registra, quién lo ve, para qué se usa.
Pregunta guía: Si lo explicamos con total transparencia a cualquier equipo, ¿nos sentiríamos cómodos?
5. Agency → autonomía y criterio (copiloto sí; sustituto del juicio, no)
Aquí la pregunta es simple: ¿la IA está aumentando la capacidad de pensar y decidir… o la está reemplazando?
En aprendizaje adulto, la IA puede ser una gran aliada si refuerza independencia, pensamiento crítico y autoría. Pero si se usa mal, puede generar dependencia: personas que ejecutan entregables sin cuestionarlos.
Pregunta guía: ¿Este caso de uso fortalece la autonomía y el criterio de las personas, o las acostumbra a delegar el pensamiento?
Lo que cambia en facilitación y diseño del aprendizaje en la era IA
Hay algunas reflexiones, que a raíz de la incorporación de la IA en los diseños de las experiencias de aprendizaje, me gustaría puntualizar.
En lo que se refiere al rol del facilitador, aquí no hay nada nuevo, pero sí hay algo ¡muy interesante! Quienes trabajamos desde la corriente del pensamiento de diseño llevamos años diseñando condiciones para que ocurra aprendizaje real: conversación, práctica, reflexión, feedback y decisiones. La IA no “reinventa” ese rol. Pero sí lo vuelve más visible. Cuando el entregable se abarata, el valor se desplaza. Y, de pronto, se entiende mejor que la diferencia no está en “dar respuestas”, sino en diseñar el proceso: la calidad de las preguntas, la práctica, la reflexión y el criterio.
Lo que sí cambia (y mucho) es el diseño de experiencias de aprendizaje.
Con IA, diseñar para el proceso deja de ser “recomendable” y se convierte en imprescindible. Porque el resultado final ya no es una evidencia fiable de competencia: puede estar hiper-asistido. Por eso, la evidencia se desplaza a otro lugar: cómo llegas (razonamiento, decisiones, trade-offs), qué verificas y cómo, qué descartas y por qué, qué preguntas haces, cómo iteras, cómo sostienes criterio propio.
Dicho simple: si seguimos poniendo el foco solo en el resultado, la IA nos puede dar entregables… pero el aprendizaje se nos puede escapar.
Y aquí es donde, para mí, el pensamiento de diseño cobra todavía más sentido. Las design thinkers llevamos tiempo insistiendo en que lo valioso no es llegar rápido a una solución, sino aprender lo suficiente como para tomar mejores decisiones: observar mejor, preguntar mejor, contrastar, prototipar, iterar.
Con IA, las respuestas son más accesibles que nunca. Por eso el diferencial se desplaza: no a lo que te devuelve la herramienta, sino a cómo lo trabajas tú. Interpretar, cuestionar, contrastar y convertirlo en decisiones responsables: ahí está el aprendizaje.
Cierre
Si la IA ya está entrando en nuestras experiencias de aprendizaje, el reto no es usarla más: es usarla mejor. El Oxford Rubric nos recuerda lo esencial —seguridad, eficacia, responsabilidad, transparencia y autonomía/criterio— y nos ayuda a tomar decisiones cuando algo funciona y queremos escalarlo.
Si estás liderando L&D, Innovación o Transformación, quizá estas tres preguntas te sirvan como brújula antes de escalar cualquier uso de IA en experiencias de aprendizaje:
- ¿Qué quieres amplificar con IA… y qué no vas a delegar? (líneas rojas: criterio, ética, juicio, relación humana)
- Si tuvieras que explicarlo con total transparencia, ¿qué dirías exactamente? (para qué es, qué datos usa, qué se guarda, quién lo ve y qué límites tiene)
- Antes de escalarlo, ¿qué condiciones mínimas vas a exigir… y quién se hace cargo si algo falla?(seguridad, autonomía, gobernanza, impacto)