Andrés Silva – Hacia una política pública de “buen uso” de la IA en educación.

Editoriales

Andrés Silva – Hacia una política pública de “buen uso” de la IA en educación.

HACIA UNA POLÍTICA PÚBLICA DE “BUEN USO” DE LA IA EN EDUCACIÓN

“El cerebro obedece a la ley ‘úsalo o piérdelo’. Una política inteligente de IA en educación se asegura de que lo usemos —con disciplina, criterio y propósito— para ampliar, no encoger, nuestra humanidad intelectual.”

La irrupción de la IA generativa en las aulas nos obliga a un cambio de enfoque: no se trata
de “prohibir” ni de “dejar hacer”, sino de gobernar estratégicamente su uso para fortalecer —
no atrofiar— las capacidades cognitivas de estudiantes y profesores. En mi columna de
Montevideo Portal propuse la metáfora de la “obesidad cerebral”: cuando la comodidad
algorítmica nos vuelve intelectualmente sedentarios, alimentándonos de “calorías cognitivas
vacías” y delegando en la máquina lo que antes entrenaba nuestra mente. La IA,
recordémoslo,
“no es un villano; es una cinta de correr” que puede entrenar o ablandar el
músculo del pensamiento según quién lleve el mando.

A partir de esa premisa, esta propuesta de política pública busca asegurar tres objetivos
clave: 1) mantener el cerebro “en movimiento” (pensamiento crítico, memoria de trabajo,
creatividad), 2) elevar la equidad y la calidad del aprendizaje con IA, y 3) resguardar
derechos, datos y transparencia. Se inspira en estándares internacionales (UNESCO,
OCDE), pero aterriza en prácticas concretas, medibles y auditables para sistemas escolares
y de educación superior.

Principios rectores

1.Primacía humana y derechos: toda implementación debe alinearse con la
Recomendación sobre la Ética de la IA de la UNESCO (transparencia, rendición de
cuentas, equidad, no discriminación).

2.Cerebro activo por diseño: la IA se integra para ampliar capacidades, no para sustituir
sistemáticamente procesos cognitivos formativos.

3.Equidad e inclusión: acceso, apoyos y contenidos adaptativos sin crear “brechas
algorítmicas” entre centros y territorios tan como lo plantea la OCDE.

4.Evidencia y evaluación continua: pilotos con evaluación rigurosa antes de escalar
cualquier iniciativa.

A partir de estos cuatro principios rectores propongo doce medidas para una política
nacional de buen uso de la IA:

1) Alfabetización en IA desde la educación primaria hasta educación superior.
Currículos con módulos obligatorios sobre cómo funciona la IA, sesgos, privacidad,
verificación de fuentes y prompting responsable. La OCDE sugiere orientaciones para un
uso eficaz y equitativo; lo que debe incorporarse como marco de referencia curricular.

2) Estándares de “cerebro activo” en tareas y evaluaciones.
Adoptar la regla pedagógica “Pensar primero, IA después”: bosquejar ideas, hipótesis o
borradores antes de abrir el chat; luego contrastar con IA y oralizar lo aprendido. Esta
secuencia que propongo como plan de entrenamiento mental, combate el sedentarismo
intelectual inducido por automatismos.

3) Doble pista de evaluación (sin IA / con IA).
Solicitar evidencia del proceso (apuntes, esquemas a mano, borradores previos) y, en una
segunda etapa, productos mejorados con IA más defensa oral. El foco pasa del “producto
final” al desarrollo de criterios, metacognición y transfer.

4) Indicadores de “salud cognitiva” del sistema.
Incorporar métricas de atención sostenida, memoria operativa y diversidad de ideas en
rúbricas y evaluaciones nacionales, monitorizando riesgos de “deuda cognitiva” y anemia
creativa.

5) Programa nacional de formación docente en IA.
Una “Academia Docente en IA y Didáctica” con microcredenciales: diseño de tareas de alto
orden con IA, evaluación auténtica, ética de datos, y gestión de aula con herramientas
generativas. En esta materia, la OCDE destaca la necesidad de capacidades docentes para
una gobernanza efectiva de la IA.

6) Compras públicas con cláusulas de transparencia y seguridad.
Toda solución de IA usada en educación deberá entregar model cards y data sheets básicos,
trazabilidad de fuentes, despliegue seguro (incluyendo entornos cerrados) y explícitas
políticas de no retención de datos estudiantiles para reentrenamiento sin consentimiento.

7) Infraestructura y equidad territorial.
Conectividad, dispositivos y apoyos (lectores de pantalla, traducción, accesibilidad) como
condición habilitante. La UNESCO enfatiza inclusión y accesibilidad como principios de
política, especialmente para grupos vulnerables.

8) Laboratorios de innovación y “sandboxes” regulatorios.
Convocar a universidades, edtechs y centros escolares a pilotos controlados (con comités de
ética y evaluación independiente), para validar usos con evidencia antes de escalarlos a
nivel nacional. En este punto, la OCDE recomienda experimentar con guardrails (barreras
protectoras y reglas operativas).

9) Observatorio público de IA en educación.
Un tablero abierto que reporte: adopción por niveles educativos, resultados de aprendizaje,
brechas de acceso, incidencias de seguridad y hallazgos de investigación.Y por supuesto, la
transparencia robusta como norma.

10) Sello “IA-Edu Responsable”.

Certificación para centros y proveedores que demuestren prácticas pedagógicas de cerebro
activo, protección de datos, accesibilidad y transparencia. Finalmente, este sello, vincularlo a
incentivos y financiamiento.

11) Evaluación y acreditación adaptadas a la era de IA.
Más defensa oral, proyectos interdisciplinarios con bitácoras de proceso y pruebas que
valoren razonamiento, no copia; uso de herramientas de process analytics para distinguir
automatización de auténtico aprendizaje.

12) Ecosistema de investigación financiado por el Estado
Becas y fondos para medir efectos de la IA en pensamiento crítico, creatividad y equidad. La
literatura emergente muestra riesgos de “cognitive offloading” (delegar pensamiento), que
deben estudiarse en contextos locales para afinar la política.

Gobernanza, datos y confianza ciudadana
La gobernanza debe ser multiactor (ministerio, universidades, docentes, estudiantes,
familias, sociedad civil) y anclarse en estándares globales: la recomendación de la UNESCO
ofrece una brújula clara en derechos, inclusión, transparencia y responsabilidad que los
Estados pueden traducir en marcos nacionales y guías operativas. La guía de política de
UNESCO para IA en educación destaca, además, que toda estrategia debe atender
equidad, formación docente y cooperación internacional.

En datos, la regla es simple: mínimos necesarios, fines legítimos, garantías máximas. De
acuerdo con la UNESCO, los sistemas no deben retener ni reutilizar datos estudiantiles para
entrenamiento sin base legal y consentimiento. Las instituciones deben contar con DPIA
(evaluaciones de impacto en protección de datos), auditorías periódicas y opciones de
despliegue que minimicen riesgos (por ejemplo, modelos alojados en nubes soberanas u onpremise cuando corresponda).
¿Cómo medimos el éxito?
1.Aprendizajes profundos: mejora en tareas de alto orden (argumentación, transferencia
de conocimiento), no solo en velocidad de entrega.
2.Salud cognitiva: estabilidad o mejora en atención, memoria y diversidad de ideas;
ausencia de señales de “deuda cognitiva” sistémica.
3.Equidad: reducción de brechas en acceso y resultados entre contextos socioeconómicos.
4.Confianza y ética: descenso de incidentes de privacidad, mayor transparencia percibida
por la comunidad educativa y la ciudadanía.

El mayor riesgo no es la IA, es el renunciar a la autoría intelectual. La evidencia académica
reciente advierte que el uso irreflexivo de sistemas conversacionales puede erosionar
pensamiento crítico y hábitos de verificación, favoreciendo la externalización acrítica del
razonamiento (offloading). La política pública debe contrarrestarlo moviendo el foco hacia
procesos, defensa oral y construcción de criterio, tal como lo señalan Chunpeng Zhai,
Santoso Wibowo y Lily D. Li en Smart Learning Environments, volume 11, Article number: 28
(2024).

La escuela 2030 no debe convertir a la IA en “chofer permanente” del aprendizaje, más bien
debe transformarla en un “copiloto” exigente que nos obliga a argumentar mejor, documentar
procesos y sostener decisiones. Esa es la esencia del buen uso: aprovechar la tecnología
para pensar más —no menos—. El cerebro obedece a la ley “úsalo o piérdelo”. Una política
inteligente de IA en educación se asegura de que lo usemos —con disciplina, criterio y
propósito— para ampliar, no encoger, nuestra humanidad intelectual.

Ing. Andrés Silva Arancibia
Divulgador tecnológico y estrategia digital
MBA – Universidad de Valparaíso
Ingeniería agrónoma, Economía & Administración –
Pontíficia Universidad Católica de Valparaíso

Escribe tu comentario aquí

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Select the fields to be shown. Others will be hidden. Drag and drop to rearrange the order.
  • Image
  • SKU
  • Rating
  • Price
  • Stock
  • Availability
  • Add to cart
  • Description
  • Content
  • Weight
  • Dimensions
  • Additional information
Click outside to hide the comparison bar
Compare