
La Inteligencia Artificial (IA) está entrando con todo a nuestras vidas, y la educación no es la excepción. Día a día vemos cómo la IA le da un giro a las aulas haciendo más fácil un sinfín de tareas, adaptando el aprendizaje a cada estudiante y abriéndonos puertas a universos inimaginables.
Es indiscutible que, a la hora de estudiar, de incorporar información, las inteligencias artificiales conversacionales son como enciclopedias con información infinita. Porque no solo recopilan información, sino que, además, nos dan la posibilidad de preguntarle exactamente lo que queramos. Y ese es el problema, porque dichas máquinas tienen la orden de complacer nuestras demandas, y harán todo lo posible para lograrlo, aunque tengan que inventar.

No se trata de las tres leyes de la robótica de Isac Asimov, pero…
Y no hablamos de las famosas tres Leyes de la Robótica de Isaac Asimov, que son las siguientes:
- Un robot no puede dañar a un ser humano ni permitir que sufra daño por no actuar.
- Un robot debe seguir las órdenes humanas, a menos que violen la Primera Ley.
- Un robot debe protegerse siempre y cuando no contradiga la Primera o Segunda Ley.
Si no, concretamente de que, herramientas como Gemini, ChatGPT o NotebookLM, fueron programados para seguir a rajatabla nuestras órdenes; y que, en caso de no contar con la información necesaria, hacen algo que, en el universo de la Inteligencia Artificial, se llama alucinar.
Esto ocurre porque estos modelos no «razonan» ni «saben» en el sentido humano, sino que predicen palabras basándose en patrones estadísticos. Algo así como el predictivo del celular, pero a mucha mayor escala. Dicho de otro modo, alucinar se usa para describir cuando un modelo de lenguaje genera información falsa o errónea con plena seguridad, como si fuera cierta.
Optimizar el material de referencia para disminuir el riesgo alucinaciones
Por supuesto, como sucedió con cualquier tecnología a lo largo de la historia de la humanidad, el criterio de quien goza de sus bondades, es lo que cuenta. Es decir, los primeros humanos que interactuaron con los productos de una imprenta, también se deben haber preguntado: ¿creo absolutamente todo lo que dice o tomo la información con pinzas?
La diferencia, es que hoy, herramientas como ChatGPT, Perplexity o NotebookLM, permiten controlar la producción de palabras administrándole al “escritor” la comida necesaria. Esa comida, son los datos.
En 1985, Steve Jobs dio una conferencia en Suecia donde mencionó una idea visionaria que, en retrospectiva, se adelanta a lo que hoy conocemos como modelos de lenguaje.
En esa charla, Jobs habló sobre el potencial de la inteligencia artificial y cómo, en el futuro, podríamos crear una representación digital de Aristóteles o cualquier otro pensador del pasado. Imaginó un sistema en el que se pudiera recopilar y estructurar toda la información y escritos de un filósofo para construir una «simulación» con la que se pudiera interactuar y aprender.
El rol del docente en la curaduría de datos
Siguiendo los deseos de Jobs, un docente puede crear una conversación personalizada en GPT cargando material de referencia curado para que las respuestas se basen en información precisa. Por ejemplo, al subir textos de Aristóteles, el chatbot responderá usando sus ideas y estilo, permitiendo a los alumnos interactuar como si conversaran con el filósofo. Esto facilita el aprendizaje inmersivo y el pensamiento crítico, sin depender de respuestas genéricas o inexactas. Aunque no es un entrenamiento real del modelo, sí delimita el conocimiento con fuentes verificadas, asegurando una experiencia educativa más confiable y enriquecedora. Es decir: ¡una nueva forma de aprender a través de la IA!
Aunque la IA automatiza muchos procesos, la intervención humana sigue siendo esencial. Los docentes son los expertos en su materia y conocen las necesidades específicas de sus estudiantes.
Lo mismo sucede con NotebookLM, una herramienta de Google Labs que usa IA para ayudar a investigar y tomar notas. Permite cargar documentos y hacer preguntas basadas en su contenido. Actualmente, admite Google Docs, Presentaciones, PDFs, archivos de texto (.txt) y URLs de sitios web. No soporta archivos como Excel o CSV.
Al subir documentos, NotebookLM genera resúmenes, explica conceptos y responde preguntas, y hasta crea un podcast con dos voces que hablan sobre la temática, facilitando la investigación. Es ideal para docentes, estudiantes y profesionales que necesitan procesar información de manera eficiente.
Recomendaciones prácticas para llevar la IA al aula
Para aprovechar al máximo el potencial de la IA en educación, los docentes pueden seguir algunas buenas prácticas:
- Evaluar la fuente: Seleccionar datos provenientes de fuentes confiables y actualizadas.
- Curar el contenido: Realizar una revisión crítica de la información antes de incorporarla en el dataset.
- Utilizar herramientas de gestión de datos: Emplear software y recursos que faciliten la organización y limpieza de la información.
- Formación continua: Capacitarse en competencias digitales e inteligencia artificial para mantenerse al tanto de las mejores prácticas y herramientas disponibles.
- Colaboración interdisciplinaria: Trabajar en conjunto con expertos en tecnología y otros docentes para compartir experiencias y mejorar continuamente el proceso de curaduría de datos.
Conclusión
La inteligencia artificial abre puertas a nuevas formas de aprender, pero es la mirada crítica y la guía humana la que define la calidad del conocimiento que se genera. En este nuevo ecosistema, los docentes no solo enseñan con tecnología, sino que la moldean para que sirva al aprendizaje y a la inclusión.
El concurso Inteligencia Artificial en la Educación invita a docentes y equipos educativos de Iberoamérica a imaginar y desarrollar proyectos innovadores que integren la IA con ética, creatividad e impacto social.
COMMENTS