Dr. Dave Mulder | 26 de agosto de 2025
Últimamente recibo muchas preguntas de profesores cristianos que parecen más o menos así: "¿Qué se supone que debemos hacer con la IA en las escuelas? ¿Es este el fin de la educación tal como la conocemos?". ¡Son preguntas válidas! La tecnología de la IA se siente misteriosa, y quizás incluso amenazante. Puede parecer casi… mágica… así que no es de extrañar que nos haga plantearnos grandes preguntas. Las grandes preguntas exigen respuestas reflexivas. Para nosotros, como educadores cristianos, creo que esto significa que debemos cultivar una imaginación lo suficientemente grande como para comprender qué es la IA, qué no es y cómo podemos usarla para glorificar a Dios y afirmar lo que significa ser verdaderamente humano.
Analicemos la caja negra y veamos qué sucede. Espero que podamos desmitificar lo que sucede cuando escribes una instrucción en tu chatbot de IA favorito y comprender mejor las posibilidades y limitaciones de estas poderosas herramientas.
¿Qué queremos decir con “inteligencia”?
Un amigo mío bromeó hace poco: «Todo el mundo está preocupado por la inteligencia artificial, pero a mí me preocupa más la 'estupidez real'». Es una frase ingeniosa, pero hiriente: antes de que nos asuste la inteligencia artificial, ¿quizás deberíamos reexaminar qué entendemos por inteligencia? ¿Y, sobre todo, cómo aplicamos esa palabra a las máquinas?
A medida que las computadoras se vuelven más potentes año tras año, es tentador imaginarlas como si realmente pensaran o tuvieran voluntad propia. Pero, hasta donde sé, las máquinas y las mentes humanas funcionan de maneras muy diferentes. El ingenio humano forma parte de cómo Dios nos creó: reflejos del Creador que se manifiestan cuando creamos cosas nosotros mismos. Pero las creaciones humanas nunca podrán rivalizar con las del Creador.
Creo que esta es quizás la verdadera preocupación que muchos de nosotros tenemos cuando hablamos de “inteligencia” aplicada a las máquinas: “¿Qué significa ser humano si las máquinas también son “inteligentes”?”. Y creo que es una pregunta muy importante.
Los seres humanos somos “complejos de corazón, alma, mente y fuerza diseñados para el amor”, como lo expresa Andy Crouch en su maravilloso libro “La vida que buscamos”. (Creo que este libro debería ser lectura obligatoria para cualquiera que busque una forma distintivamente cristiana de navegar en nuestro mundo de alta tecnología). Esa es una inteligencia de un tipo muy diferente: relacional, encarnada, creativa y espiritual. Las máquinas no aman. Y ciertamente no “piensan”, al menos no como lo hacemos los humanos.
Dediquemos un minuto a aprender un poco sobre cómo funcionan realmente las computadoras, incluso las muy potentes que ejecutan el software detrás de los chatbots de IA. Espero que esto les ayude a maravillarse un poco, tanto por cómo la innovación humana ha contribuido a la creación de estas increíbles máquinas, como por la diferencia entre el pensamiento humano y los cálculos que impulsan las funciones de análisis de datos de las computadoras.
¿Cómo funcionan realmente las computadoras?
En esencia, una computadora hace tres cosas: recibe datos (entrada), los procesa y produce algo (salida). Esto es lo que los informáticos llaman el "modelo de caja negra". Le damos a la máquina algo para calcular, realiza cálculos internos y obtenemos un resultado.
Pero aquí está el truco: las computadoras son eficientes calculando, pero no entienden el significado; solo siguen las instrucciones que les dan los humanos. Si le das a un humano una oración sin vocales —"st txt h prdd tds ls vcls” probablemente la descifrará usando el contexto y la experiencia. Pero las computadoras no pueden "rellenar los huecos" a menos que les digamos exactamente cómo. Las computadoras... ¡calculan! Procesan datos; no los interpretan.
Este es uno de los grandes errores sobre la IA: podríamos imaginar que la máquina "piensa". No es así. Está calculando. En el caso de los chatbots de IA, esos cálculos suelen basarse en una sola cosa: la probabilidad.
Aprendizaje automático y juegos de adivinanzas de palabras: modelos de lenguaje extensos (LLM)
Cuando se habla de aprendizaje automático, se suele imaginar que las computadoras absorben conocimiento como los humanos, a través de la experiencia y la reflexión. Pero lo que realmente ocurre es un gigantesco juego de probabilidades. La IA se entrena con enormes conjuntos de datos: «Un Ford Mustang es un coche. Un río no es un coche. Un Toyota Camry es un coche. Una jirafa no es un coche. Un Volkswagen Escarabajo es un coche. Un escarabajo de verdad no es un coche». Con el tiempo, el sistema «aprende» a adivinar la categoría de un nuevo objeto basándose en su similitud con ejemplos anteriores.
Por eso tu chatbot de IA parece tan competente escribiendo ensayos o planes de clase. No es porque te entienda. Es porque ya ha jugado a este juego de adivinanzas, a escala de internet, millones de veces. Pregúntale: "El perro duerme en su ___", y calculará que "cama" es estadísticamente la mejor opción, no porque sepa nada de perros o camas, sino porque así lo dicen las matemáticas, según los datos con los que fue entrenado.
Los chatbots como ChatGPT se basan en un modelo de lenguaje extenso (LLM), que consiste básicamente en un gigantesco motor de probabilidad entrenado con cantidades masivas de texto, como Wikipedia, el Proyecto Gutenberg y grandes extensiones de internet. Al escribir una instrucción, el programa utiliza una red neuronal para extraer de esta base de datos y predecir la siguiente palabra más probable... y luego la siguiente... y luego la siguiente... hasta completar la respuesta.
Lo hace basándose en patrones, no en percepciones. Pero los patrones son tan sofisticados que los resultados pueden parecer asombrosos, como magia. Pero no es magia. En esencia, un LLM es asombrosamente bueno en autocompletar.
Hacia una imaginación cristiana para la IA
Entonces, ¿qué significa todo esto para los educadores cristianos?
En primer lugar, significa que no deberíamos estar desconcertados ni aterrorizados. La IA es poderosa, pero no es magia, es matemática.
En segundo lugar, también es importante recordar que estos chatbots no son moralmente neutrales. Están diseñados por personas y moldeados por valores humanos, y la pecaminosidad humana termina distorsionando el LLM, por muy cuidadosos que sean los programadores al diseñarlos.
En tercer lugar, debemos plantearnos algunas preguntas teológicas importantes: ¿Qué tipo de mundo estamos contribuyendo a construir con estas herramientas? ¿Estamos afirmando la dignidad humana? ¿Estamos trabajando por la justicia, la verdad y la restauración? Este tipo de preguntas puede ayudarnos a aplicar una visión cristiana al momento y cómo implementamos la IA en nuestras aulas.
Los docentes no serán reemplazados por la IA en el futuro cercano, ¡pero un docente que pueda ser reemplazado por una máquina probablemente sí debería! La IA puede ser una herramienta para el bien, si la usamos con cuidado y reconocemos sus límites. Ninguna máquina, por poderosa que sea, puede reconocer la imagen de Dios en los estudiantes a quienes servimos. ¡Qué privilegio tenemos: la oportunidad de discipularlos!
Acerca del autor:
El Dr. Dave Mulder es profesor de Educación en la Universidad de Dordt, donde imparte cursos de tecnología educativa, educación STEM y fundamentos educativos, y es director del departamento. Con experiencia como profesor de matemáticas, ciencias, Biblia y tecnología en escuelas cristianas, y un doctorado en tecnología educativa, trabaja para aplicar la investigación a la práctica para educadores de preescolar a 16.º grado. Recientemente publicó el libro "Siempre en proceso, nunca llegando: Desarrollando la imaginación para enseñar cristianamente" y actualmente está ultimando un libro sobre IA para educadores cristianos.
Nota: Nuestros hermanos de Recursos Educativos de ACSI en Latinoamérica nos invitan a disfrutar del volumen monográfico publicado: INTELIGENCIA ARTIFICIAL, en el cual el Dr. Mulder participa con un capítulo completo.
Echando un vistazo al interior de la caja negra: desmitificando la inteligencia artificial