Por Ricardo Limongi

Imagem: Berke Citak vía Unsplash.
En una reciente sesión de capacitación sobre inteligencia artificial para investigadores, se repitió la misma escena. Al explicar cómo funciona un modelo de lenguaje, como la lógica probabilística que genera texto, y por qué es necesario verificar el resultado, el público se distrajo. Minutos después, al mostrar una consigna capaz de revisar párrafos académicos, todos tomaron notas. La misma sala, el mismo público, dos niveles de atención completamente diferentes. Este episodio, lejos de ser anecdótico, ilustra un dilema que atraviesa la formación de los investigadores contemporáneos: cuando enseñamos inteligencia artificial (IA) en el ámbito académico, ¿enseñamos a pensar con la herramienta o simplemente a operarla?
La pregunta no es trivial. La rápida adopción de herramientas de IA generativa en la investigación científica ha generado una demanda legítima de formación técnica. Los investigadores quieren y necesitan saber cómo utilizar estas tecnologías. El problema surge cuando la formación se reduce a enseñar atajos, sin comprender los procesos subyacentes que permiten al investigador evaluar críticamente lo que produce la herramienta.
Alfabetización instrumental versus alfabetización crítica
La literatura reciente sobre alfabetización en IA presenta una distinción fundamental para comprender este dilema. Long y Magerko (2020), en What is AI Literacy? Competencies and Design Considerations1, en el trabajo seminal presentado en la Conferencia CHI, definieron la alfabetización en IA como «un conjunto de competencias que permite a las personas evaluar críticamente las tecnologías de IA, comunicarse y colaborar eficazmente con ella, y utilizarla como herramienta». Esta definición, ampliamente adoptada en la literatura posterior, trasciende el ámbito operativo de herramientas específicas.
Walter (2024), en Embracing the future of Artificial Intelligence in the classroom: the relevance of AI literacy, prompt engineering, and critical thinking in modern education2, un estudio publicado en la International Journal of Educational Technology in Higher Education, argumenta que la integración de la IA en la educación requiere no solo habilidades técnicas, sino también pensamiento crítico sobre el funcionamiento y los impactos de estas tecnologías. El autor propone que la alfabetización en IA, la ingeniería de estímulos y el pensamiento crítico forman un trípode inseparable en la educación contemporánea, y que disociar la primera de los demás compromete la educación.
Esta distinción puede articularse en dos niveles. El primero, que podemos denominar alfabetización instrumental, corresponde al dominio de las herramientas: saber formular estímulos, conocer las plataformas y realizar tareas con la ayuda de la IA. Tiene valor práctico y responde a la demanda inmediata. La segunda, la alfabetización crítica, corresponde a comprender lo que está en juego: comprender que un modelo lingüístico opera mediante probabilidad estadística, no comprensión semántica; que la «alucinación» no es un defecto ocasional, sino una característica estructural de sistemas que no fueron diseñados para producir verdad, sino texto estadísticamente plausible; que, en el contexto científico, esta distinción no es un detalle técnico, sino un fundamento epistemológico.
La evidencia empírica: la comprensión mejora el uso
La investigación empírica respalda la idea de que estos dos niveles no son independientes. Knoth et al. (2024), en AI literacy and its implications for prompt engineering strategies3, un estudio publicado en Computers and Education: Artificial Intelligence, demostraron que los estudiantes con mayor alfabetización en conseotual en IA formulan indicaciones de mayor calidad y evalúan críticamente los resultados obtenidos. En otras palabras, quienes comprenden el funcionamiento de la herramienta la utilizan con mayor eficacia que quienes solo dominan sus comandos.
Brown, Sillence y Branley-Bell (2025), en AcademAI: Investigating AI Usage, Attitudes, and Literacy in Higher Education and Research4, una investigación publicada en el Journal of Educational Computing Research, investigaron las percepciones de la IA entre estudiantes y profesores universitarios e identificaron que la falta de orientación institucional es una de las principales barreras para su uso responsable. Los participantes destacaron la necesidad de apoyo para promover el uso responsable, demostrando que la competencia técnica por sí sola no garantiza prácticas adecuadas. La investigación también reveló que la edad avanzada se correlaciona con una menor alfabetización en IA, lo que sugiere que la formación debe llegar no solo a los estudiantes, sino también a los propios formadores.
Estos hallazgos coinciden con lo que plantean Hackl et al. (2026), en The AI literacy heptagon: A structured approach to AI literacy in higher education5, que sistematizó mediante la identificación de 12 competencias fundamentales para la alfabetización en IA, organizadas desde los conocimientos básicos hasta las habilidades prácticas, como la ingeniería rápida y la conciencia ética. El marco propuesto muestra que la ingeniería de prompts es una de las competencias, no la competencia fundamental, ni mucho menos la única.
El dilema en el aula
Un episodio reciente ilustra la dimensión práctica de este problema. Un profesor experimentado, asesor activo, informó haber solicitado a ChatGPT que sugiriera un artículo científico para su asesor. Recibió el título, los autores, la revista y el año; todo formalmente impecable. Sin embargo, el artículo no existía. La pregunta que siguió fue directa: “Si la IA alucina, ¿en qué momento puedo confiar en ella?”.
La respuesta técnica es simple: en ningún momento, sin verificación independiente. Pero el episodio revela algo más profundo. Un investigador con décadas de experiencia trató un modelo generativo como una base de datos factual. No por negligencia o ignorancia general, sino por falta de conocimientos específicos sobre qué es esa herramienta y, especialmente, sobre qué no es.
Es en este punto donde el dilema del profesor se agudiza. El educador que reconoce la necesidad de enseñar alfabetización crítica se enfrenta a una resistencia estructural: el ecosistema de información contemporáneo (redes sociales, cursos cortos, contenido viral) refuerza sistemáticamente la lógica de los atajos. Cuando el contenido es conceptual, la participación se dispersa; Cuando se convierte en una receta práctica, se centra la atención. El profesor, presionado por demostrar relevancia y generar resultados inmediatos, siente la legítima tentación de ceder a la exigencia y enseñar solo lo que se le pide.
Nuevos investigadores: ¿interés o indiferencia?
La pregunta más inquietante que subyace a este dilema es si los nuevos investigadores estarán interesados en la formación conceptual en IA. La respuesta honesta es que, a corto plazo, muchos probablemente no lo estarán. La cultura académica contemporánea, impulsada por métricas de productividad, presionada por plazos e inmersa en un ecosistema que premia las soluciones rápidas, crea incentivos que perjudican el estudio en profundidad.
Sin embargo, la historia de la formación metodológica ofrece un paralelo instructivo. La metodología de la investigación y la estadística rara vez han estado entre las disciplinas de grado más populares. Y, sin embargo, los investigadores con una sólida formación metodológica se han distinguido a lo largo de sus carreras no por dominar la ejecución de una prueba estadística específica, sino por comprender su significado y cuándo era (o no) aplicable.
La alfabetización en IA puede seguir una trayectoria análoga. Las herramientas y las indicaciones específicas son, por naturaleza, perecederas: la velocidad de evolución de los modelos hace que cualquier comando específico quede potencialmente obsoleto en cuestión de meses. La capacidad de comprender lo que sucede entre la pregunta y la respuesta, es decir, la alfabetización crítica, no perece. Quienes desarrollen esta comprensión hoy estarán preparados para las herramientas del mañana, incluidas aquellas que prescindirán de las indicaciones tal como las conocemos.
De la ingeniería de indicaciones a la alfabetización como política institucional
En Navigating the landscape of AI literacy education: insights from a decade of research (2014–2024)6, una revisión integradora, realizada por investigadores y publicada en Humanities and Social Sciences Communications, trazó un mapa de la evolución del campo de la alfabetización en IA durante la última década (2014-2024) e identificó una brecha persistente: a pesar del crecimiento exponencial de las publicaciones sobre IA en educación, la formación conceptual sigue siendo secundaria a la formación técnico-instrumental. El campo ha evolucionado en volumen, pero no necesariamente en profundidad.
Este hallazgo tiene implicaciones directas para las instituciones docentes y de investigación. Si la alfabetización en IA es, como sugiere la literatura, una condición para el uso eficaz y responsable de estas herramientas, su promoción no puede depender únicamente de las iniciativas individuales de docentes sensibilizados. Debe abordarse como una cuestión institucional integrada en los planes de estudio, los programas de posgrado y las políticas de formación docente.
En Brasil, este debate adquiere contornos específicos. As Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa7, publicadas por Sampaio, Sabbatini y Limongi (2024), ya proponen competencias esenciales, como comprender las herramientas y sus limitaciones, mantener la autoría humana como elemento central y evaluar críticamente los resultados. SciELO, a través de su Guía para el uso de herramientas y recursos de IA8, ha establecido principios claros para la declaración y verificación. Sin embargo, estas iniciativas deben traducirse en prácticas formativas concretas.
Consideraciones finales
El dilema del docente en la era de la IA no se resuelve con la disyuntiva entre enseñar prompts enseñar proceso. Los prompts son herramientas, y las herramientas importan. La cuestión es si formamos investigadores que entiendan lo que hacen o profesionales que sepan dónde presionar.
La evidencia disponible sugiere que la alfabetización crítica no compite con la alfabetización instrumental; ella la potencia. Los investigadores que comprenden cómo funcionan las herramientas las utilizan mejor, evalúan sus resultados con mayor rigor y se adaptan con mayor facilidad a los cambios tecnológicos. El enfoque exclusivo en los atajos crea profesionales dependientes de herramientas específicas; el enfoque en la alfabetización crea investigadores capaces de desenvolverse en un escenario en constante cambio.
La responsabilidad, por supuesto, no recae únicamente en el docente. Las instituciones deben crear condiciones curriculares, formativas y de incentivos para que la alfabetización en IA se trate con la misma seriedad que la formación metodológica. Pero el primer paso es reconocer el dilema. Y reconocer que si lo único que nuestros estudiantes han aprendido sobre IA es un prompt, no han aprendido sobre IA. Han aprendido a digitar.
Notas
1. LONG, D. and MAGERKO, B. What is AI Literacy? Competencies and Design Considerations.Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems [online]. 2020, vol. 2020, no 191, pp. 1–16 [viewed 27 February 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727↩
2. WALTER, Y. Embracing the future of Artificial Intelligence in the classroom: the relevance of AI literacy, prompt engineering, and critical thinking in modern education. International Journal of Educational Technology in Higher Education [online]. 2024, vol. 21, no. 1, art. 15, ISSN: 2365-9440 [viewed 27 February 2026]. https://doi.org/10.1186/s41239-024-00448-3. Available from: https://link.springer.com/article/10.1186/s41239-024-00448-3↩
3. KNOTH, N.,et al. AI literacy and its implications for prompt engineering strategies.Computers and Education: Artificial Intelligence [online] 2024, vol. 6, art. 100225. [viewed 27 February 2026] https://doi.org/10.1016/j.caeai.2024.100225. Available from: https://www.sciencedirect.com/science/article/pii/S2666920X24000262?via%3Dihub↩
4. BROWN, R., SILLENCE, E. and BRANLEY-BELL, D. AcademAI: Investigating AI Usage, Attitudes, and Literacy in Higher Education and Research. Journal of Educational Computing Research [online]. 2025, vol. 54, no.1, ISSN: 0735-6331 [viewed 27 February 2026]. https://doi.org/10.1177/00472395251347304. Available from: https://journals.sagepub.com/doi/10.1177/00472395251347304↩
5. HACKL, V., MULLER, A. E. and SAILER, M.. The AI literacy heptagon: A structured approach to AI literacy in higher education.Computers and Education: Artificial Intelligence [online]. 2026, vol. 10, ISSN: 2666-920X. [viewed 27 February 2026]. https://doi.org/10.1016/j.caeai.2026.100540. Available from: https://www.sciencedirect.com/science/article/pii/S2666920X26000019?via%3Dihub↩
6. YANG, Y., et al.. Navigating the landscape of AI literacy education: insights from a decade of research (2014–2024). Humanities and Social Sciences Communications [online]. 2025, vol. 12, no. 1, pp. 1-12. [viewed 27 February 2026]. https://doi.org/10.1057/s41599-025-04583-8. Available from: https://www.nature.com/articles/s41599-025-04583-8↩
7. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203↩
8. Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 27 February 2026]. Available from: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-ferramentas-e-recursos-de-IA-20230914.pdf↩
Referencias
BROWN, R., SILLENCE, E. and BRANLEY-BELL, D. AcademAI: Investigating AI Usage, Attitudes, and Literacy in Higher Education and Research. Journal of Educational Computing Research [online]. 2025, vol. 54, no.1, ISSN: 0735-6331 [viewed 27 February 2026]. https://doi.org/10.1177/00472395251347304. Available from: https://journals.sagepub.com/doi/10.1177/00472395251347304
Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 27 February 2026]. Available from: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-ferramentas-e-recursos-de-IA-20230914.pdf
HACKL, V., MULLER, A. E. and SAILER, M.. The AI literacy heptagon: A structured approach to AI literacy in higher education.Computers and Education: Artificial Intelligence [online]. 2026, vol. 10, ISSN: 2666-920X. [viewed 27 February 2026]. https://doi.org/10.1016/j.caeai.2026.100540. Available from: https://www.sciencedirect.com/science/article/pii/S2666920X26000019?via%3Dihub
KNOTH, N.,et al. AI literacy and its implications for prompt engineering strategies.Computers and Education: Artificial Intelligence [online] 2024, vol. 6, art. 100225. [viewed 27 February 2026] https://doi.org/10.1016/j.caeai.2024.100225. Available from: https://www.sciencedirect.com/science/article/pii/S2666920X24000262?via%3Dihub
LONG, D. and MAGERKO, B. What is AI Literacy? Competencies and Design Considerations.Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems [online]. 2020, vol. 2020, no 191, pp. 1–16 [viewed 27 February 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727
SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
WALTER, Y. Embracing the future of Artificial Intelligence in the classroom: the relevance of AI literacy, prompt engineering, and critical thinking in modern education. International Journal of Educational Technology in Higher Education [online]. 2024, vol. 21, no. 1, art. 15, ISSN: 2365-9440 [viewed 27 February 2026]. https://doi.org/10.1186/s41239-024-00448-3. Available from: https://link.springer.com/article/10.1186/s41239-024-00448-3
YANG, Y., et al.. Navigating the landscape of AI literacy education: insights from a decade of research (2014–2024). Humanities and Social Sciences Communications [online]. 2025, vol. 12, no. 1, pp. 1-12. [viewed 27 February 2026]. https://doi.org/10.1057/s41599-025-04583-8. Available from: https://www.nature.com/articles/s41599-025-04583-8
Sobre Ricardo Limongi França Coelho
Profesor de Marketing e Inteligencia Artificial, Universidad Federal de Goiás (UFG), Goiânia–GO, y editor jefe de la revista Brazilian Administration Review (BAR) de la ANPAD, becario DT-CNPq.
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:











Comentarios recientes