Por Ives da Silva Duque-Pereira y Sérgio Arruda de Moura
Mi “amigo”, el Robot

Imagen: kuu akura via Unsplash.
Vivimos en una época en la que hablar con una máquina se ha convertido en algo rutinario en la vida de muchas personas, trayendo consigo una serie de implicaciones agravadas por la tendencia a antropomorfizar las herramientas. Ya sea pidiendo ayuda para resolver un problema, el consejo de un amigo, escribiendo un texto o respondiendo preguntas académicas, los chatbots de Inteligencia Artificial Generativa (GAI) ya están entre nosotros, y a menudo nos responden con una fluidez impresionante. Pero ¿hablar con un chatbot es lo mismo que tener un diálogo? Como docente e investigador de Educación Básica, me pregunto: ¿qué está sucediendo realmente en las interacciones entre los estudiantes y los chatbots de Inteligencia Artificial Generativa?
Esta pregunta nos llevó a mirar estos sistemas de inteligencia artificial (IA) a través de la lente del lenguaje. Más precisamente, de la filosofía del lenguaje de Mijaíl Bajtín, pensador ruso que dedicó buena parte de su obra a comprender cómo se construye el significado en la relación entre las voces de un discurso.
¿Muchas voces y ninguna agencia?
Para Bajtín, todo discurso es, por naturaleza, un diálogo. Incluso cuando escribimos un texto solos, estamos respondiendo a algo: a otras ideas, a otros autores, a una situación. Es como si cada discurso se colocara en un gran río de declaraciones, fluyendo y entrelazándose con lo que ya se ha dicho y lo que está por venir.
¿Pero qué pasa cuando este discurso proviene de un chatbot? Aparentemente ahí hay una respuesta, una interacción. El lenguaje fluye, los estilos varían, el vocabulario se adapta. Pero cuando miras más de cerca, algo se rompe. No hay conciencia, ninguna intencionalidad humana aparente ni historia de vida que respalde esa respuesta. Lo que vemos es una performance: una simulación de diálogo producida por un algoritmo.
Y eso es precisamente lo que nos hizo pensar en lo que llamamos monologismo algorítmico. Un término que nos ayuda a describir lo que sucede cuando una IA simula muchas voces, pero todas pasan por el mismo filtro de algoritmo, entrenado para evitar conflictos, equilibrar los lados y ofrecer un discurso “seguro” que responde como se espera. Aunque parecen estar dialogando, estos sistemas de IA operan bajo una lógica centralizadora, que simula una multiplicidad de voces, pero las uniformiza en respuestas estandarizadas, conciliadoras y carentes de conflicto real.
Mientras que Bajtín veía el diálogo como un encuentro entre conciencias sociales concretas, cada una con su lugar en el mundo, los chatbots simplemente escenifican esta alteridad. Al final, tenemos una conversación que parece una, pero que en esencia está organizada por un centro unificador que silencia las diferencias reales.
Los chatbots como ChatGPT pueden variar bastante sus estilos — (usan jerga, términos técnicos, emojis, citas) — y esto puede incluso recordar el concepto bajtiniano de heteroglosia, esta mezcla de lenguajes sociales que componen el discurso. Sin embargo, es necesario ir más allá de la superficie y preguntar si estas voces están ahí por elección consciente o son simplemente reproducciones pegadas, sin agencia, sin conflicto, sin tensión.
En la práctica, lo que a menudo tenemos es una especie de polifonía controlada. El chatbot presenta diferentes puntos de vista, pero todos conciliados en una misma respuesta. Ninguna voz interrumpe, provoca, desestabiliza. Todo termina en armonía. Pero el verdadero diálogo, como recordaba Bajtín, surge precisamente del choque, del encuentro con el otro en su diferencia.
¿Qué tiene esto que ver con la ciencia y la educación?
Todo. Si el lenguaje es la base para la construcción del conocimiento, debemos preguntarnos qué tipo de discurso estamos fomentando cuando utilizamos estas herramientas en la educación, la investigación y la producción de conocimiento. Un chatbot que ofrece respuestas “neutrales” puede parecer eficiente, pero también puede acostumbrarnos a una lógica de respuestas únicas, de verdades planas, de consensos nunca debatidos.
Aquí es donde la alfabetización crítica en IA se vuelve urgente. No basta con saber utilizar la IA para “ahorrar tiempo”, “aumentar la productividad”, “asistir” o “automatizar” tareas. Necesitamos saber leer con ojo crítico las respuestas que nos da y preguntarnos ¿de dónde vienen esas ideas? ¿A quién se cita? ¿Qué se está dejando fuera? ¿Qué valores están implícitos en esta manera de responder?
El modelo que proponemos evalúa cualitativamente las respuestas dadas por un chatbot (GPT-4.5) utilizando los conceptos de Bajtín. Como ejemplo, analizamos las respuestas a preguntas sobre temas escolares, desde “cómo lidiar con la indisciplina” hasta “qué fueron las revoluciones industriales”. Analizamos la estructura, los estilos del lenguaje, los valores implícitos y el tipo de interacción que se promueve.
Observamos que incluso cuando el chatbot simula diferentes puntos de vista, sus respuestas tienden a ser conciliadoras, consensuadas y libres de conflicto. Esto genera lo que llamamos diálogo simulado, ya que no hay una confrontación real de ideas, sólo una superficie aparentemente dialógica, con simulación polifónica.
Uno de los efectos más preocupantes es la homogeneización del discurso. Cuando un chatbot siempre responde intentando complacer, evitar la controversia y presentar todos los lados “por igual”, nos impide ver el conflicto, la desigualdad y las narrativas disputadas que conforman el mundo real. En lugar de provocar el pensamiento, lo formula en una respuesta educada. Y esto puede ser peligroso, especialmente en la escuela y la universidad, espacios que deberían fomentar el pensamiento crítico.
Los chatbots tienden a reforzar las voces dominantes y excluir el conocimiento periférico, la crítica radical y las opiniones alternativas. Con ello crean la sensación de que sólo existe una manera de pensar, un consenso “natural”, cuando, en realidad, la ciencia y la educación avanzan precisamente a través del conflicto de ideas, a través de la diversidad de perspectivas.
IA, discurso y ciencia: ¿quién habla detrás de la máquina?
Más que dominar las herramientas, necesitamos reconocer los límites de lo que pueden (o no) decirnos. Necesitamos metodologías que analicen profundamente estos discursos, que entiendan que detrás de cada respuesta aparentemente neutral, hay decisiones, ideologías, patrones y omisiones.
Creemos que necesitamos cada vez más metodologías analíticas críticas para investigar los impactos de la IA en el lenguaje, la educación y la ciencia. El modelo de análisis que proponemos está lejos de ser definitivo, pero es una contribución que esperamos sea recibida como un intento de ofrecer un camino metodológico que no romantice la tecnología, pero tampoco la demonice. Busca entender el discurso de la IA como un fenómeno social, ideológico y situado —y, por tanto, analizable con las herramientas de las ciencias humanas—.
La IA puede, sin duda, ser un aliado, siempre que la tratemos con la misma seriedad y criticidad que le damos a cualquier otra fuente de discurso. Después de todo, el hecho de que una respuesta provenga de una máquina no significa que esté fuera de la política, la ideología o el contexto social.
Al articular la teoría de Bajtín con el análisis de sistemas como ChatGPT, argumentamos que no hay discurso sin ideología. Incluso si un chatbot parece neutral, sus respuestas están determinadas por selecciones humanas previas: de datos, parámetros y filtros. Surge entonces la necesidad de preguntarnos ¿quién habla a través de la IA? ¿Qué voces amplifica? ¿Qué silencia?
Para el campo de la comunicación científica, este análisis abre caminos para pensar críticamente sobre el uso de herramientas algorítmicas en los procesos editoriales, prácticas de escritura, evaluación de manuscritos y producción de conocimiento. La IA puede ser un aliado, pero sólo si se entiende dentro del tejido ideológico, discursivo y político que la constituye.
Para leer el preprint, vaya a
DUQUE-PEREIRA, I.S. and MOURA, S.A. Monologismo Algorítmico e Dialogismo Simulado: uma análise bakhtiniana do discurso mediado por chatbots de IA. SciELO Preprints [online]. 2025 [viewed 30 April 2025]. https://doi.org/10.1590/SciELOPreprints.11590. Available from: https://preprints.scielo.org/index.php/scielo/preprint/view/11590
Sobre Ives da Silva Duque Pereira
Ives da Silva Duque Pereira es estudiante de doctorado en el Programa de Postgrado en Cognición y Lenguaje de la Universidad Estadual Darcy Ribeiro del Norte Fluminense (UENF). Profesor vinculado a la Secretaría de Educación del Estado de Río de Janeiro (SEEDUC-RJ) y a la Fundación de Apoyo a la Escuela Técnica (FAETEC)
Sobre Sérgio Arruda de Moura
Sérgio Arruda de Moura es profesor del Programa de Posgrado en Cognición y Lenguaje de la Universidad Estadual Darcy Ribeiro del Norte Fluminense (UENF).
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:
Comentarios recientes