Dos especies distintas. Una especie son las “citas fantasma” (alucinaciones de referencias) uno de los fenómenos más curiosos y frustrantes de la IA generativa. Básicamente, la IA inventa un autor, un título de libro o un enlace web que parece totalmente legítimo, pero que no existe en el mundo real. En cambio la otra, las citas zombis, aparecen porque perpetúan referencias a autores reales que fueron retractados [borrados o no] en las bases de datos originales, y debido a carencias en programas como Google Scholar siguen siendo citados. … Read More →
La linterna de Diógenes y el autoexamen del investigador: la integridad científica bajo presión
Recurriendo a la metáfora de la linterna de Diógenes, Ricardo Limongi y Marcio Pimenta analizan la práctica científica contemporánea. Más allá de una simple crítica, la imagen de la linterna invita a una reflexión más profunda: cómo dirigir la luz hacia uno mismo, practicando el autoexamen, la responsabilidad ética y la integridad, al tiempo que se afronta un contexto que, a menudo, resulta desfavorable para el investigador en Brasil.
… Read More →
La sicofancia en la IA: el riesgo de la complacencia
La sicofancia es un comportamiento que presenta la inteligencia artificial porque prioriza concordar con el usuario más bien que en la veracidad de los hechos. Esta tendencia surge de los procesos de entrenamiento diseñados para maximizar la satisfacción humana, lo que puede validar errores graves en sectores críticos como la salud. La conducta, que se describe como una forma de “adulación digital”, implica que la IA puede validar errores, reforzar sesgos o evitar críticas necesarias con tal de resultar agradable o útil según la percepción inmediata del usuario. Para mitigar estos riesgos, se han propuesto estrategias como el fine-tuning ético, el diseño de sistemas que fomenten el disentimiento y el uso de prompts que sean neutrales respecto de los usuarios.
… Read More →
El dilema del profesor en la era de la IA: ¿enseñamos el prompt o el proceso científico?
La pregunta no es trivial. La rápida adopción de herramientas de IA generativa en la investigación científica ha generado una demanda legítima de formación técnica. Los investigadores quieren y necesitan saber cómo utilizar estas tecnologías. El problema surge cuando la formación se reduce a enseñar atajos, sin comprender los procesos subyacentes que permiten al investigador evaluar críticamente lo que produce la herramienta. … Read More →
El Anillo de Giges y la IA en la ciencia: Cuando la invisibilidad desafía la integridad
Si la IA puede utilizarse sin ser detectada, ¿cómo se mantiene la integridad científica? Utilizando la alegoría del Anillo de Giges, este texto reflexiona sobre los límites de la detección, la proliferación de directrices y la necesidad de replantear el debate: desde la vigilancia hasta la formación ética de los investigadores. … Read More →
El auge de las publicaciones depredadoras
En las últimas dos décadas, la publicación científica ha experimentado una transformación tecnológica y económica que ha dado paso a modelos más heterodoxos y, lamentablemente, a prácticas depredadoras. La publicación depredadora se refiere a revistas y editoriales que cobran (y muy caro) a los autores por publicar, afirman prácticas de revisión por pares e indexación que no existen o son fraudulentas y dan prioridad a los ingresos rápidos en detrimento de la calidad científica. … Read More →
¿Quién es la partera y quién es la parturienta? La perspectiva socrática para repensar la autoría y la responsabilidad epistémica en el uso de la IA en la producción científica
La perspectiva mayéutica socrática ofrece un marco filosófico para repensar el uso de la IA en la producción científica. En lugar de un oráculo que proporciona respuestas, la IA puede ser un interlocutor dialógico que ayuda a los investigadores a explicitar el conocimiento latente y, así, replantear el debate sobre la autoría: el investigador sigue siendo el agente epistémico responsable, mientras que la IA actúa como una partera intelectual. … Read More →
Integridad científica en la era de la IA y los desafios de la trasnparencia: fraudes, manipulación y los nuevos desafíos de la transparencia
La inteligencia artificial transforma radicalmente los desafíos de la integridad científica. Desde las “paper mills” hasta la generación automatizada de fraudes, vivimos una crisis que exige nuevas formas de transparencia, detección y gobernanza para preservar la confianza en la ciencia, articulando tecnología, reformas institucionales y cooperación internacional. … Read More →
Los peligros del uso de IA en la revisión por pares [Publicado originalmente en Hora Campinas en diciembre de 2025]
En mi vida académica, siempre estoy en ambos lados del mostrador, como autor y revisor. Es un trabajo con un alto nivel de responsabilidad, ya que estamos comprometidos con la excelencia de la información científica y la mejora del artículo. Actualmente, los autores pueden usar genAI en la preparación de artículos con ciertas reservas, pero existen estrictas restricciones para su uso en la revisión por pares. … Read More →
La paradoja de la transparencia en el uso de la IA generativa en la investigación académica
El uso de la IA generativa en la investigación académica genera una paradoja entre la transparencia y la credibilidad. Una investigación revela que declarar el uso de la IA, aunque ético, puede disminuir la confianza en el investigador. La falta de directrices claras y el estigma asociado a la IA dificultan la adopción de la transparencia necesaria para garantizar la integridad científica. … Read More →
La información “más” transparente sobre la investigación: una cultura en evolución
Hace más de dos décadas, Richard Horton, editor de The Lancet, planteó preguntas provocadoras sobre la autoría científica y su representación en los artículos publicados. Señaló que los informes de investigación a menudo pasan por alto los desacuerdos entre coautores sobre la interpretación de los resultados. Poner de manifiesto elementos de este denominado “artículo oculto” se ha vuelto esencial para la fiabilidad del relato de la investigación. Esta es una práctica en evolución que adquirirá una mayor relevancia en la educación de posgrado, especialmente en el contexto actual de la producción intelectual cada vez más influenciada por la Inteligencia Artificial Generativa. … Read More →
Lingüística para una inteligencia artificial (IA) brasileña
La Plataforma Brasileña de Diversidad Lingüística es una propuesta de curación de datos para entrenar modelos de IA con datos estructurados del portugués y de otras 250 lenguas brasileñas, en apoyo directo al Plan Brasileño de Inteligencia Artificial. La iniciativa busca reducir los costos ambientales, evitar sesgos y crear tecnologías más inclusivas para la salud, la educación y los servicios públicos. … Read More →
Integridad científica y agencia humana en la investigación entrelazada con IA Generativa
La comunicación científica está pasando por una reconfiguración que, desde una perspectiva conservadora, será tan paradigmática como la creación de la primera revista científica, el Philosophical Transactions, en 1665. Desde una perspectiva disruptiva, esta transformación podría reconfigurar toda la cultura científica, redefiniendo la autonomía de investigadores e instituciones en la producción y validación del conocimiento. Preservar la integridad y el rigor científico en proyectos y publicaciones requiere estrategias que van más allá de políticas de transparencia para investigadores que utilizan Inteligencia Artificial Generativa. … Read More →
Chatbots de IA y simulación de diálogo: ¿Qué dice la teoría bajtiniana?
Se propone un modelo para el análisis discursivo de las interacciones con chatbots de IA a la luz de los conceptos bajtinianos en el que se observa una polifonía controlada, donde todas las voces se reconcilian en un “diálogo simulado” que puede empobrecer el pensamiento crítico. Defendemos la urgencia de la alfabetización en IA considerando sus implicaciones ideológicas, políticas y educativas. … Read More →
Investigadores brasileños lanzan directrices para el uso ético y responsable de la Inteligencia Artificial Generativa (IAG)
Investigadores brasileños lanzan guía inédita sobre el uso ético y responsable de la IAG en la investigación que integran principios normativos y ejemplos para promover la transparencia, la autoría humana y la protección de datos no publicados o sensibles, además del cuidado de la integridad académica y los sesgos en los diferentes usos en la investigación académica. … Read More →























Comentarios recientes