Tag: Inteligencia Artificial

Citas “zombis” y “fantasmas” en la IA – son diferentes y cómo se originan

Fotografía de una persona detrás de un vidrio empañado y cubierto de condensación, con la mano apoyada sobre la superficie.

Dos especies distintas. Una especie son las “citas fantasma” (alucinaciones de referencias) uno de los fenómenos más curiosos y frustrantes de la IA generativa. Básicamente, la IA inventa un autor, un título de libro o un enlace web que parece totalmente legítimo, pero que no existe en el mundo real. En cambio la otra, las citas zombis, aparecen porque perpetúan referencias a autores reales que fueron retractados [borrados o no] en las bases de datos originales, y debido a carencias en programas como Google Scholar siguen siendo citados. Read More →

La linterna de Diógenes y el autoexamen del investigador: la integridad científica bajo presión

Fotografía de una mano que sostiene una linterna encendida en medio de un paisaje boscoso a la luz del día.

Recurriendo a la metáfora de la linterna de Diógenes, Ricardo Limongi y Marcio Pimenta analizan la práctica científica contemporánea. Más allá de una simple crítica, la imagen de la linterna invita a una reflexión más profunda: cómo dirigir la luz hacia uno mismo, practicando el autoexamen, la responsabilidad ética y la integridad, al tiempo que se afronta un contexto que, a menudo, resulta desfavorable para el investigador en Brasil.
Read More →

La sicofancia en la IA: el riesgo de la complacencia

Fotografía de dos hombres conversando mientras manipulan ordenadores sobre una mesa.

La sicofancia es un comportamiento que presenta la inteligencia artificial porque prioriza concordar con el usuario más bien que en la veracidad de los hechos. Esta tendencia surge de los procesos de entrenamiento diseñados para maximizar la satisfacción humana, lo que puede validar errores graves en sectores críticos como la salud. La conducta, que se describe como una forma de “adulación digital”, implica que la IA puede validar errores, reforzar sesgos o evitar críticas necesarias con tal de resultar agradable o útil según la percepción inmediata del usuario. Para mitigar estos riesgos, se han propuesto estrategias como el fine-tuning ético, el diseño de sistemas que fomenten el disentimiento y el uso de prompts que sean neutrales respecto de los usuarios.
Read More →

El dilema del profesor en la era de la IA: ¿enseñamos el prompt o el proceso científico?

Fotografía de una persona escribiendo en un ordenador portátil sobre una mesa.

La pregunta no es trivial. La rápida adopción de herramientas de IA generativa en la investigación científica ha generado una demanda legítima de formación técnica. Los investigadores quieren y necesitan saber cómo utilizar estas tecnologías. El problema surge cuando la formación se reduce a enseñar atajos, sin comprender los procesos subyacentes que permiten al investigador evaluar críticamente lo que produce la herramienta. Read More →

El Anillo de Giges y la IA en la ciencia: Cuando la invisibilidad desafía la integridad

Luces desenfocadas con efecto bokeh, formando una composición abstracta.

Si la IA puede utilizarse sin ser detectada, ¿cómo se mantiene la integridad científica? Utilizando la alegoría del Anillo de Giges, este texto reflexiona sobre los límites de la detección, la proliferación de directrices y la necesidad de replantear el debate: desde la vigilancia hasta la formación ética de los investigadores. Read More →

El auge de las publicaciones depredadoras

Fotografía de líneas abstractas en tonos neutros.

En las últimas dos décadas, la publicación científica ha experimentado una transformación tecnológica y económica que ha dado paso a modelos más heterodoxos y, lamentablemente, a prácticas depredadoras. La publicación depredadora se refiere a revistas y editoriales que cobran (y muy caro) a los autores por publicar, afirman prácticas de revisión por pares e indexación que no existen o son fraudulentas y dan prioridad a los ingresos rápidos en detrimento de la calidad científica. Read More →

¿Quién es la partera y quién es la parturienta? La perspectiva socrática para repensar la autoría y la responsabilidad epistémica en el uso de la IA en la producción científica

Fotografía de una mano tocando una lámpara.

La perspectiva mayéutica socrática ofrece un marco filosófico para repensar el uso de la IA en la producción científica. En lugar de un oráculo que proporciona respuestas, la IA puede ser un interlocutor dialógico que ayuda a los investigadores a explicitar el conocimiento latente y, así, replantear el debate sobre la autoría: el investigador sigue siendo el agente epistémico responsable, mientras que la IA actúa como una partera intelectual. Read More →

Integridad científica en la era de la IA y los desafios de la trasnparencia: fraudes, manipulación y los nuevos desafíos de la transparencia

Imagen digital de haces de luz azules.

La inteligencia artificial transforma radicalmente los desafíos de la integridad científica. Desde las “paper mills” hasta la generación automatizada de fraudes, vivimos una crisis que exige nuevas formas de transparencia, detección y gobernanza para preservar la confianza en la ciencia, articulando tecnología, reformas institucionales y cooperación internacional. Read More →

Los peligros del uso de IA en la revisión por pares [Publicado originalmente en Hora Campinas en diciembre de 2025]

Imagen de formas geométricas abstractas en blanco y negro sobre un fondo blanco.

En mi vida académica, siempre estoy en ambos lados del mostrador, como autor y revisor. Es un trabajo con un alto nivel de responsabilidad, ya que estamos comprometidos con la excelencia de la información científica y la mejora del artículo. Actualmente, los autores pueden usar genAI en la preparación de artículos con ciertas reservas, pero existen estrictas restricciones para su uso en la revisión por pares. Read More →

La paradoja de la transparencia en el uso de la IA generativa en la investigación académica

Fotografía de un paisaje visto a través de un cristal estriado.

El uso de la IA generativa en la investigación académica genera una paradoja entre la transparencia y la credibilidad. Una investigación revela que declarar el uso de la IA, aunque ético, puede disminuir la confianza en el investigador. La falta de directrices claras y el estigma asociado a la IA dificultan la adopción de la transparencia necesaria para garantizar la integridad científica. Read More →

La información “más” transparente sobre la investigación: una cultura en evolución

Fotografía de varios marcos de cristal en diferentes colores y niveles de transparência

Hace más de dos décadas, Richard Horton, editor de The Lancet, planteó preguntas provocadoras sobre la autoría científica y su representación en los artículos publicados. Señaló que los informes de investigación a menudo pasan por alto los desacuerdos entre coautores sobre la interpretación de los resultados. Poner de manifiesto elementos de este denominado “artículo oculto” se ha vuelto esencial para la fiabilidad del relato de la investigación. Esta es una práctica en evolución que adquirirá una mayor relevancia en la educación de posgrado, especialmente en el contexto actual de la producción intelectual cada vez más influenciada por la Inteligencia Artificial Generativa. Read More →

Lingüística para una inteligencia artificial (IA) brasileña

Ilustración digital que muestra una representación de un cerebro formado por circuitos.

La Plataforma Brasileña de Diversidad Lingüística es una propuesta de curación de datos para entrenar modelos de IA con datos estructurados del portugués y de otras 250 lenguas brasileñas, en apoyo directo al Plan Brasileño de Inteligencia Artificial. La iniciativa busca reducir los costos ambientales, evitar sesgos y crear tecnologías más inclusivas para la salud, la educación y los servicios públicos. Read More →

Integridad científica y agencia humana en la investigación entrelazada con IA Generativa

Image: Bernd Dittrich via Unsplash.

La comunicación científica está pasando por una reconfiguración que, desde una perspectiva conservadora, será tan paradigmática como la creación de la primera revista científica, el Philosophical Transactions, en 1665. Desde una perspectiva disruptiva, esta transformación podría reconfigurar toda la cultura científica, redefiniendo la autonomía de investigadores e instituciones en la producción y validación del conocimiento. Preservar la integridad y el rigor científico en proyectos y publicaciones requiere estrategias que van más allá de políticas de transparencia para investigadores que utilizan Inteligencia Artificial Generativa. Read More →

Chatbots de IA y simulación de diálogo: ¿Qué dice la teoría bajtiniana?

Imagen digital de globos de conversación de mensajes de texto sobre un fondo translúcido que simula la pantalla de un smartphone.

Se propone un modelo para el análisis discursivo de las interacciones con chatbots de IA a la luz de los conceptos bajtinianos en el que se observa una polifonía controlada, donde todas las voces se reconcilian en un “diálogo simulado” que puede empobrecer el pensamiento crítico. Defendemos la urgencia de la alfabetización en IA considerando sus implicaciones ideológicas, políticas y educativas. Read More →

Investigadores brasileños lanzan directrices para el uso ético y responsable de la Inteligencia Artificial Generativa (IAG)

Recorte de la portada del libro "Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores"

Investigadores brasileños lanzan guía inédita sobre el uso ético y responsable de la IAG en la investigación que integran principios normativos y ejemplos para promover la transparencia, la autoría humana y la protección de datos no publicados o sensibles, además del cuidado de la integridad académica y los sesgos en los diferentes usos en la investigación académica. Read More →