Rafael Cardoso Sampaio, Profesor de Política, Universidad Federal de Paraná (UFPR) y becario de productividad CNPq 1D, Curitiba, PR, Brasil
Marcelo Sabbatini, Profesor, Centro de Educación y Programa de Postgrado en Educación Matemática y Tecnológica, Universidad Federal de Pernambuco (UFPE), Recife, PE, Brasil
Ricardo Limongi, Profesor de Marketing e Inteligencia Artificial, Universidade Federal de Goiás (UFG), Goiânia, GO, y Editor Jefe de la revista Brazilian Administration Review (BAR), Maringá, PR, Brasil
En nuestro trabajo Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores,1 lanzado por la editorial Sociedad Brasileña de Estudios Interdisciplinarios de Comunicación (Intercom) a finales de 2024, buscamos ofrecer una referencia sólida para investigadores brasileños en un contexto de creciente adopción de herramientas de Inteligencia Artificial Generativa (IAG).
Dada la marcada ausencia de materiales similares, la premisa del trabajo es establecer parámetros para la incorporación de esta tecnología en las prácticas de investigación, contribuyendo como punto de partida para discusiones o en el avance de la cultura de la Inteligencia Artificial en las instituciones.
La estructura del trabajo se basa en dos dimensiones complementarias: una vertiente normativa y una vertiente metodológica-operativa. En el ámbito regulatorio, establecemos principios como la transparencia metodológica – con énfasis en la documentación completa de los procesos automatizados –, la preservación de la autoría intelectual y la protección contra la apropiación inapropiada de datos por parte de sistemas propietarios internacionales.
Buscamos enfatizar la centralidad de la agencia humana en los procesos de investigación, como la elaboración del marco teórico-metodológico y el análisis interpretativo de resultados, e incluimos: comprensión de las herramientas IAG, autoría humana, transparencia, integridad de la investigación académica, plagio, originalidad y derechos de autor, preservación de la agencia humana, uso guiado éticamente y alfabetización en inteligencia artificial para investigadores.
En la dimensión práctica y metodológica, presentamos protocolos específicos para desafíos recurrentes en la práctica académica contemporánea. El trabajo propone metodologías para mitigar sesgos lingüísticos en revisiones bibliográficas automatizadas y criterios para evaluar la calidad textual en producciones asistidas por IA. Proponemos pautas para el tratamiento ético de datos sensibles, incluyendo procedimientos de anonimización y validación cruzada entre análisis humanos y computacionales.
La segunda parte, de carácter más práctico, aborda actividades típicas de la investigación académica, como la exploración inicial de ideas, búsqueda de materiales académicos, lectura y resumen de materiales académicos, redacción, análisis y presentación de resultados, programación, transcripción, traducción y opiniones y evaluaciones, selección, agentes de IA y, finalmente, la detección de texto generado por IAG.
Buscamos ilustrar los dilemas con ejemplos concretos presentados en la literatura científica y recogidos en nuestra experiencia con tribunales examinadores y grupos de investigación. Por ejemplo, observamos que las revisiones de literatura asistidas por IA a menudo ignoran las fuentes brasileñas y se dirigen a artículos en inglés, incluso cuando se solicitan fuentes en portugués.
Además, pueden limitarse a artículos de acceso abierto, lo que no siempre refleja el estado del arte en un campo. Otro ejemplo relevante es el uso descuidado de chatbots para escribir secciones metodológicas, lo que puede llevar a la producción de textos genéricos que no capturan la complejidad de los datos obtenidos.
Nuestro trabajo también critica la falsa objetividad que propagan las herramientas de detección de IA. Utilizando ejemplos prácticos, demostramos cómo un software como GPTZero puede fallar al clasificar textos de investigadores que no son hablantes nativos de inglés o que adoptan estilos más concisos.
En lugar de confiar ilimitadamente en estas herramientas, sugerimos identificar señales discretas de autoría artificial, como la falta de ejemplos empíricos o citas demasiado amplias. Al hacerlo, también recomendamos centrarnos en la creación de una cultura de integridad académica en la que la IAG surja como una herramienta.
Además de establecer pautas, nuestro libro1 invita a la reflexión sobre el papel del IAG en la investigación científica. Discutimos cómo equilibrar las ganancias de eficiencia con la preservación de la creatividad y el desarrollo de habilidades analíticas. Proponemos que la tecnología se integre en pasos más mecánicos, como la revisión gramatical y la organización de referencias, preservando actividades cognitivas esencialmente humanas.
Finalmente, destacamos, en primer lugar, la urgencia de establecer directrices institucionales brasileñas, ya que la falta de reglamentación por parte del CNPq (Consejo Nacional para el Desarrollo Científico y Tecnológico) y de la CAPES (Fundación para la Mejora del Personal de la Enseñanza Superior) expone a los investigadores a las políticas inestables de empresas e instituciones internacionales.
En segundo lugar, debido a la propia lógica del mercado que alimenta a las empresas responsables de esos modelos, enfatizamos la importancia de crear modelos específicos para la ciencia brasileña, que corran en “nubes soberanas” y eviten que nuestros resultados más relevantes sean fácilmente compartidos con esas corporaciones.
Por lo tanto, la guía no pretende constituirse como la última palabra sobre un tema altamente complejo y en constante cambio, sino más bien hacer una invitación a que universidades, revistas y agencias de financiamiento creen conjuntamente un marco regulatorio que proteja la integridad de la investigación nacional. y al mismo tiempo abrazar conscientemente el potencial transformador de la IA generativa.
El libro electrónico (solo Portugués) se puede descargar gratuitamente en
https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
Declaración de uso de la inteligencia artificial generativa
Este texto fue preparado y corregido con la ayuda de DeepSeek (v. 3), Claude (Sonnet versión 3.5) y MariTalk (Sabiá versión 3) en enero de 2025. Después de utilizar estas herramientas, los autores revisaron y editaron el contenido de acuerdo con el método científico y asume plena responsabilidad por el contenido de la publicación.
Nota
1. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
Referencia
SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
Enlaces externos
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:
Comentarios recientes