{"id":5288,"date":"2023-05-19T15:00:14","date_gmt":"2023-05-19T18:00:14","guid":{"rendered":"https:\/\/blog.scielo.org\/es\/?p=5288"},"modified":"2023-06-19T09:16:59","modified_gmt":"2023-06-19T12:16:59","slug":"reproduccion-replicacion-en-investigacion-cientifica-parte-1","status":"publish","type":"post","link":"https:\/\/blog.scielo.org\/es\/2023\/05\/19\/reproduccion-replicacion-en-investigacion-cientifica-parte-1\/","title":{"rendered":"Reproducci\u00f3n &#038; Replicaci\u00f3n en investigaci\u00f3n cient\u00edfica \u2013 parte 1"},"content":{"rendered":"<p><strong>Por Ernesto Spinak<\/strong><\/p>\n<h3>Introducci\u00f3n<sup>1,2<\/sup><\/h3>\n<div id=\"attachment_5290\" style=\"width: 310px\" class=\"wp-caption alignright\"><a href=\"http:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2023\/05\/Maniac1_copy.jpg\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-5290\" class=\"wp-image-5290 size-medium\" title=\"Captura de pantalla de la pel\u00edcula de dominio p\u00fablico Maniac (1934) que muestra a Horace B. Carpenter como el personaje &quot;Dr. Meirschultz&quot;.\" src=\"http:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2023\/05\/Maniac1_copy-300x230.jpg\" alt=\"Captura de pantalla de la pel\u00edcula de dominio p\u00fablico Maniac (1934) que muestra a Horace B. Carpenter como el personaje &quot;Dr. Meirschultz&quot;.\" width=\"300\" height=\"230\" srcset=\"https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2023\/05\/Maniac1_copy-300x230.jpg 300w, https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2023\/05\/Maniac1_copy.jpg 400w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><p id=\"caption-attachment-5290\" class=\"wp-caption-text\"><em>Imagen: <a href=\"https:\/\/en.wikipedia.org\/wiki\/File:Maniac1_copy.jpg\">Maniac<\/a><\/em><em>, 1934.<\/em><\/p><\/div>\n<p>La empresa cient\u00edfica depende de la capacidad de la comunidad cient\u00edfica para examinar sus afirmaciones y ganar confianza a lo largo del tiempo en resultados e inferencias que han resistido repetidas pruebas. La notificaci\u00f3n de las incertidumbres en los resultados cient\u00edficos es un principio central del proceso cient\u00edfico. Corresponde a los cient\u00edficos transmitir la informaci\u00f3n adecuada y el grado de incertidumbre en la presentaci\u00f3n de sus reclamaciones. La ciencia apunta a grados refinados de confianza, en lugar de certeza completa.<sup>3<\/sup><\/p>\n<p>Muchos estudios cient\u00edficos buscan medir, explicar y hacer predicciones sobre fen\u00f3menos naturales. Otros estudios buscan detectar y medir los efectos de una intervenci\u00f3n sobre un sistema. La inferencia estad\u00edstica proporciona un concepto y marco computacional para abordar las cuestiones cient\u00edficas en cada ajuste. La estimaci\u00f3n y la prueba de hip\u00f3tesis son agrupaciones amplias de procedimientos inferenciales.<\/p>\n<p>La <em>reproducibilidad y replicabilidad<\/em> en relaci\u00f3n con los datos y el trabajo cient\u00edfico intensivo en computaci\u00f3n recibi\u00f3 atenci\u00f3n con el uso de herramientas computacionales ampliadas. En la d\u00e9cada de 1990, Jon Claerbout lanz\u00f3 el \u201cmovimiento de investigaci\u00f3n reproducible\u201d. La suposici\u00f3n era que la rean\u00e1lisis de los mismos datos usando los mismos m\u00e9todos producir\u00eda los mismos resultados.<\/p>\n<p>Con el inicio de an\u00e1lisis masivos de datos, en particular en las ciencias m\u00e9dicas, se introdujeron las siguientes interrogantes<\/p>\n<ul>\n<li>\u00bfC\u00f3mo deber\u00edan ser los estudios e investigaciones en las diversas disciplinas usando el modelo computacional algor\u00edtmico?<\/li>\n<li>\u00bfSe pueden dise\u00f1ar enfoques para generar conocimiento confiable de manera eficiente?<\/li>\n<li>\u00bfC\u00f3mo se podr\u00edan comunicar mejor las hip\u00f3tesis y los resultados para permitir a otros confirmar, refutar o construir sobre esos resultados?<\/li>\n<li>\u00bfC\u00f3mo pueden los sesgos potenciales de los cient\u00edficos ser comprendidos, identificados y expuestos a fin de mejorar la precisi\u00f3n en la generaci\u00f3n e interpretaci\u00f3n de los resultados de la investigaci\u00f3n?<\/li>\n<\/ul>\n<p>Para expresarlo en una frase, consider\u00e1bamos que la reproducibilidad significaba &#8220;obtener los mismos resultados en un estudio independiente cuyos procedimientos son lo m\u00e1s parecido posible al experimento original.\u201d Pero esto no result\u00f3 ser as\u00ed.<\/p>\n<p>La sensaci\u00f3n de crisis comenz\u00f3 con la conciencia generalizada de fallas de reproducibilidad entre el p\u00fablico cuando el <a href=\"https:\/\/www.cos.io\/\" target=\"_blank\" rel=\"noopener\"><em>Center for Open Science<\/em><\/a> anunci\u00f3 en 2015 que pod\u00eda confirmar solo 39 de 100 estudios publicados en psicolog\u00eda. Para muchos cient\u00edficos, sin embargo, no solo en psicolog\u00eda, la reproducibilidad no funcionaba o era efectiva.<\/p>\n<p>Durante m\u00e1s de una d\u00e9cada, la imposibilidad de reproducir los hallazgos en varias disciplinas, incluidas las ciencias biom\u00e9dicas, conductuales y sociales, ha llevado a algunos autores a afirmar que existe la llamada &#8220;crisis de reproducibilidad&#8221; en esas disciplinas. Algunos s\u00edntomas detectados eran:<\/p>\n<ul>\n<li>varios aspectos de la reproducibilidad de los estudios cient\u00edficos, incluidas las definiciones de reproducibilidad, se interpretaban en forma ambigua;<\/li>\n<li>se identificaban muchas variables involucradas en la evaluaci\u00f3n del \u00e9xito de los intentos de reproducir un estudio, as\u00ed como otros factores sugeridos responsables de fallas en la reproducibilidad;<\/li>\n<li>se anotaban varios tipos de validez de los estudios experimentales y amenazas a la validez en relaci\u00f3n con la reproducibilidad;<\/li>\n<li>estas ambig\u00fcedades e indefiniciones se presentaban como evidencia de amenazas a la reproducibilidad en la literatura de an\u00e1lisis de las ciencias del comportamiento.<\/li>\n<\/ul>\n<p>Gran parte de las cr\u00edticas y comentarios sobre reproducibilidad y soluciones a la crisis, tanto reales como percibidas, se centr\u00f3 en las estad\u00edsticas, metodolog\u00edas y c\u00f3mo se reportaban las comunicaciones. En la \u00faltima d\u00e9cada, los estad\u00edsticos han mostrado c\u00f3mo las estad\u00edsticas pueden ser mal utilizadas involuntariamente o, en algunos casos, abusadas intencionalmente cuando los investigadores intentan producir resultados que atraigan a colegas profesionales y atraigan potenciales financiadores.<\/p>\n<p>La revisi\u00f3n por pares tampoco nos protege lo suficiente. Al d\u00eda de hoy la revisi\u00f3n por pares es la que supuestamente garantiza lo publicado, que los hallazgos son correctos, e impl\u00edcitamente, que tales hallazgos podr\u00edan ser reproducidos si otros investigadores lo intentaran. Pero como varios acad\u00e9micos han demostrado, la encarnaci\u00f3n actual de la revisi\u00f3n por pares, en la que las presentaciones a las revistas son arbitradas por colegas an\u00f3nimos \u2014 es un accidente hist\u00f3rico, lejos de un procedimiento dise\u00f1ado capaz de separar la verdad de la ficci\u00f3n.<\/p>\n<p>A fines de la d\u00e9cada de 1990, la revisi\u00f3n por pares fue objeto de fuertes cr\u00edticas. Sus muchas fallas, que contribuyen directamente a las dificultades con la reproducibilidad, se han vuelto bien conocidas, pero vale la pena repetirlas: rara vez se presentan estudios con resultados negativos o nulos, y menos son publicados, lo que abre la puerta a falsos positivos. La expectativa es que la ciencia abierta con las pr\u00e1cticas de empezar la comunicaci\u00f3n de las investigaciones por <em>preprints<\/em>, el compartimiento de los datos subyacentes a los textos, y la publicaci\u00f3n de los informes de los revisores podr\u00eda mejorar este problema.<\/p>\n<p>Los fracasos en la reproducibilidad aumentan los costos de la investigaci\u00f3n, principalmente en ciencias de la salud. Tomemos como ejemplos algunos art\u00edculos recientes.<\/p>\n<p>\u201cLas bajas tasas de reproducibilidad dentro de la investigaci\u00f3n en ciencias de la vida socavan la producci\u00f3n de conocimiento acumulativo y contribuyen tanto a los retrasos como a los costos del desarrollo de f\u00e1rmacos terap\u00e9uticos. Un an\u00e1lisis de estudios entre 2012 y 2015 indica que la prevalencia acumulada (total) de investigaci\u00f3n precl\u00ednica irreproducible supera el 50%, lo que genera aproximadamente US$28 mil millones\/a\u00f1os gastados en investigaci\u00f3n precl\u00ednica que no es reproducible, solo en los Estados Unidos\u201d.<sup>4<\/sup><\/p>\n<p>Tambi\u00e9n fue significativo un art\u00edculo de 2005 de John Ioannidis titulado provocativamente <a href=\"https:\/\/doi.org\/10.1371\/journal.pmed.0020124\" target=\"_blank\" rel=\"noopener\"><em>Why Most Published Research Findings Are False<\/em><\/a>.<sup>5<\/sup> Ioannidis argument\u00f3 que \u201cla mayor\u00eda de los resultados de la investigaci\u00f3n son falsos para la mayor\u00eda de los dise\u00f1os de investigaci\u00f3n y para la mayor\u00eda de los campos disciplinarios\u201d<sup>5<\/sup> debido a una combinaci\u00f3n de sesgos en el dise\u00f1o, en el an\u00e1lisis y la presentaci\u00f3n de informes; pruebas realizadas por m\u00faltiples equipos independientes que conducen a la publicaci\u00f3n de resultados falsos positivos; y dise\u00f1os de investigaci\u00f3n de baja potencia. Admitiendo que no habr\u00eda forma de alcanzar el 100 por ciento de certeza, Ioannidis pidi\u00f3 evidencia de mayor poder probativo, corrigiendo el sesgo de publicaci\u00f3n y abordando los problemas con otras formas de sesgo.<sup>6<\/sup><\/p>\n<p>\u201cActualmente, muchos resultados de investigaciones publicados son falsos o exagerados. Se estima que el 85% de los recursos de investigaci\u00f3n se desperdician.\u201d<sup>7<\/sup><\/p>\n<p>Para aquellos involucrados en discusiones sobre <em>rigor<\/em>, <em>reproducibilidad<\/em> y <em>replicaci\u00f3n<\/em> en ciencia, las conversaciones sobre la \u201ccrisis de reproducibilidad\u201d parecen estar mal estructuradas.<\/p>\n<p>Aparentemente, bajo esta etiqueta, se recogen muchos problemas diferentes, y no solo los relacionados con la \u201cpureza de los reactivos, la accesibilidad del c\u00f3digo computacional o la estructura de incentivos en la investigaci\u00f3n acad\u00e9mica\u201d.<\/p>\n<p>Trabajos en las pasadas dos d\u00e9cadas han intentado abordar estos problemas mediante la creaci\u00f3n de variadas definiciones de los t\u00e9rminos en discusi\u00f3n como <em>reproducibilidad<\/em>, <em>replicabilidad<\/em>, etc. Un an\u00e1lisis de correspondencias de la terminolog\u00eda en las publicaciones cient\u00edficas realizado por Nelson NC, (2021<em>) <\/em><a href=\"https:\/\/doi.org\/10.1371\/journal.pone.0254090\" target=\"_blank\" rel=\"noopener\"><em>Mapping the discursive dimensions of the reproducibility crisis: A mixed methods analysis<\/em><\/a><sup>8<\/sup> identifica tres grupos de discusi\u00f3n en los art\u00edculos: un grupo centrado en el uso de reactivos, otro sobre m\u00e9todos estad\u00edsticos, y un grupo final centrado en la heterogeneidad de la naturaleza mundo.<\/p>\n<p>Daniele Fanelli y John Ioannidis de <em>Meta-Research Innovation<\/em> de <em>Stanford Center<\/em> de Stanford, argumentaron que &#8220;el l\u00e9xico de la reproducibilidad hasta la fecha ha sido m\u00faltiple y mal definido,\u201d<sup>9<\/sup> y que la falta de claridad sobre los tipos espec\u00edficos de reproducibilidad que se discuten fueron un impedimento para avanzar en estos temas. Muchos comentaristas han se\u00f1alado que existe una confusi\u00f3n considerable entre los t\u00e9rminos <em>reproducibilidad<\/em> y <em>replicabilidad<\/em>, y que esos t\u00e9rminos a menudo se usan indistintamente en la literatura. Victoria Stodden ha argumentado que hay tres tipos principales de reproducibilidad: emp\u00edrica, estad\u00edstica y computacional, cada uno de los cuales representa una narrativa distinta vinculada a una disciplina diferente.<\/p>\n<p>Hasta la fecha, los acad\u00e9micos han intentado abordar estas preocupaciones proponiendo definiciones aclaratorias, o tipolog\u00edas para guiar las discusiones. El Informe <a href=\"https:\/\/doi.org\/10.17226\/25303\" target=\"_blank\" rel=\"noopener\"><em>Reproducibility and Replicability in Science<\/em><\/a><sup>3<\/sup> de 2019 de la <em>National Academies of Sciences, Engineering, and Medicine<\/em> se\u00f1ala el problema de la confusi\u00f3n terminol\u00f3gica y crea una distinci\u00f3n definitoria entre <em>reproducibilidad<\/em> y <em>replicabilidad<\/em>, una distinci\u00f3n que se alinea con el uso de estos t\u00e9rminos en las ciencias computacionales, pero que est\u00e1 en desacuerdo con las formas m\u00e1s flexibles en que son utilizado por organizaciones importantes como el <em>Center for Open Science<\/em> y los planes de los <em>National Institutes of Health<\/em>.<\/p>\n<p>Muchos comentaristas argumentan que la reproducibilidad es un problema social que requerir\u00e1 cambios a la cultura de la ciencia y, sin embargo, metodolog\u00edas dise\u00f1adas para estudiar la variaci\u00f3n cultural y el cambio, como ser: observaci\u00f3n participante, etnograf\u00eda, comparaciones transculturales, an\u00e1lisis cualitativo y an\u00e1lisis de datos. Metodolog\u00edas que rara vez se emplean en metas cient\u00edficas u orientadas a la investigaci\u00f3n de la reproducibilidad. Lograr un cambio duradero en las culturas cient\u00edficas requerir\u00e1 primero un enfoque m\u00e1s sistem\u00e1tico y comprensi\u00f3n de la variaci\u00f3n en c\u00f3mo los cient\u00edficos interpretan los problemas de reproducibilidad para crear intervenciones \u201cculturalmente competentes\u201d.<sup>8<\/sup><\/p>\n<p>Antes de analizar las teor\u00edas subyacentes por la falta de replicabildad de los experimentos, veamos algunos problemas b\u00e1sicos que pueden explicarlo. Las bases formales y epistemol\u00f3gicas se presentar\u00e1n en una contribuci\u00f3n posterior, donde se desglosaremos el documento de la <em>National Academies of Sciences<\/em><sup>3<\/sup> ya mencionado<em>.<\/em><\/p>\n<p>A continuaci\u00f3n se presentan dos ejemplos de estudios en los que la no replicaci\u00f3n de los resultados llev\u00f3 a los investigadores a buscar el origen de las discrepancias y, en \u00faltima instancia, aument\u00f3 la comprensi\u00f3n de los sistemas en estudio y c\u00f3mo se notifican.<\/p>\n<p>\u00bfC\u00f3mo se determina hasta qu\u00e9 punto un intento de replicaci\u00f3n ha sido exitoso o no? Algunas veces el problema es que el reporte no es suficientemente claro o detallado en los procedimientos.<\/p>\n<p>Dos laboratorios separados estaban realizando experimentos de tejido mamario, usando lo que asumieron que era el mismo protocolo, pero sus resultados continuaron diferentes. Cuando los investigadores de los dos laboratorios se sentaron uno al lado del otro para realizar el experimento, descubrieron que un laboratorio estaba removiendo las c\u00e9lulas suavemente en el matraz, mientras que el otro laboratorio estaba usando un sistema de agitaci\u00f3n m\u00e1s vigoroso.<\/p>\n<p>Ambos m\u00e9todos son comunes, por lo que ninguno de los investigadores pens\u00f3 en mencionar los detalles de la proceso de mezcla. Antes de que estos investigadores descubrieran la variaci\u00f3n en la t\u00e9cnica, no se sab\u00eda que el m\u00e9todo de mezcla podr\u00eda afectar el resultado en este experimento. Tras su descubrimiento, aclarar el tipo de t\u00e9cnica de mezcla en los m\u00e9todos del estudio se convirti\u00f3 en una fuente evitable de no replicabilidad.<\/p>\n<p>La no replicabilidad tambi\u00e9n puede ser el resultado de un error humano o de un investigador inexperiente. Deficiencias en el dise\u00f1o, en la conducci\u00f3n de un estudio, o en su posterior comunicaci\u00f3n pueden contribuir a la no replicabilidad. Consideramos aqu\u00ed un conjunto seleccionado de tales fuentes evitables de no replicaci\u00f3n, que se explicar\u00e1n en detalle en pr\u00f3ximas notas:<\/p>\n<ul>\n<li>El sesgo de la publicaci\u00f3n;<\/li>\n<li>Incentivos desalineados para publicar;<\/li>\n<li>El uso de inferencia estad\u00edstica inapropiada;<\/li>\n<li>Dise\u00f1o deficiente del estudio;<\/li>\n<li>Errores en la conducci\u00f3n;<\/li>\n<li>Informe incompleto de un estudio.<\/li>\n<\/ul>\n<p>Para completar la nota de hoy, aportemos algunas sugerencias \u00fatiles<\/p>\n<p>Los sistemas necesarios para promover la investigaci\u00f3n reproducible debe provenir de las instituciones; los cient\u00edficos, los patrocinadores porque las revistas no pueden construirlos por s\u00ed mismos. Este tipo de cambios requerir\u00e1 dinero, infraestructura, personal y tr\u00e1mites adicionales. La carga en las instituciones y los investigadores ser\u00e1n reales, pero tambi\u00e9n lo es la carga de la investigaci\u00f3n irreproducible.<\/p>\n<p>Para hacer m\u00e1s confiables las investigaciones publicadas, aquellas pr\u00e1cticas que han mejorado la credibilidad y la eficiencia en campos espec\u00edficos puede trasplantarse a otras disciplinas para beneficiarse de ellas; las posibilidades incluyen la adopci\u00f3n de sistemas colaborativos a gran escala.<\/p>\n<p>Es necesario hacer modificaciones en el sistema de incentivos y recompensas para la ciencia, afectando, por ejemplo a publicaciones, subvenciones y compras de bienes acad\u00e9micos que est\u00e9n mejor alineadas con investigaciones reproducibles.<\/p>\n<h3>Colof\u00f3n<\/h3>\n<p>En esta entrega hemos presentado un panorama actual de los problemas de la Replicabilidad y Reproducibilidad de la comunicaci\u00f3n cient\u00edfica. En las pr\u00f3ximas dos entregas abordaremos las bases filos\u00f3ficas que ofrece la la <em>National Academies of Sciences, <\/em>hasta d\u00f3nde son aplicables estas directivas a las ciencias sociales y humanas, y qu\u00e9 contribuci\u00f3n puede ofrecer la ciencia abierta, revisi\u00f3n abierta y servidores de <em>preprints<\/em>.<\/p>\n<h3>La serie Replicaci\u00f3n en la investigaci\u00f3n consta de tres posts<\/h3>\n<ol>\n<li><a href=\"https:\/\/blog.scielo.org\/es\/2023\/05\/19\/reproduccion-replicacion-en-investigacion-cientifica-parte-1\/\" target=\"_blank\" rel=\"noopener\">Reproducci\u00f3n &amp; Replicaci\u00f3n en investigaci\u00f3n cient\u00edfica \u2013 parte 1<\/a><\/li>\n<li><a href=\"https:\/\/blog.scielo.org\/es\/2023\/06\/02\/reproduccion-replicacion-en-investigacion-cientifica-parte-2\/\" target=\"_blank\" rel=\"noopener\">Reproducci\u00f3n &amp; Replicaci\u00f3n en investigaci\u00f3n cient\u00edfica \u2013 parte 2<\/a><\/li>\n<li><a href=\"https:\/\/blog.scielo.org\/es\/2023\/06\/19\/reproduccion-replicacion-en-investigacion-cientifica-parte-tres\/\" target=\"_blank\" rel=\"noopener\">Reproducci\u00f3n &amp; Replicaci\u00f3n en investigaci\u00f3n cient\u00edfica \u2013 parte 3<\/a><\/li>\n<\/ol>\n<h3>Notas<\/h3>\n<p>1. El tema de la replicabilidad ha estado en \u201ccrisis\u201d en la publicaci\u00f3n cient\u00edfica, por lo cual dedicaremos, comenzando con esta nota, una serie de posts para intentar explicar los significados de los t\u00e9rminos: Replicabilidad, Reproducibilidad, Robustez y Generalizabilidad.<\/p>\n<p>Tambi\u00e9n analizaremos c\u00f3mo se entiende la replicabilidad en las diferentes disciplinas cient\u00edficas, cu\u00e1les son los errores m\u00e1s frecuentes, y qu\u00e9 gravitaci\u00f3n tienen para la validaci\u00f3n de los conocimientos cient\u00edficos publicados.<\/p>\n<p>La serie sobre Replicaci\u00f3n en la Investigaci\u00f3n consistir\u00e1 en tres posts:<\/p>\n<ol>\n<li>Escenario de la supuesta \u201ccrisis\u201d de la replicaci\u00f3n en la publicaci\u00f3n cient\u00edfica.<\/li>\n<li>Comentarios de expertos sobre la terminolog\u00eda usada: (a) la Gu\u00eda publicada por la <em>National Academies of Sciences, Engineering, and Medicine<\/em> intentando normalizar los conceptos; (b) Opiniones diferentes a la Gu\u00eda provenientes de disciplinas de las Ciencias Sociales y Humanas cuyos paradigmas no se ajustan a las ciencias exactas, y (c) visiones de las ciencias m\u00e9dicas que apuntan a otros problemas.<\/li>\n<li>Resumen de las notas anteriores con sugerencias para resolver los mayores conflictos apuntando a la Ciencia Abierta y el uso de servidores de <em>preprints<\/em>.<\/li>\n<\/ol>\n<p>3. Muchos de los conceptos expresados en esta serie de notas son adaptados de un documento gu\u00eda publicado por la <em>National Academies Press<\/em> en 2019.<sup>3<\/sup><\/p>\n<p>3. NATIONAL ACADEMIES OF SCIENCES, ENGINEERING, AND MEDICINE. Reproducibility and Replicability in Science. Washington, DC: The National Academies Press, 2019. <a href=\"https:\/\/doi.org\/10.17226\/25303\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.17226\/25303<\/a>. Available from: <a href=\"https:\/\/nap.nationalacademies.org\/catalog\/25303\/reproducibility-and-replicability-in-science\" target=\"_blank\" rel=\"noopener\">https:\/\/nap.nationalacademies.org\/catalog\/25303\/reproducibility-and-replicability-in-science<\/a><\/p>\n<p>4. FREEDMAN, L.P., COCKBURN, I.M. and SIMCOE, T.S. The Economics of Reproducibility in Preclinical Research. <em>PLoS Biol<\/em> [online]. 2015, vol. 13, no. 6, e1002626 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pbio.1002165\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pbio.1002165<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosbiology\/article?id=10.1371\/journal.pbio.1002165\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosbiology\/article?id=10.1371\/journal.pbio.1002165<\/a><\/p>\n<p>5. IOANNIDIS, J.P.A. Why Most Published Research Findings Are False. <em>PLoS Med<\/em> [online]. 2005, vol. 2, no. 8, e124 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pmed.0020124\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pmed.0020124<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.0020124\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.0020124<\/a><\/p>\n<p>6. SAYRE, F. and RIEGELMAN, A. The reproducibility crisis and academic libraries. <em>College &amp; Research Libraries<\/em> [online]. 2018, vol. 79, no. 1 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.5860\/crl.79.1.2\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.5860\/crl.79.1.2<\/a>. Available from: <a href=\"https:\/\/crl.acrl.org\/index.php\/crl\/article\/view\/16846\" target=\"_blank\" rel=\"noopener\">https:\/\/crl.acrl.org\/index.php\/crl\/article\/view\/16846<\/a><\/p>\n<p>7. IOANNIDIS, J.P.A. How to make more published research true. <em>PLoS Med<\/em> [online]. 2014, vol. 11, e1001747 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pmed.1001747\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pmed.1001747<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.1001747\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.1001747<\/a><\/p>\n<p>8. NELSON, N.C., <em>et al<\/em>. (2021) Mapping the discursive dimensions of the reproducibility crisis: A mixed methods analysis. <em>PLoS ONE<\/em> [online]. 2021, vol. 16, no. 7, e0254090 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pone.0254090\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pone.0254090<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0254090\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0254090<\/a><\/p>\n<p>9. GOODMAN, S.N., FANELLI, D. and IOANNIDIS, J.P.A. What does research reproducibility mean? <em>Science Translational Medicine <\/em>[online]. 2016, vol. 8, no. 341, 341ps12 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1126\/scitranslmed.aaf5027\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1126\/scitranslmed.aaf5027<\/a>. Available from: <a href=\"https:\/\/www.science.org\/doi\/10.1126\/scitranslmed.aaf5027\" target=\"_blank\" rel=\"noopener\">https:\/\/www.science.org\/doi\/10.1126\/scitranslmed.aaf5027<\/a><\/p>\n<h3>Referencias<\/h3>\n<p>CLAERBOUT, J.F., AND KARRENBACH, M. Electronic Documents Give Reproducible Research a New Meaning. <em>SEG Technical Program Expanded Abstracts<\/em>. 1992, 601-604 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1190\/1.1822162\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1190\/1.1822162<\/a>. Available from: <a href=\"https:\/\/library.seg.org\/doi\/abs\/10.1190\/1.1822162\" target=\"_blank\" rel=\"noopener\">https:\/\/library.seg.org\/doi\/abs\/10.1190\/1.1822162<\/a><\/p>\n<p>COLLINS, F. AND TABAK, L. Policy: NIH plans to enhance reproducibility. <em>Nature<\/em> [online]. 2014, vol. 505, pp. 612\u2013613 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1038\/505612a\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1038\/505612a<\/a>. Available from: <a href=\"https:\/\/www.nature.com\/articles\/505612a\" target=\"_blank\" rel=\"noopener\">https:\/\/www.nature.com\/articles\/505612a<\/a><\/p>\n<p>FREEDMAN, L.P., COCKBURN, I.M. and SIMCOE, T.S. The Economics of Reproducibility in Preclinical Research. <em>PLoS Biol<\/em> [online]. 2015, vol. 13, no. 6, e1002626 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pbio.1002165\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pbio.1002165<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosbiology\/article?id=10.1371\/journal.pbio.1002165\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosbiology\/article?id=10.1371\/journal.pbio.1002165<\/a><\/p>\n<p>GOODMAN, S.N., FANELLI, D. and IOANNIDIS, J.P.A. What does research reproducibility mean? <em>Science Translational Medicine <\/em>[online]. 2016, vol. 8, no. 341, 341ps12 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1126\/scitranslmed.aaf5027\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1126\/scitranslmed.aaf5027<\/a>. Available from: <a href=\"https:\/\/www.science.org\/doi\/10.1126\/scitranslmed.aaf5027\" target=\"_blank\" rel=\"noopener\">https:\/\/www.science.org\/doi\/10.1126\/scitranslmed.aaf5027<\/a><\/p>\n<p>HARRIS, R.F. Rigor Mortis: How Sloppy Science Creates Worthless Cures, Crushes Hope, and Wastes Billions. New York: Basic Books, 2017.<\/p>\n<p>HINES, W.C., <em>et al<\/em>. Sorting out the FACS: A Devil in the Details. <em>Cell Reports<\/em>. 2014, vol. 6, no. 5, pp. 779-781 [viewed 19 May 2023]. <a href=\"http:\/\/doi.org\/10.1016\/j.celrep.2014.02.021\" target=\"_blank\" rel=\"noopener\">http:\/\/doi.org\/10.1016\/j.celrep.2014.02.021<\/a>. Available from: <a href=\"https:\/\/www.cell.com\/cell-reports\/fulltext\/S2211-1247(14)00121-1\" target=\"_blank\" rel=\"noopener\">https:\/\/www.cell.com\/cell-reports\/fulltext\/S2211-1247(14)00121-1<\/a><\/p>\n<p>IOANNIDIS, J.P.A. How to make more published research true. <em>PLoS Med<\/em> [online]. 2014, vol. 11, e1001747 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pmed.1001747\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pmed.1001747<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.1001747\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.1001747<\/a><\/p>\n<p>IOANNIDIS, J.P.A. Why Most Published Research Findings Are False. <em>PLoS Med<\/em> [online]. 2005, vol. 2, no. 8, e124 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pmed.0020124\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pmed.0020124<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.0020124\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosmedicine\/article?id=10.1371\/journal.pmed.0020124<\/a><\/p>\n<p>LARAWAY, S, <em>et al<\/em>. An Overview of Scientific Reproducibility: Consideration of Relevant Issues for Behavior Science\/Analysis. <em>Perspect Behav Sci<\/em> [online]. 2019, vol.42, no. 1, pp. 33-57 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1007\/s40614-019-00193-3\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1007\/s40614-019-00193-3<\/a>. Available from: <a href=\"https:\/\/www.ncbi.nlm.nih.gov\/pmc\/articles\/PMC6701706\/\" target=\"_blank\" rel=\"noopener\">https:\/\/www.ncbi.nlm.nih.gov\/pmc\/articles\/PMC6701706\/<\/a><\/p>\n<p>NATIONAL ACADEMIES OF SCIENCES, ENGINEERING, AND MEDICINE. Reproducibility and Replicability in Science. Washington, DC: The National Academies Press, 2019. <a href=\"https:\/\/doi.org\/10.17226\/25303\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.17226\/25303<\/a>. Available from: <a href=\"https:\/\/nap.nationalacademies.org\/catalog\/25303\/reproducibility-and-replicability-in-science\" target=\"_blank\" rel=\"noopener\">https:\/\/nap.nationalacademies.org\/catalog\/25303\/reproducibility-and-replicability-in-science<\/a><\/p>\n<p>NELSON, N.C., <em>et al<\/em>. (2021) Mapping the discursive dimensions of the reproducibility crisis: A mixed methods analysis. <em>PLoS ONE<\/em> [online]. 2021, vol. 16, no. 7, e0254090 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1371\/journal.pone.0254090\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1371\/journal.pone.0254090<\/a>. Available from: <a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0254090\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0254090<\/a><\/p>\n<p>Open Science Collaboration. An open, large-scale, collaborative effort to estimate the reproducibility of psychological science. <em>Perspect Psychol Sci<\/em> [online]. 2012, vol. 7, pp. 657\u2013660 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1177\/1745691612462588\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1177\/1745691612462588<\/a>. Available from: <a href=\"https:\/\/journals.sagepub.com\/doi\/10.1177\/1745691612462588\" target=\"_blank\" rel=\"noopener\">https:\/\/journals.sagepub.com\/doi\/10.1177\/1745691612462588<\/a><\/p>\n<p>POPPER, K. The Logic of Scientific Discovery. London: Routledge, 2005.<\/p>\n<p>SAYRE, F. and RIEGELMAN, A. The reproducibility crisis and academic libraries. <em>College &amp; Research Libraries<\/em> [online]. 2018, vol. 79, no. 1 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.5860\/crl.79.1.2\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.5860\/crl.79.1.2<\/a>. Available from: <a href=\"https:\/\/crl.acrl.org\/index.php\/crl\/article\/view\/16846\" target=\"_blank\" rel=\"noopener\">https:\/\/crl.acrl.org\/index.php\/crl\/article\/view\/16846<\/a><\/p>\n<p>STODDEN, V. Resolving irreproducibility in empirical and computational research [online]. IMS Bulletin blog, 2013 [viewed 19 May 2023]. Available from: <a href=\"https:\/\/imstat.org\/2013\/11\/17\/resolving-irreproducibility-in-empirical-and-computational-research\/\" target=\"_blank\" rel=\"noopener\">https:\/\/imstat.org\/2013\/11\/17\/resolving-irreproducibility-in-empirical-and-computational-research\/<\/a><\/p>\n<p>STUPPLE, A., SINGERMAN, D. and CELI, L.A. The reproducibility crisis in the age of digital medicine. <em>npj Digit. Med<\/em>. [online]. 2019, vol. 2, no. 1 [viewed 19 May 2023]. <a href=\"https:\/\/doi.org\/10.1038\/s41746-019-0079-z\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1038\/s41746-019-0079-z<\/a>. Available from: <a href=\"https:\/\/www.nature.com\/articles\/s41746-019-0079-z\" target=\"_blank\" rel=\"noopener\">https:\/\/www.nature.com\/articles\/s41746-019-0079-z<\/a><\/p>\n<h3>Enlace externo<\/h3>\n<p>Center for Open Science: <a href=\"https:\/\/www.cos.io\/\" target=\"_blank\" rel=\"noopener\">https:\/\/www.cos.io\/<\/a><\/p>\n<p>&nbsp;<\/p>\n<div class=\"pf-content\">\n<h3>Sobre Ernesto Spinak<a href=\"https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2013\/10\/spinak.jpg\" target=\"_blank\" rel=\"noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-537\" src=\"https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2013\/10\/spinak-150x150.jpg\" alt=\"\" width=\"150\" height=\"150\" \/><\/a><\/h3>\n<p>Colaborador de SciELO, Ingeniero en Sistemas y Lic. en Biblioteconom\u00eda, con Diploma de Estudios Avanzados pela Universitat Oberta de Catalunya y Maestr\u00eda en \u201cSociedad de la Informaci\u00f3n\u201d por la Universidad Oberta de Catalunya, Barcelona \u2013 Espa\u00f1a. Actualmente tiene una empresa de consultor\u00eda que atiende a 14 instituciones de gobierno y universidades en Uruguay con proyectos de informaci\u00f3n.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>La replicabilidad es un tema central cuando se discute la confiabilidad de la investigaci\u00f3n cient\u00edfica que se renueva en la promoci\u00f3n de la ciencia abierta. El intento de un segundo investigador para replicar un estudio anterior es un esfuerzo para determinar si la aplicaci\u00f3n de los mismos m\u00e9todos a la misma pregunta cient\u00edfica produce resultados similares. <span class=\"ellipsis\">&hellip;<\/span> <span class=\"more-link-wrap\"><a href=\"https:\/\/blog.scielo.org\/es\/2023\/05\/19\/reproduccion-replicacion-en-investigacion-cientifica-parte-1\/\" class=\"more-link\"><span>Read More &rarr;<\/span><\/a><\/span><\/p>\n","protected":false},"author":8,"featured_media":5289,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":"","_links_to":"","_links_to_target":""},"categories":[3],"tags":[63,7,58],"class_list":["post-5288","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-analisis","tag-ciencia-abierta","tag-comunicacion-cientifica","tag-reproducibilidad"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5288","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/users\/8"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/comments?post=5288"}],"version-history":[{"count":3,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5288\/revisions"}],"predecessor-version":[{"id":5318,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5288\/revisions\/5318"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/media\/5289"}],"wp:attachment":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/media?parent=5288"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/categories?post=5288"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/tags?post=5288"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}