Tag: Inteligencia Artificial

Análisis de los fundamentos epistemológicos del aprendizaje automático

Fotografía de una mano robótica y una mano humana acercándose la una a la otra sobre un fondo liso, casi tocándose las puntas de los dedos.

Aquí se esboza una revisión crítica de los fundamentos lógico-epistémicos del aprendizaje automático, centrada en la limitación de la autonomía de los sistemas de IA para generar conocimiento. Se contrasta esta posibilidad con las limitaciones teóricas que plantea el teorema de incompletitud de Chaitin, según el cual la IA no puede superar la capacidad cognitiva humana. Disponible en inglés. Read More →

Cómo traducir la escritura académica en podcasts usando IA generativa [Publicado originalmente en el LSE Impact Blog en junio/2024]

Imagen de una obra de arte compuesta por varias letras lilas en una formación similar a una nube, generada por Google DeepMind.

Uno de los beneficios de la IA generativa es la capacidad de transformar un medio de texto a voz, a imágenes y a video. En esta publicación, Andy Tattersall explora un aspecto de esta habilidad, transformando su archivo de posts en formato de podcast, el Talking Threads, y discute cómo y por qué esto podría ser beneficioso para la comunicación de la investigación. Read More →

La plataforma web puede revolucionar el proceso de corrección de ensayos

Imagen promocional de CRIA (corrector de ensayos por inteligencia artificial), mostrando el logotipo de la herramienta, detalles sobre sus funcionalidades y contactos de redes sociales, todo sobre un fondo morado.

En busca de una alternativa al laborioso proceso de corrección de ensayos, más específicamente en relación con la identificación de salidas del tema en los ensayos, los investigadores desarrollaron una plataforma de retroalimentación de texto que simula las pautas y calificaciones del ENEM, o CRIA (Corrector de Redacciones por Inteligencia Artificial). La herramienta ya está siendo utilizada por estudiantes y profesionales de la educación. Read More →

Agentes de IA, bots y GPT académicos

Imagen de una obra de arte compuesta por varias piezas de colores en una formación geométrica, generada por Google DeepMind.

Los bots y los GPT académicos se basan en grandes modelos lingüísticos, como ChatGPT, diseñados y a veces entrenados para tareas más específicas. La idea es que, al estar especializados, ofrecerán mejores resultados que los modelos “genéricos”. Este post presenta algunos de los bots y GPTs académicos. Disponible en portugués. Read More →

Publicación en Large Language Model (LLM) [Publicado originalmente en el blog Upstream en enero/2024]

Fotografía superpuesta de varios libros con las páginas dobladas en forma de avión sobre un fondo negro infinito.

El NYT dio la bienvenida al Año Nuevo con una demanda contra OpenAI y Microsoft. OpenAI y su patrocinador Microsoft habían robado, según el expediente, “millones de artículos de noticias protegidos por derechos de autor del Times, investigaciones en profundidad, artículos de opinión, reseñas, guías prácticas” y más, todo para entrenar los LLMs de OpenAI. Read More →

¿Es que la Inteligencia Artificial tiene alucinaciones?

Finalización de redes neuronales para "inteligencia artificial", como en DALL-E mini.

Las aplicaciones de IA han demostrado capacidades impresionantes, incluida la generación de respuestas muy fluidas y convincentes. Sin embargo, los LLM, chatbots y demás, son conocidos por su capacidad para generar declaraciones no objetivas o sin sentido, más comúnmente conocidas como “alucinaciones”. ¿Será que están drogados?
Read More →

¿Puede la IA hacer arbitrajes confiables de artículos científicos?

Imagen de dos pantallas superpuestas con palabras sobre fondo morado generada por Google DeepMind

El costo del arbitraje de las publicaciones científicas, tanto en dinero como en el tiempo que se le dedica, crece a proporciones inmanejables con los métodos actuales. Se impone usar la IA como un sistema de confianza y así liberar recursos humanos para tareas de investigación. Sería importante que SciELO incorporara progresivamente módulos de IA para la evaluación en su servidor de preprints como un nuevo avance y desarrollo de las tecnologías que maneja. Read More →

Investigación y comunicación científica, la IA y la legislación que se avecina

Pirámide de riesgos en la IA: en la base de la pirámide está el riesgo mínimo, por encima está el riesgo limitado, le sigue el riesgo alto y en la cúspide de la pirámide está el riesgo inaceptable.

¿Puede usarse la IA para generar “papers” terroristas, diseminar virus mortales o aprender a hacer bombas nucleares en su domicilio? ¿Hay legislación que pueda protegernos? Parece que la regulación internacional está en camino. Read More →

IA: Cómo detectar textos producidos por chatbox y sus plagios

Diagrama de plagio. El diagrama consiste en un dibujo de tres hojas de papel con texto, una al lado de la otra, seguidas debajo por una flecha roja que señala una hoja de papel con texto en la que algunas secciones están resaltadas en rojo.

Se consulta a la aplicación ChatGPT-3 sobre cuatro temas en discusión para la producción de textos académicos aceptables por los editores de las revistas científicas. A cada pregunta sigue la respuesta dada por la misma aplicación de OpenAI, y a continuación nuestra evaluación consultando fuentes recientes publicadas en Internet. Finalmente se presentan algunas reflexiones (humanas) que, como todas las cosas, están sujetas a discusión o cambios producidos por el avance de la tecnología. Read More →

ChatGPT y otras IA transformarán toda la investigación científica: reflexiones iniciales sobre usos y consecuencias – parte 2

Imagen de una formación coralina de color naranja y rosa, generada por Google DeepMind

En esta segunda parte de este ensayo, buscamos presentar algunos riesgos que surgen especialmente cuando se utiliza IA generativa en el campo científico y en el trabajo académico. Aunque ni siquiera todos los problemas están completamente mapeados, buscamos ofrecer reflexiones iniciales para apoyar y alentar el debate. Read More →

ChatGPT y otras IA transformarán toda la investigación científica: reflexiones iniciales sobre usos y consecuencias – parte 1

Imagen de la silueta de una cabeza humana formada por hilos de colores generada por Google DeepMind

Discutimos algunas posibles consecuencias, riesgos y paradojas en el uso de IA para la investigación, como posible deterioro de la integridad de la investigación, posibles modificaciones en la dinámica de producción de conocimiento y las relaciones centro-periferia en el entorno académico. Concluimos exigiendo un diálogo profundo sobre la regulación y la creación de tecnologías adaptadas a nuestras necesidades. Read More →

Inteligencia Artificial y comunicación de investigaciones

Acuarela de Alan Turing generada por Midjourney AI

¿Son realmente los chatbots autores de artículos científicos? ¿Pueden ser jurídicamente responsables y tomar decisiones éticas? ¿Qué dicen las sociedades científicas, los editores de revistas, las universidades? ¿Pueden incluirse sus resultados en artículos científicos originales? A partir de la contribución que presentamos hoy iremos publicando sucesivos posts que intentarán responder estas interrogantes y las nuevas que vayan surgiendo. Read More →

GPT, traducción automática y qué tan buenos son: una evaluación integral

Esquema que muestra la pirámide de la traducción directa y la traducción por transferencia.

Los modelos de inteligencia artificial generativos GPT han demostrado capacidades notables para la generación de lenguaje natural, pero su rendimiento para la traducción automática no ha sido investigado a fondo. Se presenta una evaluación exhaustiva de modelos GPT para la traducción automática, en comparación con los sistemas comerciales y de investigación más avanzados, incluyendo NMT, probado con textos en 18 idiomas. Read More →

Se necesita un cuerpo para entender el mundo: por qué ChatGPT y las IA de otros idiomas no saben lo que dicen [Publicado originalmente en The Conversation en abril/2023]

Fotografía de un robot blanco y plateado sosteniendo una tableta frente a una consigna de equipaje. Al fondo, en el pasillo, dos personas caminan de espaldas a la cámara.

Los grandes modelos de lenguaje no pueden entender el lenguaje de la forma en que lo hacen los humanos porque no pueden percibir ni dar sentido al mundo. Read More →