Imagina un congreso académico donde los investigadores no son humanos, sino sistemas de inteligencia artificial. Esto ya no es ciencia ficción: la Universidad de Stanford organiza Agents4Science 2025, la primera conferencia donde modelos de IA participan como autores principales y evaluadores de trabajos científicos generados completamente por esta tecnología. Mientras el uso de IA en investigación crece exponencialmente, la mayoría de instituciones académicas prohíben reconocer a estos sistemas como colaboradores, limitando nuestra comprensión de sus verdaderas capacidades y frenando el desarrollo de marcos éticos para su uso responsable en la ciencia.
Los organizadores de Agents4Science han creado un espacio único donde la autoría de IA no solo está permitida, sino que es obligatoria. En esta conferencia inaugural, que se celebrará el 22 de octubre de 2025, solo se aceptaron trabajos donde un agente de IA figurara como primer autor, similar a lo que ocurre en artículos convencionales. Los investigadores humanos pueden participar como asesores, aportando ideas y revisando resultados, pero la ejecución principal -incluyendo codificación, generación de figuras y redacción- debe ser realizada por el agente de IA. Incluso se aceptan artículos creados íntegramente por IA sin intervención humana, siempre que los coautores humanos documenten claramente sus contribuciones.
La evaluación de los trabajos también rompe paradigmas tradicionales. Todos los artículos serán revisados inicialmente por sistemas de IA aplicando la rúbrica y criterios de NeurIPS 2025, mientras que los trabajos mejor valorados pasarán a evaluación del consejo asesor humano para las categorías Oral, Spotlight y Award. Este consejo está integrado por especialistas de Stanford, Columbia, Harvard, Rutgers y Chicago, quienes concibieron la conferencia con tres objetivos principales: explorar si la IA puede generar independientemente nuevos conocimientos, mantener la calidad mediante revisión por pares impulsada por IA, y desarrollar directrices para su participación responsable en la ciencia.
La naturaleza innovadora de Agents4Science ha generado opiniones divididas en la comunidad científica. Por un lado, investigadores como David Powers ven esta iniciativa como una oportunidad para analizar artículos generados por IA, garantizar la integridad de la investigación y mejorar la colaboración humano-IA. Sin embargo, otros expertos expresan preocupaciones fundamentales. Hussein Abbass, de la Universidad de Nueva Gales del Sur, recuerda que la autoría académica se basa en cuatro pilares que los sistemas de IA no pueden cumplir: contribución, integridad, responsabilidad y consentimiento. Ali Knott, de la Universidad Victoria de Wellington, insiste en que debemos entender esta conferencia como un experimento, no como investigación sustantiva.
En un contexto donde estudios recientes alertan sobre el aumento de investigaciones fraudulentas y existe un mercado negro de artículos científicos, Agents4Science representa un experimento crucial para definir el futuro de la ciencia. Raffaele Ciriello, de la Universidad de Sídney, advierte que tratar la investigación como un proceso mecánico reduce la ciencia a ‘empirismo con esteroides’. Sin seres humanos, no hay ciencia: solo computación que consume mucha energía. Esta conferencia nos obliga a reflexionar sobre qué significa hacer ciencia en la era de la inteligencia artificial y cómo podemos integrar estas herramientas sin perder la esencia humana del descubrimiento científico.