Sam Altman, consejero delegado de OpenAI, ha fijado un horizonte muy concreto para una promesa que hasta hace poco pertenecía al terreno de la ciencia ficción. En una conversación con la periodista Cleo Abram, el ejecutivo sostuvo que “eso ocurre en algún momento en los próximos dos años” cuando se le preguntó por cuándo una IA de propósito general será capaz de producir un descubrimiento científico “significativo”. También acotó una fecha que, en su opinión, servirá como termómetro social. Su apuesta es que “para finales de 2027” habrá consenso en que se ha producido un avance relevante impulsado por IA.
La advertencia, sin embargo, estaba dentro de la propia respuesta. La palabra “significativo” no es una etiqueta técnica, es un campo de batalla. No describe solo un resultado, describe el grado de acuerdo en torno a ese resultado, el modo en que se valida y el tipo de comunidad que lo reconoce. Altman lo verbalizó con una lista de escenarios temporales que va desde “principios de 2025” hasta “finales de 2027”, precisamente porque el umbral de lo que se considerará “importante” dependerá del área científica y del estándar de prueba.
El punto más interesante de la conversación no fue tanto la fecha como el mecanismo. Abram le propuso una idea que suele quedar fuera del debate tecnológico, la “tensión” mental que exige aprender, crear o investigar. Es lo que ella llamó “tiempo bajo tensión” cognitivo, el esfuerzo sostenido que obliga a equivocarse, corregir y comprender. Altman respondió que “algunos usan ChatGPT para no pensar” y que otros lo emplean “para pensar más”. Ese contraste, más que una frase llamativa, apunta a una cuestión práctica que ya afecta a empresas, universidades y laboratorios. La IA puede ser atajo o puede ser palanca, y la diferencia depende del diseño de la herramienta y del entrenamiento del usuario.
En el plano de producto, Altman afirmó que por primera vez siente que puede preguntar “casi cualquier” cuestión científica o técnica difícil y recibir una respuesta útil. No lo presentó como sustitución del criterio humano, sino como capacidad de acelerar la exploración de hipótesis, el repaso de literatura y la generación de alternativas.
Ese optimismo tiene un contexto que va más allá de una entrevista. OpenAI ha publicado recientemente un documento con estudios de caso sobre cómo GPT-5 puede acelerar tareas de investigación en matemáticas, física, biología o ciencia de materiales, siempre bajo supervisión experta y con verificación posterior. En esa recopilación aparece un dato que ilustra el planteamiento de “aceleración” más que el de “automatización”.
En un caso de biología, el sistema ayudó a identificar un mecanismo probable en minutos a partir de un gráfico no publicado y a proponer un experimento que después se validó. En otro, contribuyó con una idea que permitió completar una demostración ligada a un problema abierto durante décadas. La propia compañía subraya límites y riesgos, desde errores confiados hasta atribución imperfecta y necesidad de contrastar con métodos estándar.
El debate, por tanto, se desplaza. Ya no es solo si la IA “sabe” o “no sabe”, sino en qué tramo del proceso científico aporta valor y a qué coste. OpenAI cita una encuesta reciente en la que un 60% de estadounidenses considera que los avances científicos y médicos llegan “demasiado despacio”, un 73% cree que hacen falta mejores vías para acelerar los descubrimientos y un 69% identifica el liderazgo científico como prioridad nacional. Es un marco social que explica por qué el argumento de Altman se formula como productividad y como “compresión” de tiempos de investigación.
Queda, además, la parte menos visible y más determinante. Un modelo puede proponer ideas, pero el “descubrimiento” exige un circuito completo de validación, desde datos y reproducibilidad hasta revisión por pares, protocolos de laboratorio y, a menudo, instrumentación costosa. Si la IA se convierte en un acelerador de hipótesis, también acelera el volumen de pruebas necesarias y, con ello, la demanda de capacidad de cómputo e infraestructuras. La promesa de un salto científico en dos años no depende solo de la calidad de los modelos, también de que exista un “ecosistema” capaz de confirmar resultados sin que el sistema se desborde por su propia velocidad.












