En una reciente aparición durante el evento Code with Claude en San Francisco, Dario Amodei, CEO de Anthropic, hizo una declaración que no pasó desapercibida: “Depende mucho de cómo se mida, pero sospecho que los modelos de IA probablemente alucinan menos que los humanos, aunque lo hacen de formas más sorprendentes”, afirmó Amodei
El término «alucinación», en el contexto de la IA, se refiere a cuando un modelo inventa información y la presenta como si fuera cierta. Aunque es uno de los defectos más señalados en los modelos generativos, Amodei no lo considera una barrera relevante en el desarrollo de la llamada inteligencia artificial general. Para él, el sector progresa de forma constante hacia ese hito, y no existe ningún límite técnico que impida su consecución: “La gente siempre está buscando esos bloqueos definitivos para lo que la IA puede hacer. No existen.».
Esta visión, sin embargo, no es unánime en la industria. Demis Hassabis, CEO de Google DeepMind, expresó recientemente que los modelos actuales presentan aún “demasiados agujeros”, fallando incluso en tareas elementales.
El debate sobre cuán confiables son estos sistemas sigue abierto. Comparar sus errores con los de los humanos no resulta fácil, ya que los métodos actuales suelen centrarse en medir el desempeño entre modelos, no frente a criterios humanos. Aun así, algunos avances parecen haber reducido la tasa de alucinaciones. Modelos como GPT-4.5 de OpenAI han mostrado mejoras notables, sobre todo cuando se combinan con herramientas externas como navegadores web.
No obstante, estudios recientes apuntan a una paradoja: versiones más avanzadas, como o3 y o4-mini de OpenAI, registran más alucinaciones que generaciones anteriores. La empresa reconoce que aún no entiende del todo por qué ocurre este fenómeno.
¿Puede una IA ser ‘general’ si aún se equivoca?
Amodei también subrayó que equivocarse no debería verse como sinónimo de estupidez. “Presentadores de televisión, políticos y profesionales de todo tipo cometen errores constantemente”, recordó. Aun así, sí admitió que la forma en que la IA afirma falsedades con absoluta seguridad representa un reto crítico.
La postura de Amodei deja claro que para Anthropic, una IA con inteligencia general podría seguir cometiendo errores, siempre y cuando su rendimiento global supere al de las personas. Una idea que, sin duda, seguirá alimentando el debate sobre los límites éticos y técnicos del desarrollo artificial.
La imagen utilizada fue publicada originalmente en Flickr por TechCrunch en https://flickr.com/photos/52522100@N07/53202070940. Fue revisada el 16 de mayo de 2024 por FlickreviewR 2 y se confirmó que tiene licencia cc-by-2.0.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.