No te esfuerces tanto, IA: pensar más tiempo reduce su inteligencia, según Anthropic
- Maximiliano Poter

- 28 jul
- 1 Min. de lectura
La compañía detrás de los modelos Claude identificó un fenómeno preocupante en la evolución de los sistemas de inteligencia artificial: cuanto más largo es su encadenamiento de pensamiento (“chain‑of‑thought”) peor pueden volverse sus respuestas.

En un estudio reciente, los investigadores de Anthropic pusieron a prueba la “fidelidad” (faithfulness) del CoT: esto es, si lo que el modelo explica corresponde realmente a su proceso interno de razonamiento. Para ello, adoptaron un método simple pero revelador: dieron “pistas” (hints) a los modelos Claude 3.7 Sonnet y DeepSeek‑R1, tanto correctas como incorrectas, y evaluaron si... Leer más >>



