Karpathy 30/04 en Sequoia Ascent resume la explicación más útil de AI de este año, comprimiéndola en tres argumentos. Después de leerlo, tu forma de ver la IA cambiará.


1. La IA no es solo "más rápida", es un nuevo paradigma
En los últimos 2 años todos han hablado de que la IA acelera las cosas.
Karpathy dice que esto es una interpretación errónea.
Da 3 ejemplos de cómo la IA redefine tareas:
- menugen: entrada y salida de imágenes, sin código tradicional, toda la app es absorbida por LLM
- habilidades .md: no escribir scripts .sh para instalar software, sino redactar una explicación en chino/inglés para que el LLM entienda tu entorno y lo instale
- base de conocimientos LLM: cosas que el código tradicional no puede hacer—convertir texto no estructurado en conocimiento computable
La primera categoría es "reducir código", la segunda es "usar inglés como código",
la tercera es "cosas que el código tradicional simplemente no puede hacer".
2. Borde dentado — por qué la IA es a la vez omnipotente y tonta
El argumento más central.
¿Por qué un mismo AI puede refactorizar 100,000 líneas de código,
y sugerirte que vayas a lavar el coche? No es que el modelo esté fallando.
Palabra de Karpathy:
"You're either on the rails of the RL circuits and flying,
or off-roading in the jungle with a machete."
O estás volando dentro de los círculos entrenados con RL,
o estás macheteando en la jungla.
Los dos factores que determinan qué tareas entran en la distribución de entrenamiento:
verifiability (resultados verificables) + economics (vale la pena, frontera de inversión de frontier labs en RL)
Competencias matemáticas / programación / demostración de teoremas:
Alta verificabilidad + alto TAM → entran en el círculo → cuando los usas, estás volando
Tareas cotidianas / lenguas minoritarias / tareas de cola larga:
bajo TAM → no entraron en RL → macheteando en la jungla
No es una narrativa lineal de "la IA se vuelve más fuerte".
Es una frontera desigual, debes saber en qué lado estás.
3. Economía nativa de agentes
El último argumento: el software del futuro se descompone en
sensor (entrada) + actuador (ejecución) + lógica (razonamiento)
La capa lógica corre toda en LLM,
sensor/actuador usan código tradicional como coprocesadores.
Implica: hacer la información lo más legible posible para el LLM,
es la restricción central en el diseño de software que viene.
---
Los tres argumentos conforman un marco coherente:
El nuevo paradigma te permite ver cosas que antes no podía hacer la IA,
el borde dentado te ayuda a identificar dónde la IA no puede llegar,
la economía nativa de agentes te muestra cómo envolver lo que queda para la IA.
No es "la IA se vuelve más fuerte".
Es "qué tareas están en el círculo, qué tareas en la jungla".
Ver original
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado