Ant Financial Science and Technology en el Foro Zhongguancun: La eficiencia del Token será el indicador clave para medir el valor de la IA empresarial

robot
Generación de resúmenes en curso

La avalancha de agentes inteligentes de ejecución autónoma, representados por OpenClaw, marca una evolución acelerada de las aplicaciones de IA desde la “interacción mediante chat” hacia la “ejecución de tareas”. Las empresas, mientras aceleran su adopción, también se enfrentan a múltiples desafíos como el desperdicio de capacidad de cómputo y la conformidad de seguridad. Cómo lograr que los agentes inteligentes realmente se materialicen de forma escalable y sostenible se ha convertido en el tema central que preocupa a la industria.

El 26 de marzo, en el Foro de Innovación y Desarrollo de la Industria Futura de Zhongguancun, Zhang Peng, gerente general del Departamento de Innovación Tecnológica de Modelos de gran escala de Ant Numérica, señaló en su intervención que el auge de OpenClaw traerá una revolución del paradigma de la IA a nivel empresarial, impulsando el aterrizaje de los modelos de gran escala en escenarios industriales desde la “competencia por parámetros” hacia la “competencia por la eficacia de los Tokens”.

Zhang Peng, gerente general del Departamento de Innovación Tecnológica de Modelos de gran escala de Ant Numérica, en su intervención en el Foro de Zhongguancun

La rápida popularización de agentes inteligentes tipo OpenClaw refleja la demanda del mercado de agentes de ejecución autónoma, pero en entornos industriales reales su implementación enfrenta desafíos considerables: debido a la falta de una comprensión profunda de las reglas del sector y de los procesos de negocio, al ejecutar tareas complejas los agentes suelen recurrir repetidamente a herramientas, lo que hace que el consumo de Tokens sea mucho mayor que la producción efectiva. Según se informa, en algunos escenarios de llamadas de alta frecuencia, el costo del consumo de Tokens de OpenClaw puede llegar a decenas de veces e incluso a cien veces el costo de un Agent integrado. Este modelo de alta inversión y baja producción lo enfrenta a un problema de sostenibilidad en aplicaciones industriales a escala.

“En la segunda mitad del aterrizaje de la industria de los modelos de gran escala, el enunciado central no es la competencia por el tamaño de los parámetros del modelo, sino la mejora continua de la eficacia de los Tokens por unidad.” Zhang Peng considera que las empresas deben, junto con escenarios y necesidades reales, elegir soluciones de IA que combinen modelos grandes y pequeños, para lograr mayor valor de negocio con un menor costo de capacidad de cómputo.

Tomando como ejemplo el ámbito financiero, cada día se deben gestionar enormes cantidades de tareas de alta frecuencia y baja latencia: reconocimiento rápido de intenciones, extracción de información clave, búsqueda y ordenamiento, etc. Estas tareas exigen alta concurrencia, respuesta rápida y alta precisión. Los modelos de gran escala de inferencia tradicionales tienen capacidades fuertes, pero en estos escenarios es como “matar gallina con cuchillo de carnicero”: el costo es elevado, la respuesta es lenta y se desperdician recursos.

“Lo que la industria necesita de verdad es, bajo la premisa de asegurar la profesionalidad, la rigurosidad y el cumplimiento, implementar soluciones de IA con la mejor relación costo-beneficio y velocidad de respuesta.” Zhang Peng señaló. Él cree que los modelos de grandes parámetros rinden mejor en razonamiento complejo y análisis profundo, mientras que los modelos de pocos parámetros, en escenarios de alta frecuencia y tareas pequeñas, tienen menor latencia y mejor relación costo-beneficio. La industria necesita una estrategia que combine modelos grandes y pequeños para resolver de manera más eficiente y con menor costo los problemas de escenarios reales.

En el Foro de Zhongguancun, Ant Numérica publicó el modelo financiero especializado y liviano Ling-DT-Fin-Mini-2.5, que es la primera variante del modelo de la serie de modelos Ling DT. Según la presentación, Ling DT Fin Mini 2.5 es un modelo liviano MoE, basado en la arquitectura de atención lineal híbrida más reciente de Ling 2.5, optimizada para escenarios de tareas en finanzas con alta concurrencia y baja latencia. Al mantener la profundidad profesional, puede comprimir los costos de inferencia hasta un nivel apto para despliegues a escala. En comparación con los modelos generales líderes de la industria con capacidades equivalentes, su velocidad de inferencia es 100% más rápida; y el costo de hardware para procesar la misma cantidad de tareas se reduce de forma significativa, aportando a las instituciones financieras un valor tangible de reducción de costos y mejora de la eficiencia.

De hecho, cuando los agentes inteligentes de IA aceleran su penetración en escenarios centrales de la industria y ejecutan tareas reales, combinar modelos grandes y pequeños ya se ha convertido en una tendencia del sector. Recientemente, OpenAI lanzó sucesivamente dos modelos pequeños, GPT‑5.4 mini y nano, con enfoque en baja latencia y alta relación costo-beneficio, como fuerza principal de los sub-agentes en la capa de ejecución.

Zhang Peng señaló que el desarrollo tecnológico finalmente debe volver a los requisitos racionales de la industria en cuanto a eficiencia. En la próxima etapa de la competencia, la eficacia de los Tokens se convertirá en el indicador central para medir el valor de la IA a nivel empresarial. Ant Numérica seguirá profundizando en la AGI a nivel empresarial y lanzará aún más el Ling DT de edición empresarial “Bai Ling” y sus versiones por industria, acelerando el despliegue a escala de agentes inteligentes en escenarios empresariales complejos.

Noticias masivas y análisis precisos, todo en la app de Sina Finance

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado