Tether lanza el primer «marco de entrenamiento de IA a nivel de mil millones» para dispositivos móviles a nivel mundial, compatible con iPhone y Samsung para ejecutar LoRA

Tether, a compañía de datos y AI, anunció el 17 de marzo un avance tecnológico importante, lanzando la primera framework de ajuste fino LoRA multiplataforma que soporta la arquitectura BitNet (LLM de 1-bit) de Microsoft. Esta tecnología, integrada en QVAC Fabric, reduce significativamente los requisitos de memoria y cálculo, permitiendo que modelos de mil millones de parámetros ya no sean exclusividad de GPUs empresariales, logrando entrenamientos «locales y con total privacidad» en teléfonos móviles y laptops comunes.
(Resumen previo: Tether invierte en Axiym para ampliar su infraestructura de pagos: impulsa la integración de USDT en redes de pago globales y regulatorias)
(Información adicional: ¡Tether invierte en tecnología de sueño con IA! Lidera una inversión de 50 millones de dólares en Eight Sleep, valorada en 1.5 mil millones de dólares)

Índice del artículo

Toggle

  • La magia de la arquitectura de 1-bit: «maximizar el rendimiento del móvil con recursos limitados»
  • Datos de pruebas reales: velocidad sorprendente en Samsung S25 y iPhone 16
  • Adiós a las claves API, crea un AI personal 100% privado

En el campo de la inteligencia artificial (IA), entrenar modelos potentes siempre ha sido considerado un proceso «costoso», altamente dependiente de costosos sistemas NVIDIA o de la computación en la nube. Sin embargo, el gigante de las stablecoins, Tether, intenta cambiar esta regla con tecnología propia. El departamento técnico de Tether, «Tether Data», anunció el 17 de marzo el lanzamiento del primer framework multiplataforma de ajuste fino LoRA para su plataforma QVAC (QuantumVerse Automatic Computer).

El valor central de esta tecnología radica en que permite que modelos de IA con «mil millones de parámetros» puedan aprender de manera personalizada directamente en cada teléfono móvil.

La magia de la arquitectura de 1-bit: «maximizar el rendimiento del móvil con recursos limitados»

Este avance se basa en la arquitectura BitNet 1-bit LLM de Microsoft. Gracias a la optimización en QVAC Fabric, el uso de memoria y la carga computacional de los modelos BitNet se reducen a niveles extremadamente bajos. Según el anuncio, este framework no solo soporta GPUs NVIDIA comunes, sino que también es compatible con chips Intel, AMD, Apple M-series y GPUs móviles como Adreno (Android), Mali y Bionic de Apple.

Esto significa que la IA, que antes solo podía ejecutarse en centros de datos, ahora puede ser ajustada con LoRA en tu teléfono. Tether afirma que esta tecnología permite que dispositivos en el borde puedan manejar modelos «el doble de grandes» que los modelos cuantificados en Q4, demostrando una ventaja de memoria sin precedentes.

Datos de pruebas reales: velocidad sorprendente en Samsung S25 y iPhone 16

El equipo de Tether compartió en el anuncio datos de pruebas que muestran la capacidad práctica de esta framework en teléfonos modernos:

  • Modelo de 125 millones de parámetros: ajuste fino en un conjunto de datos de 300 documentos biomédicos en Samsung S25, en aproximadamente 10 minutos.
  • Modelo de 1 mil millones (1B) de parámetros: misma tarea de ajuste fino completada en Samsung S25 en 1 hora y 18 minutos, y en iPhone 16 en 1 hora y 45 minutos.
  • Desafío extremo: el equipo logró ejecutar y ajustar un modelo de 13 mil millones (13B) de parámetros en un iPhone 16, llevando los límites físicos de los dispositivos móviles al máximo.

Adiós a las claves API, crea un AI personal 100% privado

El CEO de Tether, Paolo Ardoino, ha enfatizado: «Si necesitas una clave API para usar IA, entonces no te pertenece realmente». La filosofía central de QVAC es «prioridad local (Local-first)».

Con el framework BitNet LoRA, los usuarios pueden hacer que su IA aprenda directamente de correos, notas y mensajes locales, sin subir ningún dato a la nube. Esto elimina las preocupaciones sobre el uso indebido de datos sensibles y rompe con la monopolización del desarrollo de IA por parte de unos pocos gigantes. Actualmente, QVAC Fabric LLM se ha lanzado como software de código abierto (licencia Apache 2.0) y se ofrecen adaptadores preconfigurados en Hugging Face, permitiendo a desarrolladores de todo el mundo comenzar de inmediato esta revolución en computación en el borde.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios