TensorFlow Lite ahora es LiteRT

SEP 04, 2024

LiteRT es el nuevo nombre de TensorFlow Lite (TFLite). Si bien tiene un nuevo nombre, sigue siendo el mismo entorno de ejecución confiable y de alto rendimiento para IA integrado en el dispositivo, y ahora cuenta con una visión ampliada.

Desde su debut en 2017, TFLite permite a los desarrolladores llevar experiencias basadas en aprendizaje automático a más de 100,000 apps que se ejecutan en 2,700 millones de dispositivos. En los últimos tiempos, TFLite se expandió más allá de TensorFlow y ahora es compatible con modelos creados en PyTorch, JAX y Keras, con el mismo rendimiento líder. El nombre LiteRT captura esta visión de múltiples marcos de trabajo para el futuro: permitir a los desarrolladores comenzar con cualquier marco de trabajo popular y ejecutar sus modelos en el dispositivo con un rendimiento excepcional.

LiteRT, que forma parte del conjunto de herramientas de Google AI Edge, es el entorno de ejecución que te permite implementar sin problemas modelos de AA e IA en Android, iOS y dispositivos integrados. Con las sólidas herramientas de conversión y optimización de modelos de AI Edge, puedes preparar modelos de código abierto y personalizados para desarrollar en el dispositivo.

Lite-RT-feature

Este cambio se implementará progresivamente. A partir de hoy, verás el nombre LiteRT reflejado en la documentación para desarrolladores, que se trasladará a ai.google.dev/edge/litert, y en otras referencias en el sitio web de AI Edge. La documentación incluida en tensorflow.org/lite ahora redirige a las páginas correspondientes en ai.google.dev/edge/litert.

La marca principal de TensorFlow no se verá afectada, ni las apps que ya utilizan TensorFlow Lite.


Cómo acceder a LiteRT

Nuestro objetivo es que este cambio interrumpa lo mínimo posible y que requiera a los desarrolladores la menor cantidad posible de cambios de código.

Si estás usando TensorFlow Lite a través de paquetes, deberás actualizar las dependencias para utilizar el nuevo LiteRT desde Maven, PyPi y Cocoapods.

Si estás usando TensorFlow Lite a través de los Servicios de Google Play, no es necesario realizar ningún cambio en este momento.

Si estás compilando TensorFlow Lite desde la fuente, continúa compilando desde el repositorio de TensorFlow hasta que el código se haya trasladado por completo al nuevo repositorio de LiteRT, más adelante este año.


Preguntas frecuentes


1. ¿Qué cambiará, aparte del nombre, LiteRT?

Por ahora, el único cambio es el nuevo nombre, LiteRT. Tus apps de producción no se verán afectadas. Con un nuevo nombre y una visión renovada, podrás buscar más actualizaciones en LiteRT y mejorar la forma en que implementas los modelos clásicos de AA, LLM y modelos de difusión con aceleración de GPU y NPU en todas las plataformas.


2. ¿Qué pasará con la biblioteca de compatibilidad de TensorFlow Lite (incluidas las tareas de TensorFlow Lite)?

La biblioteca de compatibilidad de TensorFlow Lite y las tareas de TensorFlow Lite permanecerán en el repositorio /tensorflow por el momento. Te recomendamos que utilices las tareas de MediaPipe para el desarrollo en el futuro.


3. ¿Qué pasará con TensorFlow Lite Model Maker?

Puedes seguir accediendo a TFLite Model Maker a través de https://pypi.org/project/tflite-model-maker/.


4. ¿Qué pasa si quiero aportar mi propio código?

Por ahora, puedes aportar con código al repositorio actual de TensorFlow Lite. Haremos un anuncio por separado cuando tengamos todo listo para que puedas aportar código al repositorio LiteRT.


5. ¿Qué pasará con la extensión y el formato de archivo .tflite?

No se realizarán cambios en la extensión o el formato de archivo .tflite. Las herramientas de conversión seguirán generando archivos FlatBuffer .tflite, y LiteRT podrá leer los archivos .tflite.


6. ¿Cómo convierto modelos al formato .tflite?
En el caso de Tensorflow, Keras y Jax, puedes continuar usando los mismos flujos. Para obtener asistencia sobre PyTorch, consulta ai-edge-torch.


7. ¿Habrá algún cambio en las clases y los métodos?
No. Por ahora, aparte de los nombres de los paquetes, no tendrás que cambiar ningún código que hayas escrito.


8. ¿Habrá algún cambio en TensorFlow.js?
No, TensorFlow.js continuará funcionando de forma independiente como parte de la base de código de Tensorflow.


9. Mi app de producción usa TensorFlow Lite. ¿Se verá afectada?
Las apps que ya implementaron TensorFlow Lite no se verán afectadas. Entre estas, se incluyen las apps que acceden a TensorFlow Lite a través de los Servicios de Google Play. (TFLite se compila en las apps durante el tiempo de compilación, por lo que una vez que se implementan, las apps no tienen dependencia).


10. ¿Por qué “LiteRT”?
“LiteRT” refleja el legado de TensorFlow Lite, un entorno de ejecución en el dispositivo “lite” pionero. A su vez, representa el compromiso de Google de apoyar el próspero ecosistema actual de marcos de trabajo múltiples.


11. ¿TensorFlow Lite todavía se está desarrollando de manera activa?
Sí, pero bajo el nombre LiteRT. El desarrollo activo continuará en el entorno de ejecución (ahora llamado LiteRT), así como en las herramientas de conversión y optimización. Para asegurarte de estar utilizando la versión más actualizada del entorno de ejecución, usa LiteRT.


12. ¿Dónde puedo ver ejemplos de LiteRT en uso?

Puedes ver ejemplos para Python, Android e iOS en el repositorio de muestras oficial de LiteRT.


Nos entusiasma ver qué pasará en el futuro con el aprendizaje automático en el dispositivo y nos comprometemos con nuestra visión de hacer de LiteRT el entorno de ejecución más fácil de usar y de mayor rendimiento para una amplia gama de modelos.