LiteRT (abreviação de Lite Runtime) é o novo nome do TensorFlow Lite (TFLite). Embora o nome seja novo, ainda é o mesmo tempo de execução confiável e de alto desempenho para IA no dispositivo, agora com uma visão ampliada.
Desde sua estreia em 2017, o TFLite permitiu que os desenvolvedores levassem experiências baseadas em ML para mais de 100 mil apps executados em 2,7 bilhões de dispositivos. Mais recentemente, o TFLite se expandiu para além de suas raízes do TensorFlow para dar suporte a modelos criados em PyTorch, JAX e Keras com o mesmo desempenho líder. O nome LiteRT captura essa visão multiframework para o futuro, permitindo que os desenvolvedores comecem com qualquer framework popular e executem modelos no dispositivo com desempenho excepcional.
O LiteRT, parte do pacote de ferramentas do Google AI Edge, é o ambiente de execução que permite implantar modelos de ML e IA em dispositivos Android, iOS e incorporados com perfeição. Com as robustas ferramentas de conversão e otimização de modelos do AI Edge, você pode preparar modelos personalizados e de código aberto para desenvolvimento no dispositivo.
Essa mudança será lançada progressivamente. A partir de hoje, você verá o nome LiteRT refletido na documentação do desenvolvedor, que será transferida para ai.google.dev/edge/litert, e em outras referências no site do AI Edge. A documentação em tensorflow.org/lite agora faz o redirecionamento para as páginas correspondentes em ai.google.dev/edge/litert.
A marca TensorFlow principal não será afetada, nem os apps que já usam o TensorFlow Lite.
Nossa meta é que essa mudança seja minimamente disruptiva e exija o mínimo possível de mudanças de código pelos desenvolvedores.
Se você usa o TensorFlow Lite por meio de pacotes, precisará atualizar todas as dependências para usar o novo LiteRT a partir do Maven, do PyPi e do Cocoapods.
Se você usa o TensorFlow Lite por meio do Google Play Services, nenhuma mudança é necessária.
Se você faz o build do TensorFlow Lite a partir da origem, continue fazendo isso a partir do repositório do TensorFlow até que o código seja totalmente transferido para o novo repositório do LiteRT, ainda este ano.
1. O que está mudando além do novo nome, LiteRT?
Por enquanto, a única mudança é o novo nome, LiteRT. Seus apps de produção não serão afetados. Com um novo nome e uma visão atualizada, mais atualizações serão feitas em breve no LiteRT para melhorar a maneira como você implanta modelos clássicos de ML, LLMs e modelos de difusão com aceleração de GPU e NPU em todas as plataformas.
2. O que vai acontecer com a Biblioteca de Suporte do TensorFlow Lite (incluindo as tarefas do TensorFlow Lite)?
A Biblioteca de Suporte do TensorFlow Lite e as tarefas do TensorFlow Lite permanecerão no repositório /tensorflow por enquanto. Encorajamos você a usar as tarefas do MediaPipe para desenvolvimento futuro.
3. O que vai acontecer com o TensorFlow Lite Model Maker?
Você pode continuar acessando o TFLite Model Maker em https://pypi.org/project/tflite-model-maker/.
4. E se eu quiser contribuir com código?
Por enquanto, contribua com o código para o repositório existente do TensorFlow Lite. Faremos um anúncio separado quando estivermos prontos para contribuições para o repositório do LiteRT.
5. O que vai acontecer com o formato e a extensão de arquivo .tflite?
Nenhuma mudança será feita no formato ou na extensão de arquivo .tflite. As ferramentas de conversão continuarão fazendo a saída de arquivos flatbuffer .tflite, e os arquivos .tflite serão legíveis pelo LiteRT.
6. Como faço para converter modelos para o formato .tflite?
Para o Tensorflow, o Keras e o Jax, você pode continuar usando os mesmos fluxos. Para o suporte ao PyTorch, confira ai-edge-torch.
7. Haverá alguma mudança em classes e métodos?
Não. Por enquanto, além dos nomes dos pacotes, você não precisará modificar nenhum código que já tenha escrito.
8. Haverá alguma mudança no TensorFlow.js?
Não. O TensorFlow.js continuará funcionando de maneira independente como parte da base de código do Tensorflow.
9. Meu app de produção usa o TensorFlow Lite. Ele será afetado?
Os apps que já tenham implantado o TensorFlow Lite não serão afetados. Isso inclui apps que acessam o TensorFlow Lite por meio do Google Play Services. (O TFLite é compilado nos apps no tempo de compilação, portanto, uma vez implantados, os apps não têm nenhuma dependência.)
10. Por que “LiteRT”?
“LiteRT” (abreviação de Lite Runtime) reflete o legado do TensorFlow Lite, um tempo de execução “leve” pioneiro no dispositivo, além do compromisso do Google em oferecer suporte o próspero ecossistema multi-framework de hoje.
11. O TensorFlow Lite ainda está sendo desenvolvido ativamente?
Sim, mas sob o nome LiteRT. O desenvolvimento ativo continuará no ambiente de execução (agora chamado LiteRT), bem como nas ferramentas de conversão e otimização. Para garantir que você esteja usando a versão mais atualizada do ambiente de execução, use o LiteRT.
12. Onde posso ver exemplos do LiteRT na prática?
Você pode encontrar exemplos para Python, Android e iOS no repositório oficial de amostras do LiteRT.
Estamos muito empolgados com o futuro do ML no dispositivo e comprometidos com nossa visão de fazer do LiteRT o ambiente de execução mais fácil de usar e de maior desempenho para uma ampla variedade de modelos.