DeepSpeech 0.6 es la herramienta de código abierto Mozilla que se utiliza para desarrollar asistentes virtuales inteligentes, entre sus novedades está la integración con Tensor Flow para traducciones más rápidas en tiempo real.

El Grupo de Machine Learning de Mozilla, presentó las actualizaciones de DeepSpeech con traducciones de texto a voz y de voz a texto que podrán realizarse en 260 milisegundos, luego de finalizar el audio, es decir, un 73% más rápido que antes de aplicar el decodificador de transmisión.

Reuben Morais, ingeniero de investigación senior, aseguró que DeepSpeech 0.6 es mucho más eficiente, ya que su decodificador de transmisión permite una baja latencia consistente.

Asimismo, el modelo de traducción en inglés es mucho más rápido, según la publicación y también obtuvo mejores en cuanto a su tamaño, ya que se redujo a 3,7 MB, luego de los 98 MB con los que contaba anteriormente.

La última versión de DeepSpeech agrega soporte para TensorFlow Lite, lo cual permite que se implemente en dispositivos móviles como Android, así como una serie de restricciones informáticas.

TensorFlow Lite, modelos más pequeños, tiempos de arranque más rápidos

TensorFlow Lite, es una versión ligera del kit de desarrollo deaprendizaje automático TensorFlow de Google queofrece a DeepSpeech características ideales para dispositivos móviles:

Esto ha reducido el tamaño del paquete DeepSpeech de 98 MB a 3.7 MB. Ha reducido el tamaño de nuestro modelo en inglés de 188 MB a 47 MB.

DeepSpeech v0.6 con TensorFlow Lite se ejecuta más rápido que en tiempo real en un solo núcleo de una Raspberry Pi 4.

Mozila afirma que el nuevo decodificador permite exponer la metadata de tiempo en la API, así como un conjunto extendido de nuevas funciones.

DeepSpeech también ofrece soporte para Windows, con enlaces a .NET y Python, JavaScript y C. Esta reciente versión de DeepSpeech se encuentra disponible para Windows, macOS, y Linux, así como para Android.