El ML Kit de Google facilita la adición de inteligencia artificial a aplicaciones iOS y Android

En su conferencia de desarrolladores de E/S, Google ha presentado hoy ML Kit, un nuevo kit de desarrollo de software (SDK) para desarrolladores de aplicaciones en iOS y Android que les permite integrar en sus aplicaciones una serie de modelos de aprendizaje de máquina predefinidos proporcionados por Google. Un giro importante es que estos modelos, que admiten el reconocimiento de texto, la detección de rostros, la lectura de códigos de barras, el etiquetado de imágenes y el reconocimiento de puntos de referencia, están disponibles tanto en línea como fuera de línea, dependiendo de la disponibilidad de la red y de las preferencias del desarrollador.

En los próximos meses, Google tiene previsto ampliar la base actual de APIs disponibles con dos más: una para integrar el mismo tipo de respuestas inteligentes que probablemente conozcas de aplicaciones como Bandeja de entrada y Gmail, y una función de contorno de rostro de alta densidad para la API de detección de rostros.

El verdadero cambio de juego aquí son los modelos offline que los desarrolladores pueden integrar en sus aplicaciones y que pueden utilizar de forma gratuita. No es de extrañar que haya un compromiso. Los modelos que funcionan en el dispositivo son más pequeños y por lo tanto ofrecen un menor nivel de precisión. En la nube, ni el tamaño del modelo ni la potencia de cálculo disponible son un problema, por lo que esos modelos son más grandes y, por lo tanto, más precisos también.

Eso es más o menos lo normal en la industria. A principios de este año, Microsoft lanzó sus traducciones neurales fuera de línea, por ejemplo, que también pueden ejecutarse en línea o en el dispositivo. El intercambio es el mismo.

Brahim Elbouchikhi, director de producto del grupo de Google para inteligencia de máquinas y líder de cámara para Android, me dijo que muchos desarrolladores probablemente harán algunas de las inferencias preliminares del aprendizaje automático en el dispositivo, tal vez para ver si realmente hay un animal en una imagen, y luego pasar a la nube para detectar qué raza de perro es en realidad. Y eso tiene sentido, ya que el servicio de etiquetado de imágenes en el dispositivo cuenta con unas 400 etiquetas, mientras que el basado en la nube cuenta con más de 10.000. Para alimentar los modelos en el dispositivo, ML Kit utiliza la API de redes neuronales estándar en Android y su equivalente en el iOS de Apple.

También subrayó que se trata en gran medida de un producto multiplataforma. Después de todo, los desarrolladores no piensan en los modelos de aprendizaje automático como específicos para Android o iOS.

Para los desarrolladores que quieren ir más allá de los modelos ya entrenados, ML Kit también soporta los modelos TensorFlow Lite.

Como señala acertadamente Google, ponerse al día con el uso de la máquina de aprendizaje no es para los débiles de corazón. Este nuevo SDK, que forma parte de la marca Firebase de Google, está destinado claramente a facilitar el uso del aprendizaje automático a los desarrolladores móviles. Aunque Google Cloud ya ofrece una serie de APIs de aprendizaje de máquina similares, personalizables y con formación previa, estas no funcionan sin conexión, y la experiencia tampoco está integrada estrechamente con Firebase ni con la consola Firebase, que se está convirtiendo rápidamente en el centro de operaciones de Google para todo lo relacionado con el desarrollo móvil.

Incluso para los modelos personalizados TensorFlow Lite, Google está trabajando para comprimir los modelos a un tamaño más práctico. Por ahora, esto es sólo un experimento, pero los desarrolladores que quieran probarlo pueden registrarse aquí.

En general, argumenta Elbouchikhi, el trabajo aquí se trata de democratizar el aprendizaje automático. “Nuestra meta es hacer que el aprendizaje automático sea una herramienta más”, dijo.