Apple se ha aliado con IBM para aportar las funciones de aprendizaje automático Watson de IBM al marco para aplicaciones Core ML del fabricante de dispositivos.

En su página web para desarrolladores, Apple explica que a partir de ahora éstos podrán crear aplicaciones capaces de acceder directamente a los recursos de computación de Watson desde un iPhone o un iPad, incluso mientras los dispositivos no estén conectados. La firma observa que así las aplicaciones podrán efectuar análisis rápidos de imágenes, clasificar contenido visual como escenas, rostros, colores, alimentos y otros objetos, y entrenar modelos mediante el aprendizaje automático.

A modo de ejemplo de aplicación empresarial, la citada tecnología podría utilizarse para ayudar a un técnico a identificar un componente averiado y buscar las piezas necesarias para repararlo.

Si bien el dispositivo puede llevar a cabo el procesamiento sin conexión alguna, Mahmoud Naghshineh, director general de IBM para la asociación con Apple, ha declarado a TechCrunch que en el momento de conectarse enviará los datos a la nube de Watson, con el objetivo de mejorar incesantemente los algoritmos que después utilizará el propio dispositivo para procesar el contenido.

Apple afirma que los desarrolladores podrán partir de modelos Watson ya entrenados, o bien personalizar y entrenar sus propios modelos de inteligencia artificial para que identifiquen imágenes basadas en sus necesidades específicas.

La adición de capacidades de aprendizaje automático supone una ampliación de la alianza ya existente entre Apple e IBM, que ofreció a los desarrolladores acceso a funciones de Watson tales como el procesamiento de lenguaje natural por primera vez en 2016.