Google ha publicado varias actualizaciones para su plataforma Cloud AI, cuyo objetivo es hacerla "más rápida y flexible" para ejecutar cargas de trabajo de aprendizaje automático.

Cloud AI Platform es la plataforma como servicio de aprendizaje automático de Google (ML PaaS) diseñada para desarrolladores de IA, ingenieros y científicos de datos. La plataforma es de extremo a extremo y admite el ciclo de desarrollo completo, desde la preparación de datos hasta la capacitación, hasta la construcción y la implementación de modelos de aprendizaje automático.

Entre las adiciones más notables a la plataforma está el soporte para GPU Nvidia. Como explica Google, “los modelos ML son tan complejos que solo funcionan con latencia aceptable en máquinas con muchas CPU, o con aceleradores como GPU NVIDIA. Esto es especialmente cierto en el caso de modelos que procesan datos no estructurados como imágenes, video o texto ".

Anteriormente, Cloud AI Platform solo admitía una vCPU y 2GB de RAM. Ahora puede agregar GPU, como NVIDIA T4 de baja latencia optimizada por inferencia, para la predicción de la plataforma AI. El nivel básico agrega soporte para hasta cuatro vCPU.

Conservation International, una organización con sede en Washington que tiene la misión de "cuidar responsablemente y de forma sostenible la naturaleza, nuestra biodiversidad global, el bienestar de la humanidad", está utilizando AI Prediction para un proyecto colaborativo llamado Wildlife Insights.

"Wildlife Insights convertirá millones de imágenes de vida silvestre en puntos de datos críticos que nos ayudarán a comprender, proteger y salvar mejor a las poblaciones de vida silvestre en todo el mundo", explica Eric H. Fegraus, Director Senior, Tecnología de Conservación.

"La plataforma AI de Google Cloud nos ayuda a servir de manera confiable los modelos de aprendizaje automático e integrar fácilmente sus predicciones con nuestra aplicación. Las predicciones rápidas, en un entorno de hardware de GPU sensible y escalable, son fundamentales para nuestra experiencia de usuario ".

La compatibilidad para ejecutar contenedores personalizados en los que entrenar modelos también se ha generalizado. Los usuarios pueden suministrar sus propias imágenes Docker con un marco ML preinstalado para ejecutarse en la Plataforma AI. Los desarrolladores pueden probar las imágenes del contenedor localmente antes de implementarlas en la nube.

Los clientes que deseen utilizar la plataforma para inferencia (hospedar un modelo entrenado que responda con predicciones) ahora pueden hacerlo. Los modelos de aprendizaje automático se pueden alojar con Google Cloud AI Platform y AI Platform Prediction se puede usar para inferir valores objetivo para obtener nuevos datos.

Ah, y la predicción de la plataforma AI ahora se basa en Kubernetes, lo que permitió a Google "construir un sistema de servicio rápido y confiable con toda la flexibilidad que exige el aprendizaje automático".

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.






Dejar respuesta

Please enter your comment!
Please enter your name here