Edge AI / Modelos de IA in situ para aplicaciones sensibles

Muchas organizaciones quieren integrar la IA en su producto o en sus procesos internos, pero sin sacrificar la privacidad de los datos. Para estas organizaciones, la solución es descargar y desplegar modelos de IA en sus propios servidores en lugar de enviar sus datos a la nube. En este artículo vamos a hablar de esta estrategia on-premise (también conocida como "edge AI").

On-Premise AI

¿Qué significa informática local/de borde?

La computación local o de borde se refiere a la práctica de procesar y almacenar datos más cerca de su fuente, en lugar de enviarlos a una infraestructura centralizada en la nube. En este enfoque, los recursos informáticos se sitúan cerca de los sistemas que envían los datos.

En otras palabras, on-premise y edge computing son expresiones de moda que describen el hecho de que una aplicación se despliega en sus propios servidores en lugar de utilizar un servicio externo en la nube como una API SaaS.

Hay dos situaciones que pueden considerarse locales: o bien tienes tus propias máquinas alojadas en tus propias instalaciones, o bien recurres a un proveedor en la nube como AWS, GCP, Azure... Estrictamente hablando, este último escenario es menos "local" porque no se tiene control sobre el servidor subyacente, pero en general ambos pueden considerarse como soluciones válidas locales.

¿Por qué son importantes la IA local y la IA periférica?

La computación local o de borde ofrece varias ventajas. En primer lugar, la computación local o de borde mejora drásticamente la privacidad y la seguridad de los datos al mantener la información sensible más cerca de la fuente, reducir el riesgo de acceso no autorizado o de violación de datos durante el transporte a la nube e impedir que los actores de la nube aprovechen sus datos para fines no deseados. También ayuda a las organizaciones a cumplir las normativas y leyes sobre datos que exigen el almacenamiento y procesamiento local.

Además, reduce la latencia, ya que los datos no tienen que recorrer largas distancias para llegar a la nube, lo que permite un procesamiento más rápido y análisis en tiempo real. Además, minimiza la dependencia de la conectividad de red, garantizando que las operaciones puedan continuar incluso cuando internet no sea fiable o esté interrumpida.

La IA es una muy buena candidata in situ.

La primera razón es que las organizaciones tienden a enviar datos extremadamente sensibles a los modelos de IA. Esto es especialmente cierto en campos críticos como las aplicaciones médicas, financieras,... Pero no solo.

La segunda razón es que los actores de la IA en el mercado actual tienden a reutilizar los datos de los clientes para su propio negocio. OpenAI es un buen ejemplo: por ejemplo, cuando las organizaciones envían datos a ChatGPT, los datos se examinan y OpenAI puede reutilizarlos para entrenar sus propios modelos de IA. Las preocupaciones sobre privacidad de ChatGPT y GPT-4 son cuestiones centrales que llevan a muchas organizaciones a centrarse en estrategias on-premise.

¿Cómo implantar modelos de IA in situ o en el perímetro?

El despliegue de modelos de IA in situ implica la creación de la infraestructura para alojar, gestionar y servir el modelo de IA dentro del propio centro de datos o infraestructura gestionada de una organización, en lugar de en la nube.

A continuación se indican algunos pasos habituales en la implantación de un modelo de IA in situ:

Estos pasos pueden simplificarse confiando en un proveedor especializado como NLP Cloud para su modelo de IA local. Por ejemplo, en lo que respecta a NLP Cloud, obtendría acceso a una imagen Docker que contiene un modelo de IA listo para usar, optimizado para la inferencia.

Computación local / Edge Computing VS Cloud Computing: Ventajas e inconvenientes

La computación local o de borde tiene limitaciones. Los recursos informáticos disponibles en el perímetro suelen ser limitados en comparación con la infraestructura de nube, lo que puede restringir la complejidad de las aplicaciones que pueden desplegarse. Además, el mantenimiento y la gestión de los recursos informáticos distribuidos en varias ubicaciones puede resultar complicado y requerir inversiones adicionales en infraestructura y conocimientos informáticos.

En general, una estrategia de este tipo es más costosa que confiar en una oferta SaaS gestionada como OpenAI, Anthropic, NLP Cloud...

Por último, la privacidad de los datos sólo está garantizada si la infraestructura local subyacente está correctamente protegida.

Conclusión

La IA en las instalaciones y en los bordes se está disparando ahora que la IA está ganando terreno gradualmente entre las organizaciones.

Esta tendencia es comprensible: La IA se utiliza en todo tipo de aplicaciones críticas que tienen fuertes requisitos de privacidad y -por diseño- los actores estándar de la nube no pueden cumplir estos requisitos.

Si está interesado en una estrategia de este tipo para su proyecto de IA, póngase en contacto con nosotros para que podamos asesorarle: [email protected]

Maxime
Responsable de Asociaciones Estratégicas en NLP Cloud