Intel® Tiber™ Secure Federated AI
Proteja los datos confidenciales y la propiedad intelectual mientras mejora la precisión del modelo.
Ahora en Versión Beta: Un Servicio de Aprendizaje Colaborativo Listo para Usar para Entrenar Modelos de IA con Datos Privados
Los desarrolladores requieren conjuntos de datos diversos y reales para crear modelos de IA sólidos y generalizables, pero las regulaciones de privacidad dificultan la obtención de conjuntos de datos basados en datos privados y confidenciales. El aprendizaje colaborativo ofrece una solución, pero la arquitectura puede ser difícil de escalar, administrar, operar e implementar.
Estos desafíos son el motivo por el cual Intel desarrolló Intel® Tiber Secure Federated AI, un servicio listo para usar diseñado para entrenar de manera segura modelos de IA con datos privados mediante el aprendizaje colaborativo.
Comience
Proteja los datos confidenciales y la propiedad intelectual mientras mejora la precisión del modelo.
Servicios de Confianza Intel® Tiber™
Conozca más sobre la cartera completa.
Póngase en Contacto con un Consultor
Inicie conversaciones con un representante de Intel para que analice la mejor implementación para sus necesidades únicas.
Beneficios del Producto
Intel® Tiber Secure Federated AI utiliza técnicas algorítmicas, de seguridad y criptografía basadas en hardware para ayudar a garantizar altos niveles de seguridad, tanto para los modelos como para los datos. Al proporcionar una implementación lista para usar de OpenFL, el servicio ofrece varias ventajas clave para nuestros clientes.
Seguridad y Privacidad Mejoradas
Implementa medidas de seguridad Zero-Trust para proteger los datos confidenciales y la propiedad intelectual del modelo.
Precisión del Modelo Mejorada
Entrene sus productos de IA con un conjunto de datos más grande y diverso para mejorar la calidad y la capacidad de generalización.
Eficiencia Operativa
Controle los costos reduciendo los esfuerzos de duplicación y redacción de datos.
Cumplimiento de Normativas
Aplique el control de acceso en torno a quién está utilizando sus datos y cómo se los está utilizando.
Desarrollar Sobre la Base de OpenFL
Intel® Tiber Secure Federated AI está desarrollada con OpenFL, un marco de trabajo de aprendizaje colaborativo de código abierto.
En lugar de enviar datos a un servidor central, el entrenamiento colaborativo permite entrenar modelos localmente en cada dispositivo, y solo se comparten y agregan las actualizaciones del modelo para mejorar el modelo general. Esto ayuda a preservar la privacidad y la seguridad de los datos, cumplir con los requisitos de soberanía de los datos y proteger la propiedad intelectual.
OpenFL ha sido ampliamente utilizado en múltiples industrias y es el único marco de aprendizaje aprobado para su uso en la Estación Espacial Internacional.
Casos de Uso
Investigación Médica Colaborativa
Proveedores de atención médica, hospitales, clínicas y empresas de investigación en salud han utilizado modelos de IA y aprendizaje automático para analizar millones de conjuntos de datos de pacientes y ayudar a comprender, predecir y prevenir mejor diversos tipos de enfermedades y dolencias.
Intel® Tiber Secure Federated AI se puede usar para entrenar modelos de IA y aprendizaje automático, lo que permite que múltiples partes contribuyan con el modelo llevando el algoritmo a los datos. Esto ayuda a mejorar los resultados clínicos, ya que los modelos de IA son más sólidos y se pueden generalizar, mientras los hospitales y clínicas mantienen el control de los datos confidenciales de los pacientes.
Descubrimiento Temprano de Medicamentos
El descubrimiento y el desarrollo de nuevas terapias es un proceso que consume muchos recursos y requiere experiencia especializada en ciertos dominios. Los modelos de aprendizaje automático generativo han surgido como herramientas poderosas para el descubrimiento de fármacos, pero su desempeño y su capacidad de generalización dependen en gran medida de los datos que a menudo se encuentran aislados en diferentes instituciones y empresas de investigación.
Combinar estos datos podría capturar una distribución más completa y representativa, lo que conduciría a un modelo más sólido. Sin embargo, esto no es factible debido a inquietudes relacionadas con la privacidad y otras cuestiones legales, la presión competitiva y las limitaciones técnicas.
Intel® Tiber Secure Federated AI se puede usar para entrenar estos modelos sin combinar conjuntos de datos. Esto permite que las empresas colaboren de manera segura en el entrenamiento de modelos mientras se ocupan de las inquietudes sobre la privacidad de datos.
Detección de Fraude
La IA y el aprendizaje automático se utilizan cada vez más para detectar fraudes en tiempo real, pero muchos bancos pequeños y medianos no tienen el volumen de datos de transacciones necesario para entrenar un modelo de detección sólido. Múltiples bancos podrían agrupar sus datos de fraude, pero no pueden hacerlo debido a preocupaciones regulatorias.
Intel® Tiber Secure Federated AI se puede utilizar para entrenar de manera segura modelos de detección de fraude en múltiples bancos sin mover datos. Esto puede ayudar a reducir las pérdidas con una detección de fraude más precisa.
Recursos Adicionales
Preguntas frecuentes
Preguntas frecuentes
Intel® Tiber™ Secure Federated AI es un servicio listo para usar diseñado para entrenar de manera segura modelos de IA con datos privados mediante el aprendizaje colaborativo. Ayuda a garantizar que los datos siempre permanezcan bajo la custodia del propietario de los mismos, sin importar dónde estén almacenados: en las instalaciones, en la nube pública o en una nube privada. El servicio utiliza seguridad basada en hardware, métodos criptográficos y técnicas algorítmicas para ayudar a garantizar altos niveles de privacidad y seguridad, tanto para los modelos como para los datos.
El aprendizaje colaborativo (FL) es una técnica de aprendizaje automático que permite entrenar modelos de IA en múltiples dispositivos o servidores descentralizados que contienen muestras de datos locales, sin moverlos. En lugar de enviar datos a un servidor central, el entrenamiento colaborativo permite entrenar el modelo localmente en cada dispositivo, y solo se comparten y agregan las actualizaciones del modelo para mejorar el modelo general. Este método preserva cada vez más la privacidad y la seguridad de los datos, ayuda a garantizar el cumplimiento con las leyes de soberanía de los datos y ofrece protecciones mejoradas de la propiedad intelectual.
Intel® Tiber Secure Federated AI se ha desarrollado con OpenFL, un marco de trabajo de aprendizaje colaborativo de código abierto desarrollado por Intel como parte del proyecto Linux Foundation LF AI and Data. OpenFL ha sido ampliamente utilizado en industrias como la de seguros, la farmacéutica y la de atención médica, y es el único marco de aprendizaje aprobado para su uso en la Estación Espacial Internacional.
Al proporcionar una implementación lista para usar de OpenFL, Intel® Tiber Secure Federated AI ofrece dos ventajas clave para nuestros clientes:
Configuración simplificada: Proporciona un proceso de configuración fácil de usar que ayuda a reducir la complejidad y el tiempo requeridos para establecer entornos de aprendizaje colaborativos.
Características de seguridad mejoradas: Implementa medidas de seguridad Zero-Trust diseñadas para proteger los datos confidenciales y la propiedad intelectual del modelo.
Los desarrolladores de modelos requieren conjuntos de datos diversos y reales para crear modelos de IA sólidos y generalizables. Intel® Tiber Secure Federated AI está diseñada para mejorar el desarrollo de modelos con técnicas seguras que preservan la privacidad y que ayudan a las organizaciones a entrenar de manera colaborativa modelos con datos distribuidos.
Intel® Tiber Secure Federated AI está diseñada para permitir la colaboración de datos al permitir que las instituciones entrenen modelos de IA utilizando datos descentralizados, manteniendo a la vez la seguridad y la privacidad de los datos. El servicio utiliza seguridad basada en hardware (incluida la informática confidencial y la certificación de hardware y carga de trabajo), técnicas algorítmicas y métodos criptográficos diseñados para ofrecer altos niveles de privacidad y seguridad, tanto para los modelos como para los datos.
Sus datos se almacenan localmente en cada sitio de datos o institución en un sistema de IA colaborativo, donde los propietarios de los datos mantienen la custodia total de sus conjuntos de datos confidenciales sin necesidad de centralizarlos. Este enfoque descentralizado ayuda a garantizar que se mantengan la seguridad y la privacidad de sus datos, permitiendo al mismo tiempo el entrenamiento y la evaluación del modelo colaborativo.
Comuníquese con su representante de Intel para obtener más información sobre nuestro producto y el programa beta.