Así es cómo la computación confidencial impulsará la adopción de la IA generativa

Resumen

Las organizaciones que experimentan con IA generativa en la empresa podrían considerar el uso de computación confidencial para mitigar el riesgo de fuga de datos.

La adopción de la IA generativa va en aumento. Sin embargo, muchas organizaciones se muestran reticentes a utilizar esta tecnología para generar información debido a la preocupación por la privacidad de los datos.

Uno de los ejemplos más notorios de esto ocurrió en mayo, cuando Samsung decidió limitar el uso de GPT4 después de que un empleado compartiera datos confidenciales con la plataforma.

Samsung no es la única empresa que ha tomado medidas para limitar internamente la adopción de la IA generativa, con mamuts como JP Morgan, Apple y Goldman Sachs decidiendo prohibir herramientas como ChatGPT debido a la preocupación por la fuga de datos que da lugar a violaciones de la protección de datos.

Sin embargo, tecnologías emergentes como la computación confidencial tienen el potencial de aumentar la confianza en la privacidad de las soluciones de IA generativa al permitir a las organizaciones generar conocimientos con grandes modelos lingüísticos (LLM) sin exponer datos confidenciales a terceros no autorizados.

¿Qué es la computación confidencial?

La computación confidencial es aquella en la que una organización ejecuta cargas de trabajo computacionales en una pieza de hardware dentro de un enclave de CPU denominado Entorno de Ejecución de Confianza (TEE). El TEE proporciona un entorno cifrado aislado donde los datos y el código pueden procesarse y cifrarse mientras se utilizan.

En muchos entornos empresariales, las organizaciones optan por cifrar los datos en tránsito o en reposo. Sin embargo, este enfoque implica que los datos deben cifrarse en memoria antes de que puedan ser procesados por una aplicación. Descifrar los datos de este modo los deja expuestos a terceros no autorizados, como los proveedores de servicios en la nube.

La computación confidencial aborda estas limitaciones permitiendo que el procesamiento computacional tenga lugar dentro de un TEE seguro, de modo que las aplicaciones de confianza puedan acceder a los datos y al código donde no puedan ser vistos, alterados o eliminados por entidades no autorizadas.

Si bien el mercado de la computación confidencial está en su infancia, la tecnología está creciendo rápidamente, con Markets and Markets estimando que el mercado crecerá de un valor de $ 5,3 mil millones en 2023 a $ 59,4 mil millones en 2028, con proveedores como Fortanix, Microsoft, Google Cloud, IBM, Nvidia e Intel experimentando con las capacidades de la tecnología.

Aumento de la confianza en la IA generativa

El principal valor que la computación confidencial tiene para proporcionar a las organizaciones que utilizan IA generativa es su capacidad para blindar qué datos se están procesando y cómo se están procesando como parte de un enfoque de estilo de IA confidencial.

Dentro de un TEE, el entrenamiento del modelo de IA, el ajuste fino y las tareas de inferencia pueden tener lugar en un perímetro seguro, garantizando que la información de identificación personal (PII), los datos de los clientes, la propiedad intelectual y los datos regulados permanezcan protegidos de los proveedores de la nube y otros terceros.

Para ello, la computación confidencial es una tecnología que permite a las organizaciones impulsadas por los datos proteger y refinar los datos de entrenamiento de IA in situ en la nube y en el perímetro de la red, con un riesgo mínimo de exposición externa.

Rishabh Poddar, CEO y cofundador del proveedor de computación confidencial Opaque Systems, declaró a Techopedia: “La computación confidencial puede dar a las empresas seguridad y tranquilidad a la hora de adoptar IA generativa”.

Para minimizar la probabilidad de que se produzcan filtraciones de datos al utilizar estas nuevas herramientas, la computación confidencial garantiza que los datos permanezcan cifrados de extremo a extremo durante el entrenamiento, el ajuste fino y la inferencia del modelo, garantizando así la preservación de la privacidad.

Este nivel de privacidad durante las tareas de inferencia de IA es especialmente importante para las organizaciones de sectores regulados, como las instituciones financieras, los proveedores de atención sanitaria y los departamentos del sector público, que están sujetos a estrictas normativas de protección de datos.

Verificación del cumplimiento de la informática confidencial

Además de evitar la fuga de datos, la computación confidencial también puede utilizarse para garantizar la autenticidad de los datos utilizados para entrenar una solución de IA.

Ayal Yogev, cofundador y consejero delegado del proveedor de informática confidencial Anjuna, explicó:

Además de garantizar que los datos permanezcan privados y seguros dentro de los modelos, el principal beneficio para la integridad de la IA proviene de la parte de atestación de la computación confidencial. La informática confidencial puede ayudar a validar que los propios modelos, así como los datos de entrenamiento, no han sido manipulados.

Más concretamente, las soluciones de computación confidencial proporcionan a las organizaciones una prueba de procesamiento, que puede ofrecer pruebas de la autenticidad de los modelos, mostrando cuándo y dónde se generaron los datos. Esto da a las organizaciones la capacidad de asegurarse de que el uso del modelo se produce sólo con datos autorizados y por usuarios autorizados.

Cuando las organizaciones están sujetas a requisitos de protección de datos en virtud de marcos como el GDPR, la CPRA y la HIPAA, la necesidad de realizar la diligencia debida en el uso de modelos es cada vez más importante para impulsar la adopción de esta tecnología.

Conclusión

Las organizaciones que desean experimentar con la IA generativa necesitan tener garantías de que ni los modelos de entrenamiento ni la información enviada a los LLM están abiertos a usuarios no autorizados.

En última instancia, la informática confidencial ofrece una solución para garantizar la integridad y seguridad de los modelos bajo la protección de la encriptación en uso, de modo que las organizaciones puedan experimentar con la IA generativa en el extremo de la red sin poner en riesgo la información personal o la propiedad intelectual.

Temas relacionados

Tim Keary

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.