Leave a reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La transformación empresarial que trae la inteligencia artificial generativa conlleva riesgos que la propia IA puede ayudar a mitigar, creando así un ciclo de progreso. Las empresas que adoptaron rápidamente el internet abierto hace más de 20 años fueron de las primeras en cosechar sus beneficios y en hacerse competentes en la seguridad de redes modernas. Actualmente, la IA empresarial sigue un patrón similar. Las organizaciones que persiguen sus avances, especialmente con las potentes capacidades de IA generativa, están aplicando esos aprendizajes para mejorar su seguridad. Para quienes recién comienzan en este camino, a continuación se presentan maneras de abordar con IA tres de las principales amenazas de seguridad que expertos de la industria han identificado para los modelos de lenguaje grande (LLMs).

AI guardrails previenen inyecciones de comandos

Los servicios de IA generativa son objeto de ataques provenientes de comandos maliciosos diseñados para interrumpir el LLM que los sustenta o para acceder a sus datos. Como señala el informe mencionado, “las inyecciones directas sobrescriben los comandos del sistema, mientras que las indirectas manipulan entradas de fuentes externas”.

El mejor antídoto contra las inyecciones de comandos son los guardrails de IA, integrados o colocados alrededor de los LLMs. Al igual que las barreras de seguridad metálicas y los bordillos de concreto en la carretera, los guardrails de IA mantienen las aplicaciones de LLM en el camino correcto y en el tema adecuado.

La industria ha entregado y continúa trabajando en soluciones en este ámbito. Por ejemplo, el software NVIDIA NeMo Guardrails permite a los desarrolladores proteger la confiabilidad, seguridad y protección de los servicios de IA generativa.

AI detecta y protege datos sensibles

Las respuestas que los LLMs proporcionan a los comandos pueden, en ocasiones, revelar información sensible. Con la autenticación multifactor y otras mejores prácticas, las credenciales se están volviendo cada vez más complejas, ampliando el ámbito de lo que se considera información sensible.

Para protegerse contra divulgaciones, toda la información sensible debe ser cuidadosamente eliminada u oscurecida de los datos de entrenamiento de IA. Dada la magnitud de los conjuntos de datos utilizados en el entrenamiento, es difícil para los humanos —pero fácil para los modelos de IA— garantizar que un proceso de saneamiento de datos sea efectivo.

Un modelo de IA entrenado para detectar y ofuscar información sensible puede ayudar a proteger contra la revelación de cualquier dato confidencial que se haya dejado inadvertidamente en los datos de entrenamiento de un LLM.

Utilizando NVIDIA Morpheus, un marco de IA para construir aplicaciones de ciberseguridad, las empresas pueden crear modelos de IA y pipelines acelerados que encuentran y protegen la información sensible en sus redes. Morpheus permite que la IA realice lo que ningún humano utilizando análisis tradicionales puede: rastrear y analizar los vastos flujos de datos en toda una red corporativa.

AI puede ayudar a reforzar el control de acceso

Finalmente, los hackers pueden intentar usar los LLMs para obtener control de acceso sobre los activos de una organización. Por lo tanto, las empresas deben impedir que sus servicios de IA generativa excedan su nivel de autoridad.

La mejor defensa contra este riesgo es aplicar las mejores prácticas de seguridad por diseño. Específicamente, se debe otorgar a un LLM el menor privilegio posible y evaluar continuamente esos permisos, de modo que solo pueda acceder a las herramientas y datos que necesita para realizar sus funciones deseadas. Este enfoque estándar y simple probablemente sea lo único que la mayoría de los usuarios necesiten en este caso.

Sin embargo, la IA también puede ayudar a proporcionar controles de acceso para los LLMs. Un modelo separado en línea puede ser entrenado para detectar la escalación de privilegios al evaluar las salidas de un LLM.

Comienza el viaje hacia la ciberseguridad con IA

No existe una técnica que sea infalible; la seguridad sigue siendo cuestión de medidas y contramedidas en evolución. Aquellos que mejor se desempeñen en este camino harán uso de las últimas herramientas y tecnologías.

Para asegurar la IA, las organizaciones necesitan familiarizarse con ella, y la mejor manera de hacerlo es implementándola en casos de uso significativos. NVIDIA y sus socios pueden ayudar con soluciones completas en IA, ciberseguridad y ciberseguridad con IA.

Mirando hacia el futuro, la IA y la ciberseguridad estarán estrechamente vinculadas en un ciclo de retroalimentación positiva, un flywheel de progreso donde cada uno mejora al otro. En última instancia, los usuarios llegarán a confiar en ella como una forma más de automatización.

- A word from our sposor -

spot_img

Tres estrategias para impulsar el ciclo de la inteligencia artificial en ciberseguridad