A medida que más organizaciones ejecutan sus propios modelos de lenguajes grandes (LLM), también están implementando más servicios internos e interfaces de programación de aplicaciones (API) para respaldar esos modelos. Los riesgos de seguridad modernos provienen menos de los propios modelos y más de la infraestructura que sirve, conecta y automatiza el modelo. Cada nuevo punto final de LLM amplía la superficie de ataque, a menudo de maneras que son fáciles de pasar por alto durante una implementación rápida, especialmente cuando se confía implícitamente en los puntos finales. Cuando los puntos finales de LLM acumulan permisos excesivos y se exponen credenciales de larga duración, pueden proporcionar mucho más acceso del previsto. Las organizaciones deben priorizar la gestión de privilegios de los endpoints porque los endpoints expuestos se han convertido en un vector de ataque cada vez más común para que los ciberdelincuentes accedan a los sistemas, identidades y secretos que impulsan las cargas de trabajo de LLM.
¿Qué es un punto final en la infraestructura LLM moderna?
En la infraestructura moderna de LLM, un punto final Es cualquier interfaz donde algo, ya sea un usuario, una aplicación o un servicio, puede comunicarse con un modelo. En pocas palabras, los puntos finales permiten enviar solicitudes a un LLM y devolver respuestas. Los ejemplos comunes incluyen API de inferencia que manejan solicitudes y generan resultados, interfaces de administración de modelos utilizadas para actualizar modelos y paneles administrativos que permiten a los equipos monitorear el desempeño. Muchas implementaciones de LLM también dependen de puntos finales de ejecución de herramientas o complementos, que permiten que los modelos interactúen con servicios externos, como bases de datos que pueden conectar el LLM a otros sistemas. Juntos, estos puntos finales definen cómo el LLM se conecta con el resto de su entorno.
El principal desafío es que la mayoría de los puntos finales de LLM están diseñados para uso interno y velocidad, no para seguridad a largo plazo. Por lo general, se crean para respaldar la experimentación o las implementaciones tempranas y luego se dejan funcionando con una supervisión mínima. Como resultado, tienden a estar mal monitoreados y se les concede más acceso del necesario. En la práctica, el punto final se convierte en el límite de seguridad, lo que significa que sus controles de identidad, manejo de secretos y alcance de privilegios determinan hasta dónde puede llegar un ciberdelincuente.
Cómo quedan expuestos los puntos finales de LLM
Los LLM rara vez se exponen a través de una falla; Con mayor frecuencia, la exposición se produce gradualmente a través de pequeñas suposiciones y decisiones tomadas durante el desarrollo y la implementación. Con el tiempo, estos patrones transforman los servicios internos en superficies de ataque accesibles desde el exterior. Algunos de los patrones de exposición más comunes incluyen:
- API de acceso público sin autenticación: En ocasiones, las API internas se exponen públicamente para acelerar las pruebas o la integración. La autenticación se retrasa o se omite por completo, y el punto final permanece accesible mucho después de que debía restringirse.
- Tokens débiles o estáticos: Muchos puntos finales de LLM dependen de tokens o claves API que están codificadas y nunca se rotan. Si estos secretos se filtran a través de sistemas o repositorios mal configurados, los usuarios no autorizados pueden acceder a un punto final de forma indefinida.
- La suposición de que interno significa seguro: Los equipos a menudo tratan los puntos finales internos como confiables de forma predeterminada, asumiendo que nunca serán accesibles por usuarios no autorizados. Sin embargo, con frecuencia se puede acceder a las redes internas a través de VPN o controles mal configurados.
- Puntos finales de prueba temporales que se vuelven permanentes: Los puntos finales diseñados para depuración o demostraciones rara vez se limpian. Con el tiempo, estos puntos finales permanecen activos pero no monitoreados y mal protegidos mientras la infraestructura circundante evoluciona.
- Configuraciones erróneas de la nube que exponen los servicios: Las puertas de enlace API o las reglas de firewall mal configuradas pueden exponer involuntariamente los puntos finales internos de LLM a Internet. Estas configuraciones erróneas a menudo ocurren gradualmente y pasan desapercibidas hasta que el punto final ya está expuesto.
Por qué los puntos finales expuestos son peligrosos en toda la infraestructura LLM
Los puntos finales expuestos son particularmente peligrosos en entornos LLM porque los LLM están diseñados para conectar múltiples sistemas dentro de una infraestructura técnica más amplia. Cuando los ciberdelincuentes comprometen un único punto final de LLM, a menudo pueden obtener acceso a mucho más que el modelo en sí. A diferencia de las API tradicionales que realizan una función, los puntos finales de LLM suelen integrarse con bases de datos, herramientas internas o servicios en la nube para admitir flujos de trabajo automatizados. Por lo tanto, un punto final comprometido puede permitir a los ciberdelincuentes moverse rápida y lateralmente a través de sistemas que ya confían en el LLM de forma predeterminada.
El peligro real no deriva de que el LLM sea demasiado poderoso sino de la confianza implícita depositada en el punto final desde el principio. Una vez que se expone un punto final de LLM, puede actuar como un multiplicador de fuerza; Los ciberdelincuentes pueden utilizar un punto final comprometido para diversas tareas automatizadas en lugar de explorar los sistemas manualmente. Los puntos finales expuestos pueden poner en peligro los entornos LLM a través de:
- Exfiltración de datos impulsada por avisos: Los ciberdelincuentes pueden crear mensajes que hagan que el LLM resuma los datos confidenciales a los que tiene acceso, convirtiendo el modelo en una herramienta automatizada de extracción de datos.
- Abuso de permisos de llamada de herramientas: Cuando los LLM llaman a herramientas o servicios internos, se pueden utilizar puntos finales expuestos para abusar de estas herramientas modificando recursos o realizando acciones privilegiadas.
- Inyección inmediata indirecta: Incluso cuando el acceso es limitado, los ciberdelincuentes pueden manipular fuentes de datos o entradas de LLM, lo que hace que el modelo ejecute acciones dañinas indirectamente.
Por qué los NHI son especialmente peligrosos en entornos LLM
Identidades no humanas (NHI) son credenciales utilizadas por sistemas en lugar de usuarios humanos. En entornos LLM, cuentas de servicio, claves API y otras credenciales no humanas permiten a los modelos acceder a datos, interactuar con servicios en la nube y realizar tareas automatizadas. Los NHI plantean un riesgo de seguridad importante en entornos LLM porque los modelos dependen de ellos continuamente. Por conveniencia, los equipos a menudo otorgan permisos amplios a los NHI, pero no revisan ni refuerzan los controles de acceso más adelante. Cuando un punto final de LLM se ve comprometido, los ciberdelincuentes heredan el acceso del NHI detrás de ese punto final, lo que les permite operar utilizando credenciales confiables. Varios problemas comunes empeoran este riesgo de seguridad:
- Los secretos se extienden: Las claves de API y las credenciales de cuentas de servicio a menudo se distribuyen entre archivos de configuración y canalizaciones, lo que dificulta su seguimiento y protección.
- Credenciales estáticas: Muchos NHI utilizan credenciales de larga duración que rara vez, o nunca, se rotan. Una vez que esas credenciales quedan expuestas, siguen siendo utilizables durante largos períodos de tiempo.
- Permisos excesivos: A menudo se concede un amplio acceso a los NHI para evitar retrasos, pero inevitablemente se olvida. Con el tiempo, los NHI acumulan permisos más allá de los realmente necesarios para sus tareas.
- Expansión de identidad: Los sistemas de LLM en crecimiento producen una gran cantidad de NHI en todos los entornos. Sin una supervisión y gestión adecuadas, esta expansión de identidades reduce la visibilidad y aumenta la superficie de ataque.
Cómo reducir el riesgo de los puntos finales expuestos
La reducción del riesgo de los puntos finales expuestos comienza por asumir que los ciberdelincuentes eventualmente llegarán a los servicios expuestos. Los equipos de seguridad deben apuntar no sólo a impedir el acceso sino también a limitar lo que puede suceder una vez que se alcanza un punto final. Una forma sencilla de hacerlo es aplicar principios de seguridad de confianza cero a todos los puntos finales: el acceso debe verificarse explícitamente, evaluarse continuamente y monitorearse estrechamente en todos los casos. Los equipos de seguridad también deben hacer lo siguiente:
- Haga cumplir el acceso con privilegios mínimos para usuarios humanos y de máquinas: Los puntos finales solo deben tener acceso a lo necesario para realizar una tarea específica, independientemente de si el usuario es humano o no. Reducir los permisos limita el daño que un ciberdelincuente puede causar con un punto final comprometido.
- Utilice el acceso Justo a Tiempo (JIT): El acceso privilegiado no debería estar disponible todo el tiempo en ningún terminal. Con el acceso JIT, los privilegios solo se otorgan cuando es necesario y se revocan automáticamente una vez completada una tarea.
- Supervise y registre sesiones privilegiadas: Monitorear y registrar la actividad privilegiada ayuda a los equipos de seguridad a detectar el uso indebido de privilegios, investigar incidentes de seguridad y comprender cómo se utilizan realmente los puntos finales.
- Rotar secretos automáticamente: Los tokens, las claves API y las credenciales de la cuenta de servicio deben rotarse periódicamente. La rotación automatizada de secretos reduce el riesgo de abuso de credenciales a largo plazo si los secretos quedan expuestos.
- Elimine las credenciales de larga duración cuando sea posible: Las credenciales estáticas son uno de los mayores riesgos de seguridad en los entornos LLM. Reemplazarlos con credenciales de corta duración limita el tiempo que los secretos comprometidos siguen siendo útiles en las manos equivocadas.
Estas medidas de seguridad son especialmente importantes en entornos LLM porque los LLM dependen en gran medida de la automatización. Dado que los modelos funcionan continuamente sin supervisión humana, las organizaciones deben proteger el acceso manteniéndolo en un tiempo limitado y monitoreándolo de cerca.
Priorice la gestión de privilegios de endpoints para mejorar la seguridad
Los puntos finales expuestos amplifican el riesgo rápidamente en entornos LLM, donde los modelos están profundamente integrados con herramientas internas y datos confidenciales. Los modelos de acceso tradicionales son insuficientes para sistemas que actúan de forma autónoma y a escala, por lo que las organizaciones deben repensar cómo otorgan y gestionan el acceso a la infraestructura de IA. La gestión de privilegios de endpoints cambia el enfoque de tratar de prevenir infracciones en los endpoints a limitar el impacto eliminando el acceso permanente y controlando lo que los usuarios humanos y no humanos pueden hacer después de alcanzar un endpoint. Soluciones como Guardián respalde este modelo de seguridad de confianza cero ayudando a las organizaciones a eliminar el acceso innecesario y proteger mejor los sistemas LLM críticos.
Nota: Este artículo fue escrito cuidadosamente y contribuido para nuestra audiencia por Ashley D’Andrea, redactora de contenido de Keeper Security.


