Aller au contenu principal
Navigation
AccueilExpertisesParcoursRéférencesProjetsHub R&D / BlogMe Contacter

06 52 86 38 82

contact@sebastien-wald.fr

SOC / Stratégie

Intégrer les logs de l'IA dans votre SIEM (Splunk/ArcSight)

Janvier 202610 min de lectureSébastien WALD

Le trou noir de la supervision : vos LLM ne sont pas monitorés

Après plus de 10 ans passés à construire des architectures SIEM pour des OIV (RATP, Orange, Generali), je constate un angle mort récurrent dans toutes les entreprises qui déploient de l'IA : les logs d'inférence des LLM ne remontent pas dans le SOC. C'est le constat que je fais systématiquement en mission, confirmé par les retours du terrain de la communauté SOC.

C'est comme si vous aviez un pare-feu nouvelle génération sans jamais regarder ses logs. Les équipes Data Science déploient des modèles, les équipes IT fournissent l'infrastructure, mais personne ne supervise ce qui se passe entre les deux.

Quels logs collecter et comment

La première étape consiste à identifier les sources de données pertinentes :

  • Logs d'inférence : chaque requête envoyée au LLM (prompt utilisateur, tokens consommés, temps de réponse)
  • Logs de retrieval : quels documents le RAG a récupérés, avec quels scores de similarité
  • Logs d'orchestration : actions exécutées par les agents autonomes (appels d'API, accès fichiers, exécution de code)
  • Métriques de coût : consommation de tokens par utilisateur/session pour détecter les abus

Règle #1 — Détection d'injection de prompt (Splunk SPL)

Cette règle analyse les requêtes utilisateur pour détecter les tentatives d'injection de prompt en cherchant des patterns caractéristiques :

## Splunk SPL — Détection injection de prompt (fenêtre glissante 15 min)

index=llm_logs sourcetype=inference earliest=-15m@m latest=now

| eval prompt_lower=lower(user_prompt)

| where match(prompt_lower, "(ignore (all |previous |above )?(instructions|rules|constraints))|(system prompt)|(you are now)|(act as|pretend to be)|(do not follow)|(reveal your)")

| stats count by user, src_ip

| where count > 3

| sort - count

Seuil recommandé : alerte si plus de 3 tentatives par utilisateur sur une fenêtre de 15 minutes. La plage earliest=-15m@m latest=now définit cette fenêtre directement dans la recherche. Cela filtre les faux positifs tout en détectant les attaques persistantes. Pour une règle de corrélation en temps réel dans Splunk ES, encapsulez cette recherche dans un Adaptive Response Action ou une Correlation Search avec un scheduler toutes les 5 minutes.

Règle #2 — Exfiltration de données via réponses anormalement longues

Une exfiltration réussie se traduit souvent par des réponses du LLM anormalement volumineuses, contenant des données structurées (JSON, CSV, listes) alors que l'interaction normale produit du texte conversationnel :

## Splunk SPL — Réponses suspectes

index=llm_logs sourcetype=inference

| eval response_len=len(llm_response)

| eventstats avg(response_len) as avg_len, stdev(response_len) as stdev_len by model_id

| where response_len > (avg_len + 3*stdev_len)

| where match(llm_response, "(\{.*\}|\[.*\]|;.*;|,.*,.*,)")

| table _time, user, model_id, response_len, avg_len

Règle #3 — Comportement anormal d'agent autonome (ArcSight)

Les agents IA autonomes (LangChain Agents, AutoGPT) peuvent effectuer des actions sur le SI. Cette règle détecte les séquences d'actions inhabituelles :

## ArcSight — Règle de corrélation agent autonome

Condition: deviceVendor = "AI_AGENT" AND

(categoryBehavior = "file_access" OR categoryBehavior = "api_call" OR categoryBehavior = "code_execution")

Aggregation: COUNT by sourceUserName within 5 minutes

Threshold: > 20 actions

Priority: HIGH if categoryBehavior = "code_execution"

Intégration pratique : architecture recommandée

Pour intégrer efficacement ces logs dans votre SIEM existant, je recommande une architecture en 3 couches :

  • Couche collecte : middleware de logging entre votre application et l'API LLM (intercepteur Python ou proxy dédié)
  • Couche transport : Syslog-NG ou Kafka pour le transport vers le SIEM (même pipeline que vos logs existants)
  • Couche analyse : dashboards dédiés "AI Security" dans votre SIEM, avec les 3 règles ci-dessus en alertes temps réel

Cette approche s'intègre dans votre SOC existant sans créer de silo — les analystes N1/N2 traitent les alertes IA comme n'importe quelle autre alerte sécurité.

Pour aller plus loin

Tags

SIEMSplunkArcSightLLMSOCDétectionMonitoring

Cet article vous a été utile ?

Recevez la veille bi-mensuelle du Red Teamer directement dans votre boîte mail.