L’ancien IAM a été conçu pour les humains – et les agents IA les dépassent désormais en nombre 82 contre 1



Active Directory, LDAP et les premiers PAM ont été conçus pour les humains. Les agents et les machines d’IA étaient l’exception. Aujourd’hui, ils sont 82 fois plus nombreux que les humains, et ce modèle d’identité axé sur l’humain s’effondre à la vitesse de la machine.

Les agents d’IA constituent la classe d’identités de machines qui connaît la croissance la plus rapide et la moins gouvernée – et ils ne se contentent pas de s’authentifier, ils agissent. ServiceNow a dépensé environ 11,6 milliards de dollars en acquisitions de sécurité rien qu’en 2025 – un signal que l’identité, et non les modèles, est en train de devenir le plan de contrôle des risques liés à l’IA dans l’entreprise.

Recherche 2025 de CyberArk confirme ce que les équipes de sécurité et les développeurs d’IA soupçonnent depuis longtemps : les identités des machines dépassent désormais largement les humains. Microsoft Les utilisateurs de Copilot Studio ont créé plus d’un million d’agents IA en un seul trimestre, soit une hausse de 130 % par rapport à la période précédente. Gartner prédit que d’ici 2028, 25 % des violations en entreprise seront dues à un abus d’agents d’IA.

Pourquoi les architectures existantes échouent à l’échelle de la machine

Les constructeurs ne créent pas d’agents fantômes ou de comptes de service avec des autorisations excessives par négligence. Ils le font parce que l’IAM dans le cloud est lent, que les examens de sécurité ne correspondent pas clairement aux flux de travail des agents et que la pression de la production récompense la rapidité plutôt que la précision. Les informations d’identification statiques deviennent la voie de moindre résistance, jusqu’à ce qu’elles deviennent le vecteur de brèche.

Les analystes de Gartner expliquent le problème central de un rapport publié en mai: "Les approches IAM traditionnelles, conçues pour les utilisateurs humains, ne parviennent pas à répondre aux exigences uniques des machines, telles que les appareils et les charges de travail."

Leurs recherches identifient pourquoi la rénovation échoue : "La mise à niveau des approches IAM humaines pour s’adapter aux cas d’utilisation de l’IAM machine conduit à une gestion fragmentée et inefficace des identités des machines, allant à l’encontre des mandats réglementaires et exposant l’organisation à des risques inutiles."

Le déficit de gouvernance est flagrant. Paysage de sécurité des identités de CyberArk pour 2025 Une enquête menée auprès de 2 600 décideurs en matière de sécurité révèle un décalage dangereux : bien que les identités des machines dépassent désormais le nombre des humains dans une proportion de 82 contre 1, 88 % des organisations définissent toujours uniquement les identités humaines comme "utilisateurs privilégiés." Le résultat est que les identités des machines ont en réalité des taux d’accès sensibles plus élevés que ceux des humains.

Ce chiffre de 42 % représente des millions de clés API, de comptes de service et de processus automatisés donnant accès aux joyaux de la couronne, tous régis par des politiques conçues pour les employés qui pointent à l’arrivée et au départ.

Le manque de visibilité aggrave le problème. UN Enquête Gartner sur 335 responsables IAM ont constaté que les équipes IAM ne sont responsables que de 44 % des identités machines d’une organisation, ce qui signifie que la majorité opère en dehors de la visibilité des services de sécurité. Sans une stratégie IAM machine cohérente, prévient Gartner : "les organisations risquent de compromettre la sécurité et l’intégrité de leur infrastructure informatique."

Le Guide des dirigeants Gartner explique pourquoi les comptes de service existants créent un risque systémique : ils persistent après la disparition des charges de travail qu’ils prennent en charge, laissant des informations d’identification orphelines sans propriétaire ni cycle de vie clair.

Lors de plusieurs violations d’entreprise enquêtées en 2024, les attaquants n’ont compromis ni les modèles ni les points de terminaison. Ils ont réutilisé des clés API de longue durée liées à des flux de travail d’automatisation abandonnés : des clés dont personne ne se rendait compte qu’elles étaient toujours actives car l’agent qui les avait créées n’existait plus.

Elia ZaïtsevCrowdStrike CTO, a expliqué pourquoi les attaquants se sont éloignés des points finaux et se sont tournés vers l’identité dans un récente interview de VentureBeat: "Les outils de cloud, de gestion des identités et à distance ainsi que les informations d’identification légitimes sont les axes privilégiés par l’adversaire, car il est trop difficile d’opérer sans contrainte sur le point final. Pourquoi essayer de contourner et de gérer une plate-forme sophistiquée comme CrowdStrike sur le point final alors que vous pouvez vous connecter en tant qu’utilisateur administrateur ?"

Pourquoi l’IA agentique brise les hypothèses d’identité

L’émergence d’agents d’IA exigeant leurs propres informations d’identification introduit une catégorie d’identité de machine pour laquelle les systèmes existants n’avaient jamais prévu ni été conçus. Les chercheurs du Gartner citons spécifiquement l’IA agentique comme cas d’utilisation critique : "Les agents IA ont besoin d’informations d’identification pour interagir avec d’autres systèmes. Dans certains cas, ils utilisent des informations d’identification humaines déléguées, tandis que dans d’autres, ils opèrent avec leurs propres informations d’identification. Ces informations d’identification doivent être soigneusement définies pour respecter le principe du moindre privilège."

Les chercheurs citent également le Model Context Protocol (MCP) comme exemple de ce défi, le même protocole les chercheurs en sécurité ont signalé pour son manque d’authentification intégrée. MCP ne manque pas seulement d’authentification : il efface les frontières traditionnelles de l’identité en permettant aux agents de parcourir les données et les outils sans surface d’identité stable et vérifiable.

Le problème de gouvernance s’aggrave lorsque les organisations déploient simultanément plusieurs outils GenAI. Les équipes de sécurité ont besoin de savoir quelles intégrations d’IA disposent de capacités d’action, y compris la capacité d’exécuter des tâches, pas seulement de générer du texte, et si ces capacités ont été correctement étendues.

Les plates-formes qui unifient la télémétrie des identités, des points de terminaison et du cloud apparaissent comme le seul moyen viable de détecter les abus d’agents en temps réel. Les outils à pointe fragmentée ne peuvent tout simplement pas suivre le mouvement latéral à la vitesse de la machine.

Les interactions de machine à machine fonctionnent déjà à une échelle et à une vitesse que les modèles de gouvernance humaine n’ont jamais été conçus pour gérer.

Anticiper les changements dynamiques d’identité de service

Les recherches de Gartner mettent en avant les identités de service dynamiques comme voie à suivre. Ils sont définis comme des informations d’identification éphémères, étroitement définies et régies par des politiques, qui réduisent considérablement la surface d’attaque. Pour cette raison, Gartner conseille aux responsables de la sécurité "passez à un modèle d’identité de service dynamique, plutôt que de passer par défaut à un modèle de compte de service hérité. Les identités de service dynamiques ne nécessitent pas la création de comptes distincts, réduisant ainsi les frais de gestion et la surface d’attaque."

L’objectif ultime est d’obtenir un accès juste à temps et des privilèges zéro. Les plates-formes qui unifient la télémétrie des identités, des points de terminaison et du cloud constituent de plus en plus le seul moyen viable de détecter et de contenir les abus d’agents tout au long de la chaîne d’attaque d’identité.

Mesures pratiques que les constructeurs de sécurité et d’IA peuvent prendre aujourd’hui

Les organisations qui réussissent à mettre en place une identité agent la traitent comme un problème de collaboration entre les équipes de sécurité et les constructeurs d’IA. Basées sur le Guide des dirigeants de Gartner, les conseils de l’OpenID Foundation et les meilleures pratiques des fournisseurs, ces priorités émergent pour les entreprises qui déploient des agents d’IA.

  • Effectuez d’abord une découverte et un audit complets de chaque compte et identifiant. C’est une bonne idée d’établir d’abord une base de référence pour voir combien de comptes et d’informations d’identification sont utilisés sur toutes les machines informatiques. Les RSSI et les responsables de la sécurité expliquent à VentureBeat que cela révèle souvent entre six et dix fois plus d’identités que ce que l’équipe de sécurité connaissait avant l’audit. Une chaîne hôtelière a découvert qu’elle ne suivait qu’un dixième de ses identités informatiques avant l’audit.

  • Construisez et gérez étroitement l’inventaire des agents avant la production. Être au courant de cela garantit que les constructeurs d’IA savent ce qu’ils déploient et que les équipes de sécurité savent ce qu’elles doivent suivre. Lorsqu’il y a trop d’écart entre ces fonctions, il est plus facile pour les agents fantômes de se créer, échappant ainsi à la gouvernance. Un registre partagé doit suivre la propriété, les autorisations, l’accès aux données et les connexions API pour chaque identité d’agent avant que les agents n’atteignent les environnements de production.

  • Optez pour des identités de service dynamiques et excellez dans celles-ci. Passez de comptes de service statiques à des alternatives cloud natives telles que les rôles AWS IAM, les identités gérées Azure ou les comptes de service Kubernetes. Ces identités sont éphémères et doivent être étroitement définies, gérées et guidées par des politiques. L’objectif est d’exceller en matière de conformité tout en fournissant aux créateurs d’IA les identités dont ils ont besoin pour créer des applications.

  • Implémentez des informations d’identification juste à temps sur des secrets statiques. L’intégration de l’approvisionnement d’informations d’identification juste à temps, de la rotation automatique des secrets et des valeurs par défaut du moindre privilège dans les pipelines CI/CD et les cadres d’agents est essentielle. Ce sont tous des éléments fondamentaux du Zero Trust qui doivent être au cœur des pipelines DevOps. Suivez les conseils de responsables de la sécurité chevronnés qui défendent les constructeurs d’IA, qui disent souvent à VentureBeat de transmettre le conseil de ne jamais faire confiance à la sécurité périmétrique avec les flux de travail de développement d’IA ou les processus CI/CD. Misez sur le zéro confiance et la sécurité des identités lorsqu’il s’agit de protéger les flux de travail des créateurs d’IA.

  • Établir des chaînes de délégation vérifiables. Lorsque les agents génèrent des sous-agents ou appellent des API externes, les chaînes d’autorisation deviennent difficiles à suivre. Assurez-vous que les humains sont responsables de tous les services, qui incluent les agents IA. Les entreprises ont besoin de références comportementales et d’une détection des dérives en temps réel pour maintenir leur responsabilité.

  • Déployez une surveillance continue. Conformément aux préceptes du Zero Trust, surveillez en permanence chaque utilisation des informations d’identification des machines dans le but délibéré d’exceller en matière d’observabilité. Cela inclut l’audit, car il permet de détecter les activités anormales telles que l’élévation de privilèges non autorisée et les mouvements latéraux.

  • Évaluer la gestion de la posture. Évaluez les voies d’exploitation potentielles, l’étendue des dommages possibles (rayon de l’explosion) et tout accès administrateur fantôme. Cela implique de supprimer les accès inutiles ou obsolètes et d’identifier les erreurs de configuration que les attaquants pourraient exploiter.

  • Commencez à appliquer la gestion du cycle de vie des agents. Chaque agent a besoin d’une surveillance humaine, que ce soit dans le cadre d’un groupe d’agents ou dans le contexte d’un flux de travail basé sur des agents. Lorsque les créateurs d’IA se lancent dans de nouveaux projets, leurs agents doivent déclencher les mêmes flux de travail de départ que les employés qui partent. Les agents orphelins bénéficiant de privilèges permanents peuvent devenir des vecteurs de brèche.

  • Donnez la priorité aux plateformes unifiées plutôt qu’aux solutions ponctuelles. Les outils fragmentés créent une visibilité fragmentée. Les plates-formes qui unifient la sécurité des identités, des points de terminaison et du cloud offrent aux créateurs d’IA une visibilité en libre-service tout en offrant aux équipes de sécurité une détection inter-domaines.

Attendez-vous à voir l’écart se creuser en 2026

L’écart entre ce que les constructeurs d’IA déploient et ce que les équipes de sécurité peuvent gérer ne cesse de se creuser. Malheureusement, chaque transition technologique majeure a également conduit à une nouvelle génération de failles de sécurité, ce qui oblige souvent à son propre jugement à l’échelle de l’industrie. Tout comme les mauvaises configurations du cloud hybride, l’IA fantôme et la prolifération des API continuent de poser des défis aux leaders de la sécurité et aux créateurs d’IA qu’ils soutiennent, 2026 verra l’écart se creuser entre ce qui peut être contenu en matière d’attaques d’identité de machine et ce qui doit être amélioré pour arrêter des adversaires déterminés.

Le ratio de 82 pour 1 n’est pas statique. Cela s’accélère. Les organisations qui continuent de s’appuyer sur des architectures IAM axées sur l’humain n’acceptent pas seulement une dette technique ; ils construisent des modèles de sécurité qui s’affaiblissent à chaque nouvel agent déployé.

L’IA agentique ne brise pas la sécurité parce qu’elle est intelligente : elle brise la sécurité parce qu’elle multiplie les identités plus rapidement que la gouvernance ne peut suivre. Pour transformer ce qui, pour de nombreuses organisations, l’une de leurs faiblesses de sécurité les plus flagrantes, en une force, il faut commencer par se rendre compte que la sécurité des identités, basée sur le périmètre, n’est pas à la hauteur de l’intensité, de la vitesse et de l’ampleur des attaques machine contre machine qui sont la nouvelle norme et proliféreront en 2026.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *