Articles acceptés
Vers une gestion d’identités auto-souveraine pour les dispositifs IoT
Dans certains écosystèmes IoT, les entités (humains, organisations, dispositifs) doivent participer de manière collaborative pour développer des applications intelligentes. En général, cette collaboration nécessite l’authentification des entités. Dans les écosystèmes où les dispositifs IoT peuvent être compromis, chaque entité doit s’assurer que les informations reçues des dispositifs IoT et échangées avec d’autres entités sont dignes de confiance. Dans ce contexte, les systèmes de gestion d’identité sont cruciaux pour représenter les entités et font face à une demande accrue en terme de sécurité et de confidentialité des données sensibles. Les modèles de systèmes de gestion d’identité les plus utilisés à ce jour reposent toujours sur une architecture centralisée, qui présente certains inconvénients liés à ses opérations centralisées et à son manque de transparence. Pour éviter les limites des modèles traditionnels, nous explorons une approche décentralisée utilisant un système d’identités auto-souverain qui s’appuie sur des algorithmes de consensus et Blockchain, sur des identifiants décentralisés (DID) et sur la preuve à divulgation nulle de connaissance pour établir une relation de confiance entre les entités.
Lydia Ouaili
(CNAM(PARIS), France)
;
Samia Bouzefrane
(CEDRIC LAB, CNAM, France)
;
Elena Kornyshova
(CNAM (PARIS), France)
;
Pierre Paradinas
(CNAM(PARIS), France)
PALANTIR : Architecture Zero-Trust pour le fournisseur de services de sécurité managés
Le projet H2020 Palantir vise à fournir une solution de sécurité en tant que service aux PME et micro-entreprises via l'exploitation des fonctions de réseau conteneurisées. Cependant, ces fonctions sont conçues par des développeurs tierces et peuvent également être déployées dans des couches de virtualisation au niveau de confiance très variable, selon le modèle de souscription. Par conséquent, on ne peut pas leur faire totalement confiance ; et ils nécessitent une surveillance stricte pour assurer leur innocuité, ainsi que des mesures adéquates pour corriger toute activité néfaste. Cet article justifie, détaille et évalue une architecture Zero-Trust à l'appui de la solution de PALANTIR. Plus précisément, PALANTIR évalue périodiquement les composants du service et de l'infrastructure pour des signes de compromission en appliquant le paradigme d’informatique de confiance. La vérification concerne le firmware, le système d'exploitation et le logiciel à l'aide de la mesure des démarrages UEFI et de l’architecture de mesure d'intégrité Linux, étendue pour prendre en charge l'attestation d'application conteneurisée. Les actions de remédiation sont supervisées par le service de récupération et l'orchestrateur de sécurité basé sur OSM pour, respectivement, déterminer les actions de correction adéquates à partir d'une politique de récupération et les appliquer aux couches inférieures de l'infrastructure par le biais de facilitateurs locaux authentifiés. Nous détaillons un prototype de mise en œuvre servant de référence pour l'évaluation quantitative de notre travail.
Maxime Compastié
(Fundació i2CAT, Internet I Innovació Digital a Catalunya (i2CAT), Spain)
;
Silvia Sisinni
(Politecnico di Torino (POLITO), Italy)
;
Supreshna Gurung
(Hewlett Packard Enterprise, United Kingdom)
;
Carolina Fernández
(Fundació i2CAT, Internet I Innovació Digital a Catalunya (i2CAT), Spain)
;
Ludovic Jacquin
(Hewlett Packard Enterprise, United Kingdom)
;
Izidor Mlakar
(University of Maribor Faculty of Electrical Engineering and Computer Science, Sfera IT, Slovenia)
;
Valentino Šafran
(University of Maribor Faculty of Electrical Engineering and Computer Science, Slovenia)
;
Antonio Lioy
(Politecnico di Torino (POLITO), Italy)
;
Ignazio Pedone
(Politecnico di Torino (POLITO), Italy)
Vers la sécurité dans un environnement opérationnel collaboratif dynamique
Dans cet article, nous considérons un environnement opérationnel dynamique, tel que les collaborations entre les systèmes ne peuvent être pleinement anticipées dès la conception et le déploiement du système. Il convient donc, tout en permettant des interactions entre des systèmes pas forcément pré-identifiées, d’empêcher d’éventuels intrus d’accéder illégitimement aux systèmes participant à l’opération. Pour ce faire, nous envisageons d’étudier comment le contrôle d’accès peut contextualiser les requêtes, au regard de la situation opérationnelle, afin d’automatiser le droit et le besoin d’en connaître. Dans cet article, nous présentons une introduction au chiffrement basé attributs et l’ébauche des travaux que nous projetons.
Didier Alquié
(Académie Militaire de Saint-Cyr Coëtquidan, France)
;
Nicolas Belloir
(Académie Militaire de Saint-Cyr Coëtquidan / IRISA, France)
;
Jérémy Buisson
(Académie Militaire de Saint-Cyr Coëtquidan / IRISA, France)
;
Lionel Touseau
(Académie Militaire de Saint-Cyr Coëtquidan / IRISA, France)
Définition de la racine de confiance matérielle du Edge au Cloud et comment l'utiliser
Pendant des décennies, l'informatique de confiance a tenté d'ancrer la confiance dans le matériel, et l'existence de modules de plate-forme de confiance (TPM) dans la conception la plus moderne est une preuve que cette approche est désormais bien comprise. Le comportement par défaut des systèmes d'exploitation récents comme Windows 11 est même de refuser le démarrage si ce matériel est absent. Mais cette approche n'est pas suffisante dans un monde moderne où il faut faire confiance aux plateformes distantes. Pour préserver la confiance dans la sécurité, il faut limiter la base informatique de confiance (TCB) d'un système à un niveau où une évaluation peut avoir un sens. Nous présenterons comment nous avons fait TEA avec Sequana! L'architecture d'exécution de confiance (TEA) est le résultat d'un partenariat avec ProvenRun pour mettre en œuvre un TCB dans les serveurs d’ATOS d'une manière cohérente, de l’Edge au High Performance Computing (HPC). Cela permet d'envisager des fonctionnalités de sécurité s’appuyant sur des racines de confiance communes connues de différentes plates-formes, à différentes échelles et niveaux d'interaction.
Florent Chabaud
(ATOS, France)
C4PTION : pourquoi caractériser les auteurs de portions de code ?
Les attaques au sein de la supply chain comme celle subie par Solarwinds sont lourdes de conséquences. Les entreprises d’aujourd’hui ne peuvent se permettre d’ignorer les risques liés à de telles pratiques. Et cependant, comment réussir à s’en prémunir ? Nous disposons déjà de protocoles sécurisés pour nos systèmes de gestion de versions logicielles tels que git, mais ceux-ci semblent ne pas suffire. Le DevSecOps, automatisant l’analyse de la sécurité logicielle dans une chaîne d’intégration et de déploiement continu (CI/CD), constitue une solution permettant de répondre à ces enjeux. C’est dans ce cadre que nous avons développé la solution why Characterise the Authors of code PorTIONs? (C4PTION). Elle complète l’arsenal d’outils d’analyse de code source avec une détection de code injecté par des auteurs non autorisés (humains ou bots). L’outil C4PTION s’appuie sur des techniques d’Intelligence Artificielle (IA) innovantes pour apprendre les habitudes syntaxiques, lexicales et comportementales des développeurs. Intégré dans une CI/CD telle que gitlab, C4PTION transmet aux responsables projets et/ou aux responsable de la sécurité des systèmes d’information (RSSI) des alertes qualifiées : niveau de risque d’usurpation de développeur, niveau de confiance dans la décision, ainsi qu’un rapport d’explicabilité. Dans cet article, nous montrons que l’analyse combinée du code source et des git metadata par des modèles IA entraînés ainsi que le caractère adaptable de C4PTION, présentent de nombreux atouts (notamment, celui d’améliorer les éléments de la matrice de confusion de près de 15%) pour prévenir toute cyberattaque en amont de la supply chain de développement logiciel.
Olivier Gesny
(silicom, France)
;
Pierre-Marie Satre
(silicom, France)
;
Robin De Saint Jores
(silicom, France)
;
Tudy Gourmelen
(silicom, France)
;
Christophe Genevey-Metat
(Silicom, France)
;
Dorian Bachelot
(Silicom, France)
;
Loan Veyer
(Silicom, France)
;
Maximilien Chaux
(Silicom, France)
;
Pierre Delesques
(Silicom, France)
Résilience via les usines boite-noires autopilotées
Le contrôle distribué est une réalité de l'automatisation et des systèmes industriels d'aujourd'hui. Certaines parties d'un système sont sur site et d'autres éléments sont à la périphérie du cloud. Le fonctionnement global du système repose sur le fonctionnement fiable des composants locaux et distants. Cependant, toutes les parties du système peuvent être attaquées. En règle générale, les entités locales d'un système cyber-physique, telles que les bras de robot ou les bandes transporteuses, sont affectées par les cyberattaques. Cependant, attaquer les canaux de contrôle et de surveillance entre une installation et sa télécommande est également intéressant. Il existe une diversité d'attaques, telles que la manipulation des signaux d'entrée d'une usine, de la logique du contrôleur et des signaux de sortie. Pour détecter et atténuer l'impact de ces diverses attaques et rendre une usine plus résiliente, nous introduisons un proxy de contrôleur auto-apprenant dans le canal de communication de l'usine vers le contrôleur. Il agit comme une ancre de confiance locale pour les commandes reçues d'un contrôleur distant. Il effectue un auto-apprentissage en boîte noire des algorithmes du contrôleur et audite ses opérations. Dès qu'une attaque est détectée, l'usine pivote en mode d'auto-pilotage. Nous étudions des alternatives de conception pour le contrôleur proxy. Nous évaluons à quel point les algorithmes de contrôle peuvent être complexes pour permettre une résilience autopilotée.
Michel Barbeau
(Carleton University, Canada)
;
Joaquin Garcia-Alfaro
(Télécom SudParis, France)
;
Christian Lübben
(Technische Universität München, Germany)
;
Marc-Oliver Pahl
(IMT Atlantique, chaire cyberCNI.fr, France)
;
Lars Wüstrich
(Technische Universität München, Germany)
Infrastructure à clé publique décentralisée pour les systèmes embarqués autonomes
Dans cet article, nous abordons la problématique de la sécurité des systèmes multi-agents d'agents embarqués. Ces systèmes offrent des moyens évolutifs et flexibles de contrôler des systèmes complexes, distribués et interconnectés , qui peuvent se connecter et se déconnecter du système pendant l'exécution. L'absence d'autorité centrale rend ces systèmes plus dynamiques et adaptatifs. Cependant, la sécurisation de ces systèmes est difficile et soulève de nombreuses questions. Dans ce travail, nous visons à fournir une infrastructure à clé publique pour permettre aux agents de se connecter en toute sécurité au système pendant son exécution et sans qu'il soit nécessaire de charger des certificats au préalable. Pour ce faire, nous établissons un infrastructure où les agents génèrent leurs propres clés et demandent un certificat à des autorités de certification. Ces autorités agissent sans qu'il soit nécessaire de se coordonner et distribuent les certificats aux demandeurs, selon les règles d'un système de gestion de la confiance. Cette infrastructure permet aux agents d'obtenir des certificats et d'établir des communications sécurisées entre eux sans avoir besoin d'un système centralisé externe.
Arthur Baudet
(Univ. Grenoble Alpes, Grenoble INP, LCIS, France)
;
Oum-El-Kheir Aktouf
(Univ. Grenoble Alpes, Grenoble INP, LCIS, France)
;
Annabelle Mercier
(Univ. Grenoble Alpes, Grenoble INP, LCIS, France)
;
Philippe Elbaz-Vincent
(Univ. Grenoble Alpes, CNRS, Institut Fourrier, France)
L'apprentissage fédéré en tant que catalyseur de la sécurité collaborative entre des parties distribuées qui ne se font pas entièrement confiance
La littérature montre que la confiance repose généralement sur la connaissance du partenaire de communication. L'apprentissage fédéré est une approche d'amélioration collaborative des modèles d'apprentissage automatique. Il permet aux collaborateurs de partager des modèles d'apprentissage automatique sans révéler de secrets, car seuls les modèles abstraits et non les données utilisées pour leur création sont partagés. L'apprentissage fédéré fournit ainsi un mécanisme pour créer la confiance sans révéler de secrets, comme les spécificités des systèmes industriels locaux. Un défi fondamental, cependant, consiste à déterminer le degré de confiance justifié pour chaque contributeur pour optimiser collaborativement les modèles conjoints. En accordant une confiance égale à chaque contribution, la divergence d'un modèle à partir de son optimum peut facilement se produire, à cause d'erreurs, de mauvaises observations ou de cyberattaques. La confiance dépend également de la contribution d'un modèle agrégé aux objectifs d'un parti. Par exemple, un modèle formé pour un système OT est généralement inutile pour la surveillance des systèmes informatiques. Cet article montre les premières directions dans lesquelles des sources de données distribuées hétérogènes pourraient être intégrées en utilisant des méthodes d'apprentissage fédéré. Avec un résumé étendu, il montre les directions de recherche actuelles et les questions ouvertes du point de vue d'un cyber-analyste.
Leo Lavaur
(IMT Atlantique, chaire cyberCNI.fr, France)
;
Benjamin Coste
(Airbus, France)
;
Marc-Oliver Pahl
(IMT Atlantique, chaire cyberCNI.fr, France)
;
Yann Busnel
(IMT Atlantique, France)
;
Fabien Autrel
(IMT Atlantique / IRISA, France)