Seminars

To receive information about next seminars, send an email with the following content to listserv@listserv.uqam.ca:

subscribe SEC-FRIENDS prénom nom

15 Avril 2026 - Haoying Zhang

TBD

1er Avril 2026 - Claire Guichemerre (Université de Rennes)

POPPY: Scalable and Secure Spectral Centrality for Distributed Graphs via Homomorphic Encryption

Au cours de cette présentation, je vous parlerai d’un protocole utilisant un schéma de chiffrement complètement homomorphe (FHE). Ce travail, appelé POPPY, constitue la première solution capable de calculer des mesures de centralité spectrales sur des graphes distribués entre plusieurs centres de données ne se faisant pas confiance, tout en garantissant la confidentialité contre des adversaires honnêtes-mais-curieux. POPPY s’appuie sur le schéma de chiffrement homomorphe CKKS, permettant des opérations arithmétiques approximatives sur des données chiffrées. Il est composé de plusieurs algorithmes optimisés exploitant les capacité d’« instruction unique, données multiples » (SIMD) de CKKS qui permet la parallélisation des opérations homomorphes. Nous avons de plus développé des règles d’élagage du graphe dont un algorithme basé sur l’équivalence des nœud généralisant le concept d’automorphisme de graph qui permet d’accélérer nos protocoles en réduisant le nombre d’appels aux opérations homomorphes. La fin de la présentation sera consacrée à une introduction aux travaux que j’ai commencés dans le cadre de ma mobilité à l’UQAM. Ces travaux portent sur des modèles d’attaquants couverts dans le protocole POPPY, dans lesquels les parties peuvent dévier du protocole tant que ces déviations restent indétectables par les autres participants, afin d’inférer des informations sur la structure du graphe adverse.

18 Mars 2026 - Florence G’Sell (Stanford U.)

La gouvernance de l’IA dans une perspective comparative

Cette présentation analyse la manière dont les principaux ordres juridiques façonnent les nouveaux modèles de gouvernance de l’intelligence artificielle, en mettant l’accent sur l’Union européenne, les États-Unis et certains pays asiatiques.Dans l’Union européenne, l’AI Act (2024) établit le premier cadre réglementaire complet, contraignant et fondé sur les risques au monde en matière d’intelligence artificielle, et entre désormais dans sa phase de mise en œuvre. Parallèlement, les préoccupations croissantes liées à la complexité du cadre normatif et aux coûts de conformité ont donné lieu à des propositions d’amendements dits « Digital Omnibus », ainsi qu’à des appels en faveur d’une « pause » temporaire concernant certaines obligations applicables aux systèmes à haut risque. Les États-Unis, en revanche, présentent un modèle plus fragmenté. Au niveau fédéral, l’America’s AI Action Plan (juillet 2025) met l’accent sur l’innovation, tandis que plusieurs États — notamment le Colorado, le Texas, la Californie, New York — ont commencé à introduire des exigences spécifiques applicables aux systèmes d’IA à haut risque ou dits « de frontière » (frontier AI). En Asie, les « lois-cadres sur l’IA » émergentes dans des pays tels que la Corée du Sud et Taïwan reflètent une approche plus souple visant à instaurer des garanties de base, contrastant nettement avec le modèle plus centralisé et dirigiste adopté par la Chine. Ces trajectoires divergentes illustrent des visions concurrentes du rôle que le droit doit jouer dans l’orientation du développement de l’IA, avec des implications majeures pour l’avenir d’une gouvernance globale responsable de l’intelligence artificielle.

4 Mars 2026 - Andrea Franceschi

Security of Multi-language Programs

Memory corruption is one of the oldest and most disruptive problems in computer security, especially in programs developed with unsafe languages such as C and C++. A promising alternative is Rust, which ensures memory safety without penalties at runtime through its ownership memory management. However, real-world systems are increasingly multi-language, and Rust programs often rely on unsafe features with the Foreign Function Interfaces (FFI) mechanism to interact with C legacy code. This integration, if not handled with extreme care, may reintroduce memory errors that Rust aims to avoid. The talk introduces Crema: a static analysis framework for detecting memory errors (i.e., memory leaks, double frees, and use-after-free) in Rust programs that include unsafe foreign C code. The approach combines Interprocedural Control Flow Graph construction over Rust and C intermediate representations, abstract interpretation, and taint analysis. We present the design, formalization, and experimental evaluation of the approach (SEFM 2025), discuss its extension toward abstract transition systems and a predicate query language, and outline ongoing challenges on the Rust-WebAssembly interaction.

11 Décembre 2025 - Anne-Sophie Charest (Université Laval)

Le pouvoir du bruit — une introduction à la confidentialité différentielle

Le partage de données et d’informations obtenues à partir de celles-ci est essentiel pour l’innovation, la recherche et la prise de décisions, mais il doit se faire sans compromettre la confidentialité individuelle. La confidentialité différentielle offre une réponse élégante à ce défi, en s’appuyant sur une idée simple : injecter soigneusement de l’aléatoire pour limiter l’influence de chaque individu dans les résultats diffusés. Dans cette présentation, j’expliquerai la définition formelle de la confidentialité différentielle et les principaux mécanismes qui permettent de l’atteindre. Nous discuterons aussi des défis rencontrés en pratique afin de mieux comprendre ce que l’application réelle de la confidentialité différentielle implique.