5 min read

Février 2026

Français

(English follows)

Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l'IA à Montréal.

Événements à venir

AI Pluralism: What Models Do, Who Decides, and Why It Matters
Mardi 3 février, 19h–21h, UQAM Pavillon Président-Kennedy
Présentation de Rashid Mushkani (UdeM + Mila). Discussion sur qui décide du comportement des modèles et selon quels critères.

La Bataille de l'IA
Vendredi 6 février, 13h–15h, 501 rue de la Gauchetière Ouest, salle C.623, Montréal
Atelier participatif (format jeu) sur cinq enjeux de l'IA générative : fiabilité de l'information, données personnelles, propriété intellectuelle, biais algorithmiques, impact environnemental. Inscription requise.

Technopolice : la surveillance policière à l'ère de l'IA
Vendredi 6 février, 12h–13h30, en ligne (Zoom)
Cercle de lecture de l'axe Droit, cybersécurité et cyberjustice de l'OBVIA. Présentation de Félix Tréguer, réaction de Benoît Dupont.

Mila Communauté de pratique : AI Safety
Jeudi 12 février, 9h–12h, Mila (6666 St-Urbain, Montréal)
Rencontre de la communauté de pratique sur la sûreté de l'IA.

What hackers talk about when they talk about AI
Mardi 17 février, 19h–21h, UQAM Pavillon Président-Kennedy
Présentation de Benoît Dupont (Chaire de recherche du Canada en cyber-résilience, UdeM). Analyse de 160+ conversations de forums cybercriminels : comment les hackers perçoivent et exploitent l'IA, leurs doutes, et les implications pour la sécurité.

IVADO Programme étudiant Perspective IA
Vendredis 6, 13 et 27 février, 16h–18h, hybride
Programme de formations courtes, non créditées et gratuites, en français et en anglais.

Opportunités

ML4Good Bootcamp — Montréal
1–9 juin 2026. Date limite : 8 février, 23h59 GMT (18h59 heure de Montréal)
Formation intensive en AI Safety. 8 jours, en personne, entièrement financé, places limitées. Les participants passés travaillent maintenant à l'AI Security Institute (UK), à la Commission européenne, et à MATS.

Bénévolat avec Horizon Omega
L'organisation derrière cette infolettre cherche des bénévoles pour l'organisation d'événements, le field-building en AI safety à Montréal, l'AI Safety Unconference (prochaine édition en préparation), et d'autres projets.

Politique et gouvernance

Canada : Norme sur l'IA accessible. Le Canada a publié CAN-ASC-6.2:2025 (1re édition), une norme sur l'IA accessible et équitable couvrant tout le cycle de vie des systèmes IA pour les personnes en situation de handicap.

Québec : Directives pour la fonction publique. Le gouvernement provincial impose des directives pour l'utilisation de l'IA dans l'administration publique.

Ontario : Divulgation IA dans l'embauche. Depuis le 1er janvier 2026, divulgation obligatoire si l'IA est utilisée pour évaluer ou filtrer des candidatures.

Ailleurs. Aux États-Unis, un executive order vise à limiter les lois étatiques sur l'IA via l'action fédérale. New York a malgré tout signé le RAISE Act sur les modèles « frontier ». En Europe, les premières obligations clés de l'AI Act pour les systèmes à haut risque et la transparence entrent en vigueur à partir d'août 2026.

Recherche

Multilingual Amnesia. Désapprendre un concept en anglais ne garantit pas qu'il soit désappris en français. Les interventions de sécurité ne se transfèrent pas entre langues.

Calibration multilingue. Un modèle peut être bien calibré en anglais mais sur-confiant en français. Problème pour toute application où la confiance du modèle influence une décision.

LLMs et persuasion. Trois expériences pré-enregistrées (N=2,724) montrent que les LLM peuvent convaincre les gens de croire à des théories du complot.

L'IA en milieu scolaire. Point de vue des parents québécois sur l'IA à l'école.

L'IA face à la diversité linguistique et culturelle. Comment les modèles traitent les langues minoritaires et les références culturelles locales.

L'IA pour l'accès à l'information juridique. Étude sur l'utilisation de l'IA pour améliorer l'accès au droit au Québec.

Arts et culture

Devenirs partagés : pratiques de l'IA
Jusqu'au 28 février, Galerie de l'UdeM (Pavillon de l'Esplanade, 6737 av. de l'Esplanade)
Exposition issue de l'initiative IA responsable (IVADO + UdeM) sur les usages créatifs et critiques de l'IA.

La Boîte Noire
Pièce de théâtre sur l'IA et la transformation de vie.

Yoshua Bengio chez HugoDécrypte
Interview sur les risques de l'IA et la gouvernance.


English

This monthly newsletter covers recent developments and upcoming events in AI safety, ethics, and governance in Montreal.

Upcoming Events

AI Pluralism: What Models Do, Who Decides, and Why It Matters
Tuesday, February 3, 7–9 PM, UQAM Pavillon Président-Kennedy
Presentation by Rashid Mushkani (UdeM + Mila). Discussion on who decides model behavior and by what criteria.

La Bataille de l'IA
Friday, February 6, 1–3 PM, 501 rue de la Gauchetière Ouest, room C.623, Montreal
Participatory workshop (game format) on five issues in generative AI: information reliability, personal data, intellectual property, algorithmic bias, environmental impact. Registration required.

Technopolice: Police Surveillance in the Age of AI
Friday, February 6, 12–1:30 PM, online (Zoom)
Reading circle from OBVIA's Law, Cybersecurity and Cyberjustice axis. Presentation by Félix Tréguer, response by Benoît Dupont.

Mila Community of Practice: AI Safety
Thursday, February 12, 9 AM–12 PM, Mila (6666 St-Urbain, Montreal)
AI Safety community of practice gathering.

What hackers talk about when they talk about AI
Tuesday, February 17, 7–9 PM, UQAM Pavillon Président-Kennedy
Presentation by Benoît Dupont (Canada Research Chair in Cyber-Resilience, UdeM). Analysis of 160+ cybercriminal forum conversations: how hackers perceive and exploit AI, their doubts, and implications for security.

IVADO Perspective IA Student Program
Fridays February 6, 13, and 27, 4–6 PM, hybrid
Short, non-credit, free training sessions in French and English.

Opportunities

ML4Good Bootcamp — Montreal
June 1–9, 2026. Deadline: February 8, 11:59 PM GMT (6:59 PM Montreal time)
Intensive AI Safety training. 8 days, in-person, fully funded, limited spots. Past participants now work at the AI Security Institute (UK), European Commission, and MATS.

Volunteer with Horizon Omega
The organization behind this newsletter is looking for volunteers for event organization, AI safety field-building in Montreal, the AI Safety Unconference (next edition in preparation), and other projects.

Policy and Governance

Canada: Accessible AI Standard. Canada published CAN-ASC-6.2:2025 (1st edition), a standard on accessible and equitable AI covering the full lifecycle of AI systems for people with disabilities.

Quebec: Guidelines for Public Service. The provincial government imposes guidelines for AI use in public administration.

Ontario: AI Disclosure in Hiring. Since January 1, 2026, mandatory disclosure if AI is used to evaluate or screen job applications.

Elsewhere. In the United States, an executive order aims to limit state AI laws through federal action. New York nonetheless signed the RAISE Act on frontier models. In Europe, the first key obligations of the AI Act for high-risk systems and transparency take effect starting August 2026.

Research

Multilingual Amnesia. Unlearning a concept in English does not guarantee it is unlearned in French. Safety interventions do not transfer across languages.

Multilingual Calibration. A model can be well-calibrated in English but overconfident in French. A problem for any application where model confidence influences a decision.

LLMs and Persuasion. Three pre-registered experiments (N=2,724) show that LLMs can convince people to believe conspiracy theories.

AI in Schools. Quebec parents' perspectives on AI in education.

AI and Linguistic and Cultural Diversity. How models handle minority languages and local cultural references.

AI for Access to Legal Information. Study on using AI to improve access to law in Quebec.

Arts and Culture

Devenirs partagés: pratiques de l'IA
Until February 28, Galerie de l'UdeM (Pavillon de l'Esplanade, 6737 av. de l'Esplanade)
Exhibition from the Responsible AI initiative (IVADO + UdeM) on creative and critical uses of AI.

La Boîte Noire
Theater play about AI and life transformation.

Yoshua Bengio on HugoDécrypte
Interview on AI risks and governance.