Intelligence artificielle

Vue d’ensemble

L'évolution rapide de l'intelligence artificielle (IA) transforme fondamentalement tous les secteurs de l'économie, et le domaine juridique n'y fait pas exception. À mesure que les organisations intègrent de plus en plus l'IA dans leurs opérations, le besoin de cadres juridiques solides, de directives éthiques et de gestion stratégique des risques n'a jamais été aussi grand.

Une approche stratégique et multidisciplinaire

L'expertise de Lavery en IA repose sur une approche multidisciplinaire qui combine les perspectives juridiques, technologiques et commerciales. Nous reconnaissons que l'IA n'est pas simplement une innovation technologique, mais un levier stratégique qui, lorsqu'il est correctement réglementé, peut considérablement améliorer l'efficacité et l'innovation au sein des organisations. L'équipe de Lavery aide les entreprises à mettre en œuvre des solutions d'IA responsables qui respectent les exigences légales actuelles et anticipent les tendances réglementaires futures.

Principaux domaines d'expertise :

  • Rédaction de contrats de licences et ententes commerciale
  • Protection des données et de la vie privée
  • Gestion de la propriété intellectuelle (PI)
  • Gouvernance d'entreprise dans le contexte de l'IA
  • Conformité réglementaire et conseils stratégiques

Leadership en protection des données et de la vie privée

Avec l'augmentation des données traitées par les systèmes d'IA, Lavery a fait de la protection des données et de la vie privée un pilier de ses services juridiques en IA. Le cabinet guide ses clients à travers les complexités des lois locales et internationales sur la protection des données, telles que la Loi sur la protection des renseignements personnels dans le secteur privé du Québec, et les aide à anticiper les développements réglementaires futurs.

  • L'approche de Lavery comprend :
  • La réalisation d'évaluations d'impact sur la vie privée pour les projets IA
  • Des conseils sur les flux de données transfrontaliers et les risques associés
  • La rédaction et la négociation d'accords de traitement des données
  • Assurer la conformité avec les cadres de confidentialité en évolution, y compris la proposition de loi fédérale sur l'intelligence artificielle et les données (LIAD)
  • Propriété intellectuelle à l'ère de l'IA

La protection de votre propriété intellectuelle

L'innovation alimentée par l'IA soulève de nouvelles questions concernant la propriété, la protection et la commercialisation de la propriété intellectuelle. Nos experts assistent les peuvent vous assister dans :

  • La protection des innovations générées par l'IA par le biais de brevets, de droits d'auteur et de secrets commerciaux
  • La gestion des risques associés au contenu généré par l'IA
  • Développer des stratégies PI adaptées pour les modèles d'affaires numériques et axés sur les données

Gouvernance et gestion des risques

Nos professionnels peuvent vous accompagner dans l'intégration éthique et sécurisée d’outils d'IA dans les environnements commerciaux qui respectent les meilleures pratiques en matière de gouvernance. Nous pouvons vous assister dans :

  • Mise en place de politiques internes et de cadres de gouvernance
  • Examen approfondi des licences et termes d'utilisation des outils IA
  • Évaluations de risques continues et adaptation aux changements réglementaires
  • Conseils sur la dépendance à l'égard de l'IA et mitiger le risque avec vos fournisseurs

Nous conseillons les entreprises sur la manière d'éviter une dépendance excessive envers des fournisseurs d'IA uniques, en particulier ceux basés en dehors du Canada. Il est important d'évaluer les solutions alternatives, de comprendre les enjeux liés à la souveraineté des données et de maintenir un contrôle stratégique sur les actifs technologiques.

Le Laboratoire juridique Lavery sur l'intelligence artificielle (L3IA)

Créé en mars 2017, le L3IA a été l'une des premières initiatives de ce type au Canada, mise en place pour anticiper et traiter les complexités juridiques découlant de l'intégration de l'IA dans les pratiques commerciales. La mission de notre laboratoire est de rester à la pointe en surveillant continuellement les tendances émergentes, en évaluant les défis juridiques et en fournissant des conseils avant-gardistes aux clients.

Fonctions du L3IA :

  • Anticiper les problèmes juridiques liés à l'IA et développer des stratégies proactives pour nos clients
  • Suivre l'évolution des lois et règlements aux niveaux provincial, national et international afin de s’y conformer
  • Développer et tester de nouveaux outils juridiques technologiques, y compris des solutions basées sur l'IA pour générer de l’efficience organisationnelle pour le cabinet ainsi que pour nos clients

Réalisations concrètes et innovations

Une réalisation marquante de la stratégie d'IA de Lavery a été le développement de sa propre interface d’intelligence artificielle générative, inspiré par la technologie ChatGPT d'OpenAI. Contrairement aux outils d'IA génériques, la solution de Lavery est adaptée aux besoins spécifiques et au contexte réglementaire de sa pratique juridique. L’outil est alimenté par du contenu juridique pertinent et fonctionne dans un cadre régi par les politiques internes de Lavery, garantissant à la fois sécurité et conformité.

Principales caractéristiques :

  • Environnement sécurisé et contrôlé pour les requêtes juridiques
  • Intégration des connaissances juridiques spécifiques au cabinet
  • Conformité aux réglementations sur la confidentialité des données et la PI
  • Support pour la prise de décision interne et la prestation de services aux clients

Cette innovation améliore non seulement l'efficacité des professionnels du droit chez Lavery, mais démontre également l'engagement du cabinet envers une intégration de l'IA responsable et éthique.


Notre expertise en intelligence artificielle est le fruit de la prévoyance, de l'innovation et d'une compréhension approfondie des dynamiques juridiques et technologiques. Le laboratoire juridique sur l'intelligence artificielle de Lavery (L3IA) sert de catalyseur pour la recherche, le développement et l'application pratique de l'IA dans des contextes juridiques. Nous proposons des stratégies robustes de protection des données, un accompagnement sur l'intégration éthique de l'IA et offrons à nos clients une gamme complète de services conçus pour tirer parti des avantages de l'IA tout en gérant ses risques.

 

  1. Quand l’IA s’invite au tribunal : rappel à l’ordre dans Specter Aviation

    Huit citations « hallucinées » d’intelligence artificielle (IA) valent 5000 $ pour manquement important (art. 342 C.p.c.) selon l’affaire Specter Aviation1. Bien que l’IA puisse améliorer l’accès à la justice, son usage non vérifié expose à des sanctions — un risque accru pour les parties non représentées. Les tribunaux québécois prônent une ouverture encadrée : l’IA est utile une fois vérifiée, traçable et appuyée par des sources officielles.  Le coût des hallucinations  Le 1er octobre 2025, la Cour supérieure rend un jugement sur une demande contestée d’homologation d’une sentence arbitrale rendue par la Chambre arbitrale internationale de Paris (CAIP) le 9 décembre 2021. En application des articles 645 et 646 C.p.c., son rôle se limite à vérifier si l’un des motifs limitatifs de refus prévus à l’article 646 est démontré. Or, les moyens invoqués — excès de pouvoir, irrégularités procédurales, atteinte aux droits fondamentaux, ordre public, abus — ne cadrent pas et sont peu convaincants. Toutefois, c’est à un autre égard que la décision retient l’attention.  Dans sa contestation, le défendeur, non représenté, s’appuie « sur toute la force possible » que l’intelligence artificielle peut lui offrir. En réponse, les demanderesses déposent un tableau recensant huit occurrences de citations inexistantes, de décisions non rendues, de références sans objet et de conclusions non concordantes. Interrogé à l’audience, le défendeur ne conteste pas que certaines références aient pu être « hallucinées2 ».  Dans son jugement, le juge Morin situe le débat dans les principes. D’une part, l’accès à la justice impose des conditions égales pour tous (level playing field) et une gestion ordonnée et proportionnée des instances. D’autre part, la flexibilité dont bénéficient les justiciables non représentés n’autorise « jamais » la tolérance du faux :   « L’accès à la justice ne saurait jamais s’accommoder de la fabulation ou de la frime3. » La Cour qualifie donc la production d’extraits fictifs de jurisprudence ou d’autorités, que ce soit intentionnellement ou par simple négligence, de manquement grave qui contrevient au caractère solennel du dépôt d’une procédure. Elle s’appuie sur l’article 342 C.p.c. pour condamner le défendeur à payer 5 000 $, dans un objectif de dissuasion et de protection de l’intégrité du processus4.  Art. 342 C.p.c. : Le pouvoir de sanctionner les manquements importants Rappelons que l’article 342 C.p.c. provient de la réforme adoptée en 2014 et entrée en vigueur en 2016. Autorisant le tribunal à sanctionner, à titre de frais de justice, les manquements importants survenus en cours d’instance par une somme juste et raisonnable5, cette disposition est de nature essentiellement punitive et dissuasive. Il s’agit par ailleurs d’un pouvoir distinct du régime des articles 51 à 54 C.p.c. encadrant l’abus et d’une exception au régime général des frais6 permettant, lorsque c’est justifié, d’accorder des honoraires extrajudiciaires7. Le « manquement important » doit être plus qu’anodin et d’une certaine gravité, sans exiger la mauvaise foi. Il suppose du temps et des frais additionnels et heurte les principes directeurs des articles 18 à 20 C.p.c. (proportionnalité, maîtrise et coopération)8.  Près de dix ans plus tard, la jurisprudence illustre un éventail d’usages : 100 000 $ pour le dépôt tardif de requêtes ou d’amendements entraînant des remises et du travail devenu inutile9; 91 770,10 $ pour une remise, le matin du procès, faute d’avoir assuré la présence d’un témoin indispensable10; 10 000 $ pour des retards répétés, la modification tardive des procédures et le non-respect d’ordonnances de gestion11; 3 500 $ pour un défaut ou un retard de communication de la preuve12; 1 000 $ pour le dépôt, en pleine audience, d’une déclaration non communiquée visant à prendre la partie adverse par surprise13.  Sanctions et usages de l’IA au Canada et ailleurs  Par ailleurs, bien que l’utilisation de l’article 342 pour sanctionner un usage non vérifié d’outils technologiques semble constituer une première au Québec, plusieurs jugements au Canada ont déjà imposé des sanctions pour des faits similaires. Notamment, ils ont accordé : 200 $ en dépens contre une partie non représentée pour avoir déposé des écritures contenant des citations partiellement inexistantes afin de compenser le temps de vérification14. 100 $ en Cour fédérale, à la charge personnelle de l’avocat, pour avoir cité des décisions inexistantes générées par l’IA, sans en divulguer l’usage, suivant le test de Kuehne + Nagel15. 1 000 $ devant le Civil Resolution Tribunal de la Colombie-Britannique pour compenser le temps inutilement consacré à traiter des arguments et documents générés par l’IA et manifestement non pertinents, dans un dossier opposant deux parties non représentées16. 500 $ et radiation du dossier contenant des autorités « hallucinées » par l’IA, pour non-respect de la pratique de la Cour fédérale sur l’IA17.  Le montant de 5 000 $ ordonné ici à titre dissuasif se démarque toutefois de ces autres montants essentiellement compensatoires, tout en s’inscrivant dans une tendance internationale, comme en témoignent les cas suivants : Le 22 juin 2023, aux États-Unis (S.D.N.Y.), une pénalité de 5 000 USD a été infligée en vertu de la Rule 11, assortie de mesures non pécuniaires (avis au client et aux juges faussement cités), dans l’affaire Mata v. Avianca, Inc.18. Le 23 septembre 2025, en Italie, une somme de 2 000 € a été prononcée ex art. 96, co. 3 c.p.c. (1 000 € à la partie adverse et 1 000 € à la Cassa delle ammende), en plus de 5 391 € de frais de justice (spese di lite), par le Tribunale di Latina19. Le 15 août 2025, en Australie, des dépens personnels de 8 371,30 AUD ont été ordonnés contre l’avocat du demandeur, avec renvoi au Legal Practice Board of Western Australia, à la suite de citations fictives générées par l’IA (Claude, Copilot)20. Le 22 octobre 2025, aux États-Unis (E.D. Oklahoma), des sanctions pécuniaires totalisant 6 000 $ ont été imposées individuellement à des avocats, qui ont dû rembourser des honoraires de 23 495,90 $, avec radiation des actes et obligation de redépôt vérifié21. Outre les sanctions pécuniaires, les tribunaux québécois recensent déjà plusieurs situations problématiques en lien avec l’utilisation de l’IA, par exemple : La Régie du bâtiment du Québec a dû examiner un mémoire de 191 pages contenant de nombreuses références inexistantes. L’auteur a finalement admis avoir utilisé ChatGPT pour les formuler. Le régisseur souligne la surcharge ainsi créée et la nécessité d’un encadrement de l’usage de l’IA devant la RBQ22. Dans une affaire commerciale, la Cour soupçonne des références « hallucinées » et les écarte, jugeant sur la preuve crédible23. Au Tribunal administratif du logement (TAL), un locateur ayant lu des « traductions » du C.c.Q. obtenues au moyen de ChatGPT — qui en déformaient le sens — voit sa demande rejetée. L’abus n’est toutefois pas retenu, la bonne foi étant reconnue24. Deux décisions jumelles du TAL relèvent qu’une entente (« Lease Transfer and Co-Tenancy Agreement ») avait été rédigée avec l’aide de ChatGPT, mais le Tribunal en fait simplement l’analyse ordinaire (texte, contexte, règles du C.c.Q.) et conclut à une cession de bail différée, sans tirer de conséquence particulière du recours à l’IA25. Devant la Cour du Québec, un justiciable attribue à « ChatGPT » une formulation auto-incriminante de sa requête; la Cour rejette l’explication26. Dans une requête en exclusion de preuve, le requérant soutient qu’il s’est cru obligé de répondre aux enquêteurs après avoir fait, juste avant l’entrevue, des recherches sur Google et ChatGPT concernant ses devoirs de collaboration envers l’employeur. La Cour constate qu’il avait été clairement informé de son droit au silence et qu’il pouvait quitter ou consulter un avocat. Elle conclut donc à l’absence de contrainte réelle et admet la déclaration27.  Ouverture encadrée : l’IA – oui, mais…  Ce ne sont ici que quelques dossiers d’une grande liste qui ne cesse de s’allonger, tant à l’échelle nationale qu’à l’échelle internationale. Toutefois, malgré cette tendance, la décision Specter Aviation évite de stigmatiser l’IA.  Le tribunal insiste plutôt sur une approche d’ouverture encadrée, rappelant qu’une technologie qui favorise l’accès doit être « saluée et encadrée » plutôt que proscrite28. Cette ouverture s’accompagne d’exigences claires, conformément à l’avis institutionnel que la Cour supérieure avait publié le 24 octobre 2023 et dans lequel elle exigeait de la prudence, un recours à des sources fiables (sites Web des tribunaux, éditeurs reconnus, services publics établis) et un « contrôle humain rigoureux » des contenus générés29.  En fait, les guides de pratique des différents tribunaux abondent dans le même sens : il faut encadrer sans bannir. La Cour fédérale exige une déclaration lorsque du contenu généré par l’IA est intégré à un écrit déposé et insiste sur le « maillon humain » de vérification30. La Cour d’appel du Québec31, la Cour du Québec32 et les cours municipales33 formulent des mises en garde analogues : prudence, sources faisant autorité, hyperliens vers des banques reconnues et responsabilité pleine de l’auteur. Nulle part l’IA n’est bannie; partout, elle est conditionnée à la vérification et à la traçabilité.  Quelques indices suggèrent que la magistrature a elle-même recours à l’intelligence artificielle. À la Division des petites créances, un juge a joint à au moins deux reprises, par courtoisie, des traductions anglaises générées par ChatGPT, en précisant leur absence de valeur légale et la primauté de la version française34. En droit de la famille, une décision de la Cour supérieure en matière familiale utilise manifestement un lien de Statistique Canada repéré au moyen d’un outil d’IA (l’URL comporte « utm_source=chatgpt.com »), mais le raisonnement demeure ancré dans les sources primaires et la jurisprudence : l’IA sert de repérage, pas de fondement35.  Une décision rendue le 3 septembre dernier par la Commission d’accès à l’information illustre particulièrement bien cette ouverture pour un usage encadré. Dans l’affaire Breton c. MSSS36, le tribunal admet des pièces contenant du contenu généré par Gemini et Copilot, parce qu’elles sont corroborées par des sources primaires déposées (Journal des débats, extraits de journaux, sites officiels) et pertinentes. Malgré l’art. 2857 C.c.Q. et la souplesse du droit administratif, le tribunal rappelle que l’IA est recevable si, et seulement si, son contenu est vérifié, traçable et étayé par des sources officielles.  L’IA qui veut nous plaire et qu’on veut croire  Par ailleurs, deux constantes se dégagent des cas sanctionnés : une confiance excessive dans la « fiabilité » de l’IA et une sous-estimation du risque d’hallucination. Aux États-Unis, dans l’affaire Mata v. Avianca37, des avocats affirment avoir cru que l’outil ne pouvait pas inventer des causes. Au Canada, dans l’affaire Hussein v. Canada38, l’avocat du demandeur dit s’être fié de bonne foi à un service d’IA sans se rendre pleinement compte de la nécessité de vérifier les références. En Australie, dans l’affaire JNE24 v. Minister for Immigration and Citizenship39, le tribunal rapporte une confiance exagérée dans des outils (Claude, Copilot) et une vérification insuffisante. Au Québec, le TAL constate qu’un locateur « a été induit en erreur par l’utilisation de l’intelligence artificielle40 », tandis que le Tribunal administratif du travail (TAT) relève un recours à des réponses générées par ChatGPT présentées comme « précises à environ 92 %41 ».    Ces exemples décrivent un biais de confiance généralisé particulièrement risqué pour les personnes non représentées : l’IA est perçue comme un accélérateur fiable alors qu’elle exige un surcroît de contrôle humain. Les grands modèles de langage sont optimisés pour produire des réponses plausibles et engageantes; sans encadrement, ils tendent à confirmer les attentes de l’utilisateur plutôt qu’à signaler leurs propres limites42. Un avis publié en avril dernier par OpenAI concernant une mise à jour qui rendait son modèle « trop complaisant » témoigne de la complexité sous-jacente à établir une juste balance entre engagement et rigueur43. On comprend dès lors qu’un plaideur quérulent ait pu se convaincre, sur la foi d’une réponse d’IA, être en droit de poursuivre personnellement un juge pour des actes judiciaires perçus comme partiaux44.  Des modèles entraînés pour « plaire » ou maintenir l’engagement peuvent générer des réponses qui, en l’absence de contextualisation juridique, amplifient des interprétations erronées ou imprudentes. Bien que les fournisseurs de services d’IA cherchent généralement à limiter leur responsabilité quant aux conséquences de réponses erronées, la portée de telles clauses est nécessairement restreinte. Lorsque ChatGPT, Claude et Gemini appliquent des principes juridiques à des faits rapportés par un utilisateur, il semble légitime de se demander si l’entité qui offre ce service ne s’expose pas aux règles d’ordre public qui font de ces gestes des actes réservés aux avocats et auxquelles on ne pourrait déroger par simple clause de non-responsabilité. Dans Standing Buffalo Dakota First Nation v. Maurice Law, la Cour d’appel de la Saskatchewan rappelle d’ailleurs que l’interdiction de pratiquer le droit vise toute « personne » (y compris une personne morale) et envisage expressément que la médiation technologique ne change pas l’analyse des actes réservés45.  Au Québec, ce principe trouve son ancrage dans l’article 128 de la Loi sur le Barreau et le Code des professions : l’information juridique générale est permise, mais l’avis individualisé demeure un acte réservé. Si certaines dérives ont concerné des avocats, les justiciables non représentés apparaissent les plus exposés aux effets de l’IA. Faut-il miser d’abord sur l’éducation des utilisateurs ou restreindre certains cas d’usage? La tension entre l’accès à la justice et la protection du public est, ici, manifeste.  Conclusion  Bref, le jugement Specter Aviation confirme que l’intelligence artificielle a sa place au tribunal, à condition d’être rigoureusement encadrée, et qu’elle est utile lorsqu’elle est vérifiée, mais sanctionnable lorsqu’elle ne l’est pas. On constate que, si l’IA offre des possibilités sans précédent en matière d’accès à la justice, la conjuguer avec la protection du public demeure un enjeu de taille. Malgré ce signal clair, contenir la confiance excessive envers des outils conçus pour être engageants, complaisants et qui prétendent pouvoir répondre à tout restera un défi pour les années à venir.  Specter Aviation Limited c Laprade, 2025 QCCS 3521, en ligne : https://canlii.ca/t/kfp2c Id, par. [35], [53] Id, par. [43] Id, par. [60] Chicoine c Vessia, 2023 QCCA 582, https://canlii.ca/t/jx19q, par. [20]; Gagnon c Audi Canada inc, 2018 QCCS 3128, https://canlii.ca/t/ht3cb, par. [43]–[48]; Layla Jet Ltd. c Acass Canada Ltd, 2020 QCCS 667, https://canlii.ca/t/j5nt8, par. [19]–[26] Code de procédure civile, RLRQ, c C-25.01, art 339–341 Chicoine c Vessia, préc. note 5, par. [20]–[21]; Constellation Brands US Operations c Société de vin internationale ltée, 2019 QCCS 3610, https://canlii.ca/t/j251v, par. [47]–[52]; Webb Electronics Inc c RRF Industries Inc, 2023 QCCS 3716, https://canlii.ca/t/k0fq8, par. [39]–[48]. 9401-0428 Québec inc. c 9414-8442 Québec inc., 2025 QCCA 1030, https://canlii.ca/t/kdz4h, par. [82]–[87]; Biron c 150 Marchand Holdings inc, 2020 QCCA 1537, https://canlii.ca/t/jbnj2, par. [100]; Groupe manufacturier d’ascenseurs Global Tardif inc. c Société de transport de Montréal, 2023 QCCS 1403, https://canlii.ca/t/jx042, par. [26]. Groupe manufacturier d’ascenseurs Global Tardif inc. c Société de transport de Montréal, préc. note 8, par. [58]–[61] (100 000 $ à Global Tardif, 60 000 $ à Intact Assurance, 40 000 $ à Fujitec, tous à titre de frais de justice en application de l’art. 342 C.p.c.); voir aussi 20 000 $ pour une demande de modification au 6? jour de procès ayant forcé la reprise de l’instruction : Paradis c Dupras Ledoux inc., 2024 QCCS 3266, https://canlii.ca/t/k6q26, par. [154]–[171]; Webb Electronics Inc c RRF Industries Inc, préc. note 7 Layla Jet Ltd c Acass Canada Ltd, préc. note 5, par. [23]–[28] Électro-peintres du Québec inc. c 2744-3563 Québec inc., 2023 QCCS 1819, https://canlii.ca/t/jxfn0, par. [18]–[22], [35]–[38]; voir aussi Constant c Larouche, 2020 QCCS 2963, https://canlii.ca/t/j9rwt, par. [37]–[40] (retards répétés à tenir des engagements malgré une ordonnance, sanctionnés 5000 $). Constellation Brands US Operations c Société de vin internationale ltée,préc. note. 7, par. [39]–[43], [47]–[52]; voir aussi AE Services et technologies inc c Foraction inc (Ville de Sainte-Catherine), 2024 QCCS 242, https://canlii.ca/t/k2jvm (retards répétés à transmettre la documentation promise et non-respect d’un engagement devant le tribunal; compensation de 3000 $) Gagnon c SkiBromont.com, 2024 QCCS 3246, https://canlii.ca/t/k6mzz, par. [29]–[37], [41]. J.R.V. v N.L.V., 2025 BCSC 1137, https://canlii.ca/t/kcsnc, par. [51]–[55]. Hussein v Canada (IRCC), 2025 FC 1138, https://canlii.ca/t/kctz0, par. [15]–[17], appliquant Kuehne + Nagel Inc. v Harman Inc, 2021 FC 26, https://canlii.ca/t/jd4j6, par. [52]–[55] (rappel des principes de Young v Young et du test en deux étapes : 1) conduite ayant causé des frais; 2) décision discrétionnaire d’imposer les frais personnellement). AQ v BW, 2025 BCCRT 907, https://canlii.ca/t/kd08x, par. [15]–[16], [38]–[40]. Lloyd’s Register Canada Ltd v Choi, 2025 FC 1233, https://canlii.ca/t/kd4w2. Mata v Avianca, Inc., No 22-cv-1461 (PKC) (S.D.N.Y. 22 June 2023) (sanctions order), en ligne : Justia https://law.justia.com/cases/federal/district-courts/new-york/nysdce/1:2022cv01461/575368/54/ Tribunale di Latina (giud. Valentina Avarello), sentenza 23 septembre 2025, « Atto redatto con intelligenza artificiale a stampone, con scarsa qualità e mancanza di pertinenza: sì alla condanna ex art. 96 c.p.c. », La Nuova Procedura Civile (29 septembre 2025), en ligne : https://www.lanuovaproceduracivile.com/atto-redatto-con-intelligenza-artificiale-a-stampone-con-scarsa-qualita-e-mancanza-di-pertinenza-si-alla-condanna-ex-art-96-c-p-c-dice-tribunale-di-latina/ Australie, Federal Circuit and Family Court of Australia (Division 2), JNE24 v Minister for Immigration and Citizenship, [2025] FedCFamC2G 1314 (15 août 2025), Gerrard J, en ligne : AustLII https://www.austlii.edu.au/cgi-bin/viewdoc/au/cases/cth/FedCFamC2G/2025/1314.html United States, District Court for the Eastern District of Oklahoma, Mattox v. Product Innovations Research, LLC d/b/a Sunevolutions; Cosway Company, Inc.; and John Does 1–3, No. 6:24-cv-235-JAR, Order (22 October 2025), en ligne : Eastern District of Oklahoma https://websitedc.s3.amazonaws.com/documents/Mattox_v._Product_Innovations_Research_USA_22_October_2025.pdf (PDF) Régie du bâtiment du Québec c 9308-2469 Québec inc (Éco résidentiel), 2025 QCRBQ 86, en ligne : https://canlii.ca/t/kfdfg, par. [159]–[167]. Blinds to Go Inc. c. Blachley, 2025 QCCS 3190, en ligne : https://canlii.ca/t/kf963, par. [57] et n. 22. Lozano González c. Roberge, 2025 QCTAL 15786, en ligne : https://canlii.ca/t/kc2w9, par. [7], [17]–[19]. Marna c. BKS Properties Ltd, 2025 QCTAL 34103, en ligne : https://canlii.ca/t/kfq8n, par. [18], [21]–[25]; Campbell c. Marna, 2025 QCTAL 34105, en ligne : https://canlii.ca/t/kfq81, par. [18], [21]–[25]. Morrissette c. R., 2023 QCCQ 12018, en ligne : https://canlii.ca/t/k3x5j, par. [43] Léonard c. Agence du revenu du Québec, 2025 QCCQ 2599, en ligne : https://canlii.ca/t/kcxsb, par. [58]–[64]. Specter Aviation Limited c. Laprade, préc. note 1, par. [46]. Cour supérieure du Québec, Avis à la communauté juridique et au public – L’intégrité des observations présentées aux tribunaux en cas d’utilisation des grands modèles de langage, 24 octobre 2023, en ligne : https://coursuperieureduquebec.ca/fileadmin/cour-superieure/Communiques_et_Directives/Montreal/Avis_a_la_communaute_juridique-Utilisation_intelligence_artificielle_FR.pdf Cour fédérale, Avis aux parties et à la communauté juridique – L’utilisation de l’intelligence artificielle dans les procédures judiciaires, 20 décembre 2023, en ligne : https://www.fct-cf.ca/Content/assets/pdf/base/2023-12-20-avis-utilisation-ia-procedures-judiciairess.pdf; Cour fédérale, Mise à jour – L’utilisation de l’intelligence artificielle dans les instances judiciaires, 7 mai 2024, en ligne : https://www.fct-cf.ca/Content/assets/pdf/base/FC-Updated-AI-Notice-FR.pdf Cour d’appel du Québec, Avis concernant le recours à l’intelligence artificielle devant la Cour d’appel du Québec, 8 août 2024, en ligne : https://courdappelduquebec.ca/fileadmin/dossiers_civils/avis_et_formulaires/avis_utilisation_intelligence_articielle_FR.pdf Cour du Québec, Avis à la communauté juridique et au public – Maintenir l’intégrité des observations à la Cour lors de l’utilisation de grands modèles linguistiques, 26 janvier 2024, en ligne : https://courduquebec.ca/fileadmin/cour-du-quebec/centre-de-documentation/toutes-les-chambres/AvisIntegriteObservationsCQ_LLM.pdf Cours municipales du Québec, Avis à la profession et au public – Maintenir l’intégrité des observations à la Cour lors de l’utilisation de grands modèles de langage, 18 décembre 2023, en ligne : https://coursmunicipales.ca/fileadmin/cours_municipales_du_quebec/pdf/Document_d_information/CoursMun_AvisIntegriteObservations.pdf Bricault c. Rize Bikes Inc., 2024 QCCQ 609, en ligne : https://canlii.ca/t/k3lcd, n.1; Brett c. 9187-7654 Québec inc., 2023 QCCQ 8520, en ligne : https://canlii.ca/t/k1dpr, n. 1. Droit de la famille — 251297, 2025 QCCS 3187, en ligne : https://canlii.ca/t/kf96f, par. [138]–[141]. Breton c. Ministère de la Santé et des Services sociaux, 2025 QCCAI 280, en ligne : https://canlii.ca/t/kftlz, par. [24]–[26], [31] Mata v Avianca, Inc., préc. note 18. Hussein v Canada (IRCC), 2025 FC 1138, préc. note 15, par. [15]–[17]. JNE24 v Minister for Immigration and Citizenship, préc. note 20. Lozano González c. Roberge, préc. note 24, par. [17]. Pâtisseries Jessica inc. et Chen, 2024 QCTAT 1519, en ligne : https://canlii.ca/t/k4f96, par. [34]–[36]. Voir à ce sujet Emilio Ferrara, « Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models » (2023), SSRN 4627814, en ligne : https://doi.org/10.2139/ssrn.4627814; Isabel O. Gallegos et al., « Bias and Fairness in Large Language Models: A Survey » (2024) 50:3 Computational Linguistics 1097, doi: 10.1162/coli_a_00524. Voir OpenAI, Sycophancy in GPT-4o: what happened and what we’re doing about it, 29 avril 2025, en ligne : https://openai.com/research/sycophancy-in-gpt-4o; voir aussi Expanding on what we missed with sycophancy, 2 mai 2025. en ligne: https://openai.com/index/expanding-on-sycophancy/ Verreault c. Gagnon, 2023 QCCS 4922, en ligne : https://canlii.ca/t/k243v, par. [16], [28]. Standing Buffalo Dakota First Nation v Maurice Law Barristers and Solicitors (Ron S. Maurice Professional Corporation), 2024 SKCA 14, en ligne : https://canlii.ca/t/k2wn9, par. [37]–[40], [88]–[103]

    Lire la suite
  2. Contrôles à l’exportation : les implications dans un monde de partage de connaissances

    Introduction À entendre « contrôles à l’exportation », on peut s’imaginer que cela ne concerne que les armements et autres technologies ultra-sensibles et pourtant… Il existe une panoplie de circonstances, même inattendues, pour lesquelles il est important de savoir que des mesures de contrôle à l’exportation existent. Cela d’autant plus si vous prenez part à de la recherche, ou encore à la conception et mise au point de solutions d’apparence anodines et qui ne sont pas nécessairement des objets tangibles. À l’heure actuelle, les connaissances technologiques se partagent non seulement par le biais de partenariats conventionnels entre les entreprises ou les universités, mais aussi via le partage de données ou l’accès à des bases de données qui alimentent de grands modèles de langage. L’intelligence artificielle est, en soi, un moyen de partager des connaissances. Alimenter de tels algorithmes avec des données sensibles, ou des données qui peuvent s’avérer sensibles lorsqu’elles sont combinées, présente un risque d’enfreindre le cadre juridique applicable. En voici quelques notions clés. Aperçu du cadre fédéral des contrôles à l’exportation La Loi sur les licences d’exportation et d’importation Au Canada, la Loi sur les licences d’exportation et d’importation du Canada (« LLEI ») établit le cadre principal régissant les contrôles à l’exportation de marchandises et de technologies. La LLEI confère au ministre des Affaires étrangères le pouvoir de délivrer, à tout résident du Canada qui en fait la demande, une licence autorisant l’exportation ou le transfert d’une large palette d’articles inscrits sur la Liste des marchandises et technologies d’exportation contrôlée (la « LMTEC ») ou destinés à un pays inscrit sur la Liste des pays visés. Autrement dit, la LLEI vise à encadrer, voire interdire, le commerce de biens et de technologies critiques en dehors des frontières canadiennes. La Liste des marchandises et technologies d’exportation contrôlée Pour apprécier la LMTEC de manière complète, il est nécessaire de se référer au Guide de la Liste des marchandises et technologies d’exportation contrôlées du Canada dans sa version publiée par le ministère avec ses modifications successives, dont les plus récentes modifications datent de mai 2025 (le « Guide »). En résumé, le Guide comprend des marchandises et technologies militaires, stratégiques et à double usage (civil et militaire) en vertu des engagements pris par le Canada dans le cadre de régimes multilatéraux, tel que l’Arrangement de Wassenaar pour le contrôle des armes conventionnelles et des biens et technologies sensibles à double usage, d’accords bilatéraux, ou encore de certains contrôles unilatéralement mis en place par le Canada dans sa politique de défense. Le Guide comprend également les produits forestiers, les produits agricoles et de nourriture, les vêtements et les véhicules. Les autres lois qui influencent l’exportation Cependant, il faudra également tenir compte des sanctions que le Canada impose en vertu de lois ayant une incidence sur l’exportation, telles que : la Loi sur les Nations Unies ; la Loi sur les mesures économiques spéciales ; la Loi sur la justice pour les victimes de dirigeants étrangers corrompus. Ces sanctions à l’encontre de pays visés, d’organisations ou de personnes, englobent plusieurs mesures, dont la restriction ou l’interdiction du commerce, de transactions financières ou d’autres activités économiques avec le Canada, ou encore le gel de biens se trouvant sur son territoire1. Finalement, pour qu’une personne (y compris une entreprise) puisse transférer des marchandises contrôlées à l’extérieur du Canada, elle doit s’inscrire au Programme des marchandises contrôlées (« PMC ») afin d’obtenir une licence d’exportation, sauf exemption. Quelques notions clés Le saviez-vous ? Certaines marchandises et technologies sont dites à « double usage » ou à « vocation double ». Cela signifie que l’une d’elles pourra faire l’objet de mesures de contrôle à l’exportation si, bien qu’initialement conçue à des fins civiles ou d’apparences inoffensives, elle peut avoir une application militaire ou servir à produire des articles militaires. Une « technologie » s’entend largement, en couvrant notamment des données techniques, de l’assistance technique et des renseignements nécessaires à la mise au point, à la production ou à l’utilisation d’un article figurant sur la LMTEC. De manière indirecte, il peut également s’agir de technologies visées par l’un des règlements pris en vertu des lois susmentionnées, qui assujettissent certains pays à des restrictions de transferts technologiques spécifiques. Également, un « transfert » comprend, relativement à une technologie, son aliénation (ex. vente) ou la communication de son contenu de quelque façon à partir d’un lieu situé au Canada vers une destination étrangère. Cette définition découle de modifications législatives à la LLEI, qui ont eu pour conséquence d’en étendre la portée à la simple communication de technologies intangibles par divers moyens, et donc d’élargir l’applicabilité des licences requises à cet effet2. En ce qui concerne les relations commerciales avec les États-Unis, les exportateurs canadiens pourront possiblement devoir composer avec des restrictions supplémentaires et d’épineux défis, notamment eu égard aux employés ou autres parties prenantesqui sont des ressortissants étrangers.En effet, les International Traffic in Arms Regulations (« ITAR ») et les Export Administration Regulations (« EAR ») sont deux corpus de règles importants en matière d’exportation des États-Unis3. Ceux-ci protègent des intérêts à la fois similaires et distincts. Tandis que les ITAR ont pour but de protéger des articles et services de défense (incluant des armes et des informations), les EAR régissent les articles à double usage4. Cela dit, les deux auront tendance à prévenir des exportations5 dans un sens large, c’est-à-dire jusqu’à un transfert d’informations à des personnes dites « étrangères », sauf sur permission des autorités. Par ricochet, il n’est pas impossible que les exportateurs canadiens se voient imposer l’obligation de se conformer à cette réglementation américaine qui cible l’origine nationale d’individus en plus des territoires, ce qui se distingue nettement du régime d’exportation du Canada axé sur l’interdiction d’échanger avec un pays ou avec toute personne qui s’y trouve.Sur ce plan, il est à noter que la Charte des droits et libertés de la personne du Québec considère l’origine nationale comme un motif susceptible de discrimination6. Une entreprise peut donc se trouver en position délicate entre, d’une part, ses obligations contractuelles issues d’un contrat avec une entreprise américaine et, d’autre part, les exigences de la Charte québécoise. L’intelligence artificielle : de nouveaux enjeux Le développement des grands modèles de langage en intelligence artificielle constitue un nouveau défi, et non le moindre, en matière de contrôle à l’exportation. Par exemple, si un grand modèle de langage est entraîné à l’aide de données visées par des restrictions, il n’est pas impossible qu’un État soumis aux sanctions susmentionnées ne tente d’utiliser le grand modèle de langage pour obtenir indirectement de l’information à laquelle il n’aurait pas eu accès directement. Ainsi, le fait de permettre l’entraînement d’un grand modèle de langage sur des plans, des devis techniques ou des descriptions textuelles de technologies visées par des restrictions de transfert (pouvant comprendre le transfert de connaissances) peut constituer un risque de non-conformité à la loi. Il en va de même pour l’accès à de telles données pour la génération augmentée de récupération, une technique largement utilisée pour élargir et optimiser les résultats de grands modèles de langage. Afin de limiter ce risque pendant les phases de recherche et développement, une entreprise qui entraîne un grand modèle de langage sur de telles données, ou qui permet l’accès à ces données pour la génération augmentée de récupération, devra prendre en compte les lieux où seront hébergées et traitées les données. De même, une fois la solution d’intelligence artificielle développée, il sera important d’en restreindre l’accès d’une manière cohérente avec la loi, tant du point de vue de la localisation des serveurs où sera installé le grand modèle de langage, que du point de vue des accès aux utilisateurs. Les sanctions Toute personne ou organisation qui contrevient à une disposition de la LLEI ou de ses règlements commet une infraction passible d’une amende et/ou d’une peine d’emprisonnement, selon les modalités applicables. De même, le défaut de s’inscrire au PMC peut constituer une infraction en vertu des lois fédérales pouvant entraîner des poursuites contre le ou les contrevenant(s) et d’importantes sanctions7.   Conclusion Les contrôles à l’exportation du Canada ne sont pas sans complexité, à la fois dans leurs structure et mise en œuvre. Dans le contexte d’évènements géopolitiques et commerciaux changeants, il sera préférable de périodiquement consulter les ressources mises à disposition par les autorités pertinentes, d’instaurer des politiques et mesures appropriées, ou encore de solliciter les conseils d’un professionnel à ce sujet. Gouvernement du Canada, « Types de sanctions » (date de modification : 2024-09-10) : Types de sanctions Martha L. Harrison & Tonya Hughes, “Understanding Exports: A Primer on Canada’s Export Control Regime” (2010) 8(2) Canadian International Lawyer, 97 Les ITAR et EAR étant inclus dans le Code of Federal Regulations (« CFR ») Austin D. Michel, “Hiring in the Export-Control Context: A Framework to Explain How Some Institutions of High Education Are Discriminating against Job Applicants” (2021) 106:4 Iowa L Review, 1993 À noter que les ITAR et EAR prévoient également des restrictions en matière de réexportation. Voir Maroine Bendaoud, « Quand la sécurité nationale américaine fait fléchir le principe de non-discrimination en droit canadien : le cas de l’International Traffic in Arms Regulations (ITAR) » (2013) Les cahiers de droit, 54 (2-3), 549 Gouvernement du Canada, « Lignes directrices sur l’inscription au Programme des marchandises contrôlées » (date de modification : 2025-04-11) : Lignes directrices sur l’inscription au Programme des marchandises contrôlées - Canada.ca

    Lire la suite
  3. Anonymiser des données : pas aussi simple qu’il n’y paraît

    Les angles morts à vérifier lors de l’anonymisation des données L’anonymisation est devenue une étape essentielle pour valoriser des jeux de données à des fins d’innovation, notamment en intelligence artificielle. À défaut d’un processus d’anonymisation mené selon les règles de l’art, les entreprises peuvent s’exposer à des sanctions financières, à des recours judiciaires et à un risque réputationnel accru et, par le fait même, à des répercussions potentiellement majeures sur leurs activités. Processus d’anonymisation Ce qu’en dit la loi La Loi sur la protection des renseignements personnels dans le secteur privé (la « Loi sur le privé ») et laLoi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels (« Loi sur l’accès ») prévoient qu’un renseignement concernant une personne physique est anonymisé lorsqu’il ne permet plus, de façon irréversible, d’identifier directement ou indirectement cette personne. Puisqu’un renseignement anonymisé ne constitue plus alors un renseignement personnel, cette distinction revêt une importance capitale. Or, mis à part ces critères, les deux lois ne détaillent pas le processus d’anonymisation. Pour pallier cette lacune, le gouvernement a adopté le Règlement sur l’anonymisation des renseignements personnels (le « Règlement »), dont l’objet est de définir les critères du processus d’anonymisation et de fixer un cadre qui s’appuie sur des normes élevées de protection de la vie privée. Ce que les entreprises doivent savoir avant d’amorcer un processus d’anonymisation Suivant le Règlement, avant d’amorcer un processus d’anonymisation, l’entreprise ou l’organisme désirant anonymiser des renseignements doit définir les fins « sérieuses et légitimes » auxquelles ceux-ci sont destinés. Ces fins doivent demeurer conformes, selon le cas, à la Loi sur le privé ou à la Loi sur l’accès, et toute nouvelle finalité doit être soumise à la même exigence. Par ailleurs, le processus doit se dérouler sous la supervision d’une personne compétente en la matière, apte à sélectionner et à appliquer les techniques appropriées. Cette supervision vise à garantir non seulement la mise en œuvre adéquate des méthodes retenues, mais aussi à assurer la validation continue des choix technologiques et des mesures de sécurité. 4 étapes clés du processus d’anonymisation des renseignements   DépersonnalisationDans un premier temps, il est nécessaire d’entreprendre une dépersonnalisation. Cette opération consiste à retirer ou à remplacer tout renseignement personnel permettant l’identification directe (tels le nom, l’adresse ou le numéro de téléphone) par des pseudonymes. Il importe toutefois de bien prévoir les interactions entre les différents ensembles de données, afin de réduire au maximum les risques de retrouver des renseignements qui permettraient de reconnaître une personne. Analyse préliminaire des risques de réidentificationUne analyse préliminaire des risques de réidentification doit ensuite être menée. Cette deuxième étape repose notamment sur le critère d’individualisation (impossibilité d’isoler une personne), le critère de corrélation (impossibilité de faire le lien entre plusieurs ensembles de données relatifs à une même personne) et le critère d’inférence (impossibilité de déduire des renseignements personnels à partir d’autres informations disponibles). Les outils d’anonymisation les plus couramment utilisés sont l’agrégation, la suppression, la généralisation et la perturbation. Par ailleurs, des mesures de protection adéquates, comme un chiffrement de haut niveau et des contrôles d’accès restrictifs, doivent être prévues afin minimiser la probabilité de réidentification. Approfondissement de l’analyse préliminaire des risques de réidentificationUne fois les deux premières étapes franchies, une analyse approfondie des risques de réidentification doit être effectuée. Force est de reconnaître qu’aucun risque ne peut être nul. Toutefois, ce risque doit être maintenu aussi faible que possible, en prenant en considération la sensibilité des renseignements, la disponibilité d’autres données publiques et la complexité nécessaire pour tenter une réidentification. Afin de maintenir ce très faible niveau de risque, une évaluation périodique doit être effectuée en tenant compte des progrès technologiques susceptibles de faciliter la réidentification. Consignation d’une description des renseignements anonymisésEnfin, il est essentiel de consigner dans un registre une description des renseignements anonymisés, les fins pour lesquelles ils sont utilisés, les techniques employées et les mesures de sécurité prises, ainsi que les dates des analyses ou des mises à jour effectuées. Cette consignation renforce la transparence et sert à démontrer que l’entreprise ou l’organisme désirant anonymiser des renseignements s’acquitte de ses obligations légales.

    Lire la suite
  4. IA : Nous sommes à la croisée des chemins

    En mars 2017, il y a de cela plus de 3 000 jours déjà, Lavery a mis sur pied le Laboratoire juridique sur l’intelligence artificielle (L3IA) pour étudier et, surtout, anticiper les développements dans le domaine de l’intelligence artificielle (« IA »). Le but du Laboratoire L3IA, très novateur à l’époque, consistait à se placer avantageusement en amont des complexités juridiques que l’intelligence artificielle allait faire naître pour nos clients. Depuis lors, les progrès réalisés dans le domaine de l’IA sont fulgurants et dans plusieurs cas, préoccupants. Le 19 mai 2025, Alexandre Siroisse demandait dans un article de La Presse si Montréal était encore une plaque tournante de l’IA[1]. Il a notamment soulevé cette question dans le contexte où des investissements majeurs ont été effectués au cours des dernières années en IA par plusieurs pays, citant en exemple la France, l’Allemagne et Singapour. Cette question d’actualité suscite la réflexion : les efforts et les investissements majeurs en recherche et développement (R&D) réalisés au Québec et au Canada se sont-ils effectivement traduits par des avancées commerciales concrètes au bénéfice des entreprises, des institutions et des Canadiens? En d’autres mots, dans le domaine de l’IA, réussissons-nous à passer de la R & D à la commercialisation et à l’industrialisation de produits et services au Canada qui sont avant-gardistes, novateurs ou concurrentiels sur la scène internationale? Le cadre législatif québécois et canadien soutient-il suffisamment les avancées technologiques découlant de nos investissements en IA, tout en mettant en valeur et en optimisant les retombées découlant des efforts de nos talents locaux exceptionnels que l’on retrouve dans nos universités, nos groupes de recherche, nos institutions et nos entreprises? Il est tout aussi important de protéger la vie privée, les renseignements personnels, les données et le public dans le contexte des développements et des utilisations en IA, que de permettre à nos entrepreneurs, à nos start-ups, à nos entreprises bien établies et à nos institutions de se tailler une place avantageuse sur la scène internationale en IA, ce qui pourrait être un facteur décisif entre une société prospère à long terme et une société qui ne suit pas le rythme et perd progressivement ses avantages concurrentiels. Par ailleurs, dans leur livre intitulé The Technological Republic: Hard Power, Soft Belief, and the Future of the West, Alexander C. Karp et Nicholas W. Zamiska[2] abordent divers sujets liés à la technologie, à la gouvernance et à la dynamique entre les puissances mondiales. Ils mettent de l’avant leurs préoccupations concernant les conséquences géopolitiques de la complaisance technologique et critiquent notamment les grandes entreprises de technologie (principalement basées dans la Silicon Valley) pour leur développement de technologies de l’IA axée sur les gains à court terme plutôt que sur l’innovation à long terme. Les auteurs affirment que ces entreprises accordent la priorité à des applications futiles, comme les algorithmes des médias sociaux et les plateformes de commerce électronique, qui détournent l’attention des défis sociétaux essentiels, au lieu de s’harmoniser avec les intérêts humains nationaux ou mondiaux. D’un point de vue juridique canadien, cet enjeu est à la fois fascinant et stimulant. Étant donné l’évolution rapide des relations commerciales internationales, quel rôle central le Canada, et notamment ses entreprises innovantes, ses institutions, ses universités et ses groupes renommés, jouera-t-il dans le façonnement de notre avenir? Peut-il prendre la place qui lui revient et prendre une position de tête dans la marche incessante (et rapide) des progrès en IA? Dans ce contexte, la réglementation de l’IA d’un point de vue national est-elle la voie stratégique et logique à suivre, et si oui de quelle façon et dans quelle mesure? Un excès de réglementation pourrait-il étouffer les entreprises canadiennes et les entrepreneurs, compromettant ainsi nos chances dans la course à l’IA, une course aux enjeux considérables? Le grand patron de Google Deepmind, Demis Hassabis, précisait récemment qu’une meilleure coopération sur la scène internationale serait requise pour réglementer l’IA, bien qu’une telle idée soit difficile à concrétiser en raison du contexte géopolitique actuel[3]. Évidemment, la concurrence sur l’échiquier mondial pour tirer notre épingle du jeu en matière d’IA est vive et, comme dans tous les domaines ou toutes les révolutions industrielles où le potentiel de développement économique et social est prodigieux, le degré de réglementation et d’encadrement peut faire en sorte que certains pays et certaines entreprises prennent les devants (parfois au détriment de l’environnement ou des droits de la personne). La réflexion sur le sujet, aussi nécessaire soit-elle, ne doit pas entraîner l’inaction. Mais, à l’opposé, la proactivité à l’égard de l’intelligence artificielle ne doit pas entraîner pour autant la négligence ou l’insouciance. Nous évoluons dans un monde concurrentiel où les règles d’engagement sont loin d’être universelles. Même lorsque nous sommes animés par les meilleures intentions du monde, nous pouvons involontairement adopter des solutions technologiques qui entrent en conflit avec nos valeurs fondamentales et nos intérêts à long terme. Une fois que ces solutions se sont imposées, il devient difficile de s’en défaire. Récemment, plusieurs applications ont attiré l’attention en raison de leurs pratiques de collecte de données et de leurs liens potentiels avec des entités externes, illustrant la rapidité avec laquelle des plateformes populaires peuvent devenir le sujet de débats nationaux sur les valeurs, la gouvernance et la sécurité. Même lorsqu’il a été démontré que ces plateformes ont des liens avec des entités étrangères ou hostiles, elles sont difficiles à déloger. En mai 2025, après des mois passés à poursuivre un plan de transformation en entreprise à but lucratif, il a été décidé qu’OpenAI, Inc. demeurerait sous le contrôle d’une organisation à but non lucratif[4]. La société, dont le siège social se trouve en Californie, a pour objectif de développer une intelligence artificielle générale (« IAG ») sûre et avantageuse, qu’OpenAI, Inc. définit comme « un ensemble de systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles[5] ». Cette décision découle d’une série de critiques et de recours juridiques accusant l’entreprise de s’être éloignée de sa mission initiale, à savoir le développement de l’IA au profit de l’humanité. Au Canada, le projet de loi C-27, connu sous le nom de Loi de 2022 sur la mise en œuvre de la Charte du numérique, visait à moderniser les lois fédérales sur la protection de la vie privée et à réglementer l’intelligence artificielle. Il comprenait trois volets principaux, dont la Loi sur l’intelligence artificielle et les données (« LIAD »), destinée à réglementer la conception et le déploiement de systèmes d’IA à grand impact. La LIAD[6] aurait exigé des organisations la mise en œuvre de mesures pour cerner, évaluer et atténuer les risques associés à l’IA, dont les dommages et les distorsions éventuels. Elle prévoyait également la création d’un poste de Commissaire à l’IA et aux données, responsable de veiller à l’application de la loi, ainsi que des sanctions pénales en cas d’utilisation abusive des technologies de l’IA. En outre, la LIAD aurait établi des interdictions relatives à la possession ou à l’utilisation de renseignements personnels obtenus illégalement pour concevoir, développer, utiliser ou mettre à disposition un système d’IA, ainsi que des interdictions contre la mise à disposition de systèmes d’IA dont l’utilisation cause un préjudice grave à des particuliers. Or, le projet de loi C-27 est désormais mort au feuilleton et les intentions du gouvernement Carney en matière de réglementation de l’IA demeurent incertaines malgré la création d’un nouveau ministère de l’Intelligence artificielle. Dans l’intervalle, les lois fédérales canadiennes sur la protection de la vie privée et la réglementation sur l’IA demeurent inchangées, perpétuant le statu quo établi en vertu de la LPRPDE  et des autres règles générales de droit civil et de common law, ainsi que de la Charte canadienne des droits et libertés. Ce résultat entraîne des conséquences sur l’harmonisation du Canada avec les normes internationales en matière de protection de la vie privée et sur son approche de la gouvernance de l’IA. Plusieurs parties prenantes ont exprimé leur inquiétude quant au caractère inadéquat des lois existantes pour relever les défis numériques contemporains et aux répercussions éventuelles sur la position mondiale du Canada en matière de protection des données et d’innovation dans le domaine de l’IA . Dans le contexte international actuel, marqué par des confrontations économiques et des confrontations armées, les développements en matière d’intelligence artificielle seront exponentiels dans des domaines tels que l’industrie militaire, la finance, l’aérospatial, les soins de la santé, l’utilisation et l’extraction des ressources naturelles et des métaux rares et, bien sûr, le droit et la justice. Alors, maintenant que nous sommes à la croisée des chemins, quelle direction devons-nous prendre avec l’IA? Nous avons le choix de décider pour nous-mêmes, en orchestrant stratégiquement notre R&D, nos investissements et les efforts de développements de nos entreprises ou de laisser les progrès technologiques, en grande partie réalisés à l’étranger, tracer notre voie. [1] On a posé la question pour vous | Montréal est-il encore une plaque tournante en IA ? | La Presse [2] Karp, A. C., & Zamiska, N. W. (2025). The Technological Republic: Hard Power, Soft Belief, and the Future of the West. [3] Google Deepmind CEO Says Global AI Cooperation 'Difficult' - Barron's [4] OpenAI reverses course and says its nonprofit will continue to control its business | Financial Post [5] The OpenAI Drama: What Is AGI And Why Should You Care? [6] The Artificial Intelligence and Data Act (AIDA) – Companion document  

    Lire la suite