Intelligence artificielle

Vue d’ensemble

Faites le test de connaissances IA!


Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA)


Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. C’est d’ailleurs le cas de l’industrie des services professionnels qui connaît une transformation qui mérite d’être approfondie.

Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries.

" À partir du moment où une entreprise sait ce qu’elle veut, des outils existent, elle doit les utiliser au mieux, et un laboratoire comme le nôtre est là pour la conseiller en ce sens. "
 

Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires.

Découvrez notre lexique qui vulgarise et démystifie les termes les plus utilisés en matière d'intelligence artificielle:

lexique intelligence artificielleCliquez ici pour le consulter en ligne

 



  1. Les grandes oubliées de l’intelligence artificielle: réflexion sur des lois applicables aux technologies de l’information

    Alors que les législateurs, au Canada1 et ailleurs2, tentent de mieux encadrer le développement et l’usage de technologies d’intelligence artificielle, il est important de se rappeler que ces technologies se qualifient aussi dans la famille plus large des technologies de l’information. Depuis 2001, le Québec s’est doté d’une loi visant à encadrer les technologies de l’information. Trop souvent oubliée, cette loi trouve application directement dans l’utilisation de certaines technologies d’intelligence artificielle. La notion très large de documents technologiques D’une part, les documents technologiques visés par cette loi sont définis pour inclure toute forme d’information délimitée, structurée et intelligible3. La loi donne quelques exemples de documents technologiques visés par divers textes législatifs, y incluant des formulaires en ligne, des rapports, des photographies, des diagrammes et même des électrocardiogrammes! On peut donc comprendre que cette notion s’applique sans difficulté à divers formulaires des interfaces d’utilisation de diverses plateformes technologiques4. Qui plus est, ces documents technologiques ne sont pas limités à des renseignements personnels. Cela peut aussi viser des renseignements relatifs à des entreprises ou à divers organismes, qui sont hébergés sur une plateforme technologique. À titre d’exemple, la Cour supérieure a récemment appliqué cette loi pour reconnaître la valeur probante de lignes directrices de pratique et de normes techniques en matière d’imagerie médicale qui étaient accessibles sur un site web5. Une décision plus ancienne a aussi reconnu l’admissibilité en preuve du contenu d’agendas électroniques6. À cause de leur lourdeur algorithmique, plusieurs technologies d’intelligence artificielle sont offertes sous forme de logiciel en tant que service ou de plateforme en tant que service. Dans la plupart des cas, l’information saisie par une entreprise utilisatrice est transmise sur des serveurs contrôlés par le fournisseur, où elle est traitée par des algorithmes d’intelligence artificielle. C’est souvent le cas des systèmes avancés de gestion de la relation client (souvent désignés sous l’acronyme anglais CRM) et d’analyse de dossiers électroniques. C’est aussi le cas également d’une panoplie d’applications visant la reconnaissance vocale, la traduction de documents et l’aide à la décision pour des employés de l’utilisatrice. Dans le contexte de l’intelligence artificielle, les documents technologiques s’étendent donc vraisemblablement à ce qui est ainsi transmis, hébergé et traité sur des serveurs à distance. Des obligations réciproques La loi prévoit des obligations spécifiques lorsque des prestataires de services, notamment des fournisseurs de plateforme informatique, doivent garder de l’information. Citons l’article 26 de la loi : «26. Quiconque confie un document technologique à un prestataire de services pour qu’il en assure la garde est, au préalable, tenu d’informer le prestataire quant à la protection que requiert le document en ce qui a trait à la confidentialité de l’information et quant aux personnes qui sont habilitées à en prendre connaissance. Le prestataire de services est tenu, durant la période où il a la garde du document, de voir à ce que les moyens technologiques convenus soient mis en place pour en assurer la sécurité, en préserver l’intégrité et, le cas échéant, en protéger la confidentialité et en interdire l’accès à toute personne qui n’est pas habilitée à en prendre connaissance. Il doit de même assurer le respect de toute autre obligation prévue par la loi relativement à la conservation du document.» (note :  nos soulignements) Cet article impose donc un dialogue entre l’entreprise qui désire utiliser une plateforme technologique et le fournisseur de cette plateforme. D’une part, l’entreprise utilisatrice de la plateforme doit informer le fournisseur de la protection requise pour les renseignements qu’elle déposera sur la plateforme technologique. D’autre part, ce fournisseur a l’obligation de mettre en place des moyens technologiques de nature à en assurer la sécurité, l’intégrité et la confidentialité, correspondant à la protection requise qui lui est communiquée par l’utilisatrice. La loi ne spécifie pas quels moyens technologiques doivent être mis en place. Ces mesures doivent toutefois être raisonnables eu égard à la sensibilité des documents technologiques impliqués, du point de vue d’une personne possédant une expertise dans le domaine. Ainsi, un fournisseur qui offrirait une plateforme technologique comportant des modules désuets ou comportant des failles de sécurité connues se déchargerait-il de ses obligations en vertu de la loi? Cette question doit s’analyser dans le contexte de l’information que l’utilisatrice de la plateforme lui a transmise quant à la protection requise pour les documents technologiques. Un fournisseur ne doit toutefois pas cacher les risques liés à la sécurité de sa plateforme informatique à l’utilisatrice, ce qui irait à l’encontre des obligations d’information et de bonne foi des parties. Des individus sont impliqués? À ces obligations, il faut ajouter aussi la Charte des droits et libertés de la personne, qui s’applique également aux entreprises privées. Les entreprises qui traitent l’information pour le compte d’autrui doivent le faire dans le respect des principes de la Charte lorsqu’il s’agit de traiter des renseignements concernant divers individus. À titre d’exemple, si un fournisseur d’une plateforme informatique de gestion de la relation client offre des fonctionnalités permettant de classifier les clients ou d’aider les entreprises à répondre à leurs demandes, ce traitement d’information doit demeurer exempt de biais fondés sur la race, la couleur, le sexe, l’identité ou l’expression de genre, la grossesse, l’orientation sexuelle, l’état civil, l’âge (sauf dans la mesure prévue par la loi), la religion, les convictions politiques, la langue, l’origine ethnique ou nationale, la condition sociale, le handicap ou l’utilisation d’un moyen pour pallier ce handicap7. Un algorithme d’intelligence artificielle ne devrait en aucun cas suggérer à un commerçant de refuser de conclure des contrats avec un individu sur une telle base discriminatoire8. De plus, une personne qui recueille des renseignements personnels à l’aide de technologies permettant le profilage d’individus doit en aviser ces personnes au préalable9. Bref, loin du Far West décrié par certains, l’usage de l’intelligence artificielle doit se faire dans le respect des lois déjà en place, auxquelles s’ajouteront vraisemblablement de nouvelles lois plus spécifiques à l’intelligence artificielle. Si vous avez des questions relativement à l’application de ces lois à vos systèmes d’intelligence artificielle, n’hésitez pas à contacter un de nos professionnels. Projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique. Notamment, aux États-Unis, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence du 30 octobre 2023. Loi concernant le cadre juridique des technologies de l'information, RLRQ c C-1.1, art. 3. Idem, art. 71. Tessier c. Charland, 2023 QCCS 3355. Lefebvre Frères ltée c. Giraldeau, 2009 QCCS 404. Charte des droits et libertés de la personne, art. 10. Idem, art. 12. Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 8.1.

    Lire la suite
  2. La responsabilité des biens intelligents : enjeux et défis

    Introduction En 2023, qu’en est-il des questions de responsabilité en matière de biens intelligents? Le régime de responsabilité du fait des biens prévu au Code civil du Québec a été instauré au début du 20e siècle en réponse à la révolution industrielle et au nombre croissant d’accidents du travail attribuables à la défaillance d’outils1. Le législateur de l’époque ne pouvait évidemment pas anticiper que les outils auxquels cette réglementation s’appliquerait seraient, un siècle plus tard, dotés de capacités d’autoapprentissage leur permettant d’accomplir des tâches précises de façon autonome!  Ces « biens intelligents », qu’ils soient immatériels ou intégrés dans des biens matériels, ne semblent pouvoir échapper pour le moment aux impératifs du droit commun. Aux fins de notre examen, l’expression « biens intelligents » désigne les biens qui présentent les capacités suivantes : effectuer des tâches précises sans être sous le contrôle immédiat d’un être humain (autoapprentissage); et capter et analyser les données de leur environnement (interconnectivité); adapter leur comportement afin d’effectuer une tâche qui lui est confiée de manière plus efficiente (autonomie) (critère facultatif)2. Ces capacités sont propres à ce que l’on appelle communément l’intelligence artificielle (ci-après « IA »). Application du régime de responsabilité du droit commun aux biens intelligents Bien que le Canada se targue d’être un « chef de file mondial dans le domaine de l’IA »3, la première loi canadienne régissant l’IA se fait toujours attendre. Au Québec, la réglementation des biens intelligents en est à ses premiers balbutiements. À ce jour, outre l’encadrement applicable aux véhicules autonomes, aucune loi en vigueur ne prévoit un régime de responsabilité civile comportant des règles distinctes régissant les litiges relatifs à la commercialisation et l’utilisation de biens intelligents. Deux éléments ont une incidence importante en matière de responsabilité applicable aux biens intelligents: l’opacité et la répartition de la responsabilité. Ceux-ci devraient nécessairement être pris en compte dans l’élaboration d’un cadre réglementaire applicable à l’IA4.   Mais encore, qu’en est-il de l’imputabilité de l’humain? L’opacité de l’IA et la responsabilité du fabricant Lorsqu’un bien autonome exécute une tâche, il n’est pas toujours possible – ni pour le consommateur ni pour le fabricant – de savoir comment l’algorithme a traité l’information à l’origine de son action. C’est ce que les chercheurs qualifient « d’opacité » ou encore de phénomène de la « boîte noire » lié à l’IA5. Le cadre législatif entourant la responsabilité du fabricant est prévu au Code civil du Québec6 ainsi qu’à la Loi sur la protection du consommateur7. Il se dégage de ces dispositions une obligation pour le distributeur, pour le vendeur professionnel et pour le fabricant de garantir que le bien vendu est exempt de vices cachés. En vertu du régime de responsabilité du produit, un renversement de la preuve s’opère puisqu’il existe une présomption de connaissance du vice de la part du fabricant8. Deux moyens d’exonération s’offrent à lui9 : D’une part, le fabricant peut faire valoir que la faute du consommateur, d’un tiers ou la force majeure est la cause du défaut; D’autre part, il peut soutenir qu’au moment de la mise en marché du bien, le défaut n’était pas susceptible d’être découvert compte tenu de l’état des connaissances scientifiques. Ce dernier moyen vise précisément les risques inhérents à l’innovation technologique10. Ceci étant dit, bien que certains risques se révèlent uniquement lors de la commercialisation d’un produit, l’obligation d’information du fabricant est continue et son application est fonction de l’avancement des connaissances des risques liés au produit11. De ce fait, l’opacité de l’IA peut nuire à la détermination de la responsabilité. Difficulté au niveau du partage de responsabilité et imputabilité de l’humain Il arrive que la composante « intelligente » soit intégrée à un bien par un sous-traitant du fabricant. Dans la décision Venmar Ventilation12,  la Cour d’appel a déterminé que le fabricant d’un échangeur d’air ne pouvait pas être disculpé de sa responsabilité même si le défaut de son produit était directement lié à celui du moteur fabriqué par un sous-traitant. Dans cette perspective, nous pouvons anticiper que la composante intelligente du bien serait susceptible d’engendrer une multiplication des appels en garantie et, en conséquence, des dossiers litigieux de type pyramidaux. Cela pourrait aussi compliquer l’analyse du partage de responsabilité. Également, si la détermination de l’identité de la personne qui a la garde physique du bien intelligent semble évidente, déterminer l’identité de celle qui exerce un contrôle réel sur ce bien peut se révéler beaucoup plus ardu puisque la garde et le contrôle ne sont pas nécessairement l’apanage d’une seule et même « personne ». Deux types de gardiens du bien intelligent peuvent se distinguer : Celui qui détient le pouvoir de contrôle, de direction et de surveillance sur le bien au moment de son utilisation (garde frontale) ; Celui qui déteint ces pouvoirs sur l’algorithme qui confère au bien son autonomie (garde en amont) 3. L’un ou l’autre de ces gardiens pourraient engager sa responsabilité s’il participe au préjudice par sa faute. Il pourrait donc être difficile de partager la responsabilité entre l’utilisateur humain et les gardiens de l’algorithme d’IA. Par exemple dans le cas d’un agent conversationnel, il pourrait être complexe de déterminer qui entre l’utilisateur humain et l’algorithme IA est responsable de propos diffamatoires ou discriminatoires. C-27: Projet de loi canadien en matière d'intelligence artificielle Le 16 juin 2022, le premier projet de loi canadien en matière d’IA (« Projet de loi C-27 ») a été introduit à la Chambre des Communes14. Au moment d’écrire ces lignes, le Projet de loi C-27 est toujours à l’examen par le Comité permanent de l’industrie et de la technologie. La troisième partie du Projet de loi C-27 édicte la Loi sur l’intelligence artificielle et les données. Si elle était adoptée dans sa forme actuelle, cette loi s’appliquerait au commerce international et interprovincial des « systèmes d’IA à incidence élevée » (« Systèmes »)15. Bien que le législateur n’ait pas encore clairement défini les caractéristiques qui distinguent l’IA à incidence élevée des autres formes d’IA, pour le moment, le gouvernement du Canada mentionne notamment des Systèmes pouvant potentiellement « influencer le comportement humain sur une grande échelle » et des Systèmes critiques pour la santé et la sécurité16. Il nous est permis de croire qu’il pourrait s’agir de l’IA qui présente un risque élevé pour les droits fondamentaux des utilisateurs. Le Projet de loi C-27 permettrait notamment de sanctionner le comportement de celui qui « rend disponible » un Système dont l’utilisation cause un « préjudice sérieux » ou un « dommage considérable »17. Même si le Projet de loi n’encadre pas précisément la responsabilité civile, les grands principes qui y sont énoncés reflètent les pratiques exemplaires applicables à ces technologies. Ces pratiques exemplaires peuvent donc indiquer aux fabricants de technologie IA comment se comporterait en semblable matière un fabricant prudent et diligent placé dans les mêmes circonstances. Les six (6) grands principes au Projet de loi sont les suivants18 : Transparence : Fournir au public l’information concernant les mesures d’atténuation, l’utilisation visée des Systèmes et le « contenu qu’il est censé générer »; Supervision : Fournir des Systèmes susceptibles de supervision humaine; Justice et équité : Mettre sur le marché des Systèmes pouvant limiter les potentiels résultats discriminatoires; Sécurité : Évaluer proactivement des Systèmes afin de prévenir les préjudices « raisonnablement prévisibles »; Responsabilité : Mettre en place des mesures de gouvernance afin d’assurer le respect des obligations légales applicables aux Systèmes; Robustesse : Assurer que les Systèmes fonctionnent comme prévu. Nous ajoutons le principe de mitigation des risques, considérant l’obligation de la loi « d’atténuer » les risques liés à l’utilisation des Systèmes19. Conclusion Le « Tortoise Global AI Index » classe chaque année les pays en fonction de leurs percées dans le domaine de l’IA20 . Cette année le Canada atteint le 5e rang, se classant devant bon nombre de pays de l’Union européenne. Force est de le constater que le droit en vigueur ne reflète pas encore l’importance croissante de ce secteur dans notre pays. Bien que le Projet de loi C-27 puisse offrir des éclaircissements quant aux pratiques exemplaires en matière de développement de biens intelligents, il sera intéressant de voir comment ils seront appliqués lorsque des questions visant la responsabilité civile seront soulevées. Jean-Louis BAUDOUIN, Patrice DESLAURIERS et Benoît MOORE, La responsabilité civile, Volume 1 – Principes généraux, 9e édition, 2020, 1-931. Tara Qian SUN, Rony MEDAGLIA, “Mapping the challenges of Artificial Intelligence in the public sector: Evidence from public healthcare”, Government Information Quarterly, 2019, 36(2), pp. 368-383, en ligne ; PARLEMENT EUROPÉEN, Règles de droit civil sur la robotique, Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) disponible en ligne sur TA (europa.eu). GOUVERNEMENT DU CANADA, La Loi sur l'intelligence artificielle et les données (LIAD) - document complémentaire, en ligne. COMMISION EUROPÉENNE, Livre blanc « Intelligence artificielle. Une approche européenne axée sur l’excellence et la Madalina BUSUIOC, “Accountable Artificial Intelligence: Holding Algorithms to Account”, Public Administration Review, 2020, en ligne. Code civil du Québec, RLRQ c. CCQ-1991, art. 1726 et ss. Loi sur la protection du consommateur, RLRQ, c. P-40.1, art. 38. General Motors Products of Canada c. Kravitz, 1979 CanLII 22 (CSC), p. 801. Voir également : Brousseau c. Laboratoires Abbott limitée, 2019 QCCA 801, par. 89. [Brousseau] Code civil du Québec, RLRQ c. CCQ-1991, art. 1473;  ABB Inc. c. Domtar Inc., 2007 CSC 50, par. 72. Brousseau, par. 100. Brousseau, par. 102. Desjardins Assurances générales inc. c. Venmar Ventilation inc., 2016 QCCA 1911, par. 19 et ss. Céline MANGEMATIN, Droit de la responsabilité civile et l’intelligence artificielle, https://books.openedition.org/putc/15487?lang=fr#ftn24; Voir également Hélène CHRISTODOULOU, La responsabilité civile extracontractuelle à l’épreuve de l’intelligence artificielle, p. 4 . Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, Ministre de l’innovation, des sciences et de l’industrie [PL C-27] PL C-27, sommaire et art. 5 (1). La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire, Gouvernement du Canada, en ligne. PL C-27, art. 39 a). LIAD, document supplémentaire PL C-27, art. 8. TORTOISE MEDIA, The Global AI Index 2023 disponible sur tortoisemedia.com.

    Lire la suite
  3. Intelligence artificielle en entreprise : gérer les risques tout en tirant profit des bénéfices?

    À l’heure même où certains exigent une suspension temporaire de la recherche en intelligence artificielle et du développement de systèmes avancés et que d’autres souhaitent remettre le génie dans la bouteille, on peut se demander quel sera l’effet des technologies conversationnelles (ChatGPT, Bard et autres) au sein des entreprises et en milieu de travail. Certaines entreprises en encouragent l’usage, d’autres les interdisent, mais beaucoup n’ont toujours pas pris position. Nous croyons qu’il est impératif que toute entreprise adopte une position claire et guide ses employés en ce qui a trait à l’usage de ces technologies. Avant de décider quelle position adopter, une entreprise doit être consciente des différents enjeux juridiques liés à l’usage de ces formes d’intelligence artificielle. Si l’entreprise décide d’en permettre l’usage, elle doit alors être en mesure de bien encadrer cet usage et surtout les résultats et les applications qui en découleront. Force est de constater que de tels outils technologiques présentent à la fois des avantages non négligeables susceptibles de soulever les passions, pensons notamment à la rapidité avec laquelle ces technologies conversationnelles réussissent à fournir une information à la fois surprenante et intéressante, et des risques indéniables quant aux avancées qui peuvent en résulter. Nous résumons dans le présent texte quelques risques qui, à très court terme, guettent les entreprises, ainsi que leurs clients, employés et partenaires, dans le cadre de leur utilisation de ces outils. Risques d’erreurs et responsabilité Les médias ont abondamment relaté les errances et les inexactitudes des robots conversationnels qui génèrent du texte. Dans certains cas, on parle même « d’hallucinations », où le robot conversationnel invente une réalité qui n’existe pas. Cela n’est pas surprenant. D’une part, ces technologies s’abreuvent à l’Internet, qui est truffé de désinformation et d’inexactitudes, et d’autre part, on s’attend à ce que ces robots conversationnels « créent » de nouveaux textes. Ils n’ont pas, pour le moment du moins, de balises suffisantes pour utiliser cette « créativité » uniquement à bon escient. On peut facilement imaginer des situations où un employé utiliserait une telle technologie pour produire du contenu destiné à être utilisé par son employeur à des fins commerciales. Surgit alors un danger évident pour l’entreprise si des mesures de contrôle appropriées ne sont pas mises en place. Le contenu ainsi généré pourrait s’avérer erroné, et ce d’une manière à tromper les clients de l’entreprise. Ce risque serait particulièrement important si le contenu ainsi généré fait l’objet d’une diffusion, par exemple en étant affiché sur le site web de l’entreprise ou utilisé dans une campagne de publicité. Dans un tel cas, l’entreprise pourrait vraisemblablement être responsable du préjudice ainsi causé par son employé, celui-ci s’étant fié à une technologie qu’on sait défaillante. Cet enjeu de fiabilité de ces outils, surtout lorsqu’ils sont utilisés de façon peu encadrée, demeure à ce jour l’un de plus préoccupant. Diffamation Imaginons qu’une telle information erronée concerne de surcroît une personne connue ou une entreprise concurrente. D’un point de vue juridique, une entreprise qui diffuse un tel contenu sans mettre en place des balises pour s’assurer que des vérifications adéquates ont été faites pourrait s’exposer à des poursuites en diffamation ou pour publicité trompeuse. Il semble donc impératif d’adopter des mesures faisant en sorte que tout contenu tiré de ces technologies soit minutieusement validé avant tout usage commercial. Plusieurs auteurs suggèrent que les résultats générés par un tel outil d’intelligence artificielle devraient davantage servir d’aide pour l’analyse et la prise de décision, que de produits ou résultats finaux. Cependant, la vitesse à laquelle les entreprises adopteront ces outils et en bénéficieront, notamment sur le plan concurrentiel, pourrait devancer la vitesse à laquelle les bonnes pratiques et la réglementation viendront les gouverner. Enjeux de propriété intellectuelle Les robots conversationnels qui émergent ont été développés en vue de constituer des extensions aux moteurs de recherche du web, tels Google et Bing. Il est possible que le contenu généré par les robots conversationnels s’inspire de contenus web déjà existants et assujettis à des droits d’auteur, et qu’il en reprenne même parfois des portions substantielles.  Cela pourrait entraîner une violation de droits d’auteur. Si l’utilisateur limite son usage à des fins de recherche interne, le risque est alors limité puisque la loi prévoit une exception pour un usage équitable dans un tel contexte. Par contre, si son intention est de diffuser le texte à des fins commerciales, il y a un risque de violation de droits d’auteur. Ce risque est particulièrement présent lorsqu’on demande à un robot conversationnel de générer du contenu sur un sujet ciblé pour lequel il existe peu de références sur le web. Une autre question pour laquelle les réponses ne sont pas encore claires est celle de savoir qui détiendra les droits sur les réponses et les résultats découlant d’un tel outil, notamment si ces réponses et ces résultats font l’objet de diverses adaptations ou modifications avant leur ultime utilisation. Enjeux de confidentialité et de protection des renseignements personnels À la lecture de leurs modalités et conditions d’utilisation, la plupart de ces technologies conversationnelles ne semblent pas prévoir un usage qui soit confidentiel. Il est donc impensable de leur révéler des secrets commerciaux ou des renseignements confidentiels. Qui plus est, ces technologies ne sont pas conçues pour recevoir ni pour protéger des renseignements personnels conformément aux lois et règlements applicables dans les juridictions où elles pourraient être utilisées. Leurs propriétaires se dégagent généralement de toute responsabilité à cet égard. Autres enjeux Quelques autres enjeux importants méritent d’être soulignés parmi ceux qu’il est possible d’anticiper à ce jour. Premièrement, les possibles biais discriminatoires que certains attribuent aux outils d’intelligence artificielle, lorsque combinés avec le peu de règlementation de ces outils, peuvent entrainer des conséquences significatives pour divers groupes de la population. Deuxièmement, on ne peut pas passer sous silence les nombreux enjeux éthiques associés aux applications d’intelligence artificielle qui seront développées dans divers secteurs (médecine, justice, politique, etc.).  Les enjeux seront d’autant plus grands lorsque ces mêmes applications seront utilisées dans des juridictions où les lois, les coutumes et la culture (économiques, politiques et sociales) sont différentes. Enfin, les risques de conflit ne peuvent pas être ignorés. Qu’il s’agisse de conflits entre groupes prônant différentes valeurs, entre organisations ayant des objectifs opposés, ou même entre nations, il est difficile de prédire si et comment les avancées en matière d’intelligence artificielle permettront de solutionner ou d’apaiser de tels conflits ou si au contraire elles les envenimeront. Conclusion Ces technologies conversationnelles présentent un grand potentiel, mais soulèvent aussi des enjeux juridiques sérieux. À court terme, il semble peu probable que ces outils puissent légitimement se substituer au jugement humain, lui-même imparfait. Mais tout comme l’a fait la révolution industrielle il y a deux siècles, l’arrivée de ces technologies entraînera des changements importants et rapides au sein des entreprises. Il est important de préparer dès maintenant des politiques visant à encadrer l’usage de ces technologies au sein de votre entreprise. De plus, si votre entreprise doit intégrer une telle technologie dans le cadre de ses activités, nous vous recommandons de procéder à une étude attentive de ses modalités et conditions d’utilisation afin de vous assurer qu’elles sont compatibles avec le projet et les objectifs que votre entreprise souhaite réaliser grâce à elle.

    Lire la suite
  4. Arrêt SOCAN : une seule redevance doit être payée par les diffuseurs de musique en ligne

    Dans l’arrêt Société canadienne des auteurs, compositeurs et éditeurs de musique c. Entertainment Software Association1 (l’« Arrêt SOCAN »), la Cour suprême du Canada s’est prononcée quant à l’obligation de verser une redevance pour la mise à disposition du public d’une œuvre sur un serveur en vue de sa diffusion ou son téléchargement ultérieur. Par le fait même, elle clarifie la norme applicable en appel lorsque les cours de justice et les organismes administratifs ont des compétences concurrentes en première instance et elle revisite les objectifs de la Loi sur le droit d’auteur2 et son interprétation à la lumière du Traité de l’OMPI sur le droit d’auteur3. La Cour suprême en profite également pour réitérer l’importance du principe de neutralité technologique quant à l’application et l’interprétation de la LDA. Ce rappel est transposable à d’autres médiums artistiques et il est d’une très grande actualité dans un contexte où le marché des arts visuels numériques connaît un engouement particulièrement important, notamment avec la production et la vente de jetons non fongibles (« NFT »). En 2012, les autorités législatives canadiennes ont modifié la LDA en adoptant la Loi sur la modernisation du droit d’auteur4 afin d’intégrer au droit canadien les obligations du Canada en vertu du Traité et plus particulièrement, d’harmoniser le régime juridique canadien en matière de droit d’auteur avec les règles internationales relatives aux technologies nouvelles et émergentes. La LMDA a introduit trois articles relatifs à la « mise à la disposition » dont l’article 2.4 (1.1) LDA s’appliquant aux œuvres originales et clarifiant l’article 3(1)f) qui confère aux auteurs le droit exclusif de « communiquer au public, par télécommunication, une œuvre » : 2.4 (1.1) LDA. « Pour l’application de la présente loi, constitue notamment une communication au public par télécommunication le fait de mettre à la disposition du public par télécommunication une œuvre ou un autre objet du droit d’auteur de manière que chacun puisse y avoir accès de l’endroit et au moment qu’il choisit individuellement. » Avant l’entrée en vigueur de la LMDA, la Cour suprême a également conclu que le téléchargement d’une œuvre musicale sur Internet n’était pas une communication par télécommunication au sens de l’article 3(1)f) LDA5 alors que les diffusions en continu étaient visées par cet article6. Suivant l’entrée en vigueur de la LDMA, la Commission du droit d’auteur du Canada (la « Commission ») a reçu des observations concernant l’application de l’article 2.4 (1.1) LDA. La Société canadienne des auteurs, compositeurs et éditeurs de musique (« SOCAN ») y soutenait notamment que l’article 2.42.4 (1.1) LDA obligeait les utilisateurs à payer des redevances lorsqu’une œuvre était publiée sur Internet, ne faisant aucune distinction entre le téléchargement de l’œuvre, sa diffusion en continu et le cas des œuvres publiées, mais jamais transmises. La position de la SOCAN avait pour conséquence qu’une redevance devait être versée chaque fois qu’une œuvre était mise à la disposition du public, qu’elle soit téléchargée ou diffusée en continu. Ainsi, pour chaque téléchargement, une redevance de reproduction devait être payée et pour chaque diffusion en continu, une redevance d’exécution devait être payée. Historique judiciaire Décision de la Commission7 La Commission retient l’interprétation de la SOCAN voulant que la mise à la disposition du public d’une œuvre est une « communication ». Selon cette interprétation, deux redevances sont ainsi dues lorsqu’une œuvre est publiée en ligne : dans un premier temps lorsqu’elle est mise à la disposition du public en ligne et dans un second temps, lorsqu’elle est diffusée en continu ou téléchargée. Cette décision de la Commission reposait en grande partie sur son interprétation de l’article 8 du Traité selon laquelle l’acte de « mise à la disposition d’une œuvre » nécessite une protection distincte des États membres, justifiant une rémunération. Arrêt de la Cour d’appel fédérale8 Entertainment Software Association, Apple inc. et leurs filiales canadiennes (les « Diffuseurs ») ont porté la Décision de la Commission devant la Cour d’appel fédérale (« CAF »). S’appuyant sur la norme de la décision raisonnable, la CAF infirme la décision de la Commission affirmant qu’une redevance est due seulement lorsque l’œuvre est mise à la disposition du public sur un serveur et qu’aucune redevance n’est due ensuite pour la diffusion en continu. La CAF souligne par ailleurs l’incertitude quant à la norme de contrôle applicable en appel suivant l’arrêt Vavilov9ths pour un cas où un organisme administratif a une compétence concurrente aux cours de justice en première instance. Arrêt SOCAN La Cour suprême rejette le pourvoi de la SOCAN qui lui demande de rétablir la Décision de la Commission. Norme de contrôle en appel La Cour suprême reconnaît être en présence de circonstances rares et exceptionnelles donnant lieu à la création d’une sixième catégorie de questions pour lesquelles la norme de la décision correcte trouve application, soit la compétence concurrente en première instance entre les organismes administratifs et les cours de justice. L’article 2.4 (1.1) LDA donne-t-il droit au versement d’une seconde redevance à chaque téléchargement ou diffusion continue après sa publication sur un serveur pour que l’œuvre soit accessible au public ? Les droits conférés par l’article 3(1) LDA La Cour suprême commence son analyse en considérant les trois droits conférés par la LDA, soit les droits prévus à l’article 3(1) LDA : de produire ou reproduire une œuvre sous une forme matérielle quelconque; d’exécuter l’œuvre ou de la représenter en public; ou de publier une œuvre non publiée. Ces trois droits sont des droits distincts et une activité ne peut être rattachée qu’à un seul de ces droits. Par exemple, l’exécution de l’œuvre est passagère et permet à l’auteur de conserver un plus grand contrôle sur leurs œuvres que les reproductions. Ainsi, « le droit de l’auteur à l’égard de l’exécution entre en jeu pendant la période limitée où l’utilisateur profite de l’œuvre lors de l’activité. Une reproduction, en revanche, donne à l’utilisateur une copie durable de l’œuvre. »10 La Cour suprême souligne par ailleurs qu’une activité qui ne fait pas intervenir l’un des trois droits de l’article 3(1) LDA ou les droits moraux de l’auteur n’est pas protégée par la LDA et pour cette raison, aucune redevance ne doit être versée en lien avec cette activité. La Cour rappelle ses enseignements antérieurs voulant que le téléchargement ou la diffusion en continu d’une œuvre correspond pour chaque cas de figure à une activité distincte protégée, soit la reproduction pour les téléchargements et l’exécution pour la diffusion en continu. Elle souligne également que le téléchargement n’est pas une communication visée à l’article 3 (1)f) LDA et que la mise à disposition d’une œuvre sur un serveur n’est pas une activité distincte des trois droits justifiant rémunération.11 Objet de la LDA et principe de la neutralité technologique La Cour suprême critique la Décision de la Commission en ce qu’elle viole le principe de neutralité technologique, notamment en exigeant que les utilisateurs paient des redevances additionnelles pour accéder aux œuvres en ligne. La LMDA avait pour objectif d’« éliminer la spécificité technologique des dispositions de la LDA »12 et de marquer, par le fait même, l’adhésion du Canada au principe de la neutralité technologique. Le principe de neutralité technologique est expliqué plus en détail par la Cour suprême : [63] Selon le principe de la neutralité technologique, en l’absence d’une intention contraire du Parlement, la Loi sur le droit d’auteur ne devrait pas être interprétée de manière à favoriser ou à défavoriser une forme de technologie en particulier : SRC, par. 66. La distribution d’œuvres équivalentes sur le plan fonctionnel par des moyens technologiques anciens ou nouveaux devrait mettre en jeu les mêmes droits : Société canadienne des auteurs, compositeurs et éditeurs de musique c. Bell Canada, 2012 CSC 36, [2012] 2 R.C.S. 326, par. 43; SRC, par. 72. Par exemple, l’achat d’un album en ligne devrait faire intervenir les mêmes droits, et donner lieu aux mêmes redevances, que l’acquisition d’un album effectuée dans un magasin physique, étant donné que ces façons d’acheter les œuvres protégées par le droit d’auteur sont équivalentes sur le plan fonctionnel. Ce qui compte, c’est ce que l’utilisateur reçoit, et non la manière dont il le reçoit : ESA, par. 5-6 et 9; Rogers, par. 29. Dans son sommaire de la LMDA, lequel précède le préambule, le Parlement a signalé son adhésion au principe de la neutralité technologique en déclarant que les modifications visaient à « éliminer la spécificité technologique des dispositions de la [Loi sur le droit d’auteur] ». La Cour suprême affirme que le principe de neutralité technologique doit être observé à l’aune des objectifs de la LDA qui n’existe pas uniquement pour la protection des droits des auteurs, mais afin d’établir un équilibre entre les droits des utilisateurs et les droits des auteurs, en facilitant la diffusion des œuvres artistiques et intellectuelles afin d’enrichir la société et d’offrir une inspiration aux autres créateurs. Par conséquent, « ce qui compte, c’est ce que reçoit l’utilisateur, et non la manière dont il le reçoit. »13 Ainsi, que la reproduction ou la diffusion de l’œuvre ait lieu en ligne ou hors ligne, les mêmes droits d’auteur s’appliquent et donnent lieu aux mêmes redevances. Quelle est la bonne interprétation de l’article 2.4 (1.1) LDA ? L’article 8 du Traité La Cour suprême rappelle que les traités de droit international sont pertinents à l’étape du contexte en matière d’interprétation législative et qu’ils peuvent être examinés sans qu’il y ait d’ambiguïté dans le texte d’une loi14. Par ailleurs, si le texte de la loi le permet, elle devra être interprétée conformément aux obligations du Canada découlant du traité selon la présomption de conformité selon laquelle un traité ne peut pas évincer l’intention claire du législateur15. Elle conclut que l’article 2.4 (1.1) LDA avait pour but de mettre en œuvre les obligations du Canada résultant de l’article 8 du Traité et que, par conséquent, le Traité doit être pris en compte dans l’interprétation de l’article 2.4 (1.1) LDA. Même si l’article 8 du Traité confère aux auteurs le droit de contrôler la mise à la disposition du public des œuvres, il ne crée pas un nouveau « droit de mise à la disposition » protégé et donc justifiant une rémunération. Ainsi, il n’en découle pas des « communications distinctes » ou autrement dit, des « exécutions distinctes » 16. L’article 8 du Traité ne crée que deux obligations qui sont : « protéger les transmissions sur demande; et conférer aux auteurs le droit de contrôler comment et quand leur œuvre est mise à la disposition du public pour téléchargement ou diffusion en continu. »17 Le Canada a la liberté de choisir la manière dont ces deux objectifs sont mis en œuvre dans la LDA en recourant soit au droit de distribution, au droit de communication au public, à une combinaison de ces deux droits ou à un nouveau droit18. La Cour suprême conclut que la LDA donne effet aux obligations découlant de l’article 8 du Traité au moyen d’une combinaison des droits en matière d’exécution et représentation, de reproduction et d’autorisation prévus à l’article 3 (1) LDA et respectant le principe de neutralité technologique19. Quelle est l’interprétation de l’article 2.4 (1.1) LDA qui doit être retenue ? L’objectif de l’article 2.4 (1.1) LDA est de préciser le droit de communication visé à l’article 3(1)f) LDA en soulignant qu’il s’applique aux diffusions en continu sur demande. Une unique diffusion en continu sur demande à un membre du public constitue ainsi une « communication au public » telle que l’entend l’article 3(1)f) LDA20. L’article 2.4(1.1) LDA précise qu’une œuvre est exécutée dès qu’elle est mise à la disposition pour diffusion sur demande21. Par conséquent, la diffusion en continu n’est que le prolongement de l’exécution de l’œuvre qui débute avec sa mise à disposition et une seule redevance doit être perçue en lien avec ce droit : [100] Cette interprétation n’exige pas que l’acte de mise à la disposition de l’œuvre soit considéré comme une exécution distincte de la transmission subséquente de l’œuvre par la diffusion en continu. L’œuvre est exécutée dès qu’elle est mise à la disposition pour diffusion en continu. Une redevance d’exécution doit être payée à ce stade. Si l’utilisateur profite subséquemment de cette exécution en diffusant l’œuvre en continu, il bénéficie d’une exécution déjà en cours, et non d’une nouvelle exécution. Aucune redevance distincte ne doit être payée à ce stade. [traduction] « L’acte de “communication au public” sous la forme d’une “mise à la disposition” est entièrement accompli par la simple mise à la disposition d’une œuvre pour diffusion en continu sur demande. Si l’œuvre est alors effectivement transmise de cette façon, cela ne signifie pas que deux actes sont accomplis : la “mise à la disposition” et la “communication au public”. L’acte entier ainsi accompli sera considéré comme une communication au public » : Ficsor, p. 508. Autrement dit, la mise à la disposition d’une diffusion en continu et une diffusion en continu par un utilisateur sont toutes les deux protégées en tant qu’exécution unique — une communication unique au public. Pour résumer, la Cour suprême a affirmé et clarifié les éléments suivants dans l’Arrêt SOCAN : L’article 3(1)f) LDA ne vise pas le téléchargement d’une œuvre; La mise à disposition d’une œuvre sur un serveur et sa diffusion en continu subséquente constitue la mise en œuvre du seul et même droit à l’exécution de l’œuvre; Conséquemment, une seule redevance doit être versée pour une œuvre versée sur un serveur et qui est ensuite diffusée en continu; Cette interprétation de l’article 2.4(1.1) LDA respecte les obligations internationales du Canada en matière de protection du droit d’auteur; La question de la compétence concurrente en première instance entre les cours de justice et les organismes administratifs est celle de la décision correcte. Alors que les créations artistiques de l’intelligence artificielle se multiplient et qu’un nouveau marché de l’art visuel numérique émerge, propulsé par l’engouement pour les plateformes d’échanges NFT, l’importance du principe de neutralité technologique devient une pierre angulaire pour comprendre les droits d’auteur qui sont attachés à ces nouveaux objets numériques et aux transactions qui les concernent. Fort heureusement, les questions relatives à la musique numérique, à son partage et sa diffusion ont pavé la voie en permettant de repenser les droits d’auteur dans un contexte du numérique. Nous notons par ailleurs que dans des marchés numériques de NFT qui se veulent décentralisés et déréglementés, les droits associés à la propriété intellectuelle sont pour l’instant les seules balises qui sont réellement respectées par les plateformes d’échange et qui appellent à une certaine intervention des propriétaires de ces plateformes. 2022 CSC 30. L.R.C. (1985), c. C-42 (ci-après la « LDA »). R.T. Can. 2014 no 20 (ci-après le « Traité »). L.C. 2012, c. 20 (ci-après la « LMDA »). Entertainment Software Association c. Société canadienne des auteurs, compositeurs et éditeurs de musique, 2012 CSC 34. Rogers Communications Inc. c. Société canadienne des auteurs, compositeurs et éditeurs de musique, 2012 CSC 35. Commission du droit d’auteur du Canada, 2017 CanLII 1528886 (ci-après la « Décision de la Commission »). Cour d’appel fédérale, 2020 CAF 100 (ci-après l’« Arrêt de la CAF »). Canada (Ministre de la Citoyenneté et de l’Immigration) c. Vavilov, 2019 CSC 65. Arrêt SOCAN, par. 56. Idem, par. 59. LDMA, préambule. Arrêt SOCAN, par. 70, italique de la CSC. Idem, par. 44-45. Idem, par. 46-48. Idem, par. 74-75. Idem, par. 88. Idem, par. 90. Idem, par. 101 et 108. Idem, par. 91-94. Idem, par. 95 et 99-100.

    Lire la suite
  1. Un partenariat industrie-université pour transformer l’industrie juridique

    Lavery Avocats et une équipe multidisciplinaire regroupant des chercheurs de la Faculté de droit et de l’École de gestion dirigée par le professeur Jean-François Guertin de l’Université de Sherbrooke allient leurs forces dans le cadre d’un partenariat visant à identifier et comprendre l’impact des pratiques novatrices sur la transformation de l’industrie juridique. Peu de voix s’élèvent pour contredire ce constat : l’industrie connaît actuellement une transformation sans précédent. Modes alternatifs de tarification, technologies disruptives, fournisseurs alternatifs de services, nombreuses sont les solutions actuellement proposées qui méritent d’être étudiées et analysées. L’étude produite par les chercheurs de l’Université de Sherbrooke jettera un regard spécifiquement québécois sur les modèles d’affaires de demain et les pratiques exemplaires à adopter dans ce nouveau contexte.  « Lavery s’est donné pour vision d’être un acteur de premier plan dans la transformation de notre industrie et la livraison des services juridiques au Québec. Ce partenariat a pour objectif de nous fournir les outils qui nous permettront de mesurer et de poursuivre la réinvention du modèle d’affaires » a déclaré Anik Trudel, chef de la direction chez Lavery.  « L’actualité présente quotidiennement des entreprises ou des industries qui subissent les turbulences des transformations de leur environnement d’affaires, sans pouvoir intervenir à temps pour influencer le cours des évènements. Lavery démontre, encore une fois, son avant-gardisme et son désir de façonner le futur de son industrie. » Jean-François Guertin.  « Nous sommes fiers de collaborer avec une Université dont la réputation est à la fois d’être connectée sur les réalités du terrain et créative dans l’approche de recherche. Un positionnement annonciateur de résultats à la fois novateurs et concrètement applicables » conclut Anik Trudel. 

    Lire la suite
  2. Lavery et la Fondation Montréal inc. lancent une bourse en intelligence artificielle de 15 000 $

    Lavery et la Fondation Montréal inc. sont heureux d’annoncer la création de la bourse Lavery IA destinée aux entreprises en démarrage dans le domaine de l’intelligence artificielle (IA). D’une valeur de 15 000 $, la bourse donnera également accès aux lauréats à l’ensemble des services qui sont offerts par la Fondation Montréal inc., mais également à du coaching juridique de Lavery adapté aux besoins des jeunes entreprises dans le secteur de l’intelligence artificielle. La bourse Lavery IA sera octroyée annuellement, chaque printemps, par la Fondation Montréal inc. et Lavery à l’entreprise en démarrage s’étant le plus démarquée dans le secteur de l’intelligence artificielle et démontrant un fort potentiel de croissance. « Montréal devenant, jour après jour, la métropole mondiale en intelligence artificielle, Lavery a créé, il y a six mois, un laboratoire juridique en IA qui a pour objectif d’analyser et de prévoir les impacts de l’IA sur certains domaines du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires. Par la création de cette bourse, nous voulons résolument propulser les start-ups évoluant dans ce secteur d’activité et les accompagner au niveau juridique à l’aide des connaissances que nous avons développées avec notre laboratoire », a affirmé Guillaume Lavoie, associé responsable du groupe Lavery CAPITAL. « Les jeunes entrepreneurs intègrent de plus en plus l’intelligence artificielle au cœur de leur modèle d’affaires. Nous sommes heureux de pouvoir leur offrir, en plus de la bourse, des services spécifiques à cette industrie, renforçant ainsi le rôle de super-connecteur de la Fondation Montréal inc. auprès de la communauté d’affaires », a déclaré Liette Lamonde, directrice générale de la Fondation Montréal inc.  Les candidats peuvent dès aujourd’hui déposer une demande via le site de la Fondation Montréal inc. (http://www.montrealinc.ca/fr/bourse-lavery-ia)

    Lire la suite