Publications

Riches en information pertinente, nos publications vous permettent d’être à l’affût de l’actualité juridique qui vous touche, quel que soit votre secteur d’activité. Nos professionnels s’engagent à vous tenir au fait des dernières nouvelles juridiques, à travers l’analyse des derniers jugements, modifications et entrées en vigueur législatives et réglementaires.

Recherche avancée
  • L’intelligence artificielle au service de l’avocat : l’avocat-robot est-il à nos portes?

    Au cours des derniers mois, notre équipe du Laboratoire juridique sur l’intelligence artificielle (L3IA) a testé plusieurs solutions juridiques incorporant, de façon plus ou moins importante, l’IA. Selon les auteurs Remus et Levy1, la plupart de ces outils auront un impact potentiel modéré sur la pratique du droit. Parmi les solutions évaluées par les membres de notre laboratoire, certaines fonctionnalités ont particulièrement attiré notre attention. Contexte historique Au début des années 1950, lorsque Grace Murray Hopper, pionnière de l’informatique, tentait de persuader ses collègues de créer un langage informatique utilisant des mots d’anglais, on lui répondait que c’était impossible qu’un ordinateur puisse comprendre l’anglais. Toutefois, contrairement aux ingénieurs et aux mathématiciens de l’époque, le monde des affaires se montra plus ouvert à cette idée. Ainsi naquit le « Business Language version 0 », ou B-0, l’ancêtre de plusieurs langages informatiques plus modernes et un premier (petit) pas vers le traitement du langage naturel. Il n’en reste pas moins que l’usage de l’informatique pour des solutions juridiques fut un défi, en raison, notamment, de la nature de l’information à traiter, souvent présentée sous forme textuelle et peu organisée. L’auteur Richard Susskind traitait déjà en 1986 de l’usage de l’intelligence artificielle pour traiter d’informations juridiques2. Ce n’est toutefois que plus récemment, avec les avancées en traitement du langage naturel, qu’on a vu apparaître des logiciels ayant le potentiel de modifier substantiellement la pratique du droit. Plusieurs avocats et notaires s’inquiètent aujourd’hui de l’avenir de leur profession. Sommes-nous en train d’assister à la naissance de l’avocat-robot? À ce jour, les solutions technologiques offertes aux juristes permettent l’automatisation de certains aspects spécifiques liés à la multitude de tâches qu’ils accomplissent lorsqu’ils effectuent leur travail. Les outils d’automatisation et d’analyse de documents en sont des exemples pertinents en ce qu’ils permettent, dans un cas, de créer des documents de nature juridique à partir d’un modèle existant et, dans l’autre cas, de faire ressortir certains éléments qui peuvent être potentiellement problématiques dans des documents soumis.  Cependant, aucune solution ne peut se targuer de remplacer entièrement le professionnel du droit. Récemment, les auteurs précités Remus et Levy ont analysé et mesuré l’impact de l’automatisation sur le travail des avocats3. De manière générale, ils prédisent que seul le processus de recherche documentaire sera bouleversé de façon importante par l’automatisation et que les tâches de gestion de dossiers, de rédaction documentaire, de vérification diligente, de recherche et d’analyse juridique seront touchées modérément. Par ailleurs, ils estiment que les tâches de gestion documentaire, de rédaction juridique, de conseil, de négociation, de cueillette factuelle, de préparation et de représentation à la cour ne seront que légèrement bouleversées par les solutions intégrant l’intelligence artificielle4. Les outils d’analyse documentaire Kira, Diligen, Luminance, Contract Companion, LegalSifter, LawGeex, etc. D’abord, parmi les outils permettant l’analyse documentaire, deux types de solutions sont offerts sur le marché. D’une part, plusieurs utilisent l’apprentissage supervisé et non supervisé pour trier et analyser un grand nombre de documents afin d’en tirer certaines informations ciblées. Ce type d’outil est particulièrement intéressant dans un contexte de vérification diligente. Il permet notamment d’identifier l’objet d’un contrat donné ainsi que certaines clauses, les lois applicables et d’autres éléments déterminés dans le but de détecter certains éléments de risque préalablement déterminés par l’utilisateur. À cet égard, notons par exemple l’existence d’outils de vérification diligente comme Kira, Diligen et Luminance5. D’autre part, des solutions sont destinées à l’analyse et à la révision de contrats afin de faciliter la négociation avec une tierce partie. Ce type d’outil utilise le traitement automatique du langage naturel (TALN) afin d’identifier les termes et clauses particuliers du contrat. Il détermine également les éléments qui sont manquants dans un type donné de contrat. Par exemple, dans une entente de confidentialité, l’outil avertira l’utilisateur si la notion d’information confidentielle n’est pas définie. De plus, des commentaires sont fournis quant aux différents éléments identifiés dans le but de fournir des conseils sur la négociation des modalités du contrat. Ces commentaires et conseils peuvent être modifiés en fonction des pratiques privilégiées par le juriste. Ces solutions nous apparaissent particulièrement utiles lorsque le professionnel du droit est appelé à conseiller un client sur l’opportunité ou non de se conformer aux termes d’un contrat qui lui est soumis par un tiers. L’outil Contract Companion6 a attiré notre attention pour sa simplicité d’utilisation, même s’il s’agit ici d’un outil visant seulement à assister un rédacteur humain  sans toutefois identifier les clauses problématiques et leur contenu. L’outil va plutôt détecter certaines incohérences, comme l’absence d’une définition d’un terme débutant par une majuscule, entre autres exemples. LegalSifter et LawGeex7 se présentent comme des assistants à la négociation en proposant des solutions qui repèrent les divergences entre un contrat soumis et les meilleures pratiques favorisées par le cabinet ou l’entreprise, aidant ainsi à trouver et à résoudre les clauses manquantes ou problématiques. Les outils de recherche juridiqueInnovationQ, NLPatent, etc. Récemment, quelques solutions permettant l’analyse de la recherche juridique et la prédiction des décisions des tribunaux sont apparues sur le marché. Des entreprises proposent de simuler un jugement à partir d’éléments factuels envisagés dans le contexte d’un régime juridique donné pour aider à la prise de décision. Pour y parvenir, elles utilisent le TALN pour comprendre les questions posées par les juristes, fouiller la législation, la jurisprudence et les sources doctrinales. Certaines solutions proposent même aux avocats de déterminer leurs chances de gagner ou de perdre en fonction d’éléments donnés, tels que l’avocat de la partie adverse, le juge et le niveau de tribunal. Pour y parvenir, l’outil utilise l’apprentissage automatique. Il pose des questions à propos de la situation du client et, par la suite, il analyse des milliers de cas similaires sur lesquels les tribunaux se sont prononcés. Au final, le système d’intelligence artificielle formule une prédiction basée sur tous les cas analysés, une explication personnalisée et une liste de jurisprudence pertinente. Avec la venue de ces outils, des auteurs anticipent des changements considérables dans la nature des litiges qui se retrouveront devant les tribunaux. Ils prévoient que la technologie favorisera le règlement des différends et que les juges n’auront à se prononcer que sur les conflits générant les questions de droit les plus complexes et suscitant de réels développements juridiques.8 En droit des brevets, la recherche d’inventions existantes (« art antérieur » dans le vocabulaire de la propriété intellectuelle) est facilitée par des outils faisant appel au TALN. La rédaction de brevets comporte généralement un vocabulaire spécialisé. Les solutions permettent d’identifier la technologie ciblée, de déterminer l’art antérieur pertinent et d’analyser les documents qui y sont relatifs afin de repérer les éléments divulgués. À cet égard, les outils d’InnovationQ et NLPatent9 nous semblent démontrer un potentiel intéressant. Les outils de rédaction juridiqueSpecif.io, etc. Quelques solutions offertes sur le marché font appel au potentiel « créatif » de l’intelligence artificielle appliqué au droit. Parmi celles-ci, nous nous sommes intéressés à une solution offrant la rédaction du mémoire descriptif dans le contexte d’une demande de brevet. L’outil Specif.io10 permet de rédiger une description de l’invention en utilisant un vocabulaire adapté et la forme requise pour la rédaction de demandes de brevet, et ce, sur la base de projets de revendications délimitant de manière sommaire la portée de l’invention. Pour le moment, cette solution est restreinte au domaine des inventions en matière de logiciel. Même si, la plupart du temps et dans l’état actuel du produit, le juriste sera appelé à retravailler le texte substantiellement, il peut gagner un temps considérable dans la rédaction d’un premier jet. Recommandations En conclusion, les outils d’intelligence artificielle ne progressent pas de manière uniforme dans tous les domaines du droit. Plusieurs outils peuvent déjà assister des juristes dans diverses tâches répétitives ou les aider à repérer des erreurs ou des risques potentiels dans divers documents. Toutefois, il est important de considérer que ces outils sont encore loin d’avoir la faculté humaine de contextualiser leurs interventions. Là où l’information est organisée et structurée, comme en matière de brevets, domaine dans lequel les bases de données sont organisées et accessibles en ligne pour la plupart des pays occidentaux, les outils permettent non seulement d’assister les usagers dans leurs tâches, mais carrément de fournir un premier projet pour la rédaction d’un mémoire descriptif à partir de simples revendications. Cependant, recherche et développement sont encore nécessaires à cet égard avant qu’on puisse vraiment se fier à de telles solutions. Nous croyons donc pertinent d’émettre certaines grandes recommandations pour les juristes qui voudraient intégrer des outils infusés d’intelligence artificielle dans leur pratique : Connaître les possibilités et les limites d’un outil : lors du choix d’un outil d’intelligence artificielle, il est important d’effectuer des tests afin d’en évaluer le fonctionnement et les résultats. Il faut cibler un objectif précis et s’assurer que l’outil testé permette l’atteinte de cet objectif. Supervision humaine : à ce jour, il est important que tout outil d’intelligence artificielle demeure supervisé par un être humain. Il s’agit non seulement là d’une obligation déontologique pour assurer la qualité des services rendus, mais aussi d’une simple règle de prudence face à des outils n’ayant pas la capacité de contextualiser l’information qu’on leur soumet. Traitement des ambiguïtés : plusieurs outils d’intelligence artificielle permettent divers réglages dans leurs interventions. De tels réglages devraient faire en sorte que le traitement de toute situation ambigüe pour le système soit confié à des opérateurs humains. Confidentialité des données : N’oublions pas que nous sommes soumis à un devoir de confidentialité! Le traitement de l’information confidentielle par les fournisseurs de solutions est un enjeu crucial à considérer. Il ne faut pas avoir peur de poser des questions à ce sujet. Des employés informés :L’intelligence artificielle fait trop souvent peur aux employés. Qui plus est, comme tout changement technologique, la formation interne s’avère nécessaire pour s’assurer que l’utilisation de tels outils soit conforme aux attentes de l’entreprise. Il faut donc non seulement choisir de bons outils d’intelligence artificielle, mais aussi penser à la formation nécessaire pour en tirer profit.   Remus, D., & Levy, F. (2017). Can Robots Be Lawyers: Computers, Lawyers, and the Practice of Law. Geo. J. Legal Ethics, 30, 501. Susskind, R. E. (1986). Expert systems in law: A jurisprudential approach to artificial intelligence and legal reasoning. The modern law review, 49(2), 168-194. Préc., note 1. Id. kirasystems.com; diligen.com; luminance.com. https://www.litera.com/products/legal/contract-companion. legalsifter.com; lawgeex.com. Luis Millan, Artificial Intelligence, Canadian Lawyer (7 avril 2017), en ligne : http://www.canadianlawyermag.com/author/sandra-shutt/artificial-intelligence-3585. http://ip.com/solutions/innovationq; nlpatent.com. specif.io/index.

    Lire la suite
  • Dr Robot, à votre service : l’intelligence artificielle en matière de santé

    Les technologies d’intelligence artificielle sont extrêmement prometteuses en matière de santé1. En explorant, croisant et comparant une quantité phénoménale de données2, l’IA permet aux chercheurs d’avancer plus rapidement et à moindre coûts3 et aux médecins de faciliter la prise de décision relative au diagnostic, au traitement et au choix de prescription. L’intégration de l’IA dans le domaine de la santé peut prendre diverses formes4 : La gestion des dossiers médicaux électroniques (ex : Omnimed) Les soins directs aux patients afin d’améliorer la prise de décisions relatives aux diagnostics, pronostics et aux choix de méthodes thérapeutiques L’intégration en matière de suivi et de prise de médicaments (ex : Dispill) L’exécution de chirurgies et d’examens robotisés Les soins indirects aux patients tels que : Optimisation du déroulement des opérations Meilleure gestion des stocks à l’hôpital Des applications dans les soins à domicile, où des appareils portables et des capteurs serviront à évaluer et à prédire les besoins des patients. Veiller à la protection du public, des innovateurs et de leurs clients Quelque soit la forme qu’emprunte l’implantation de l’IA dans le domaine de la santé au Québec, comme toute innovation, nous devons nous adapter et veiller à la protection du public, des innovateurs et de leurs clients. Qu’est-ce qu’un innovateur? Un innovateur est un développeur, fournisseur ou encore distributeur qui intervient dans le développement et la commercialisation de produits dotés d’intelligence artificielle. 1 - La protection des innovateurs L’avenir des soins de santé résidant dans une intégration accrue de l’IA, les innovateurs se doivent d’être bien accompagnés et protégés, ce qui veut dire d’avoir en main tous les moyens utiles à la protection de leurs droits, notamment en matière de propriété intellectuelle. Au moment de développer leurs produits : ils doivent s’assurer d’obtenir les garanties et engagements nécessaires de leurs partenaires afin de pouvoir faire respecter leurs droits advenant l’appropriation de leur technologie par un tiers. Au moment de commercialiser leurs produits : en ayant pris le soin de bien protéger leurs droits, ils éviteront des poursuites ou des réclamations, qu’elles soient en matière de violation de brevet ou autre. De plus, si la solution technologique proposée implique que les données recueillies, transmises ou analysées soient conservées et mises en commun ou encore qu’elles soient partagées avec différents intervenants, ils devront notamment s’assurer de protéger les renseignements personnels des patients conformément aux lois et règlements applicables5 et de veiller à ce que ces données ne soit pas utilisées à des fins commerciales. À défaut, un innovateur pourrait se voir retirer sa certification par le ministère de la Santé et des Services sociaux. Pour en savoir plus sur la protection des innovateurs, nous vous invitons à consulter l’article : Intelligence artificielle : les obligations contractuelles au-delà de l’expression à la mode. 2 - La protection des clients (acheteurs de solutions en intelligence artificielle) Plusieurs limites sont intrinsèques au fonctionnement de l’intelligence artificielle : la priorisation de la quantité de données recueillies versus la qualité de celles-ci, les erreurs systémiques reproduites et amplifiées6 et les erreurs humaines dans l’entrée même des données sur lesquelles vont s’appuyer les professionnels et chercheurs. Ainsi, les innovateurs devront s’assurer de bien avertir leurs clients des limites et risques liés à l’utilisation de leurs produits afin de se protéger contre d’éventuelles réclamations. Ils devront donc faire preuve d’objectivité dans la façon dont ils représenteront leurs produits. Par exemple, des termes comme « banque de données intelligentes » devraient être utilisés plutôt que « systèmes de diagnostic ». Ce choix de mots évitera d’une part d’éventuelles poursuites en responsabilité civile et d’autre part de se faire reprocher d’enfreindre la Loi médicale en exerçant un acte réservé aux médecins7. L’innovateur devra également conclure un contrat avec son client qui soit clair et détaillé à l’égard de l’utilisation, de l’accès et du partage des données recueillies dans les dossiers médicaux électroniques (« DME »). 3 - La protection du public (réglementation du Collège des médecins du Québec) Tout produit intégrant des technologies d’IA doit permettre aux médecins de respecter leurs obligations à l’égard de la constitution et du maintien d’un DME. Ces obligations sont comprises à l’article 9 du projet de règlement du Collège des médecins, lequel devrait entrer en vigueur dans un avenir rapproché et rendre obligatoire l’utilisation des DME.8 Le Collège entend également y spécifier que l’utilisation des données recueillies ne peut servir « à d’autres fins que le suivi et le traitement des patients9 ». La Direction des enquêtes du Collège a également récemment averti ses membres que les outils technologiques dont ils se servent « doivent être exclusivement utilisés dans le cadre de leurs fonctions, c’est-à-dire la dispensation des soins10 ». La position actuelle du Collège des médecins et du Ministère de la Santé est qu’il est interdit de commercialiser les données contenues dans les DME et ce, même s’ils elles ont été rendues anonymes. De plus, et selon le Dr Yves Robert, secrétaire du Collège, même si les données partagées sont anonymes, elles ne peuvent être utilisées ni pour favoriser un produit, tel un médicament moins cher pour une compagnie d’assurance, ni pour influencer le choix des médecins dans leur prise de décision11. La Direction des enquêtes a également tenu à rappeler à ses membres leur obligation déontologique d’ « ignorer toute intervention d’un tiers en vue d’influer sur l’exécution de ses devoirs professionnels au préjudice de son patient, d’un groupe d’individus ou d’une population.12 »   L’utilisation de Big Data aurait pour effet de créer plus de 300 milliards $USD en valeur, dont le deux tiers en réduction de dépenses : Big Data Analytics in Healthcare, BioMed Research International, vol. 2015, Article ID 370194; voir également Top health industry issues of 2018, PwC Health Research Institute, p. 29. Le consortium américain Kaiser Permanente détient environ 30 pétaoctets de données, soit 30 millions de gigaoctets, et en recueille quotidiennement 2 téraoctets. Mining Electronic Records for Revealing Health Data, New York Times, 14 janvier 2013. Pour des exemples d’intégration de l’IA en matière de santé au Canada, voir Défi en vue : Intégrer les technologies de la robotique, de l’intelligence artificielle et de l’impression en 3D dans les systèmes canadiens de soins de santé, octobre 2017. Voir notamment l’Art. 20 du Code de déontologie des médecins, RLRQ c. M-9, r. 17 et la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39. Voir Lorsque l’intelligence artificielle est discriminatoire. Loi médicale, RLRQ c. M-9, art. 31. Art. 3 du projet de règlement. Id., Art. 9, par. 9. L’accès au dossier médical électronique : exclusivement pour un usage professionnel, Direction des enquêtes du Collège des médecins du Québec, 13 février 2018. Marie-Claude Malboeuf, « Dossiers médicaux à vendre », La Presse.ca, 2 mars 2018. Accès au dossier médical électronique par les fournisseurs, Direction des enquêtes du Collège des médecins du Québec, 29 mai 2017, citant l’article 64 du Code de déontologie des médecins, préc. note 12.

    Lire la suite
  • Intelligence artificielle et chaînes de blocs : vulnérables aux cyberattaques

    Les technologies qui reposent sur les chaînes de blocs (blockchain en anglais) et l’intelligence artificielle représentent un changement important pour notre société. La sécurité des données qui y sont échangées étant cruciale, l’adoption de ces solutions doit être planifiée dès aujourd’hui dans une optique à long terme. Les entreprises sont nombreuses à mettre au point des services qui reposent sur les chaines de blocs, notamment dans le secteur des services financiers. Les cryptomonnaies, un exemple d’utilisation des chaînes de blocs, changent la manière dont s’effectuent certains échanges monétaires, loin du contrôle des institutions bancaires et des gouvernements. Du côté de  l’intelligence artificielle, les entreprises choisissent parfois des plateformes technologiques qui mettent en cause un partage des données dans le but d’accélérer la mise au point de leur outil d’intelligence artificielle. L’impact de la révolution quantique sur la cybersécurité En 2016, IBM a rendu accessible aux chercheurs un ordinateur permettant d’effectuer des essais sur divers algorithmes quantiques1. Il faut savoir que mode de fonctionnement des ordinateurs quantiques est radicalement différent de celui des ordinateurs conventionnels. D’ici une dizaine d’années, ils permettront d’effectuer rapidement des calculs qui dépassent la capacité des ordinateurs actuels les plus puissants. En effet, les ordinateurs quantiques utilisent les propriétés quantiques de la matière, notamment la superposition d’états, qui permet de traiter simultanément des ensembles de données liées. L’algorithme de Shor est un algorithme utilisant des propriétés quantiques de la matière et qui peut être utilisé par des ordinateurs quantiques. L’algorithme de Shor permet à un ordinateur quantique de factoriser un nombre entier très rapidement, beaucoup plus que n’importe quel ordinateur conventionnel. Cette opération mathématique est l’élément essentiel permettant de déchiffrer l’information qui a été encryptée par plusieurs méthodes répandues en informatique. Cette technologie, qui intéresse les physiciens depuis longtemps, représente désormais un risque important pour la sécurité des données encryptées. Les données que l’on souhaite garder sécurisées et confidentielles présentent ainsi une vulnérabilité aux détournements à des fins non-autorisées. Méthodes d’encryptages de chaînes de blocs : assez sécurisées? Plusieurs méthodes d’encryptages existent aujourd’hui et plusieurs d’entre elles devront être renforcées pour maintenir la sécurité des données. Et il ne s’agit là que de quelques exemples de vulnérabilités aux ordinateurs quantiques. Méthodes SHA-2 et SHA-3 Le National Institute of Standards and Technology (NIST) des États-Unis a émis des recommandations quant à la sécurité de diverses méthodes d’encryptage2. Les méthodes SHA-2 et SHA-3, qui sont les algorithmes qui servent à assurer l’intégrité des chaînes de blocs en produisant un « hachage » des blocs précédents, devront être renforcées pour maintenir le même niveau de sécurité. Méthodes de signature utilisées par les Bitcoins et d’autres cryptomonnaies La cryptographie par courbes elliptique est un ensemble de techniques  cryptographiques qui utilisent une ou plusieurs propriétés de fonctions mathématiques qui décrivent les courbes elliptiques afin d’encrypter des données. Selon le NIST, la cryptographie par courbes elliptique deviendra inefficace. Ce qui est préoccupant, c’est qu’on parle ici de la méthode utilisée pour la signature de cryptomonnaies, dont le célèbre Bitcoin. Des recherches récentes indiquent que cette méthode présente une grande vulnérabilité à une attaque par des ordinateurs quantiques, qui pourraient déjouer ces codes en moins de dix minutes d’ici quelques années3. Algorithmes cryptographiques de type RSA Les algorithmes cryptographiques de type RSA4, très répandus pour la communication de données par Internet, sont particulièrement vulnérables aux ordinateurs quantiques. Ceci pourrait notamment avoir un impact si de grandes quantités de données devraient être échangées entre plusieurs ordinateurs, par exemple pour alimenter des systèmes d’intelligence artificielle. Des algorithmes cryptographiques plus sécuritaires Le NIST reconnait certaines approches qui sont plus sécuritaires. Un algorithme mis au point par Robert McEliece, mathématicien et professeur à Caltech, semble pouvoir résister à ces attaques5 pour le moment. À plus long terme, on peut espérer que la technologie quantique permette elle-même de générer des clés sécuritaires. Incidences juridiques et d’affaires en matière de protection des données   La loi impose aux entreprises l’obligation de protéger les renseignements personnels et confidentiels qui leurs sont confiés par leurs clients. Elles doivent donc prendre des mesures adéquates pour protéger cet or brut que représentent les données.   Le choix d’une technologie d’intelligence artificielle ou de chaînes de blocs doit donc être effectué dès aujourd’hui, en tenant compte du fait qu’une fois adoptée, celle-ci sera utilisée pendant plusieurs années et sera possiblement appelée à survivre à l’arrivée des ordinateurs quantiques. Qui plus est, il faudra également corriger les failles de sécurité des technologies n’étant pas sous le contrôle d’autorités gouvernementales ou d’une seule entreprise. Contrairement aux technologies plus conventionnelles, il ne s’agit pas d’installer une simple mise à jour sur un serveur unique. Dans certains cas, il faudra repenser la structure même d’une technologie décentralisée, telle la chaîne de blocs. Faire le choix d’une technologie qui évolue La clé sera donc de choisir une technologie qui permettra aux entreprises de respecter leurs obligations en matière de sécurité dans un monde post-quantique, ou à tout le moins de choisir une architecture qui permettra une modernisation de ces algorithmes d’encryptage en temps opportun. Il faudra donc établir un dialogue entre informaticiens, mathématiciens, physiciens et … avocats! Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   Communiqué de presse : IBM Makes Quantum Computing Available on IBM Cloud to Accelerate Innovation: https://www-03.ibm.com/press/us/en/pressrelease/49661.wss; voir aussi : Linke, Norbert M., et al. "Experimental comparison of two quantum computing architectures." Proceedings of the National Academy of Sciences (2017): 201618020. Chen, Lily, et al. Report on post-quantum cryptography. US Department of Commerce, National Institute of Standards and Technology, 2016. Aggarwal, Divesh, et al. "Quantum attacks on Bitcoin, and how to protect against them." arXiv preprint arXiv:1710.10377(2017). Il s’agit ici de l’acronyme des trois concepteurs de ce type d’encryptions, Rivest, Shamir et Adleman. Supra, note 2; voir aussi Dinh, Hang, Cristopher Moore, and Alexander Russell. "McEliece and Niederreiter cryptosystems that resist quantum Fourier sampling attacks." Annual Cryptology Conference. Springer, Berlin, Heidelberg, 2011

    Lire la suite
  • La propriété intellectuelle de l’intelligence artificielle

    Bien que l’intelligence artificielle soit en constante évolution depuis quelques années, le droit peine parfois à s’y adapter. Les enjeux de propriété intellectuelle sont particulièrement importants : il faut en effet s’assurer que les entreprises qui investissent dans ces technologies puissent profiter pleinement de leurs retombées commerciales. Le présent bulletin constitue un survol des diverses formes de propriété intellectuelle qui peuvent s’avérer pertinentes en matière d’intelligence artificielle. Le premier réflexe de nombreux entrepreneurs est souvent de vouloir breveter leurs procédés d’intelligence artificielle. Toutefois, bien qu’il s’agisse d’un mode de protection qui puisse être envisagé dans certains cas, l’obtention d’un brevet ne constitue pas nécessairement la forme de protection la plus adaptée à l’intelligence artificielle ou aux technologies logicielles en général. En effet, depuis l’importante décision de la Cour suprême des États-Unis dans l’affaire Alice Corp. v. CLS Bank International 1, il est reconnu que le fait d’appliquer des idées abstraites à l’environnement informatique n’est pas suffisant pour transformer ces idées en objets brevetables. Par exemple, un brevet pourtant émis pour un système expert, constituant une forme d’intelligence artificielle, a été invalidé par les tribunaux américains à la suite de cette décision2. Au Canada, la jurisprudence n’a pas encore traité de cas spécifique aux systèmes d’intelligence artificielle. Par contre, nul doute que les principes dégagés par la Cour d’appel fédérale dans la décision Schlumberger Canada Ltd. c. Commissaire des brevets3 demeurent pertinents. Dans cette affaire, il a été décidé qu’un procédé permettant de recueillir, d’enregistrer et d’analyser des données à l’aide d’un ordinateur qui appliquait alors une formule mathématique ne pouvait faire l’objet d’un brevet. Par contre, dans une décision plus récente, la Cour en est venu à la conclusion qu’un procédé informatique pourrait être brevetable s’il “[...] ne constitue pas l’invention entière, mais seulement un élément essentiel parmi d’autres dans une nouvelle combinaison.”4 Il est donc à prévoir qu’un algorithme d’intelligence artificielle pris isolément ne pourra faire l’objet d’un brevet. Quant à l’Europe, en vertu de l’Article 52 de la Convention sur le brevet européen de 1973, les programmes d’ordinateurs ne sont pas brevetables. Il est donc impossible d’obtenir un brevet sous ce régime pour la programmation sous-jacente à un système d’intelligence artificielle Le droit d’auteur est peut-être la plus évidente des formes de propriété intellectuelle en ce qui concerne l’intelligence artificielle. En effet, les codes sources sont reconnus depuis longtemps comme étant des œuvres au sens de la Loi sur le droit d’auteur canadienne de même que par des lois similaires dans la plupart des pays. Certains pays ont même adoptés des lois s’appliquant précisément à la protection des logiciels5. Une décision canadienne plus ancienne présente en outre un intérêt : Apple Computer, Inc. c. Mackintosh Computers Ltd.6 On y indique qu’un algorithme incorporé dans un circuit ROM (read only memory) est considéré comme étant une œuvre protégée par le droit d’auteur. Une décision semblable avait été rendue aux États-Unis précédemment7. Dans le cas d’un système d’intelligence artificielle, ces décisions sont importantes en ce qu’elles étendent la protection du droit d’auteur non seulement au code étant programmé dans des langages de haut niveau ou sur des plateformes d’intelligence artificielles avancées, mais aussi au code objet en découlant, même sur un support électronique comme un circuit ROM. Le droit d’auteur ne protège toutefois pas les idées ou les principes généraux d’un code, mais bien leur expression. D’autre part, il ne faut pas sous-estimer la protection que confèrent les secrets industriels. Plus particulièrement, en matière d’informatique, rares sont les clients qui ont accès à l’ensemble du code source. De plus, les codes sources en matière d’intelligence artificielle sont d’une certaine complexité qui contribue à cette protection8. Il s’agit là d’une approche particulièrement intéressante pour les entreprises qui offrent des logiciels en tant que service à distance. En effet, dans un tel cas, les clients n’ont accès qu’à l’interface, mais jamais au code source ni même au code compilé. Il est presque impossible d’en faire une réelle ingénierie inversée. Toutefois, le risque encouru dans le cas où un système d’intelligence artificielle n’est protégé qu’en vertu de la notion de secret industriel est qu’une fuite originant d’un ou plusieurs employés permette à des concurrents de prendre connaissance du code source, de sa structure ou de ses particularités. On n’a qu’à s’imaginer comment il deviendrait difficile de rattraper une fuite de code source qui circulerait sur Internet. Il est bien sûr possible de faire signer des ententes de confidentialité, mais cela n’est malheureusement pas suffisant face à des employés de mauvaise foi ou l’espionnage industriel. Il est donc opportun de mettre en place des mesures de fractionnement des connaissances au sein de l’entreprise, de sorte que très peu d’employés aient accès à l’ensemble de l’information critique. Accessoirement, il pourrait être stratégique pour un fournisseur d’intelligence artificielle de s’assurer que ses clients mettent en évidence sa marque de commerce, à la manière de la stratégie de mise en marché coopérative “Intel Inside”, de façon à promouvoir son système auprès d’autres clients potentiels. Dans le cas des systèmes d’intelligence artificielle utilisés vendus dans un contexte commercial, il est également important de considérer la propriété intellectuelle sur les résultats de l’apprentissage des systèmes liés à l’utilisation qui en est faite. Il faut se demander si les bases de données qui sont générées par un système d’intelligence artificielle mis au point par un fournisseur de logiciel, à l’occasion de l’utilisation qu’en fait un de ses clients, appartiennent au fournisseur de logiciel ou à ce client. C’est souvent le contrat entre les parties qui régira cette situation. Toutefois, il peut être légitime pour une entreprise de vouloir conserver la propriété intellectuelle sur les bases de données qui sont générées par l’usage interne qu’elle fait du logiciel, notamment en lui soumettant ses données opérationnelles ou en « entraînant » le système d’intelligence artificielle au fil des interactions avec ses employés. Le fait de vouloir conserver la confidentialité de ces bases de données découlant de l’usage de l’intelligence artificielle permet de les assimiler à des secrets industriels. Toutefois, la question de savoir s’il s’agit d’œuvres au sens du droit d’auteur devra être déterminée au cas par cas. Il faudra, entre autres, tenter d’établir si ces bases de données résultent d’un exercice de talent et de jugement d’un ou plusieurs auteurs, comme le veut la jurisprudence canadienne à cet égard9. Alors que les situations où des employés « entraînent » un système d’intelligence artificielle semblent plus facilement assimilables à un exercice de talent et de jugement de leur part, celles où des bases de données sont constituées de manière autonome par le système risquent d’échapper au droit d’auteur, puisqu’il n’existe pas de droit d’auteur sur les données elles-mêmes10, mais bien sur leur analyse et leur compilation par un auteur. En effet, à toutes ces questions s’ajoute celle, plus prospective, des inventions créées par des systèmes d’intelligence artificielle. Déjà, des systèmes d’intelligence artificielle sont utilisés pour répertorier des domaines de recherche présentant des occasions d’innovation. Par exemple, des systèmes d’exploration des données (data mining) sont déjà utilisés pour analyser les textes des brevets, découvrir des champs de recherche émergents et même trouver des domaines conceptuels étant « disponibles » pour d’éventuels brevets11. Il est possible que les systèmes d’intelligence artificielle puissent être utilisés au cours des prochaines années pour rédiger des demandes de brevet de manière automatisée, notamment pour en rédiger les revendications12. L’intelligence artificielle pourrait-elle être titulaire de droits de propriété intellectuelle, par exemple sur des brevets ou des droits d’auteur ? Nous en doutons, car les lois actuelles attribuent des droits aux inventeurs et créateurs en tant que personnes physiques, du moins au Canada et aux États-Unis13. Mais alors, est-ce que la propriété intellectuelle de l’invention reviendrait aux concepteurs du système d’intelligence artificielle ? Nous ne croyons pas non plus que le droit soit bien adapté à cet égard, la propriété intellectuelle étant historiquement accordée aux personnes ayant fait preuve d’inventivité en matière de brevet ou de l’exercice d’un talent et de jugement en matière de droit d’auteur, selon le cas. On peut se demander si on verra un brevet invalidé ou une œuvre tomber dans le domaine public au motif qu’une portion substantielle en est générée par l’intelligence artificielle (ce qui n’est pas le cas de ce bulletin!). D’ici là, les juristes devront se familiariser avec les concepts sousjacents de l’intelligence artificielle, tout comme les informaticiens devront se familiariser avec ceux de la propriété intellectuelle. Pour les entrepreneurs qui conçoivent ou utilisent des systèmes d’intelligence artificielle, une réflexion constante sur la propriété intellectuelle s’impose pour protéger le fruit de leurs efforts. Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   573 U.S._, 134 S. Ct. 2347 (2014). Vehicle Intelligence and Safety v. Mercedes-Benz, 78 F. Supp.3d 884 (2015), maintenue en appel Federal Circuit. No. 2015-1411 (U.S.). [1982] 1 C.F. 845 (C.A.F.). Canada (Procureur général) c. Amazon.com, inc., [2012] 2 RCF 459, 2011 CAF 328. À titre d’exemple, au Brésil : Lei do Software No. 9.609 du 19 février, 1998; en Europe : Directive 2009/24/CE concernant la protection juridique des programmes d’ordinateur. [1990] 2 RCS 209, 1990 CanLII 119 (CSC). Apple Computer, Inc. v. Franklin Computer Corp., 714 F.2d 1240 (3d Cir. 1983) (U.S.). Keisner, A., Raffo, J., & Wunsch-Vincent, S. (2015). Breakthrough technologies-Robotics, innovation and intellectual property (No. 30). World Intellectual Property Organization- Economics and Statistics Division. CCH Canadian Ltd. c. Law Society of Upper Canada, 2004 CSC 13, [2004] 1 RCS 339. Voir par exemple : Geophysical Service Incorporated c. Office Canada-Nouvelle-Écosse des hydrocarbures extracôtiers, 2014 CF 450. Voir par exemple : Lee, S., Yoon, B., & Park, Y. (2009). An approach to discovering new technology opportunities: Keyword-based patent map approach. Technovation, 29(6), 481-497; Abbas, A., Zhang, L., & Khan, S. U. (2014). A literature review on the state-of-theart in patent analysis. World Patent Information, 37, 3-13. A Hattenbach, B., & Glucoft, J. (2015). Patents in an Era of Infinite Monkeys and Artificial Intelligence. Stan. Tech. L. Rev., 19, 32. Supra, note 7.

    Lire la suite
  • Lorsque l’intelligence artificielle est discriminatoire

    L’intelligence artificielle a connu des avancées importantes depuis quelques années, notamment grâce aux avancées de ce que l’on nomme maintenant l’apprentissage profond (deep learning)1. Cette méthode est le prolongement des réseaux neuroniques qui sont utilisés depuis quelques années pour l’apprentissage des machines. L’apprentissage profond, comme toute forme d’apprentissage d’une machine, requiert que le système d’intelligence artificielle soit confronté à diverses situations afin d’apprendre à réagir à des situations présentant des similitudes à ces expériences antérieures. En entreprise, des systèmes d’intelligence artificielle sont notamment utilisés pour répondre aux besoins des clients, soit directement, soit en soutenant les employés dans leurs interventions. La qualité des services rendus par l’entreprise est donc de plus en plus tributaire de la qualité de ces systèmes d’intelligence artificielle. Il ne faut pas, toutefois, faire l’erreur de présumer qu’un tel système informatique s’acquittera automatiquement des tâches qui lui sont confiées sans faille et dans le respect des valeurs de l’entreprise ou de sa clientèle. Par exemple, des chercheurs de l’université Carnegie Mellon ont récemment démontré qu’un système devant présenter de la publicité ciblée à des usagers d’Internet offrait systématiquement moins de postes bien rémunérés aux femmes qu’aux hommes2. En d’autres termes, ce système avait un comportement que l’on pourrait qualifier de sexiste. Bien que les chercheurs n’aient pu identifier l’origine du problème, ils étaient d’avis qu’il s’agissait probablement d’une perte de contrôle du fournisseur de service de placement de publicité sur son système automatisé, et ils soulignaient les risques inhérents aux systèmes d’intelligence artificielle à grande échelle. Divers systèmes d’intelligence artificielle ont connu des ratés similaires, démontrant des comportements racistes et forçant même un exploitant à suspendre l’accès à son système3 À cet égard, l’Union Européenne a adopté en avril 2016 une règlementation relative au traitement de l’information personnelle qui, sauf dans certains cas précis, interdit la prise de décision automatisée basée sur certaines données à caractère personnel, dont « […] l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique […] »4. Certains chercheurs s’interrogent d’ailleurs sur l’application de ce règlement, notamment alors que la discrimination apparaît de manière incidente, hors la volonté de l’exploitant du système d’intelligence artificielle5 Au Québec, on peut croire qu’une entreprise qui exploiterait un système d’intelligence artificielle discriminatoire au sens des lois applicables ou de la Charte des droits et libertés de la personne s’exposerait à des recours, même en l’absence de règlement précis comme celui de l’Union Européenne. En effet, le responsable du bien qu’est ce système d’intelligence artificielle pourrait voir sa responsabilité engagée à l’égard du préjudice ou du dommage causé par le fait autonome de ce bien. Qui plus est, le fait de ne pas mettre en place des mesures raisonnables pour éviter la discrimination serait fort probablement pris en compte dans l’analyse juridique d’une telle situation. Une vigilance particulière s’impose donc lorsque le fonctionnement d’un système d’intelligence artificielle repose sur des données déjà accumulées au sein de l’entreprise, des données de tiers (notamment ce qu’on désigne souvent comme le big data ), ou encore lorsque les données seront fournies au système d’intelligence artificielle par des employés de l’entreprise ou ses utilisateurs au cours d’une période « d’apprentissage ». Toutes ces sources de données, par ailleurs soumises aux obligations découlant des lois applicables à la protection des renseignements personnels, peuvent être biaisées à divers degrés. Les effets d’un échantillonnage biaisé ne sont pas nouveaux ni cantonnés au respect des droits de la personne. Il s’agit d’un effet bien connu des statisticiens. Pendant la Seconde Guerre mondiale, la marine américaine demanda à un mathématicien nommé Abraham Wald de leur fournir des statistiques sur les parties des avions bombardiers ayant été les plus touchés dans le but de renforcer le blindage à ces endroits. Wald démontra que les données sur les avions revenant de mission étaient biaisées, car elles ne tenaient pas compte des avions abattus en mission. Il ne fallait donc pas renforcer le blindage sur les parties où les avions revenant de mission étaient endommagés, mais plutôt aux endroits où ils n’étaient pas touchés. Dans le contexte de l’exploitation d’une entreprise, un système d’intelligence artificielle auquel on soumet des données biaisées pourrait ainsi prendre des décisions erronées, ayant des conséquences néfastes au point de vue humain, économique et opérationnel pour l’entreprise. Par exemple, si l’on soumet un tel système à un apprentissage encadré par des employés de l’entreprise, leur façon d’agir se reflétera sans doute dans son comportement ultérieur. Ceci peut se refléter dans les jugements portés par le système d’intelligence artificielle à l’égard de demandes de clients, mais aussi directement dans leur capacité de résoudre adéquatement les problèmes techniques qui lui sont soumis. On risque ainsi de perpétuer les comportements problématiques de certains employés. Des chercheurs du Machine Intelligence Research Institute ont proposé diverses approches pour minimiser les risques et rendre l’apprentissage machine d’un système d’intelligence artificielle conforme aux intérêts de son exploitant 6. Selon ces chercheurs, il pourrait notamment être opportun d’adopter une approche prudente quant aux objectifs imposés à de tels systèmes pour éviter qu’ils offrent des solutions extrêmes ou indésirables. Il serait en outre important d’établir des procédures de supervision informée, au moyen desquelles un opérateur peut s’assurer que le fonctionnement du système d’intelligence artificielle est, dans son ensemble, conforme aux attentes de son exploitant. De ce qui précède, il faut retenir qu’une entreprise qui désire intégrer un système d’intelligence artificielle dans ses opérations doit prendre très au sérieux la phase d’implantation, au cours de laquelle se déroulera l’apprentissage du comportement désiré par le système. D’une part, il sera important d’avoir des discussions approfondies avec le fournisseur sur le fonctionnement de sa technologie et ses performances, ainsi que d’encadrer contractuellement et le plus clairement possible les attentes de l’entreprise à l’égard du système qu’elle désire implanter. Il faut également prévoir comment s’effectuera l’intégration du système d’intelligence artificielle dans l’entreprise et s’assurer que cette intégration soit confiée à des employés et consultants dignes de confiance, possédant le plus haut niveau de compétence eu égard aux tâches pertinentes. Quant au fournisseur du système d’intelligence artificielle, il faudra généralement s’assurer que les données qui lui sont fournies ne sont pas biaisées, inexactes ou autrement altérées, de telle façon que les objectifs prévus au contrat quant aux performances souhaitées du système puissent raisonnablement être atteints, permettant ainsi de minimiser le risque de litiges devant les tribunaux découlant de comportements discriminatoires ou défaillants à d’autres égards du système d’intelligence artificielle. Non seulement de tels litiges pourraient-ils s’avérer onéreux, ils seraient de surcroît susceptibles d’entacher tant la réputation du fournisseur que celle du client utilisateur. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. Datta, A., Sen, S., & Zick, Y. (2016, May). Algorithmic transparency via quantitative input influence: Theory and experiments with learning systems. In Security and Privacy (SP), 2016 IEEE Symposium on (pp. 598-617). IEEE; Datta, A., Tschantz, M. C., & Datta, A. (2015). Voir aussi: Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, 2015(1), 92-112. Reese, H. (2016). Top 10 AI failures of 2016. Le cas de Tay, le système de Microsoft, a été abondamment discuté dans les médias. Règlement (UE) 2016/679 du parlement européen et du conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), art. 22. Goodman, B., & Flaxman, S. (2016, June). EU regulations on algorithmic decision-making and a “right to explanation”. In ICML Workshop on Human Interpretability in Machine Learning (WHI 2016). Taylor, J., Yudkowsky, E., LaVictoire, P., & Critch, A. (2016). Alignment for advanced machine learning systems . Technical Report 20161, MIRI.

    Lire la suite
  • Intelligence artificielle : les obligations contractuelles au-delà de l’expression à la mode

    Est-ce qu’un ordinateur peut apprendre et être intelligent ? Dans l’affirmative, quelles sont les limites des tâches qu’on peut lui confier ? Ces questions ont fait l’objet d’innombrables débats depuis au moins aussi longtemps que la publication d’Alan Turing sur les nombres calculables en 19371. De nombreux chercheurs se sont consacrés à développer des méthodes permettant aux ordinateurs d’interagir plus facilement avec les êtres humains et d’intégrer des processus leur servant à apprendre des situations qui se sont présentées. En quelque sorte, on souhaite permettre à la machine de penser et de réagir comme le ferait un être humain. Dès le début des années 1960, Marvin Minsky, célèbre chercheur du MIT, répertoriait ce qu’il considérait comme les étapes devant mener au développement d’une intelligence artificielle2. La puissance des ordinateurs récents ainsi que la capacité d’emmagasiner des quantités phénoménales d’information permettent aujourd’hui d’intégrer l’intelligence artificielle en entreprise et dans la vie quotidienne, souvent sous les vocables d’apprentissage automatique (machine learning), d’exploration des données (data mining) ou d’apprentissage profond (deep learning) – cette dernière forme ayant connu un développement fulgurant au cours des dernières années3. L’utilisation de l’intelligence artificielle en entreprise soulève toutefois de nombreuses questions juridiques. Ces enjeux sont d’importance capitale lorsque des entreprises concluent des contrats pour offrir ou recevoir des produits et services dans le domaine de l’intelligence artificielle. En matière contractuelle, il est important de bien encadrer les obligations de chaque partie ainsi que leurs attentes. Pour les fournisseurs de produits d’intelligence artificielle, un enjeu important est la responsabilité qu’ils encourent en cas de dysfonctionnement de leurs produits. À titre d’exemple, est-ce que les concepteurs d’un système d’intelligence artificielle pour l’aide à la décision dans un contexte médical peuvent être tenus responsables, directement ou indirectement, de l’erreur médicale découlant d’informations ou de suggestions erronées données par ce système ? Il peut être opportun de s’assurer que les contrats exigent spécifiquement des professionnels utilisant de tels systèmes qu’ils exercent un certain contrôle sur les résultats, que ce soit en médecine, en ingénierie ou en gestion des affaires. En contrepartie, les entreprises qui désirent utiliser de tels produits doivent encadrer clairement les objectifs qu’ils souhaitent ainsi atteindre. Il ne s’agit pas là d’une simple question de performance du système d’intelligence artificielle, mais aussi de prévision de ce qui constituerait une défaillance des produits et ses conséquences juridiques. Par exemple, l’utilisation d’intelligence artificielle dans la gestion de la production d’une entreprise doit-elle permettre une augmentation du rendement ou une diminution de certains problèmes ? Qu’arrive-t-il si les performances souhaitées ne sont pas atteintes ? Un autre enjeu important est la propriété intellectuelle des données intégrées et générées par le produit d’intelligence artificielle. Plusieurs systèmes d’intelligence artificielle nécessitent l’utilisation d’un grand volume de données de l’entreprise afin que ces systèmes acquièrent l’« expérience » nécessaire à leur apprentissage. Toutefois, à qui appartiennent ces données et à qui appartiendront les résultats de cet apprentissage par le système d’intelligence artificielle ? Par exemple, pour qu’un système d’intelligence artificielle puisse devenir performant, une entreprise pourrait se voir obligée de lui soumettre une grande quantité de données et d’investir des ressources humaines ainsi que financières considérables pour guider son apprentissage. Est-ce que le fournisseur du système d’intelligence artificielle acquiert des droits sur ces données ? Est-ce qu’il peut se servir de l’apprentissage de son système d’intelligence artificielle dans une entreprise pour en faire bénéficier ses autres clients? Dans des cas extrêmes, cela pourrait faire en sorte que l’expérience acquise par un système au sein d’une entreprise bénéficie aux compétiteurs de cette dernière. Lorsque le système d’intelligence artificielle est utilisé dans des applications visant des consommateurs ou les employés d’une entreprise, il ne faut pas négliger non plus les enjeux liés à la confidentialité des données utilisées par le système d’intelligence artificielle et à la protection de la vie privée de ces personnes. Il s’agit là d’autant d’enjeux qui doivent être encadrés au point de vue contractuel avant que les problèmes ne surviennent. Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries. Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires. Dans nos prochaines publications, l’équipe de notre Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) analysera de façon plus spécifique certaines applications de l’intelligence artificielle dans différents secteurs. Turing, A. M. (1937). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London mathematical society, 2(1), 230-265. Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8-30. Voir notamment : LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.

    Lire la suite
  • La vérification diligente de la propriété intellectuelle dans un contexte d’investissement

    La vérification diligente des droits de propriété intellectuelle constitue une étape importante lors de l’acquisition d’une entreprise ou lorsqu’on y investit des sommes importantes. Pour les entreprises technologiques, les droits de propriété intellectuelle sont souvent les actifs qui représentent l’essentiel de la valeur de l’entreprise. Une vérification diligente permet notamment d’obtenir une image plus précise de ces actifs et des problèmes potentiels qui y sont liés. Divers types de propriété intellectuelle peuvent faire l’objet d’une vérification diligente. La plupart du temps, il s’agit de marques de commerce, de brevets et de secrets commerciaux, ainsi que de droits d’auteurs, par exemple lorsque l’entreprise possède des droits sur des codes sources de programmes informatiques. Toutefois, il faut garder à l’esprit que tout type de propriété intellectuelle doit être attentivement considéré. Au Canada, que la marque de commerce soit enregistrée ou non, elle constitue un actif transférable selon la Loi sur les marques de commerce1, et il est donc important de retracer la chaîne des titres relative à une marque depuis qu’elle est en usage. Lorsque la marque est enregistrée, il est aussi important de vérifier si les produits et les services déclarés lors de l’enregistrement correspondent adéquatement à la réalité opérationnelle de l’entreprise et si les dates de premier emploi qui ont été déclarées sont correctes. En effet, un enregistrement peut être invalidé lorsque la date de premier emploi réelle de la marque est postérieure à la date qui a été déclarée. En matière de brevets, il faut distinguer la vérification des demandes en instance de celle des brevets accordés. Lorsqu’une demande de brevet est en instance, il est important de vérifier la correspondance reçue des bureaux des brevets, notamment pour y déceler toute indication à l’effet que le brevet ne sera pas accordé ou que sa portée sera restreinte. Lorsqu’il s’agit d’une demande effectuée selon le Traité de coopération en matière de brevet (souvent désigné sous le nom PCT en référence à sa désignation anglophone), il est opportun d’analyser toute opinion préliminaire émise dans le cadre de ce traité. Comme la demande de brevet est un document essentiellement technique, il peut être pertinent de demander à un expert dans le domaine son opinion quant à la portée de l’invention. Un brevet délivré est présumé valide, mais il demeure essentiel d’en évaluer la portée par rapport à l’invention telle qu’exploitée commercialement par l’entreprise. Les droits sur un brevet appartiennent au départ aux inventeurs, à moins de convention écrite à l’effet contraire. Il faut donc vérifier les conventions ayant été signées avec les inventeurs2. À cet égard, deux situations sont à éviter : premièrement, les cas où divers inventeurs ont cédé leurs droits à des entreprises différentes, plaçant les entreprises exploitantes dans une situation d’indivision difficile à gérer; deuxièmement, les cas où les inventeurs déclarés aux autorités gouvernementales ne sont pas, dans les faits, les bonnes personnes. Un brevet obtenu sans y désigner les réels inventeurs peut être impossible à faire respecter ou même carrément invalide3. Enfin, si le brevet ou la demande de brevet a fait l’objet de cessions successives, il faut s’assurer de l’existence d’écrits constatant ces différentes cessions, tel que requis par la Loi sur les brevets4. La Loi sur le droit d’auteur5 comporte quant à elle une présomption à l’effet que les oeuvres (incluant les codes sources de programmes informatiques) sont la propriété de l’employeur si elles sont développées dans le cadre de l’emploi. Toutefois, cette présomption n’existe pas si le travail a été fait par un sous-traitant ou un consultant; des vérifications plus approfondies à cet égard s’imposent. Notons que la Cour d’appel de l’Ontario a reconnu qu’un arrangement d’éléments d’un programme informatique peut faire l’objet de droits d’auteur, même lorsque ces éléments ne peuvent pas être eux-mêmes protégés individuellement6. Enfin, même si l’enregistrement des droits d’auteur n’est pas obligatoire, toute cession du droit d’auteur ou concession par une licence d’un intérêt dans ce droit n’est valable que si elle est constatée par un écrit signé par le titulaire du droit; ceci doit aussi faire l’objet de vérifications. Quant aux secrets commerciaux, une entreprise ne peut en tirer un avantage économique que si les informations sont réellement secrètes, d’où l’importance de vérifier les ententes de confidentialité et de non-concurrence lors de la vérification diligente. Il peut être essentiel de vérifier également quelles sont les mesures réellement mises en place pour protéger les secrets, telles des restrictions dans les systèmes informatiques qui empêchent les employés qui ne sont pas impliqués dans un projet d’accéder à certains fichiers ou des mesures de fractionnement des connaissances au sein des différentes divisions ou des différents groupes d’une entreprise. Finalement, il sera nécessaire de vérifier l’absence de procédure administrative ou judiciaire pouvant affecter la propriété intellectuelle de quelque type que ce soit, de même qu’on devra s’assurer qu’il n’existe aucune prétention, écrite ou verbale, qu’un tiers invoque une contravention à ses propres droits. Il arrive que la vérification diligente mène à l’abandon complet du projet d’investissement. Par contre, dans d’autres cas, la vérification diligente permet d’élaborer des mesures correctives que l’entreprise venderesse devra entreprendre pour pouvoir conclure la vente ou que l’entreprise acheteuse verra à mettre en place afin de protéger son investissement à plus long terme. 1 L.R.C. (1985), ch. T-13. 2 Voir, par exemple, Élomari c. Agence spatiale canadienne, 2004 CanLII 39806 (QC CS). 3 Voir, par exemple, Ethicon, Inc. v. United States Surgical corp. 135 F.3d 1456 (U.S. Fed. Cir. 1998) et Pannu v. Iolab Corp., 155 F.3d 1344, 1351 (U.S. Fed. Cir. 1998). 4 L.R.C. (1985), ch. P-4. 5 L.R.C. (1985), ch. C-42. 6 Delrina Corp. v. Triolet Systems Inc., 2002 CanlII 11389 (ON CA).

    Lire la suite
  • Bulletin d’information juridique à l’intention des entrepreneurs et des décideurs, Numéro 23

    SOMMAIRE TAXES MUNICIPALES : EST-IL POSSIBLE DE RÉDUIRE LA FACTURE? LES BREVETS EN MATIÈRE INFORMATIQUE : NOUVELLES BALISES   TAXES MUNICIPALES : EST-IL POSSIBLE DE RÉDUIRE LA FACTURE? Audrey-Julie Dallaire La pression fiscale découlant des taxes municipales constitue certes un irritant pour les entreprises. Elle a été récemment qualifiée d’« injustifiée » et d’« inéquitable pour les PME » par la Fédération canadienne de l’entreprise indépendante (« FCEI »), qui a émis le constat suivant relativement aux taxes municipales : « (…) en 2013, pour un immeuble de même valeur, les propriétaires (québécois) de PME paient en moyenne 2,22 fois les taxes réclamées à leurs concitoyens résidentiels  »1. Dans un contexte où le paiement des taxes municipales constitue un poste de dépenses important pour les PME, il apparaît opportun de se pencher sur les moyens et les programmes disponibles pour les entreprises et qui pourraient avoir un impact favorable sur leur fardeau fiscal municipal. LA CONTESTATION DE L’ÉVALUATION FONCIÈRE Le compte de taxes foncières que doit payer le propriétaire d’un immeuble est le résultat de l’opération mathématique suivante : l’évaluation foncière de l’immeuble multipliée par le taux de taxe applicable pour sa catégorie. L’établissement des taxes foncières municipales dont une entreprise est redevable est donc tributaire de la valeur de son immeuble, établie par l’évaluateur municipal et inscrite au rôle d’évaluation de la municipalité. La valeur de l’immeuble portée au rôle d’évaluation doit correspondre à sa valeur réelle, soit « sa valeur d'échange sur un marché libre et ouvert à la concurrence »2. Que faire si l’immeuble commercial ou industriel est surévalué? Toute personne ayant un intérêt dispose de recours afin de contester l’exactitude, la présence ou l’absence d’une inscription au rôle d’évaluation. Ce recours s’exerce par le dépôt d’une demande de révision auprès de l’organisme municipal responsable de l’évaluation avant le 1er mai qui suit l’entrée en vigueur du rôle triennal d’évaluation. À défaut d’entente avec l’évaluateur municipal, la personne ayant formulé la demande de révision peut exercer un recours devant la section des affaires immobilières du Tribunal administratif du Québec (« TAQ ») dans les délais prescrits par la loi. LES ÉQUIPEMENTS NON TAXABLES Lors de contestations visant des immeubles industriels, le TAQ doit notamment statuer sur le caractère taxable de certains équipements. En effet, la Loi sur la fiscalité municipale prévoit que les équipements utilisés ou destinés à des fins de production industrielle ne sont pas portables au rôle3. Cette notion a récemment été élargie par le TAQ dans l’affaire Winpak Heat Seal Packaging Inc c. Vaudreuil-Dorion (Ville)4, où le Tribunal a conclu à l’exclusion du rôle d’évaluation d’un système de climatisation, de poutres de roulement et de ponts roulants au motif que ceux-ci constituaient les accessoires d’une machine ou d’un appareil utilisés ou destinés à des fins de production industrielle. Dans une autre décision récente, le TAQ statuait que des silos, des robots, des palettiseurs et des enrobeuses utilisés à des fins de production industrielle devaient être exclus de la valeur foncière de l’immeuble5. De même, seuls les systèmes ou portions de systèmes électriques ou mécaniques nécessaires au bâtiment pour l'éclairage, le chauffage, la climatisation, la ventilation, l'alimentation en eau ou l'évacuation des eaux doivent être inclus dans l’évaluation municipale, tout excédent devant y être exclu. En outre, une machine, un appareil et leurs accessoires qui sont utilisés ou destinés à des fins de lutte contre la pollution doivent être exclus de la valeur foncière. LE CRÉDIT DE TAXES ET L’AIDE AUX ENTREPRISES Les entreprises bénéficient également de solutions non litigieuses pour tenter d’alléger leur fardeau fiscal municipal : elles peuvent se prévaloir, lorsqu’ils existent, de programmes municipaux en matière de crédit de taxes et d’aide aux entreprises. Depuis 2006, les municipalités possèdent de nouveaux pouvoirs en matière de soutien au développement économique. Ainsi, une municipalité peut accorder une aide à toute personne qui exploite une entreprise du secteur privé déjà présente sur son territoire et qui est propriétaire ou occupante d'un immeuble autre qu'une résidence. À noter que la valeur de l'aide qui peut ainsi être accordée ne peut cependant dépasser 100 000 $ par exercice financier pour l'ensemble des bénéficiaires de la municipalité6. Les municipalités peuvent aussi accorder une aide à la relocalisation sur leur territoire d’une entreprise commerciale ou industrielle qui y est déjà présente, le montant de cette aide étant par ailleurs limité au coût réel de la relocalisation. Finalement, les municipalités peuvent adopter un programme de crédit de taxes visant les personnes qui exploitent dans un but lucratif une entreprise du secteur privé et les coopératives qui sont propriétaires ou occupantes d'un immeuble du secteur manufacturier ou exerçant certains types d’activités commerciales7. À noter toutefois que bien que de tels programmes constituent un outil intéressant pour le développement économique local, ils ne sont pas instaurés dans toutes les municipalités. CONCLUSION Obstacle majeur à la croissance et au développement des PME, l’impôt foncier constitue un poste de dépenses à caractère récurrent souvent négligé par les entreprises. Dans une économie hautement concurrentielle, les PME auraient intérêt à examiner plus attentivement les pistes de solutions visant à diminuer cette forme d’imposition non reliée au rendement économique de l’entreprise. ________________________________ 1 « PME et bungalow : deux poids, deux mesures dans la taxation municipale », octobre 2013, http://www.cfib-fcei.ca/cfib-documents/rr3304f.pdf. 2 Art. 42 et 43 de la Loi sur la fiscalité municipale, L.R.Q. c. F-2.1. 3 Art. 65 de la Loi sur la fiscalité municipale. 4 2014 CanLII 24982 (QC TAQ). 5 9008-5747 Québec inc. c. Ville de Boucherville et al., 2014 QCTAQ 09135. 6 Art. 92.1 de la Loi sur les compétences municipales L.R.Q. c. C-47.1. 7 Art. 92.1 et 92.2 de la Loi sur les compétences municipales.     LES BREVETS EN MATIÈRE INFORMATIQUE : NOUVELLES BALISES Éric Lavallée Il est fréquent que des entreprises mettent au point et tentent de protéger des éléments de propriété intellectuelle relatifs à des méthodes d’affaires mises en oeuvre par ordinateur. Il peut s’agir, par exemple, de sites sur Internet permettant d’exploiter une entreprise commerciale de manière innovante. En 2011, dans la cause de Amazon.com, Inc. c. Canada (Procureur général)1, la Cour d'appel fédérale canadienne invitait la commissaire aux brevets à déterminer la brevetabilité d’un procédé de magasinage sur Internet au moyen d’un seul clic en gardant à l'esprit qu’une nouvelle pratique commerciale pouvait constituer un élément essentiel d'une revendication de brevet valide. Toutefois, la Cour a réitéré que l’on ne devait pas faire droit à cette revendication si le seul élément inventif de la revendication est un algorithme programmé dans un ordinateur. On peut établir un parallèle entre cette décision et celle rendue au mois de juin dernier par la Cour suprême des États-Unis dans l'affaire Alice Corporation PTY. Ltd. v. CLS Bank International et al.2 (ci-après « Alice »). Dans cette affaire, CLS Bank demandait l'invalidation de brevets détenus par Alice Corporation, qui portaient sur une méthode visant à mitiger des risques financiers. Les revendications au soutien de cette demande de brevet portaient sur une méthode d’échange d’obligations financières, un système informatique permettant de mettre en oeuvre cette méthode, ainsi qu'un support informatique contenant le code source permettant la mise en oeuvre de la méthode. La Cour suprême américaine a conclu que ces brevets étaient invalides au motif qu'ils portaient sur des idées abstraites ne pouvant faire l'objet d'un brevet. Le fait que la méthode d'affaires sous-jacente ait été déclarée non brevetable est conforme aux décisions antérieures de cette même cour. La décision Alice institue toutefois quelques balises supplémentaires quant aux inventions mises en oeuvre par ordinateur. Notamment, de l’avis du plus haut tribunal américain, l’implémentation informatique générique d'une méthode n’a pas pour effet de rendre brevetable une idée abstraite qui ne le serait pas autrement. Ces décisions mettent en lumière la difficulté d'obtenir des brevets valides en matière d'inventions mises en oeuvre par ordinateur et devront dorénavant être prises en compte dans la rédaction de demandes de brevets portant sur de telles inventions. Les concepteurs souhaitent souvent obtenir des brevets sur des logiciels. Toutefois, à la lumière de la jurisprudence récente, ceci ne semble pas possible pour de simples implémentations génériques d'algorithmes informatiques. Dans bien des cas, la meilleure protection ne sera donc plus le monopole qui pourrait être conféré par un brevet, mais plutôt les alliances qui pourront être conclues avec des joueurs importants de l'industrie ou simplement la notoriété acquise par une entreprise du fait d’être la première à occuper un créneau particulier. Par ailleurs, pour les entreprises qui désirent acquérir des droits sur des brevets relatifs à des inventions mises en oeuvre par ordinateur, il sera sûrement pertinent d'évaluer au préalable la validité de ces brevets. Notons que les tribunaux américains d'instances inférieures ont invalidé dans les derniers mois plusieurs brevets accordés avant l’affaire Alice. Acquérir des droits sur de tels brevets pourrait donc se révéler un très mauvais investissement. Enfin, il ne faut pas négliger l'importance de bien documenter le code source relatif aux méthodes d'affaires mises en oeuvre par informatique, celui-ci étant généralement assujetti aux droits d’auteur. Les droits d’auteur confèrent dans plusieurs cas une protection complémentaire à celle pouvant être offerte en vertu d’un brevet. Bien qu'il soit parfois relativement facile de contourner les droits d'auteur en mettant au point des codes sources dont la structure est différente, mais qui donnent des résultats équivalents, il n'en reste pas moins qu'il est fréquent de voir des codes sources dont la mise au point a exigé beaucoup d’efforts de la part d’une entreprise être carrément copiés par d’ex-employés ou des partenaires d’affaires sans scrupule. Dans de telles situations, il est primordial d’être en mesure de faire la preuve à la satisfaction des tribunaux de ce qui a été mis au point au sein de l'entreprise afin de faire valoir les droits d’auteur sur les codes sources en cause. En conclusion, lorsqu’il est question de protection de la propriété intellectuelle d’une entreprise en matière informatique, il est souhaitable d’établir une stratégie qui comprend à la fois les secrets commerciaux, les brevets et les droits d’auteur et tient compte des balises jurisprudentielles récentes en matière de brevets informatiques. ________________________________ 1 2011 CAF 328, [2012] 2 RCF 459. 2 (2014) (Docket No. 13-298).

    Lire la suite
1 2