Publications

Riches en information pertinente, nos publications vous permettent d’être à l’affût de l’actualité juridique qui vous touche, quel que soit votre secteur d’activité. Nos professionnels s’engagent à vous tenir au fait des dernières nouvelles juridiques, à travers l’analyse des derniers jugements, modifications et entrées en vigueur législatives et réglementaires.

Recherche avancée
  • Œuvres cryptoactifs et investissements en jetons non-fongibles (NFT) : la prudence est de mise

    Le 11 mars dernier, la maison de vente Christie’s concluait une vente historique en proposant aux enchères une œuvre-cryptoactif de l’artiste Beeple, uniquement numérique, se concluant par une transaction de 69 millions de dollars en Ether, une cryptomonnaie1. Ce faisant, la célèbre maison d’enchères a mis sous les projecteurs les Non-Fungible Tokens (« NFT »), les jetons non fongibles pour franciser le tout, produits de la chaîne de blocs décentralisée. Si plusieurs soulignent les avantages de cette technologie des cryptoactifs, des risques importants y sont par ailleurs associés2, demandant une vigilance accrue pour tout investissement ou toute transaction impliquant des NFT. Qu’est-ce qu’un NFT ? La distinction entre biens fongibles et non fongibles n’est pas récente. Avant même l’invention de la chaîne de blocs, cette distinction servait déjà à départager ces biens dont la valeur dans l’économie est fondée soit, quant aux biens fongibles, sur leur grande disponibilité, soit, quant aux biens non fongibles, sur leur rareté. Ainsi, un bien fongible est facilement remplaçable par un équivalent ayant la même valeur marchande. Le meilleur exemple est celui de la monnaie, que ce soient les pièces, les billets, la monnaie scripturale ou la monnaie électronique, par exemple le Bitcoin. Au contraire, un bien non fongible est unique, irremplaçable. À ce titre, les œuvres d’art sont des biens non fongibles de par leur unicité ou leur très petit nombre d’exemplaires, de telle sorte que leur valeur est, entre autres, fonction de leur authenticité et de leur provenance. Les NFT sont des cryptoactifs associés à la chaîne de blocs qui reproduisent ce phénomène de rareté. À chaque NFT est associé un identifiant unique qui permet d’en assurer la traçabilité. En plus du marché de l’art, les NFT ont été associés sur le Web à la collecte d’objets virtuels, tels que des cartes de sports et d’autres souvenirs et objets de collection, incluant le premier tweet de l’histoire3. Les NFT peuvent aussi être associés à des biens réels et permettent dans ce cas d’assurer le suivi des échanges et des transactions afférents à ces biens. Déjà en 2019, Ernst & Young avait développé pour un client un système d’identifiants numériques uniques permettant d’assurer le suivi et la gestion de la collection de vins de grands crus de ce client4. Plusieurs projets s’appuient sur des cryptomonnaies, comme l’Ether, pour créer les NFT. Ce genre de cryptomonnaie est programmable et permet d’enchâsser des métadonnées par l’intermédiaire du code qui devient la clé assurant le suivi de biens tels des œuvres d’art ou d’autres biens de valeur. Quels sont les risques associés aux NFT ? Si plusieurs vantaient les avantages des NFT, notamment pour assurer une plus grande traçabilité quant à la provenance des biens échangés par transactions numériques, force est de constater que la bulle spéculative des dernières semaines a, contrairement aux attentes, engendré de nouvelles occasions de fraudes et des dérives quant aux droits associés aux œuvres échangées sur Internet. Un marché non réglementé? Même s’il n’existe pour l’instant aucun cadre législatif qui réglemente spécifiquement les transactions de cryptoactifs, les vendeurs et les acheteurs de NFT sont tout de même assujettis, notamment, aux lois et réglementations encadrant actuellement la distribution des produits et services financiers5, aux lois sur les valeurs mobilières6, à la Loi sur les entreprises de services monétaires7 et aux lois fiscales8. Un NFT, une valeur mobilière ? Dès janvier 2020, les Autorités canadiennes en valeurs mobilières (ACVM) ont identifié les « marchandises » cryptoactifs comme des biens pouvant être assujettis aux lois et aux règlements en valeurs mobilières. Ainsi, les plateformes qui gèrent et hébergent des NFT pour le compte de leurs utilisateurs exercent des activités encadrées par les lois applicables au commerce de valeurs mobilières, dans la mesure où elles conservent la possession ou le contrôle des NFT. Au contraire, une plateforme ne sera pas assujettie à l’encadrement réglementaire si : 1)    « le cryptoactif sous-jacent en tant que tel n’est ni un titre (valeurs mobilières) ni un dérivé; 2)    le contrat ou l’instrument d’achat, de vente ou de livraison d’un cryptoactif prévoit l’obligation immédiate de livrer le cryptoactif et que cette livraison est effectuée. »9 La fraude10 Les NFT ne protègent pas les collectionneurs et les investisseurs des fraudes et des vols. Parmi les risques répertoriés, nous pouvons compter, entre autres, les faux sites Internet dépouillant les investisseurs de leurs cryptomonnaies, le vol et/ou la disparition de NFT hébergés sur des plateformes et la violation des droits d’auteurs et des marques de commerce. Vol et disparition d’actifs NFT Comme certains utilisateurs de Nifty Gateway l’ont appris malheureusement à leurs dépens à la fin mars, les plateformes de cryptoactifs ne sont pas en soi à l’abri du piratage et du vol des données personnelles associées aux comptes, incluant les informations de cartes de crédit. Suivant le piratage de plusieurs comptes de la plateforme Nifty Gateway, certains utilisateurs ont été dérobés entièrement de leur collection de NFT11. Les NFT sont conçus de manière à empêcher que ne soit annulée une transaction qui a été conclue entre deux parties. Une fois le transfert du NFT initié vers un autre compte, l’utilisateur, ou une tierce partie comme une banque, ne peut pas annuler la transaction. La cybercriminalité ciblant les cryptoactifs n’en est pas à ses balbutiements puisque l’on a remarqué des procédés analogues à l’occasion de vols de la cryptomonnaie Ether. La violation des droits d’auteur et le vol des images d’œuvres d’art L’utilisation faite des NFT permet d’identifier trois types de problèmes susceptibles de générer des violations des droits de propriété et des droits d’auteurs : « Plusieurs jetons peuvent être créés pour une même œuvre d’art ou objet de collection, ainsi plusieurs chaînes de propriété sont ainsi générées; Des NFT peuvent être créés pour des œuvres existant déjà et dont la personne qui les commercialise n’est pas propriétaire. Aucun mécanisme ne vérifie les droits d’auteurs et de propriété associés aux NFT transigés. De fausses chaînes de titres sont ainsi produites; L’authenticité de l’original dépend de liens URL qui demeurent vulnérables et qui pourraient éventuellement disparaître »12. Ces problèmes ne sont pas pour l’instant encadrés par les différentes plateformes ou les autres intervenants aux transactions visant les NFT, dont les galeries, de telle sorte que les risques sont ainsi seulement assumés par l’acheteur. Cette situation milite en faveur d’une imputabilité accrue de ces intervenants et plateformes afin que soient vérifiées non seulement l’authenticité des NFT transigés, mais aussi l’identité des parties procédant à une transaction. Le blanchiment d’argent et le recyclage des produits de la criminalité En septembre 2020, la Financial Action Task Force (FATF)13 publiait son rapport concernant les principaux risques associés aux actifs virtuels et aux plateformes offrant des services relatifs à ces actifs virtuels. Le FATF soulignait notamment que le blanchiment d’argent et d’autres types de financement des activités criminelles étaient facilités par les actifs virtuels, qui sont plus propices à des transactions transfrontalières rapides dans des marchés décentrés, non réglementés par les autorités nationales14. Autrement dit, les marchés Internet où sont échangées les cryptomonnaies et les actifs décentralisés sur une chaîne de blocs. La FATF identifie, entre autres, l’anonymat des parties lors des transactions comme un facteur de risques accrus. Considérant l’ensemble des risques afférents aux NFT, il est recommandé de prendre les plus grandes précautions possibles avant d’investir dans cette catégorie de cryptoactifs. D’ailleurs, le 23 avril dernier, l’Autorité des marchés financiers réitérait sa mise en garde concernant les « risques excessivement importants » associés aux investissements impliquant des cryptomonnaies et des cryptoactifs15. De bonnes pratiques pouvant être adoptées avant toute transaction sont donc d’obtenir des preuves permettant d’identifier la partie avec qui vous transigez, d’assurer vous-même la conservation de vos cryptoactifs, si cela est possible, et de vérifier auprès des organismes réglementaires si la plateforme sur laquelle aura lieu l’échange se conforme aux lois et aux règlements en vigueur concernant l’émission de valeurs mobilières et de produits dérivés. https://onlineonly.christies.com/s/beeple-first-5000-days/lots/2020 Le 23 avril 2021, l’Autorité des marchés financiers réitérait ses mises en garde concernant l’émission de jetons et les investissements en cryptoactifs. https://lautorite.qc.ca/grand-public/salle-de-presse/actualites/fiche-dactualite/mise-en-garde-de-lautorite-devant-les-risques-associes-aux-cryptoactifs https://www.reuters.com/article/us-twitter-dorsey-nft-idUSKBN2BE2KJ https://www.ey.com/en_gl/news/2019/08/ey-helps-wiv-technology-accelerate-fine-wine-investing-with-blockchain Loi sur l’encadrement du secteur financier, RLRQ, c. E-6.1; Loi sur la distribution de produits et services financiers, RLRQ, c. D-9.2. Lois sur les valeurs mobilières, RLRQ, c. V-1.1; voir aussi le bac à sable réglementaire produit par l’ACVM : https://www.autorites-valeurs-mobilieres.ca/ressources_professionnelles.aspx?id=1715&langtype=1036 RLRQ, c. E-12.000001. https://www.canada.ca/fr/agence-revenu/programmes/a-propos-agence-revenu-canada-arc/observation/monnaie-numerique/cryptomonnaies-guide.html; https://www.revenuquebec.ca/fr/juste-pour-tous/vous-aider-a-vous-conformer/monnaie-virtuelle/declaration-des-revenus-relatifs-a-la-monnaie-virtuelle/ https://lautorite.qc.ca/fileadmin/lautorite/reglementation/valeurs-mobilieres/0-avis-acvm-staff/2020/2020janv16-21-327-avis-acvm-fr.pdf https://www.telegraph.co.uk/technology/2021/03/15/crypto-art-market-infiltrated-fakes-thieves-scammers/ https://www.coindesk.com/nifty-gateway-nft-hack-lessons; https://news.artnet.com/opinion/nifty-gateway-nft-hack-gray-market-1953549 Traduction libre de : https://blog.malwarebytes.com/explained/2021/03/nfts-explained-daylight-robbery-on-the-blockchain/ FATF est un organisme international indépendant qui évalue les risques associés au blanchiment d’argent, au financement des activités terroristes et au financement de la prolifération des armes de destruction massive. https://www.fatf-gafi.org/media/fatf/documents/recommendations/Virtual-Assets-Red-Flag-Indicators.pdf, p. 1. https://lautorite.qc.ca/grand-public/salle-de-presse/actualites/fiche-dactualite/mise-en-garde-de-lautorite-devant-les-risques-associes-aux-cryptoactifs

    Lire la suite
  • L’intelligence artificielle, bientôt réglementée au Canada?

    Jusqu’à maintenant, aucune réglementation précise n’encadre l’utilisation de l’intelligence artificielle au Canada. Certes, les lois relatives à l’utilisation des renseignements personnels et prohibant la discrimination trouvent toujours application, peu importe qu’il s’agisse de technologies dites d’intelligence artificielle ou de technologies plus conventionnelles. L’application de ces lois à l’intelligence artificielle soulève toutefois plusieurs questions, particulièrement lorsque l’on traite de « réseaux de neurones artificiels » dont l’opacité des algorithmes qui les composent rend difficile la compréhension des mécanismes décisionnels par les personnes concernées. Ces « réseaux de neurones artificiels » ont la particularité de ne permettre que peu d’explications sur leur fonctionnement interne. Le 12 novembre 2020, le Commissariat à la protection de la vie privée du Canada a publié ses recommandations visant la réglementation de l’intelligence artificielle1. Soulignant que les utilisations de l’intelligence artificielle nécessitant des renseignements personnels peuvent avoir de graves conséquences sur la vie privée, le Commissariat y va de plusieurs  recommandations, notamment les suivantes : Obliger ceux qui mettent au point ces systèmes à s’assurer de la protection de la vie privée au moment de la conception des systèmes d’intelligence artificielle ; La création d’un droit des personnes concernées d’obtenir une explication, en termes compréhensibles, leur permettant de comprendre les décisions rendues à leur égard par un système d’intelligence artificielle, de même que s’assurer que ces explications soient fondées sur de l’information exacte et qu’elles ne soient pas discriminatoires ou biaisées ; La création d’un droit de contester les décisions découlant de la prise de décision automatisée ; Le droit de l’autorité de réglementation d’exiger des preuves de ce qui précède. Notons que ces recommandations comprennent la possibilité de l’imposition de sanctions financières aux entreprises qui ne respecteraient pas ce cadre règlementaire. De plus, contrairement à l’approche retenue par le Règlement général sur la protection des données et le projet de loi 64 du gouvernement du Québec, les droits à l’explication et à la contestation ne seraient pas limités aux décisions prises uniquement de manière automatisée, mais viserait aussi les cas où le système d’intelligence artificielle assiste un décideur humain. Il est probable que ces propositions encadrent un jour ou l’autre le fonctionnement de systèmes d’intelligence qui sont déjà en cours de mise au point. Il serait donc prudent pour les concepteurs de tenir compte de ces recommandations et de les intégrer dans leurs paramètres de mise au point des systèmes d’intelligence artificielle dès maintenant Si ces recommandations sont intégrées à la réglementation, il faudra en outre réfléchir aux moyens d’expliquer le fonctionnement des systèmes visés par les décisions prises par l’intelligence artificielle ou s’y appuyant. Comme le mentionnent ces recommandations : « Bien que les secrets commerciaux puissent exiger des organisations qu’elles fassent preuve de prudence dans les explications qu’elles fournissent, une certaine forme d’explication valable serait toujours possible sans compromettre la propriété intellectuelle. »2  C’est pourquoi il pourrait être crucial de faire appel à des avocats spécialisés dans ces questions dès la conception des solutions qui utilisent l’intelligence artificielle et les renseignements personnels. https://www.priv.gc.ca/fr/a-propos-du-commissariat/ce-que-nous-faisons/consultations/consultations-terminees/consultation-ai/reg-fw_202011/ Ibid.

    Lire la suite
  • Utilisation des brevets en intelligence artificielle : que dit le nouveau rapport de l'OPIC?

    L'intelligence artificielle est l’une des familles de technologies où il y a présentement le plus de recherche et de développement au Canada. Afin de préserver le positionnement avantageux du Canada pour ces technologies, il est important de considérer toutes les formes de protection de la propriété intellectuelle qui peuvent s'appliquer. Bien qu'historiquement le droit d'auteur ait constitué la forme privilégiée de propriété intellectuelle en informatique, les brevets sont néanmoins fort utiles en matière d'intelligence artificielle. Le monopole qu'ils accordent peut être incitatif et important pour favoriser l'innovation, notamment dans les secteurs des sciences de la vie et de la gestion de l’énergie. C'est pourquoi l'Office de la propriété intellectuelle du Canada (OPIC) a senti le besoin de faire état de la situation sur l'intelligence artificielle et les brevets au Canada. Dans son rapport intitulé Traitement de l’intelligence artificielle : aperçu du paysage canadien des brevets publié en octobre 2020, l'OPIC présente des statistiques qui démontrent clairement la tendance à la hausse de l'activité des chercheurs canadiens en matière de brevets relatifs à l'intelligence artificielle. Cette augmentation demeure toutefois beaucoup moins marquée que celles observées aux États-Unis et en Chine, les champions dans le domaine. Néanmoins, le Canada s'est classé sixième au rang mondial pour le nombre d'inventions brevetées attribuées à des chercheurs et à des établissements canadiens. Activité internationale en matière de brevets dans le domaine de l'IA entre 1998 et 2017 Reproduit avec l'autorisation du ministre de l'Industrie, 2020   Activité mondiale en matière de brevets par pays d'origine du cessionnaire dans le domaine de l'IA entre 1998 et 2017 Reproduit avec l'autorisation du ministre de l'Industrie, 2020   On remarque que les chercheurs canadiens sont particulièrement spécialisés en traitement du langage naturel, ce qui n'est pas étonnant pour un pays bilingue. Mais leurs forces résident également dans la représentation et le raisonnement des connaissances, puis en vision informatique et en robotique. On voit par ailleurs que, de manière générale, les domaines d'application les plus actifs pour l'intelligence artificielle au Canada sont ceux des sciences de la vie et des sciences médicales, des réseaux informatiques, suivis notamment par la gestion de l'énergie. Ceci semble correspondre à des domaines naturels pour le Canada, pays bénéficiant de systèmes de santé élaborés et dont les infrastructures de télécommunications et énergétiques reflètent le vaste territoire. Seule ombre au tableau, le manque de représentativité des femmes dans les demandes de brevets en intelligence artificielle au Canada. Il s'agit là d'un enjeu important à long terme, puisque pour maintenir la compétitivité du pays, il faudra nécessairement s'assurer que tous les meilleurs talents participent au développement des technologies d'intelligence artificielle au Canada. Peu importe dans quel de ces domaines vous œuvrez, il peut être important de consulter un agent de brevets tôt dans le processus d'invention, notamment pour permettre la protection optimale de vos inventions et maximiser les retombées pour les institutions et les entreprises canadiennes.

    Lire la suite
  • Les avantages insoupçonnés du transport automatisé en temps de pandémie

    La situation liée à la COVID-19 engendre des bouleversements importants sur le plan humanitaire à travers le monde, mais également sur le plan du développement des affaires et de l’économie. Malgré tout, plusieurs développements et nouveaux projets concernant les voitures autonomes (« VA ») ont vu le jour depuis mars dernier.  En voici un survol. Distanciation simplifiée grâce à la livraison sans contact Dès la mi-avril 2020, dans la baie de San Francisco, des VA Cruise de General Motors Co. ont été mis sur la route afin d’assister dans la livraison de près de 4 000 repas en huit jours pour deux banques alimentaires. Les livraisons se sont effectuées avec deux chauffeurs volontaires afin de superviser l’opération des VA de niveau 3. Le vice-président des affaires gouvernementales de Cruise, Rob Grant, a commenté sur l’utilité des voitures autonomes : « What I do see is this pandemic really showing where self-driving vehicles can be of use in the future.  That includes in contactless delivery like we’re doing here »1. Toujours en Californie en avril, des VA de l’entreprise en démarrage Nuro inc. ont été mis à la disposition d’un hôpital à Sacramento afin de transporter des équipements médicaux dans le comté de San Mateo.  Les voitures autonomes Pony de Toyota ont quant à eux servi à livrer des repas pour des refuges locaux de la ville de Fremont dans la région d’Irvine, en Californie.  Innovation : les premiers essais des véhicules autonomes de niveau 4 En juillet 2020, Navya Group a réussi avec succès ses premiers essais d’une voiture autonome de niveau 4 dans un site clos.  Cette opération a eu lieu en partenariat avec Groupe Keolis sur le site du Centre national de sports de tir et permet aux visiteurs et athlètes de se déplacer du stationnement à la réception du Centre.  Il s’agit d’une avancée importante puisqu’il s’agit du premier véhicule de niveau 4 à être mis sur la route, donc ayant une automatisation totale ne nécessitant pas qu’un conducteur humain soit présent dans le véhicule afin d’assurer la maîtrise de celui-ci en cas de situation critique. Des autobus autonomes et des voies réservées dans les prochaines années En août 2020, l’État de Michigan a annoncé qu’il mettrait de l’avant des démarches actives afin que des voies soient dédiées exclusivement à l’utilisation de VA sur une portion de 65 km de l’autoroute entre Detroit et Ann Arbour.  Cette initiative débutera avec une étude qui s’effectuera au cours des trois prochaines années.  Ce projet ambitieux vise entre autres à permettre aux autobus autonomes de circuler dans ce corridor afin de connecter l’université du Michigan à l’aéroport métropolitain de Détroit, au centre-ville. En septembre 2020, le premier circuit de VA au Japon a été inauguré à l’aéroport Haneda de Tokyo.  Le trajet régulier s’étend sur une distance de 700 mètres dans l’aéroport.  Un drame qui rappelle que la prudence doit être la priorité Le 18 mars 2018 à Tempe, en Arizona, une piétonne a été tuée par suite d’une collision avec un véhicule de marque Volvo dont la conduite était assurée par un programme d’essai d’un logiciel de conduite automatisée de Uber Technologies, inc. Le véhicule impliqué dans cet accident en était au stade de mise-au-point et il correspondait à un VA de niveau 3, nécessitant qu’un conducteur humain demeure attentif en tout temps afin de reprendre le contrôle du véhicule en situation critique, selon la norme J3016 de la SAE International. L’enquête menée par le National Transportation Safety Board a déterminé que le système de conduite automatisée du véhicule avait détecté la piétonne, mais n’avait pas été en mesure de la qualifier et de prédire son trajet.  De plus, les vidéos de la conductrice à l’intérieur du VA démontraient qu’elle n’était pas attentive à la route au moment de l’accident, mais regardait plutôt son téléphone cellulaire déposé sur la console du véhicule. Or, en septembre 2020, la conductrice du véhicule a été inculpée par les autorités et accusée d’homicide par négligence.  La conductrice a plaidé non coupable et la conférence préparatoire se tiendra à la fin du mois d’octobre 2020.  Nous vous garderons informés des développements dans ce dossier.   Dans toutes les sphères de l’économie, dont l’industrie du transport et plus particulièrement des VA, des projets ont été mis sur la glace en raison de la situation actuelle liée à la COVID-19. Malgré tout, plusieurs projets ont vu le jour, comme les projets de livraison sans contact, qui sont maintenant plus pertinents que jamais avec la COVID-19. Mis à part le projet de Navya Group qui concerne des véhicules de niveau 4, les initiatives mentionnées impliquent des véhicules de niveau 3. La conduite de ces véhicules, dont la présence sur les routes au Québec est permise, doit être assurée par un conducteur humain. Les accusations récemment portées contre la conductrice inattentive en Arizona doivent servir de rappel à tous les conducteurs de voitures autonomes de niveau 3 : peu importe le contexte relié un accident, leur responsabilité peut être engagée.  La mise en œuvre du projet de voitures autonomes dans le monde se fait lentement, mais sûrement. De nombreux projets verrons prochainement le jour, dont au Québec. Par la multiplication de ces initiatives, l’acceptabilité sociale des VA en bénéficiera et la normalisation de ces véhicules sur nos routes est à nos portes.   Financial Post, 29 avril 2020, Self-driving vehicules get in on the delivery scene amid COVID-19.

    Lire la suite
  • Intelligence artificielle et télétravail : des mesures de sécurité à prendre

    De manière générale, la cybersécurité sera un enjeu important pour les entreprises dans les années à venir. Le télétravail, l’infonuagique et l’arrivée de l’intelligence artificielle font en sorte que d’immenses quantités de données sont susceptibles de devenir la proie de pirates informatiques, attirés par les renseignements personnels ou les secrets commerciaux hébergés qu’elles recèlent. D’un point de vue juridique, les entreprises ont l’obligation de prendre des mesures raisonnables pour protéger les renseignements personnels qu’elles détiennent1. Bien que le cadre juridique ne spécifie pas toujours quels sont ces moyens raisonnables d’un point de vue technologique, il faut néanmoins adopter des mesures qui sont appropriées eu égard à la nature des renseignements personnels. Ces mesures doivent aussi être évaluées en tenant compte de l’évolution des menaces qui pèsent sur les systèmes informatiques. Certaines juridictions vont plus loin, par exemple l’Europe où on demande que la conception même d’une solution informatique intègre des mesures de sécurité2. Aux États-Unis, pour les renseignements médicaux, de nombreuses balises guident les moyens techniques à adopter pour s’assurer de la sécurité des renseignements3. Outre les renseignements personnels qu’elle détient, une entreprise peut aussi vouloir protéger ses secrets commerciaux. Ceux-ci ont souvent une valeur inestimable et leur divulgation à des concurrents pourrait causer un préjudice irréparable à l’entreprise. Aucune technologie n’est à l’abri. Dans un bulletin récent4, la réputée firme Kaspersky nous met en garde contre les risques grandissants posés par certains groupes de pirates organisés qui pourraient vouloir exploiter les faiblesses des systèmes d’exploitation Linux, pourtant réputés très sécuritaires. Kaspersky énumère un certain nombre de failles connues, pouvant servir à mener des attaques visant à obtenir des rançons ou à accéder à de l’information privilégiée. Ce bulletin fait écho aux avertissements émis par le FBI aux États-Unis relativement à la découverte d’un nouveau logiciel malfaisant ciblant Linux5. Les mesures à prendre pour gérer le risque C’est pourquoi il est important de prendre des mesures appropriées pour diminuer ces risques. Pour les administrateurs et dirigeants d’entreprise, il est notamment recommandé : D’adopter des politiques d’entreprise empêchant l’installation de logiciels non sécuritaires par les usagers; D’adopter des politiques de révision et de mises à jour régulières des mesures de sécurité informatiques; De faire effectuer des tests d’intrusion et des audits pour vérifier la sécurité des systèmes; De s’assurer qu’au moins une personne en autorité est responsable de la sécurité informatique. En cas d’intrusion ou, de manière préventive, lorsqu’une entreprise collige et héberge des renseignements personnels sensibles, il est recommandé de consulter un avocat agissant en matière de renseignements personnels ou de secrets commerciaux afin de bien cerner les enjeux juridiques associés à ces questions.   Voir notamment : Loi sur la protection des renseignements personnels dans le secteur privé (Québec), art. 10, Loi sur la protection des renseignements personnels et les documents électroniques (Canada), art. 3. Règlement général sur la protection des données, art. 25. Security Rule, sous le Health Insurance Portability and Accountability Act, 45 CFR Part 160, 164. https://securelist.com/an-overview-of-targeted-attacks-and-apts-on-linux/98440/ https://www.fbi.gov/news/pressrel/press-releases/nsa-and-fbi-expose-russian-previously-undisclosed-malware-drovorub-in-cybersecurity-advisory

    Lire la suite
  • L’apprentissage machine et l’intelligence artificielle pour améliorer la cybersécurité

    Nouveaux enjeux L’arrivée de la COVID-19 a bousculé le fonctionnement de plusieurs entreprises. Certaines se sont tournées vers le télétravail. D’autres ont été forcées de développer rapidement une offre de service en ligne. Cette évolution accélérée a propulsé la cybersécurité au premier plan, notamment quant aux renseignements personnels et aux secrets commerciaux qui peuvent ainsi faire l’objet de divulgations involontaires. Les risques de cybersécurité proviennent des pirates informatiques, mais aussi souvent d’erreurs de configuration des outils déployés par une entreprise et d’usagers négligents. Afin de gérer les risques de cybersécurité, une des meilleures stratégies est souvent de tenter de trouver les failles d’un système avant une attaque, par exemple en effectuant des tests d’intrusions. Ce genre de tests a évolué grandement au cours des dernières années, passant d’essais-erreurs ciblés à des approches plus larges et systématiques. Ce que l’apprentissage machine apporte à l'entreprise L’apprentissage machine, et l’intelligence artificielle au sens plus large, permet entre autres de mieux reproduire le comportement humain, et donc celui d’un hypothétique usager négligent ou d’un pirate informatique. Les tests d’intrusion peuvent donc être plus efficaces lorsqu’ils sont infusés d’intelligence artificielle. Arachni est un exemple d’apprentissage machine relativement simple. Il s’agit d’un logiciel libre (open source) visant à évaluer la sécurité d’applications Web, faisant notamment partie de la distribution Kali Linux très connue pour les tests d’intrusion en informatique. Arachni utilise une variété de techniques avancées, mais il est de plus possible d’entraîner ce logiciel afin qu’il découvre plus efficacement les vecteurs d’attaques auxquels les applications sont le plus exposées1. Plusieurs autres logiciels de cybersécurité comportent maintenant de telles capacités d’apprentissage. L’intelligence artificielle peut aller encore beaucoup plus loin. Les usages possibles de l’intelligence artificielle dans le cadre de la cybersécurité incluent notamment2 : la réduction du temps de réaction en cas d’attaques par des logiciels malveillants; la détection plus efficace des tentatives d’hameçonnage (phishing); une compréhension contextualisée des anomalies de comportement des usagers. IBM a récemment produit un document expliquant comment sa suite QRadar, qui incorpore de l’intelligence artificielle, peut réduire le fardeau des gestionnaires en matière de cybersécurité. À retenir : L’être humain demeure central dans les enjeux de cybersécurité. Non seulement les gestionnaires doivent comprendre les enjeux de cybersécurité, y compris ceux qui sont créés par l’intelligence artificielle, mais ils doivent aussi instaurer des directives claires pour les usagers et s’assurer du respect de celles-ci. À cet égard, il est important de sensibiliser ces gestionnaires informatiques aux enjeux juridiques liés aux mesures qui sont imposées aux usagers : Il faut se garder d’une surveillance trop intrusive ou constante des employés d’une entreprise. Il peut être opportun de consulter un avocat en droit du travail pour s’assurer que les mesures envisagées sont compatibles avec le droit applicable. Il faut comprendre les enjeux juridiques liés à une fuite de données ou à une brèche de sécurité. Certains renseignements personnels (par ex., les données médicales) sont plus sensibles et les conséquences d’une brèche de sécurité sont plus grandes. Il peut être utile d’établir un dialogue entre les responsables de la sécurité informatique et un avocat agissant en matière de renseignements personnels. Enfin, les secrets commerciaux d’une entreprise nécessitent parfois des mesures de protection plus strictes que d’autres renseignements d’entreprise. Il peut être important que la stratégie de propriété intellectuelle de l’entreprise intègre les mesures de sécurité informatique.   https://resources.infosecinstitute.com/web-application-testing-with-arachni/#gref https://www.zdnet.com/article/ai-is-changing-everything-about-cybersecurity-for-better-and-for-worse-heres-what-you-need-to-know/; https://towardsdatascience.com/cyber-security-ai-defined-explained-and-explored-79fd25c10bfa Beyond the Hype, AI in your SOC, publié par IBM; voir aussi : https://www.ibm.com/ca-en/marketplace/cognitive-security-analytics/resources

    Lire la suite
  • La définition juridique de l’intelligence artificielle évolue : différents pays, différentes approches

    Alors que notre société commence à apprivoiser l’intelligence artificielle, les législateurs de plusieurs territoires sont confrontés aux inquiétudes de la population ainsi qu’à la volonté de tirer profit de ces technologies pour le bien public. La réflexion est bien entamée dans plusieurs pays, mais avec des résultats variables. Le Commissariat à la protection de la vie privée du Canada consulte présentement des experts afin de formuler des recommandations au Parlement. On vise par cette démarche à déterminer si des règles particulières relatives à la vie privée doivent s’appliquer lorsque l’intelligence artificielle est en cause. Notamment, le Canada devrait-il adopter un régime s’approchant du régime européen (RGPD)? De plus, on y soulève la possibilité d’adopter des mesures similaires à ce que propose le projet d’Algorithmic Accountability Act de 2019 présenté au Congrès américain, qui donnerait à la Federal Trade Commission des États-Unis le pouvoir de contraindre les entreprises à évaluer les risques liés à la discrimination et à la sécurité des données des systèmes d’intelligence artificielle. La Commissions d’accès à l’information du Québec procède actuellement à des consultations sur le même sujet. L’approche américaine semble aussi vouloir favoriser le positionnement commercial de ce pays dans le domaine de l’intelligence artificielle. Le National Institute of Standards and Technology (NIST) a publié le 9 août 2019 une ébauche de plan d’action gouvernemental, en réponse à un ordre exécutif du président américain. Cette ébauche, U.S. LEADERSHIP IN AI : A Plan for Federal Engagement in Developing Technical Standards and Related Tools1, préconise notamment la mise au point de nouvelles technologies robustes pour augmenter la fiabilité des solutions incorporant l’intelligence artificielle, ainsi que le développement de normes standardisées pour ces technologies. En parallèle, le service de recherche du Congrès a publié le 21 novembre 2019 une mise à jour de son mémoire intitulé Artificial Intelligence and National Security2. Ce document présente une réflexion sur les applications militaires de l’intelligence artificielle, notamment sur le fait que divers dispositifs de combat puissent mener des attaques létales de manière autonome. On y réfléchit aussi sur les moyens de contrer les « deep fake », notamment par la mise au point de technologies pour débusquer ce qui pourrait devenir un moyen de désinformation. On mise donc sur le progrès technologique pour déjouer la technologie utilisée à mauvais escient. En Europe, à la suite de consultations achevées en mai 2019, un groupe d’experts sur la responsabilité et les nouvelles technologies a produit un rapport à l’intention de la Commission Européenne, intitulé Liability for Artificial Intelligence3, qui présente une réflexion sur les régimes de responsabilité applicables à de telles technologies.  Le groupe souligne que sauf pour les questions de renseignements personnels (RGPD) et celles concernant les véhicules automobiles, les régimes de responsabilité des états membres ne sont pas harmonisés en Europe. Le groupe d’experts recommande notamment d’harmoniser les régimes de responsabilité. Selon eux, des risques comparables devraient être encadrés par des régimes de responsabilité similaires4. Plus tôt, en janvier 2019, le Comité consultatif de la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du Conseil de l’Europe, avait émis des Lignes directrices sur l’intelligence artificielle et la protection des données5, offrant notamment des  recommandations aux législateurs, mais aussi aux développeurs, fabricants et prestataires de services qui utilisent de telles technologies afin de se conformer aux conventions en matière de droits de l’homme. Mais à travers ces différences d’approche, une question fondamentale subsiste : si des règles particulières doivent être adoptées, à quelles technologies doit-on les appliquer? Il s’agit là d’une des questions fondamentales posée par le Commissariat à la protection de la vie privée au Canada. En d’autres termes, qu’est-ce que l’intelligence artificielle? L’expression n’est pas clairement définie d’un point de vue technologique. Elle représente un vaste ensemble de technologies ayant des caractéristiques et des modes de fonctionnement diversifiés. C’est donc la première question à laquelle devront s’attaquer les législateurs s’ils souhaitent mettre au point un cadre juridique spécifique aux technologies d’intelligence artificielle. Le document du groupe d’experts européen cité ci-dessus nous donne quelques pistes de réflexion qui nous semblent pertinentes. Selon eux, on doit prendre en considération les facteurs suivants pour la qualification de la technologie : sa complexité; son aspect opaque; son ouverture à l’interaction avec d’autres solutions technologiques; son degré d’autonomie; la prévisibilité des résultats; le fait qu’elle se fonde sur des quantités importantes de données, et sa vulnérabilité aux attaques et risques informatiques. Ces facteurs contribuent à cerner les risques inhérents aux différentes technologies, au cas par cas. De manière générale, il nous semble préférable de ne pas adopter un ensemble de critères rigides devant s’appliquer à toutes les technologies. Nous suggérons plutôt de cerner les objectifs législatifs en fonction de caractéristiques pouvant se retrouver dans plusieurs technologies. On peut par exemple penser qu’une technologie d’apprentissage profond peut parfois utiliser des renseignements personnels, et parfois ne requérir aucun tel renseignement ou très peu. Une telle technologie peut dans certains cas prendre des décisions de manière autonome, alors que parfois, elle ne sera qu’un soutien à la décision. Enfin, si certaines technologies permettent une certaine transparence, d’autres demeureront plus opaques, et ce parfois en raison des contraintes de nature technologiques ou commerciales. Pour les développeurs, il importe également de qualifier correctement la solution envisagée afin de mesurer les risques afférents à son exploitation commerciale. Plus précisément, il peut être important de réfléchir avec des juristes de différents horizons pour s’assurer que la solution proposée n’est pas complètement incompatible avec les lois présentement applicables dans les différents territoires où elles seront déployées, mais aussi avec les lois qui pourraient être adoptées à court terme dans ces territoires.   https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_fedengagement_plan_9aug2019.pdf https://fas.org/sgp/crs/natsec/R45178.pdf https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 Idem, p. 36. https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-et-la-protection-de/168091ff40

    Lire la suite
  • Quelles leçons pouvons-nous tirer de l’accident mortel de 2018 en Arizona impliquant un véhicule autonome?

    Le 18 mars 2018, à Tempe, en Arizona, un véhicule dont la conduite était assurée par un programme d’essais d’un logiciel de conduite automatisée est entré en collision avec une piétonne, causant sa mort.  À la suite de cet accident, le National Transportation Safety Board (« NTSB ») des États-Unis a mené une enquête et, le 19 novembre 2019, publié ses résultats préliminaires et recommandations1. Les circonstances de l’accident impliquant une voiture autonome d’Uber Le véhicule autonome (« VA ») de marque Volvo XC90 2017 était muni d’un programme d’essais d’un système de conduite automatisée d’Uber Technologies inc. (« Uber »). Alors que le véhicule circulait à une vitesse d’environ 72 km/h et réalisait la seconde partie d’un trajet prédéterminé dans le cadre d’un essai de conduite, une piétonne a traversé la rue entre les intersections. Il a été déterminé par l’enquête du NTSB que le système de conduite automatisée du véhicule avait détecté la piétonne, mais n’avait pas été en mesure de la qualifier de piétonne et de prédire son trajet. De plus, le système de conduite automatisée a empêché l’activation du système de freinage d’urgence du véhicule, se fiant plutôt à l’intervention de la conductrice humaine à bord afin de pouvoir prendre le contrôle du véhicule dans cette situation critique. Or, des vidéos de l’intérieur du véhicule montrent que la conductrice n’était pas attentive à la route, mais regardait plutôt son téléphone cellulaire déposé sur la console du véhicule. Alors que la collision entre la piétonne et le véhicule était imminente, la conductrice inattentive n’a pas été en mesure de prendre le contrôle du véhicule à temps pour prévenir l’accident et mitiger les dommages. Quelles sont les causes de l’accident? Le NTSB a émis plusieurs constats, dont les suivants : L’expérience et la connaissance de la conductrice ne constituaient pas des facteurs dans l’accident, non plus que sa fatigue ou ses facultés, ni même l’état mécanique du véhicule; Un examen de la piétonne a révélé la présence dans son organisme de drogues susceptibles d’affaiblir sa perception et son jugement; Le système de conduite automatisée d’Uber n’a pas anticipé de manière adéquate ses limites quant à sa sécurité, y compris son incapacité de qualifier la piétonne et de prédire son trajet; La conductrice du véhicule était distraite dans les moments qui ont précédé l’accident.  Si elle avait été attentive, elle aurait eu le temps de voir la piétonne et de prendre le contrôle du véhicule pour éviter l’accident ou mitiger ses impacts; Uber n’a pas adéquatement reconnu les risques liés à la distraction des conducteurs de ses automobiles; Uber a retiré de ses essais le second conducteur du véhicule, faisant en sorte de confier l’entièreté de la responsabilité de l’intervention en situation critique sur la seule conductrice et ainsi réduire la sécurité du véhicule. Il a été déterminé que la cause probable de l’accident a été la distraction de la conductrice et son défaut de prendre le contrôle du VA en situation critique. Des facteurs additionnels ont été déterminés, notamment l’insuffisance des mesures de sécurité du véhicule et de surveillance des conducteurs, démontrant des carences au niveau de la culture de sécurité d’Uber. Le NTSB émet des recommandations, notamment : L’Arizona devrait mettre en place des obligations quant aux développeurs de projets liés aux VA en ce qui a trait aux risques associés à l’inattention des conducteurs des véhicules et qui visent la prévention des accidents et la mitigation des risques; Le NTSB devrait exiger des entités qui réalisent des projets liés aux VA qu’elles soumettent une auto-évaluation quant aux mesures de sécurité de leurs véhicules. Le NTSB devrait également établir un processus d’évaluation quant aux mesures de sécurité des VA; Uber devrait mettre en place une politique concernant la sécurité de ses logiciels de conduite automatisée. Un drame identique lié aux véhicules autonomes peut-il se produire au Québec et au Canada? À la suite de la mise à jour du Code de la sécurité routière en avril 2018, la conduite des VA de niveau 3 dans la province de Québec est permise lorsque leur vente est possible au pays. La conduite des véhicules automatisés de niveaux 4 et 5 est permise lorsqu’elle est expressément encadrée par un projet-pilote2. Selon la norme J3016 de la SAE International, les VA de niveau 3 sont des véhicules à automatisation dite conditionnelle, dont la conduite active se fait de manière automatisée, mais où le conducteur humain doit demeurer attentif afin de pouvoir prendre le contrôle du véhicule en situation critique. Ainsi, le véhicule impliqué dans l’accident d’Arizona, bien que toujours à son stade de mise au point, correspond à un VA de niveau 3. Des VA de niveau 3 circulent maintenant sur les routes du Québec en toute légalité. Au Canada, la Loi sur la sécurité automobile3 et ses règlements connexes régissent « la fabrication et l’importation des véhicules et équipements automobiles en vue de limiter les risques de mort, de blessures et de dommages matériels et environnementaux ». Or, aucune disposition ne prévoit actuellement l’encadrement spécifique des logiciels de conduite automatisée, ni ne régit les risques associés à l’inattention des conducteurs de VA de niveau 3. Avec l’arrivée des VA au pays, en marge des recommandations du NTSB et pour assurer la sécurité de tous, l’encadrement actuel serait à parfaire pour répondre spécifiquement aux mesures de sécurité des VA.   National Transportation Safety Board, Public Meeting of November 19, 2019, “Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian”, Tempe, Arizona, March 18, 2019, HWY18MH010. Code de la sécurité routière, RLRQ c C-24.2, art. 492.8 et 633.1; la conduite des véhicules automatisés est encadrée en Ontario par le Pilot Project - Automated Vehicles, O Reg 306/15. Loi sur la sécurité automobile, L.C. 1993, ch. 16 ; voir entre autre Règlement sur la sécurité des véhicules automobiles, CRC, c 1038.

    Lire la suite
  • Réseaux de neurones et responsabilité : quand l’information se trouve dans des couches cachées

    Bon nombre des techniques d’apprentissage automatique les plus avancées ont recours à des réseaux de neurones artificiels, lesquels permettent aux systèmes « d’apprendre » des tâches en assimilant des exemples, et ce, sans avoir été spécialement programmés pour exécuter de telles tâches. Bien que les réseaux neuronaux ne datent pas d’hier, l’avènement de l’apprentissage profond1 et de la capacité des ordinateurs à traiter rapidement de grandes quantités de données a mené à la mise au point d’un éventail de solutions d’apprentissage automatique touchant divers aspects de la vie. De la reconnaissance d’images au traitement de données financières, l’apprentissage automatique devient de plus en plus omniprésent. Selon une perspective mathématique, les réseaux neuronaux modernes utilisent presque toujours des « couches cachées ». Celles-ci traitent l’information de la couche d’entrée vers la couche de sortie du réseau neuronal. Aucune tâche et aucun poids n’est expressément attribué par un programmeur aux neurones des couches cachées. Or, en règle générale, il n’existe aucune façon directe de savoir comment l’information est traitée dans ces couches. En termes simples, la plupart des techniques d’apprentissage automatique actuelles ont recours à des méthodes dont le fonctionnement ne permet pas aux opérateurs humains de connaître l’intégralité des étapes du processus. Par conséquent, les systèmes qui usent de ces méthodes poseront de nouveaux défis juridiques aux avocats. Des chercheurs étudient cette question depuis plus d’une décennie2, mais ils ne sont toujours pas parvenus à donner des réponses définitives. Les questions de cette nature sont au cœur des débats juridiques actuels. Dans une décision de la Cour suprême des États-Unis portant sur une affaire très médiatisée de découpage électoral partisan3, des préoccupations quant à l’apprentissage automatique ont été soulevées par la juge dissidente. Cela n’a rien d’étonnant, compte tenu du fait que les parties ont présenté aux tribunaux inférieurs la preuve portant sur les méthodes de Monte-Carlo par chaînes de Markov4, lesquelles, tout comme les réseaux neuronaux, ne permettent pas à l’opérateur humain de savoir en détail comment chaque donnée entrée affecte les résultats. Dans certains pays, comme aux États-Unis, un utilisateur d’une technologie peut être en mesure de rejeter des demandes de divulgation d’algorithmes et de détails concernant le processus d’apprentissage automatique de ladite technologie en soutenant que ces renseignements sont protégés en tant que secrets commerciaux du fournisseur de la technologie visée5. Malgré tout, il pourrait être nécessaire de communiquer certaines informations, comme les résultats du processus d’apprentissage automatique dans différentes situations, pour démontrer sa fiabilité et son caractère adéquat. Un tel argument pourrait ne pas être valable dans d’autres pays. Par exemple, en France, le Conseil constitutionnel a récemment autorisé l’administration publique à avoir recours à un processus algorithmique dans le cadre de la prise de décision, mais seulement si elle est en mesure de communiquer, en détail et sous une forme intelligible, la façon dont ce processus algorithmique prend ses décisions6. D’un point de vue informatique, il est difficile de satisfaire à ces exigences lorsque l’on considère le concept des couches cachées. Plus important encore, une personne pourrait vouloir communiquer la façon dont une technologie d’apprentissage automatique l’a aidée à prendre une décision afin de prouver qu’elle a agi comme il se doit. Par exemple, pour éviter que leur responsabilité professionnelle soit engagée, certains professionnels de la santé peuvent être appelés à expliquer comment l’apprentissage automatique les a guidés dans leur prise de décision. Une décision récente de la Cour du banc de la Reine de l’Alberta7 relative à la responsabilité professionnelle des médecins démontre à quel point une telle preuve peut être complexe. Dans celle-ci, l’un des facteurs permettant de déterminer la responsabilité du médecin était le poids fœtal et les différentes formules qui auraient pu être utilisées pour l’établir. La Cour a déclaré ce qui suit : « […] l’expertise requise porterait sur le développement des algorithmes utilisés pour les calculs automatisés de l’indicateur composite du poids à la naissance en considérant les recherches empiriques concernant les poids réels à la naissance et les variables ou les facteurs utilisés pour calculer l’indicateur composite du poids à la naissance. Aucune personne ni aucun groupe de personnes ayant une telle expertise n’a témoigné. Je ne tire pas de conclusion en ce qui concerne les calculs du rapport d’échographie du mois de février se basant sur des formules et des estimations du poids différentes. » (Traduction non officielle). Pour les développeurs et les utilisateurs de technologies d’apprentissage automatique, il est donc important de consigner les informations utilisées pour former leur algorithme, la façon dont le système a été mis en place et le raisonnement derrière le choix des diverses méthodes technologiques utilisées pour l’apprentissage automatique. Les informaticiens qui ont développé des applications visant des domaines précis devraient travailler en étroite collaboration avec des experts dans ces domaines afin de veiller à ce que les données utilisées pour former l’algorithme soient adéquates et que l’algorithme en résultant soit fiable. Dans certains cas, il pourrait même être nécessaire de développer des technologies supplémentaires servant à assurer le suivi de l’information qui parcourt le réseau neuronal et à sonder les couches cachées8. Que retenir? Les risques liés à l’usage d’un système incorporant de l’apprentissage automatique doivent être évalués dès sa conception. Il est recommandé de consulter un avocat dès ce moment pour bien orienter le projet. Lorsque c’est possible, il faut orienter les choix technologiques vers des approches robustes dont les résultats seront aussi stables que possible. Il est important de documenter ces choix technologiques et l’information utilisée lors du développement d’algorithmes d’apprentissage automatique. Les contrats entre les concepteurs et les usagers des technologies doivent clairement attribuer les risques entre les parties.   Voir, en particulier : Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. Université de Californie, Département de sciences informatiques, Cognitive Systems Laboratory, 1986.; LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). « Deep learning ». Nature. 521 (7553): 436–444. Par exemple : Matthias, Andreas. « The responsibility gap: Ascribing responsibility for the actions of learning automata. » Ethics and information technology 6.3 (2004): 175-183; Singh, Jatinder, et al. « Responsibility & machine learning: Part of a process. » Accessible au SSRN 2860048 (2016); Molnar, Petra et Lex Gill. « Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System. » (2018). Rucho v. Common Cause, No. 18-422, 588 U.S. ___ (2019). 279 F.Supp.3d 587 (2018). Houston Fed. of teachers v. Houston Independent, 251 F.Supp.3d 1168 (2017); Brennan Ctr. for Justice at New York Univ. Sch. of law v. New York City Police Dept. 2017 NY Slip Op 32716(U) (NY Supreme Court). Décision no 2018-765 DC datée du 12 juin 2018 (Loi relative à la protection des données personnelles). DD v. Wong Estate, 2019 ABQB 171. Par exemple : Graves, Alex, Greg Wayne et Ivo Danihelka. Neural Turing Machines. arXiv:1410.5401, [cs.NE], 2014.

    Lire la suite
  • Véhicules aériens autonomes : sont-ils aux portes de nos villes?

    Depuis plusieurs années maintenant, il est question de l’arrivée des véhicules autonomes sur les routes du Québec. En avril 2018, le législateur a en conséquence modifié le Code de la sécurité routière1 afin de l’adapter aux particularités de ces nouveaux véhicules. Toutefois, le secteur de l’automobile n’est pas le seul transformé par l’automatisation : l’industrie de l’aéronautique est aussi en profond changement, notamment en ce qui concerne l’implantation des technologies de transport aérien autonome dans le cadre des déplacements urbains. Terminologie Les termes utilisés dans l’industrie du transport aérien autonome sont nombreux. Il est notamment possible de penser à des « voitures volantes autonomes », « véhicules aériens non habités » et même à des « taxis aériens autonomes ». Malgré cette diversité, l’Organisation de l’aviation civile internationale (aussi appelée « OACI ») a proposé certains termes qui ont été repris dans plusieurs documents officiels, dont des textes législatifs2. Ces termes sont les suivants : Véhicule aérien non habité : Véhicule motorisé autonome fabriqué pour effectuer des vols sans intervention humaine, mais exclut les modèles réduits d’aéronef (drones); Système aérien sans pilote : Véhicule motorisé autonome qui nécessite une certaine intervention humaine autre que le pilotage (par exemple un poste de commande, liaisons de transmission, matériel de communication et de navigation); Système d’aéronef piloté à distance : Véhicule motorisé partiellement autonome, qui se caractérise par la présence d’un pilote qui dirige l’appareil à partir d’un poste de pilotage; Modèle réduit d’aéronef (aussi appelé « drone ») : Aéronef de taille réduite dont le poids maximal est de 35kg. Ces véhicules n’ont pas comme finalité le transport de personnes. Cela étant dit, la législation canadienne utilise un vocabulaire particulier et désigne un système d’aéronef télépiloté comme étant un « ensemble d’éléments configurables comprenant un aéronef télépiloté, un poste de contrôle, des liaisons de commande et de contrôle et d’autres éléments nécessaires pendant les opérations aériennes », alors qu’un aéronef télépiloté correspond à « un aéronef navigable utilisé par un pilote qui n’est pas à son bord, à l’exclusion d’un cerf-volant, d’une fusée ou d’un ballon »3. Cadre Législatif En vertu de l’article 8 de la Convention relative à l'aviation civile internationale4, il est interdit pour les véhicules aériens sans pilote de survoler le territoire d’un État sans avoir préalablement obtenu l’autorisation de l’État en cause. Au Canada, les normes régissant l’aviation civile se retrouvent dans la Loi sur l’aéronautique5 et ses règlements afférents. Selon le paragraphe 901.32 du Règlement de l’aviation canadien (ci-après « RAC »), « il est interdit au pilote d’utiliser un système d’aéronef télépiloté autonome ou un autre système d’aéronef télépiloté s’il n’est pas en mesure de prendre immédiatement les commandes de l’aéronef »6. Depuis la mise à jour du RAC en 2017, il est maintenant possible de faire voler quatre catégories d’appareils allant de « très petits aéronefs télépilotés » aux « grands aéronefs télépilotés »7, au terme de certaines exigences législatives : L’utilisation des aéronefs télépilotés dont le poids varie entre 250g à 25kg sera permise moyennant la réussite d’un test de connaissances ou l’obtention d’un permis de pilote, le cas échéant8; Quant aux aéronefs télépilotés de plus de 25kg, qui seront utilisés pour le transport de personnes, il est obligatoire d’obtenir un certificat d’opération aérienne pour en faire l’utilisation9. Projets en cours De nombreux projets de mise au point de véhicules aériens autonomes sont en cours. Les projets les plus médiatisés et les plus avancés sont ceux de certains géants de l’automobile, de l’aéronautique et de la technologie, dont le « Vahana » de Airbus, le programme « NeXt » de Boeing, « SkyDive » de Toyota et le « Kitty Hawk Cora » de Google10. Malgré tout, le projet le plus complet semble être « l’Uber Air ». En plus de travailler activement au développement d’un tel véhicule avec plusieurs partenaires comme Bell et Thales Group, le projet d’Uber se démarque en misant également sur tous les aspects entourant sa mise en marché. Le lancement du programme est prévu dans trois villes dès 202311. Ces villes devraient accueillir une flotte d'essai d'environ 50 aéronefs reliant cinq « skyports » dans chaque ville12. Défis Malgré le fait que la technologie semble avancer rapidement, plusieurs obstacles restent à franchir afin que ce moyen de transport puisse réellement être implanté dans nos villes, notamment la question du bruit de ces appareils, la certification des véhicules, la question des coûts et de la rentabilité, la sécurité liée à l’utilisation urbaine de ces véhicules, l’acceptabilité sociale de ce moyen de transport et la mise en place d’infrastructures nécessaires au fonctionnement de ces engins. En matière de responsabilité en cas d’accident de véhicule aérien autonome, nous pouvons entrevoir que la responsabilité des fabricants de véhicules aériens autonomes pourra être engagée, tout comme celle des sous-traitants ayant participé à sa fabrication, dont les fabricants des logiciels de conduite et des ordinateurs de vol. Des litiges complexes pourront donc potentiellement se présenter à nous. Conclusion Une étude prédit qu’il y aura environ 15 000 taxis aériens d’ici 2035 et que cette industrie aura alors une valeur de plus de 32 milliards de dollars13. Dans une perspective de réchauffement planétaire, de transport durable et afin de palier l’étalement urbain, ces véhicules proposent une alternative de transport collectif intéressante, qui modifiera possiblement nos habitudes quotidiennes. La voiture volante est finalement à nos portes!   Code de la sécurité routière, RLRQ, c C-24.2. Gouvernement du Canada, Commissariat à la protection de la vie privée du Canada, Les véhicules aériens sans pilote au Canada, Mars 2013, aux pp. 4-5. Règlement de l’aviation canadien, DORS/96-433, art 101.01. Organisation de l’aviation civile internationale (OACI), Convention relative à l'aviation civile internationale (« Convention de Chicago »), 7 décembre 1944, (1994) 15 U.N.T.S. 295. Loi sur l’aéronautique, LRC 1985, c A-2. Règlement de l’aviation canadien, DORS/96-433, art 901.32. Gouvernement du Canada, Gazette du Canada, Règlement modifiant le Règlement de l’aviation canadien (systèmes d’aéronefs sans pilote) – Résumé de l’impact de la réglementation, 15 juillet 2017. Règlement de l’aviation canadien, DORS/96-433, art 901.64. et ss. Règlement de l’aviation canadien, DORS/96-433, art 700.01.1 et ss. Engineers Journal, The 13 engineers leading the way to flying car, 29 mai 2018 Dallas, Los Angeles, et une ville qui n’est pas encore annoncée. Uber Elevate, Fast-Forwarding to a Future of On-Demand Urban Air Transportation, 27 octobre 2016 Porsche Consulting, The Future of Vertical Mobility – Sizing the market for passanger, inspection, and good services until 2035, 2018

    Lire la suite
  • Intelligence artificielle : vos données sont-elles bien protégées au-delà des frontières?

    Les transactions transfrontalières comportent toujours leur lot de défis; quand elles touchent les technologies d’intelligence artificielle (« IA »), cette complexité est décuplée par des différences importantes dans les droits octroyés par chaque pays. L’analyse de ces transactions nécessite d’examiner à la fois ces différences sous l’angle des risques qu’elles présentent, mais aussi des opportunités qui peuvent en découler. De nombreuses technologies d’IA s’articulent autour de réseaux de neurones, qui nécessitent des quantités colossales de données d’entraînement. La valeur de ces technologies dépend en grande partie de la capacité à protéger la propriété intellectuelle qui y est associée, et celle ci peut notamment prendre la forme d’une approche novatrice, des produits du travail accompli par le système ou des données mêmes qui servent à l’entraîner. Les brevets Lorsque des parties négocient une transaction et vue la rapidité des avancées en intelligence artificielle, le travail implique fréquemment des demandes de brevet, alors que le brevet en soi peut n’être octroyé que des années plus tard. Cette réalité fait aussi en sorte qu’à titre de conseillers, nous devons évaluer les chances de succès de ces demandes de brevets dans de multiples pays. Il est impossible de présumer qu’une demande de brevet en IA qui est acceptable dans un pays le sera dans un autre, ce qui est souvent le cas pour les technologies plus conventionnelles. Si nous regardons du côté des États-Unis, il est évident que le jugement Alice1 rendu il y a quelques années a eu une incidence majeure, et il est depuis difficile de breveter de nombreuses inventions en intelligence artificielle. Certains brevets de cette nature ont été invalidés à la suite de cette décision. Il semble évident des demandes de brevet publiées que de nombreuses grandes entreprises continuent de demander des brevets pour des technologies liées à l’IA, et certaines réussissent à les obtenir. Juste au nord de la frontière, au Canada, la situation est plus nuancée. Il y a quelques années, les tribunaux ont affirmé dans l’affaire Amazon2 que la mise en œuvre d’une fonction avec un ordinateur peut être un élément essentiel d’un brevet valide. Nous sommes toujours en attente d’une décision portant de façon précise sur les systèmes d’intelligence artificielle. En Europe, l’article 52 de la Convention sur le brevet européen stipule que les « programmes d’ordinateur » ne sont pas des inventions brevetables. Cependant, un brevet peut être octroyé si un « problème technique » est résolu par une méthode non évidente3. Ce cadre d’évaluation pourrait permettre à certaines technologies d’intelligence artificielle d’être brevetées. Selon les lignes directrices européennes pour l’examen des demandes de brevet relatives à l’IA et à l’apprentissage machine (en anglais), qui ont récemment été mises à jour, les termes comme « soutien à machine vectoriel », « moteur de raisonnement » et « réseau de neurones » sont reçus avec suspicion puisqu’ils renvoient normalement à des modèles abstraits exempts de tout aspect technique. Cependant, les applications concrètes de l’intelligence artificielle ou de l’apprentissage machine offrent des contributions techniques qui, elles, peuvent être brevetables, par exemple : l’utilisation d’un réseau de neurones dans la conception d’un appareil de surveillance cardiaque dans le but de détecter des battements cardiaques irréguliers; ou la classification de fichiers numériques (images, vidéos, fichiers audio ou signaux de parole) en fonction de caractéristiques de bas niveau comme le contour des images ou les attributs des pixels. Par opposition à ces exemples, le fait de classer des documents texte uniquement sur la base de leur contenu textuel est considéré comme un objectif linguistique plutôt que technique (T 1358/09). L’Office européen des brevets offre aussi comme exemple d’absence d’objectif technique la classification d’enregistrements abstraits de données ou même d’« enregistrements de données de réseaux de télécommunication » sans indication d’une utilisation technique du résultat de cette classification, même si l’algorithme qui sous-tend celle-ci peut présenter des caractéristiques mathématiques intéressantes comme la robustesse (T 1784/06). Au Japon, en vertu des lignes directrices d’examen, il est possible d’accorder un brevet pour les inventions du domaine logiciel qui « réalisent de façon concrète le traitement de l’information exécuté par le logiciel en utilisant le matériel informatique »4. Il pourrait être plus facile de faire breveter un système d’IA dans ce pays. Comme vous pouvez le constater, il est possible d’arriver à différents résultats pour une même invention, selon le pays. Plusieurs poids lourds de l’industrie, dont Google, Microsoft, IBM et Amazon, déposent des demandes de brevet pour des technologies d’intelligence artificielle ou des inventions apparentées. À ce stade, personne ne sait combien de ces demandes déboucheront sur un brevet et lesquelles seront confirmées par les tribunaux. Pour l’instant, la meilleure stratégie consiste possiblement à présenter des demandes pour des méthodes nouvelles et non évidentes avec un niveau de technicité suffisant et comprenant des exemples concrets d’applications, de façon à se protéger si la jurisprudence évolue dans les prochaines années de façon à reconnaître à terme les brevets pour l’IA dans certains pays. Les exceptions juridiques au régime des brevets demeurent5 : Les concepts mathématiques : les relations, formules, équations et calculs mathématiques; Certaines méthodes d’organisation des activités humaines : les pratiques ou principes économiques fondamentaux (notamment les opérations de couverture, l’assurance et l’atténuation du risque), les interactions commerciales ou juridiques (notamment les ententes qui revêtent une forme contractuelle, les obligations, la publicité, le marketing, la vente, les comportements, les relations d’affaires); la gestion du comportement des personnes ou de leurs relations ou interactions; et Les processus mentaux : les opérations du cerveau humain (notamment l’observation, l’évaluation, le jugement et l’opinion). Message à retenir : pour maximiser les chances de se voir octroyer un brevet solide, les demandes qui portent sur une technologie d’intelligence artificielle doivent cerner un problème technique, fournir une description technique détaillée des façons précises dont l’innovation a été concrètement mise à profit pour résoudre ou atténuer le problème technique défini, et donner des exemples des résultats possibles. Pour surmonter les écueils liés à la brevetabilité, il est utile de préciser dans quelle industrie ou dans quel contexte précis l’invention doit être utilisée et d’expliquer les avantages qu’elle offre lorsqu’on la compare aux méthodes ou systèmes connus. Le droit d’auteur Du côté du droit d’auteur, l’IA pose aussi certains problèmes, notamment lorsqu’elle est à l’origine d’une œuvre. Le droit d’auteur peut protéger un logiciel d’intelligence artificielle original qui constituerait une « œuvre littéraire » en vertu de la Loi sur le droit d’auteur, ce qui comprend un code source, les éléments d’une interface, un ensemble de méthodes de communication d’un système de base de données, un système Web, un système d’exploitation ou une bibliothèque de logiciels. Le droit d’auteur peut protéger le contenu d’une base de données si celui-ci correspond à la définition d’une compilation, ce qui étend la protection à la cueillette et l’assemblage de données ou d’autres éléments. Il existe deux difficultés principales quand vient le temps d’évaluer l’admissibilité d’une création d’une IA au régime de droit d’auteur. La première concerne les situations où la machine produit une œuvre sans l’intervention des compétences ou du jugement d’un humain. La seconde touche au concept même d’auteur dans la Loi sur le droit d’auteur, texte de loi qui, sans écarter explicitement les machines, le fait peut-être de façon indirecte par le truchement de son article 5, qui établit que le droit d’auteur existe au Canada dans le cas d’une œuvre originale dont l’auteur était, à la date de la création, citoyen ou résident habituel d’un pays signataire. Nous avons récemment assisté à la création d’œuvres d’art visuel et de musique par des systèmes d’intelligence artificielle. La valeur artistique de ces créations peut faire l’objet de débat. Leur valeur commerciale peut, en revanche, s’avérer considérable; nous n’avons qu’à imaginer une IA qui créerait la trame sonore d’un film. Des projets de recherche d’envergure sont en cours pour vérifier le potentiel des technologies d’intelligence artificielle en matière de programmation de code source pour certains usages précis, par exemple dans les jeux vidéo. Certains pays comme les États-Unis et le Canada ne fournissent aux œuvres créées par des machines aucune protection du droit d’auteur. Au Canada, une décision récente établit explicitement qu’une œuvre doit avoir un auteur humain pour être protégée par la Loi sur le droit d’auteur6. Du côté américain, certains se souviendront peut-être de Naruto, le singe à l’égoportrait. À l’issue du litige qui s’ensuivit, la justice a déterminé que cette photo n’était pas protégée par le droit d’auteur. Bien qu’il soit à l’heure actuelle impossible de deviner les incidences directes de cette affaire sur l’IA, il est tout de même difficile d’imaginer qu’on confère un tel droit à un système d’intelligence artificielle alors qu’on le refuse à un singe. Pendant ce temps, d’autres pays comme le Royaume-Uni, la Nouvelle-Zélande et l’Irlande ont adopté des modifications législatives qui font en sorte que le programmeur à l’origine du système d’IA est normalement le propriétaire de l’œuvre créée par l’ordinateur. Ces modifications ne visaient pas explicitement l’intelligence artificielle, mais il est probable que les formulations larges qui ont été retenues s’appliquent à ce domaine. Par exemple, le droit d’auteur du Royaume-Uni est accordé à « la personne qui pose les gestes nécessaires à la création de l’œuvre »7 [traduction]. L’œuvre générée par un système d’IA pourrait très bien ne pas être protégée par le droit d’auteur au Canada, aux États-Unis et dans de nombreux autres pays, mais l’être dans certaines parties du monde, à tout le moins jusqu’à ce que les deux pays susmentionnés décident de remédier à cette situation par des changements législatifs. Les secrets commerciaux Le droit accorde une protection à toute information secrète qui ne fait pas partie du domaine public. Une personne doit, pour préserver la confidentialité d’une information, adopter des mesures à cette fin, par exemple en requérant de tiers des engagements de non-divulgation. Il n’existe aucun délai de prescription pour cette protection juridique, et elle peut couvrir les informations générées par des machines. Confidentialité des données Certains juristes ont mentionné que le RGPD adopté en Europe s’accorde difficilement avec certaines technologies d’intelligence artificielle sur le plan de la confidentialité des données. Il ne suffit qu’à penser au droit à l’effacement des données et à l’exigence de légalité (absence de discrimination) du traitement de celles-ci, deux aspects qui pourraient s’avérer ardus à mettre en œuvre8. Les réseaux de neurones, par exemple, s’appuient généralement sur des ensembles de données colligés, ou sur un entraînement programmé, par des humains. Par conséquent, ils acquièrent souvent les mêmes biais que les personnes qui les entraînent, et parfois même les aggravent, puisque ces réseaux sont conçus pour déceler des tendances dans les données. Ils peuvent ainsi détecter une tendance et optimiser une situation du point de vue mathématique en parvenant à une solution comportant un préjugé raciste ou sexiste, puisque les machines ne sont pas dotées de valeurs humaines. De plus, les petits ensembles de données qui permettent l’inversion du processus d’apprentissage de la machine s’accompagnent de leurs difficultés propres, puisque le risque de fuites compromettant la confidentialité est présent et que cette situation appelle le droit de demander le retrait de certaines données de l’ensemble d’entraînement, ce dernier droit étant difficile à mettre en œuvre techniquement. Il est aussi nécessaire de tenir compte des lois et des règlements qui sont propres à certaines industries; par exemple, dans le contexte américain, la conformité avec la HIIPA, une loi qui comprend des règles de confidentialité et des protections de nature technique9. Les pratiques doivent ensuite être harmonisées avec les exigences réglementaires locales, comme celles d’organismes publics, qui doivent être respectées pour avoir accès aux données gouvernementales, par exemple, dans le cas du Québec, province de résidence des auteurs, pour les dossiers médicaux électroniques. Dans les cas similaires, le défi consiste à trouver des solutions qui se conforment à l’ensemble des lois applicables. Souvent, il sera nécessaire de créer des systèmes parallèles si les exigences techniques sont incompatibles d’un pays à l’autre.   Alice Corp. v. CLS Bank International, 573 U.S., 134 S. Ct. 2347 (2014). Canada (Procureur général) c. Amazon.com, inc., 2011 CAF 328. T 0469/03 (Clipboard formats VI/MICROSOFT) of 24.2.2006, Office européen des brevets, Chambres de recours, 24 février 2006 [en anglais]. Examination Guidelines for Invention for Specific Fields (Computer-Related Inventions), Office japonais des brevets, avril 2005 [en anglais]. Aux États-Unis, selon les orientations de l’USPTO : https://www.federalregister.gov/documents/2019/01/07/2018-28282/2019-revised-patent-subject-matter-eligibility-guidance . Geophysical Service Incorporated v. Corporation EnCana et al, 2016 ABQB 230 [en anglais]; 2017 ABCA 125 [en anglais]; 2017 CanLII 80435 (CSC). Copyright, Designs and Patents Act, 1988, c. 48, § 9(3) (R.-U.); voir aussi Copyright Act 1994, § 5 (N. Z.); Copyright and Related Rights Act, 2000, Part I, § 2 (Act. No. 28/2000) (Irl.). Règlement général sur la protection des données, (EU) 2016/679, art. 9 et 17. Health Insurance Portability and Accountability Act des États-Unis, 1996 [en anglais].

    Lire la suite
  • Innovation ouverte : vers de nouveaux modèles de propriété intellectuelle?

    « The value of an idea lies in the using of it. ». Cette phrase a été prononcée par Thomas Edison, connu comme étant l’un des inventeurs les plus marquants du siècle dernier. Pourtant fervent utilisateur des protections de propriété intellectuelle, ayant déposé plus de 1 000 brevets au cours de sa vie, Thomas Edison avait compris l’importance de recourir à ses contacts externes pour nourrir l’innovation et permettre à ses inventions de délivrer leur plein potentiel. Ainsi, il s’est notamment associé avec des experts en réseau pour développer le premier circuit électrique direct, en l’absence duquel l’invention de son ampoule électrique se serait avérée de piètre utilité. L’innovation ouverte renvoie à un mode d’innovation en rupture avec la vision traditionnelle du processus de recherche et développement, se déroulant essentiellement dans le secret à l’interne de l’entreprise. En effet, l’entreprise qui innove de manière ouverte va confier une partie de son processus de recherche et développement de ses produits ou services, ou de ses travaux de recherche, aux acteurs de son environnement externe (fournisseurs, clients, universités, concurrents, etc). Une définition plus académique de l’innovation ouverte, élaborée par le Professeur Henry Chesbrough de l’Université Berkeley, se lit de comme suit: « Open innovation is the use of purposive inflows and outflows of knowledge to accelerate internal innovation, and expand the markets for external use of innovation, respectively1. » Les approches possibles : «  collaboration vs compétition » L’entreprise souhaitant recourir à l’innovation ouverte devra décider quel « écosystème » d’innovation intégrer : doit-elle privilégier l’adhésion à une communauté collaborative ou intégrer un marché compétitif ?             Adhésion à une communauté collaborative Dans ce cas, les protections de propriété intellectuelle sont modérées et l’objectif est davantage axé vers le développement des connaissances via le partage. Plusieurs entreprises dans le domaine informatique ou les consortiums d’universités se concentrent dans des groupes collaboratifs afin de développer des compétences et du savoir en vue de poursuivre un but de recherche commun.             Intégrer un marché compétitif Dans ce cas, les protections de propriété intellectuelle sont fortes et l’échange d’information quasi nul. L’objectif poursuivi est tourné vers une maximisation du profit. Contrairement à l’approche collaborative, les relations se traduisent par des ententes d’exclusivité, des ventes de technologies et par l’octroi de licences.  Cette approche compétitive est très présente dans le domaine des jeux vidéos notamment. La titularité de droits de propriété intellectuelle comme condition sine qua non pour recourir à l’innovation ouverte Le succès de l’innovation ouverte réside en premier lieu dans l’idée que partager son savoir peut être rentable. En second lieu, l’entreprise doit respecter un équilibre entre ce qu’elle peut dévoiler aux acteurs pertinents (fournisseurs, concurrents, entreprises tierces spécialisées, public, etc.) et ce qu’elle peut retirer de sa relation avec ceux-ci. Elle devra également prévoir les actions de ses partenaires afin de moduler ses risques avant de se livrer à un partage d’information. Au premier abord, un recours à l’innovation ouverte peut sembler contraire à un usage prudent de ses actifs de propriété intellectuelle. En effet, les droits de propriété intellectuelle renvoient généralement à une idée de monopole reconnu à leur titulaire, permettant à ce dernier d’empêcher les tiers de copier la technologie protégée. Cependant, des études ont démontré que l’imitation d’une technologie par un concurrent peut s’avérer bénéfique2. D’autres recherches ont démontré également qu’un marché comprenant des protections de propriété intellectuelle fortes augmentait le rythme des avancées technologiques3. La titularité de droits de propriété intellectuelle est donc un prérequis pour toute entreprise qui innove ou qui souhaite innover de manière ouverte puisque les méthodes d’innovation ouverte invitent les entreprises à repenser leurs stratégies de recherche et développement en passant par une gestion différente de leur portefeuille de propriété intellectuelle. L’entreprise devra toutefois garder à l’esprit qu’elle doit encadrer adéquatement ses relations avec les différents acteurs externes avec qui elle prévoit faire affaire, afin d’éviter une diffusion non souhaitée d’information confidentielle relativement à sa propriété intellectuelle et de tirer profit de cette méthode d’innovation sans perdre de droits. Où aller chercher l’innovation ? Dans le cadre d’une approche d’innovation ouverte, l’utilisation de la propriété intellectuelle peut se faire de l’externe de l’entreprise vers l’interne ou de l’interne vers l’externe. Dans le premier scénario, l’entreprise va diminuer le contrôle sur son processus de recherche et développement et aller chercher à l’externe de la propriété intellectuelle ou une expertise dont elle ne dispose pas à l’interne. Dans un tel cas, le processus d’innovation d’un produit peut être considérablement accéléré par les contributions apportées par les partenaires externes et peut se traduire par : l’intégration au produit en développement de technologies provenant de tiers partenaires spécialisés; la conclusion de partenariats stratégiques; l’octroi en faveur de l’entreprise de licences d’utilisation d’une technologie appartenant à un tiers concurrent ou un fournisseur; la recherche d’idées externes (partenariats de recherche, consortiums, concours d’idées, etc.). Dans le second scénario, l’entreprise va mettre sa propriété intellectuelle à disposition des acteurs de son environnement externe, notamment par le biais d’ententes de licence avec des partenaires stratégiques ou des acteurs de marchés secondaires. Dans ce cas, l’entreprise peut aller jusqu’à rendre public l’une de ses technologies, par exemple en publiant le code d’une solution sous licence open source, ou encore jusqu’à céder ses droits de propriété intellectuelle sur une technologie dont elle est titulaire mais pour laquelle elle n’a pas d’utilité. Quelques exemples Les exemples de « success stories » concernant l’innovation ouverte font légion. Par exemple, Google a mis son outil d’apprentissage automatisé Tensorflow à disposition du public sous licence open source (Apache 2.0) en 2015. Google a ainsi permis aux développeurs tiers d’utiliser et de modifier, selon les termes de la licence, le code de sa technologie tout en contrôlant le risque : toute découverte intéressante effectuée à l’externe pouvait rapidement être transformée en un produit par Google. Cette stratégie, courante dans le domaine informatique, a permis de faire bénéficier le marché d’une technologie intéressante et à Google de se positionner comme un joueur important dans le domaine de l’intelligence artificielle. L’exemple des savons liquides SoftSoap illustre l’ingéniosité de M. Robert Taylor, un entrepreneur américain, qui a développé et mis en marché son produit en l’absence de protection de propriété intellectuelle forte, en s’appuyant sur des fournisseurs externes. En 1978, M. Taylor fut le premier à avoir l’idée de mettre le savon liquide en bouteille. Pour que son invention soit réalisable, il devait se fournir en pompes en plastique auprès de fabricants externes puisque son entreprise n’avait pas d’expertise pour la fabrication de cette pièce. Ces pompes étaient indispensables puisqu’elles devaient être vissées sur les bouteilles pour la distribution du savon. À cette époque, le brevet sur le savon liquide avait déjà été déposé et l’invention de M. Taylor n’était pas en soi brevetable. Pour éviter que ses concurrents ne copient son invention, M. Taylor a passé une commande de 12 millions de dollars auprès des deux seuls fabricants de pompes en plastique. Cela a eu pour effet de saturer le marché pour près de 18 mois, donnant ainsi à M. Taylor une avance par rapport à ses concurrents qui étaient alors incapable de le concurrencer, faute de disponibilité des pompes à savon auprès des fabricants. Les processeurs ARM constituent un bon exemple de recours à l’innovation ouverte dans un contexte de maximisation de la propriété intellectuelle. ARM Ltd a su tirer profit de la diminution du contrôle sur le processus de développement et de fabrication opérée par les géants de la technologie, tels que Samsung ou Apple, qui intègrent de plus en plus de technologies développées à l’externe dans leurs produits. La particularité des processeurs ARM réside dans leur mode de mise en marché : ARM Ltd. ne vend pas ses processeurs sous forme de processeurs finis fondus dans le silicium, plutôt, elle octroi des licences à des fondeurs indépendants pour que ceux-ci utilisent l’architecture qu’elle a développée. Cela a permis à ARM Ltd de se distinguer des autres fabricants de processeurs et de se tailler une place sur le marché des fournisseurs de pièces informatiques, en offrant une technologie très flexible, adaptable pour les divers besoins en fonction du type produit (téléphone, tablette, calculatrice, etc.) dans lequel le processeur est destiné à être intégré. Conclusion Le recours à l’innovation ouverte peut permettre à une entreprise de considérablement accélérer son processus de recherche et développement tout en limitant ses propres coûts, en considérant la propriété intellectuelle de tiers ou en partageant sa propre propriété intellectuelle. Bien qu’il n’existe pas de « recette miracle », il est certain que pour réussir dans un processus d’innovation ouverte, l’entreprise doit bien comprendre ses concurrents et partenaires avec lesquels elle envisage de collaborer et encadrer convenablement ses relations avec ses partenaires, afin de ne pas mettre en péril sa propriété intellectuelle.   Henry CHESBROUGH, Win VANHAVERBEKE et Joel WEST, Open Innovation : Researching a New Paradigm, Oxford University Press, 2006, p. 1. Silvana KRASTEVA, « Imperfect Patent Protection and Innovation », Department of Economics, Texas A&M University, December 23, 2012. Jennifer F. REINGANUM, « A Dynamic Game of R and D: Patent Protection and Competitive Behavior », Econometrica, The Econometric Society, Vol. 50, No. 3, May, 1982; Ryo HORII and Tatsuro IWAISAKO, «Economic Growth with Imperfect Protection of Intellectual Property Rights» Discussion Papers In Economics And Business, Graduate School of Economics and Osaka School of International Public Policy (OSIPP), Osaka University, Toyonaka, Osaka 560-0043, Japan.

    Lire la suite
  • L’intelligence artificielle au service de l’avocat : l’avocat-robot est-il à nos portes?

    Au cours des derniers mois, notre équipe du Laboratoire juridique sur l’intelligence artificielle (L3IA) a testé plusieurs solutions juridiques incorporant, de façon plus ou moins importante, l’IA. Selon les auteurs Remus et Levy1, la plupart de ces outils auront un impact potentiel modéré sur la pratique du droit. Parmi les solutions évaluées par les membres de notre laboratoire, certaines fonctionnalités ont particulièrement attiré notre attention. Contexte historique Au début des années 1950, lorsque Grace Murray Hopper, pionnière de l’informatique, tentait de persuader ses collègues de créer un langage informatique utilisant des mots d’anglais, on lui répondait que c’était impossible qu’un ordinateur puisse comprendre l’anglais. Toutefois, contrairement aux ingénieurs et aux mathématiciens de l’époque, le monde des affaires se montra plus ouvert à cette idée. Ainsi naquit le « Business Language version 0 », ou B-0, l’ancêtre de plusieurs langages informatiques plus modernes et un premier (petit) pas vers le traitement du langage naturel. Il n’en reste pas moins que l’usage de l’informatique pour des solutions juridiques fut un défi, en raison, notamment, de la nature de l’information à traiter, souvent présentée sous forme textuelle et peu organisée. L’auteur Richard Susskind traitait déjà en 1986 de l’usage de l’intelligence artificielle pour traiter d’informations juridiques2. Ce n’est toutefois que plus récemment, avec les avancées en traitement du langage naturel, qu’on a vu apparaître des logiciels ayant le potentiel de modifier substantiellement la pratique du droit. Plusieurs avocats et notaires s’inquiètent aujourd’hui de l’avenir de leur profession. Sommes-nous en train d’assister à la naissance de l’avocat-robot? À ce jour, les solutions technologiques offertes aux juristes permettent l’automatisation de certains aspects spécifiques liés à la multitude de tâches qu’ils accomplissent lorsqu’ils effectuent leur travail. Les outils d’automatisation et d’analyse de documents en sont des exemples pertinents en ce qu’ils permettent, dans un cas, de créer des documents de nature juridique à partir d’un modèle existant et, dans l’autre cas, de faire ressortir certains éléments qui peuvent être potentiellement problématiques dans des documents soumis.  Cependant, aucune solution ne peut se targuer de remplacer entièrement le professionnel du droit. Récemment, les auteurs précités Remus et Levy ont analysé et mesuré l’impact de l’automatisation sur le travail des avocats3. De manière générale, ils prédisent que seul le processus de recherche documentaire sera bouleversé de façon importante par l’automatisation et que les tâches de gestion de dossiers, de rédaction documentaire, de vérification diligente, de recherche et d’analyse juridique seront touchées modérément. Par ailleurs, ils estiment que les tâches de gestion documentaire, de rédaction juridique, de conseil, de négociation, de cueillette factuelle, de préparation et de représentation à la cour ne seront que légèrement bouleversées par les solutions intégrant l’intelligence artificielle4. Les outils d’analyse documentaire Kira, Diligen, Luminance, Contract Companion, LegalSifter, LawGeex, etc. D’abord, parmi les outils permettant l’analyse documentaire, deux types de solutions sont offerts sur le marché. D’une part, plusieurs utilisent l’apprentissage supervisé et non supervisé pour trier et analyser un grand nombre de documents afin d’en tirer certaines informations ciblées. Ce type d’outil est particulièrement intéressant dans un contexte de vérification diligente. Il permet notamment d’identifier l’objet d’un contrat donné ainsi que certaines clauses, les lois applicables et d’autres éléments déterminés dans le but de détecter certains éléments de risque préalablement déterminés par l’utilisateur. À cet égard, notons par exemple l’existence d’outils de vérification diligente comme Kira, Diligen et Luminance5. D’autre part, des solutions sont destinées à l’analyse et à la révision de contrats afin de faciliter la négociation avec une tierce partie. Ce type d’outil utilise le traitement automatique du langage naturel (TALN) afin d’identifier les termes et clauses particuliers du contrat. Il détermine également les éléments qui sont manquants dans un type donné de contrat. Par exemple, dans une entente de confidentialité, l’outil avertira l’utilisateur si la notion d’information confidentielle n’est pas définie. De plus, des commentaires sont fournis quant aux différents éléments identifiés dans le but de fournir des conseils sur la négociation des modalités du contrat. Ces commentaires et conseils peuvent être modifiés en fonction des pratiques privilégiées par le juriste. Ces solutions nous apparaissent particulièrement utiles lorsque le professionnel du droit est appelé à conseiller un client sur l’opportunité ou non de se conformer aux termes d’un contrat qui lui est soumis par un tiers. L’outil Contract Companion6 a attiré notre attention pour sa simplicité d’utilisation, même s’il s’agit ici d’un outil visant seulement à assister un rédacteur humain  sans toutefois identifier les clauses problématiques et leur contenu. L’outil va plutôt détecter certaines incohérences, comme l’absence d’une définition d’un terme débutant par une majuscule, entre autres exemples. LegalSifter et LawGeex7 se présentent comme des assistants à la négociation en proposant des solutions qui repèrent les divergences entre un contrat soumis et les meilleures pratiques favorisées par le cabinet ou l’entreprise, aidant ainsi à trouver et à résoudre les clauses manquantes ou problématiques. Les outils de recherche juridiqueInnovationQ, NLPatent, etc. Récemment, quelques solutions permettant l’analyse de la recherche juridique et la prédiction des décisions des tribunaux sont apparues sur le marché. Des entreprises proposent de simuler un jugement à partir d’éléments factuels envisagés dans le contexte d’un régime juridique donné pour aider à la prise de décision. Pour y parvenir, elles utilisent le TALN pour comprendre les questions posées par les juristes, fouiller la législation, la jurisprudence et les sources doctrinales. Certaines solutions proposent même aux avocats de déterminer leurs chances de gagner ou de perdre en fonction d’éléments donnés, tels que l’avocat de la partie adverse, le juge et le niveau de tribunal. Pour y parvenir, l’outil utilise l’apprentissage automatique. Il pose des questions à propos de la situation du client et, par la suite, il analyse des milliers de cas similaires sur lesquels les tribunaux se sont prononcés. Au final, le système d’intelligence artificielle formule une prédiction basée sur tous les cas analysés, une explication personnalisée et une liste de jurisprudence pertinente. Avec la venue de ces outils, des auteurs anticipent des changements considérables dans la nature des litiges qui se retrouveront devant les tribunaux. Ils prévoient que la technologie favorisera le règlement des différends et que les juges n’auront à se prononcer que sur les conflits générant les questions de droit les plus complexes et suscitant de réels développements juridiques.8 En droit des brevets, la recherche d’inventions existantes (« art antérieur » dans le vocabulaire de la propriété intellectuelle) est facilitée par des outils faisant appel au TALN. La rédaction de brevets comporte généralement un vocabulaire spécialisé. Les solutions permettent d’identifier la technologie ciblée, de déterminer l’art antérieur pertinent et d’analyser les documents qui y sont relatifs afin de repérer les éléments divulgués. À cet égard, les outils d’InnovationQ et NLPatent9 nous semblent démontrer un potentiel intéressant. Les outils de rédaction juridiqueSpecif.io, etc. Quelques solutions offertes sur le marché font appel au potentiel « créatif » de l’intelligence artificielle appliqué au droit. Parmi celles-ci, nous nous sommes intéressés à une solution offrant la rédaction du mémoire descriptif dans le contexte d’une demande de brevet. L’outil Specif.io10 permet de rédiger une description de l’invention en utilisant un vocabulaire adapté et la forme requise pour la rédaction de demandes de brevet, et ce, sur la base de projets de revendications délimitant de manière sommaire la portée de l’invention. Pour le moment, cette solution est restreinte au domaine des inventions en matière de logiciel. Même si, la plupart du temps et dans l’état actuel du produit, le juriste sera appelé à retravailler le texte substantiellement, il peut gagner un temps considérable dans la rédaction d’un premier jet. Recommandations En conclusion, les outils d’intelligence artificielle ne progressent pas de manière uniforme dans tous les domaines du droit. Plusieurs outils peuvent déjà assister des juristes dans diverses tâches répétitives ou les aider à repérer des erreurs ou des risques potentiels dans divers documents. Toutefois, il est important de considérer que ces outils sont encore loin d’avoir la faculté humaine de contextualiser leurs interventions. Là où l’information est organisée et structurée, comme en matière de brevets, domaine dans lequel les bases de données sont organisées et accessibles en ligne pour la plupart des pays occidentaux, les outils permettent non seulement d’assister les usagers dans leurs tâches, mais carrément de fournir un premier projet pour la rédaction d’un mémoire descriptif à partir de simples revendications. Cependant, recherche et développement sont encore nécessaires à cet égard avant qu’on puisse vraiment se fier à de telles solutions. Nous croyons donc pertinent d’émettre certaines grandes recommandations pour les juristes qui voudraient intégrer des outils infusés d’intelligence artificielle dans leur pratique : Connaître les possibilités et les limites d’un outil : lors du choix d’un outil d’intelligence artificielle, il est important d’effectuer des tests afin d’en évaluer le fonctionnement et les résultats. Il faut cibler un objectif précis et s’assurer que l’outil testé permette l’atteinte de cet objectif. Supervision humaine : à ce jour, il est important que tout outil d’intelligence artificielle demeure supervisé par un être humain. Il s’agit non seulement là d’une obligation déontologique pour assurer la qualité des services rendus, mais aussi d’une simple règle de prudence face à des outils n’ayant pas la capacité de contextualiser l’information qu’on leur soumet. Traitement des ambiguïtés : plusieurs outils d’intelligence artificielle permettent divers réglages dans leurs interventions. De tels réglages devraient faire en sorte que le traitement de toute situation ambigüe pour le système soit confié à des opérateurs humains. Confidentialité des données : N’oublions pas que nous sommes soumis à un devoir de confidentialité! Le traitement de l’information confidentielle par les fournisseurs de solutions est un enjeu crucial à considérer. Il ne faut pas avoir peur de poser des questions à ce sujet. Des employés informés :L’intelligence artificielle fait trop souvent peur aux employés. Qui plus est, comme tout changement technologique, la formation interne s’avère nécessaire pour s’assurer que l’utilisation de tels outils soit conforme aux attentes de l’entreprise. Il faut donc non seulement choisir de bons outils d’intelligence artificielle, mais aussi penser à la formation nécessaire pour en tirer profit.   Remus, D., & Levy, F. (2017). Can Robots Be Lawyers: Computers, Lawyers, and the Practice of Law. Geo. J. Legal Ethics, 30, 501. Susskind, R. E. (1986). Expert systems in law: A jurisprudential approach to artificial intelligence and legal reasoning. The modern law review, 49(2), 168-194. Préc., note 1. Id. kirasystems.com; diligen.com; luminance.com. https://www.litera.com/products/legal/contract-companion. legalsifter.com; lawgeex.com. Luis Millan, Artificial Intelligence, Canadian Lawyer (7 avril 2017), en ligne : http://www.canadianlawyermag.com/author/sandra-shutt/artificial-intelligence-3585. http://ip.com/solutions/innovationq; nlpatent.com. specif.io/index.

    Lire la suite
1 2 3