Intelligence artificielle

Vue d’ensemble

L'IA devient un moteur de transformation pour tous les secteurs d’activité. Comprendre et anticiper les implications juridiques de son intégration en entreprise est crucial. 

 

Nous sommes convaincus que l’IA n’est pas seulement une question de technologie, mais un levier stratégique qui, s’il est bien encadré, peut accroître grandement l’efficience et l’innovation au sein des entreprises. Nous assistons nos clients dans la mise en œuvre de solutions d’IA responsables et conformes aux exigences légales.

La protection des données et de la vie privée représente un des piliers de notre expertise. Avec l’avènement de l’IA, la quantité de données traitées explose et la réglementation devient plus complexe. Nous sommes là pour aider à respecter les normes en vigueur et anticiper les futures tendances réglementaires.

En matière de propriété intellectuelle, nos experts aident à protéger les innovations liées à l’IA, à gérer les risques associés aux créations générées par l’IA et à élaborer des stratégies de brevetage et de droits d’auteur adaptées à l’ère numérique.

C’est dans cette optique que le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) s’est positionné comme un acteur de premier plan, offrant son expertise et sa vision prospective au monde des affaires.

Grâce à une approche multidisciplinaire et à une veille constante, le laboratoire L3IA se consacre à l’analyse des tendances émergentes et à l’évaluation des enjeux juridiques liés à l’IA. Notre laboratoire est à la pointe de l’exploration des défis juridiques posés par l’IA, notamment en matière de respect de la vie privée, de propriété intellectuelle, de responsabilité civile et de gouvernance d’entreprise. Nous aidons les entreprises à comprendre comment l’IA peut transformer leur modèle d’affaires, tout en naviguant dans le cadre réglementaire en constante évolution.

 

Notre engagement envers l’innovation juridique et notre compréhension approfondie de l’IA nous permettent d’accompagner les entreprises technologiques dans leur évolution, en veillant à ce que leurs avancées soient non seulement révolutionnaires, mais également en parfaite harmonie avec le cadre juridique actuel et futur.

 

Expertises connexes

  • Respect de la vie privée
  • Propriété intellectuelle
  • Responsabilité civile
  • Gouvernance d'entreprise
  1. IA : Nous sommes à la croisée des chemins

    En mars 2017, il y a de cela plus de 3 000 jours déjà, Lavery a mis sur pied le Laboratoire juridique sur l’intelligence artificielle (L3IA) pour étudier et, surtout, anticiper les développements dans le domaine de l’intelligence artificielle (« IA »). Le but du Laboratoire L3IA, très novateur à l’époque, consistait à se placer avantageusement en amont des complexités juridiques que l’intelligence artificielle allait faire naître pour nos clients. Depuis lors, les progrès réalisés dans le domaine de l’IA sont fulgurants et dans plusieurs cas, préoccupants. Le 19 mai 2025, Alexandre Siroisse demandait dans un article de La Presse si Montréal était encore une plaque tournante de l’IA[1]. Il a notamment soulevé cette question dans le contexte où des investissements majeurs ont été effectués au cours des dernières années en IA par plusieurs pays, citant en exemple la France, l’Allemagne et Singapour. Cette question d’actualité suscite la réflexion : les efforts et les investissements majeurs en recherche et développement (R&D) réalisés au Québec et au Canada se sont-ils effectivement traduits par des avancées commerciales concrètes au bénéfice des entreprises, des institutions et des Canadiens? En d’autres mots, dans le domaine de l’IA, réussissons-nous à passer de la R & D à la commercialisation et à l’industrialisation de produits et services au Canada qui sont avant-gardistes, novateurs ou concurrentiels sur la scène internationale? Le cadre législatif québécois et canadien soutient-il suffisamment les avancées technologiques découlant de nos investissements en IA, tout en mettant en valeur et en optimisant les retombées découlant des efforts de nos talents locaux exceptionnels que l’on retrouve dans nos universités, nos groupes de recherche, nos institutions et nos entreprises? Il est tout aussi important de protéger la vie privée, les renseignements personnels, les données et le public dans le contexte des développements et des utilisations en IA, que de permettre à nos entrepreneurs, à nos start-ups, à nos entreprises bien établies et à nos institutions de se tailler une place avantageuse sur la scène internationale en IA, ce qui pourrait être un facteur décisif entre une société prospère à long terme et une société qui ne suit pas le rythme et perd progressivement ses avantages concurrentiels. Par ailleurs, dans leur livre intitulé The Technological Republic: Hard Power, Soft Belief, and the Future of the West, Alexander C. Karp et Nicholas W. Zamiska[2] abordent divers sujets liés à la technologie, à la gouvernance et à la dynamique entre les puissances mondiales. Ils mettent de l’avant leurs préoccupations concernant les conséquences géopolitiques de la complaisance technologique et critiquent notamment les grandes entreprises de technologie (principalement basées dans la Silicon Valley) pour leur développement de technologies de l’IA axée sur les gains à court terme plutôt que sur l’innovation à long terme. Les auteurs affirment que ces entreprises accordent la priorité à des applications futiles, comme les algorithmes des médias sociaux et les plateformes de commerce électronique, qui détournent l’attention des défis sociétaux essentiels, au lieu de s’harmoniser avec les intérêts humains nationaux ou mondiaux. D’un point de vue juridique canadien, cet enjeu est à la fois fascinant et stimulant. Étant donné l’évolution rapide des relations commerciales internationales, quel rôle central le Canada, et notamment ses entreprises innovantes, ses institutions, ses universités et ses groupes renommés, jouera-t-il dans le façonnement de notre avenir? Peut-il prendre la place qui lui revient et prendre une position de tête dans la marche incessante (et rapide) des progrès en IA? Dans ce contexte, la réglementation de l’IA d’un point de vue national est-elle la voie stratégique et logique à suivre, et si oui de quelle façon et dans quelle mesure? Un excès de réglementation pourrait-il étouffer les entreprises canadiennes et les entrepreneurs, compromettant ainsi nos chances dans la course à l’IA, une course aux enjeux considérables? Le grand patron de Google Deepmind, Demis Hassabis, précisait récemment qu’une meilleure coopération sur la scène internationale serait requise pour réglementer l’IA, bien qu’une telle idée soit difficile à concrétiser en raison du contexte géopolitique actuel[3]. Évidemment, la concurrence sur l’échiquier mondial pour tirer notre épingle du jeu en matière d’IA est vive et, comme dans tous les domaines ou toutes les révolutions industrielles où le potentiel de développement économique et social est prodigieux, le degré de réglementation et d’encadrement peut faire en sorte que certains pays et certaines entreprises prennent les devants (parfois au détriment de l’environnement ou des droits de la personne). La réflexion sur le sujet, aussi nécessaire soit-elle, ne doit pas entraîner l’inaction. Mais, à l’opposé, la proactivité à l’égard de l’intelligence artificielle ne doit pas entraîner pour autant la négligence ou l’insouciance. Nous évoluons dans un monde concurrentiel où les règles d’engagement sont loin d’être universelles. Même lorsque nous sommes animés par les meilleures intentions du monde, nous pouvons involontairement adopter des solutions technologiques qui entrent en conflit avec nos valeurs fondamentales et nos intérêts à long terme. Une fois que ces solutions se sont imposées, il devient difficile de s’en défaire. Récemment, plusieurs applications ont attiré l’attention en raison de leurs pratiques de collecte de données et de leurs liens potentiels avec des entités externes, illustrant la rapidité avec laquelle des plateformes populaires peuvent devenir le sujet de débats nationaux sur les valeurs, la gouvernance et la sécurité. Même lorsqu’il a été démontré que ces plateformes ont des liens avec des entités étrangères ou hostiles, elles sont difficiles à déloger. En mai 2025, après des mois passés à poursuivre un plan de transformation en entreprise à but lucratif, il a été décidé qu’OpenAI, Inc. demeurerait sous le contrôle d’une organisation à but non lucratif[4]. La société, dont le siège social se trouve en Californie, a pour objectif de développer une intelligence artificielle générale (« IAG ») sûre et avantageuse, qu’OpenAI, Inc. définit comme « un ensemble de systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles[5] ». Cette décision découle d’une série de critiques et de recours juridiques accusant l’entreprise de s’être éloignée de sa mission initiale, à savoir le développement de l’IA au profit de l’humanité. Au Canada, le projet de loi C-27, connu sous le nom de Loi de 2022 sur la mise en œuvre de la Charte du numérique, visait à moderniser les lois fédérales sur la protection de la vie privée et à réglementer l’intelligence artificielle. Il comprenait trois volets principaux, dont la Loi sur l’intelligence artificielle et les données (« LIAD »), destinée à réglementer la conception et le déploiement de systèmes d’IA à grand impact. La LIAD[6] aurait exigé des organisations la mise en œuvre de mesures pour cerner, évaluer et atténuer les risques associés à l’IA, dont les dommages et les distorsions éventuels. Elle prévoyait également la création d’un poste de Commissaire à l’IA et aux données, responsable de veiller à l’application de la loi, ainsi que des sanctions pénales en cas d’utilisation abusive des technologies de l’IA. En outre, la LIAD aurait établi des interdictions relatives à la possession ou à l’utilisation de renseignements personnels obtenus illégalement pour concevoir, développer, utiliser ou mettre à disposition un système d’IA, ainsi que des interdictions contre la mise à disposition de systèmes d’IA dont l’utilisation cause un préjudice grave à des particuliers. Or, le projet de loi C-27 est désormais mort au feuilleton et les intentions du gouvernement Carney en matière de réglementation de l’IA demeurent incertaines malgré la création d’un nouveau ministère de l’Intelligence artificielle. Dans l’intervalle, les lois fédérales canadiennes sur la protection de la vie privée et la réglementation sur l’IA demeurent inchangées, perpétuant le statu quo établi en vertu de la LPRPDE  et des autres règles générales de droit civil et de common law, ainsi que de la Charte canadienne des droits et libertés. Ce résultat entraîne des conséquences sur l’harmonisation du Canada avec les normes internationales en matière de protection de la vie privée et sur son approche de la gouvernance de l’IA. Plusieurs parties prenantes ont exprimé leur inquiétude quant au caractère inadéquat des lois existantes pour relever les défis numériques contemporains et aux répercussions éventuelles sur la position mondiale du Canada en matière de protection des données et d’innovation dans le domaine de l’IA . Dans le contexte international actuel, marqué par des confrontations économiques et des confrontations armées, les développements en matière d’intelligence artificielle seront exponentiels dans des domaines tels que l’industrie militaire, la finance, l’aérospatial, les soins de la santé, l’utilisation et l’extraction des ressources naturelles et des métaux rares et, bien sûr, le droit et la justice. Alors, maintenant que nous sommes à la croisée des chemins, quelle direction devons-nous prendre avec l’IA? Nous avons le choix de décider pour nous-mêmes, en orchestrant stratégiquement notre R&D, nos investissements et les efforts de développements de nos entreprises ou de laisser les progrès technologiques, en grande partie réalisés à l’étranger, tracer notre voie. [1] On a posé la question pour vous | Montréal est-il encore une plaque tournante en IA ? | La Presse [2] Karp, A. C., & Zamiska, N. W. (2025). The Technological Republic: Hard Power, Soft Belief, and the Future of the West. [3] Google Deepmind CEO Says Global AI Cooperation 'Difficult' - Barron's [4] OpenAI reverses course and says its nonprofit will continue to control its business | Financial Post [5] The OpenAI Drama: What Is AGI And Why Should You Care? [6] The Artificial Intelligence and Data Act (AIDA) – Companion document  

    Lire la suite
  2. Budget provincial 2025 : Modifications majeures au crédit d’impôt pour le développement des affaires électroniques (CDAE)

    Poursuivant la série de bulletins sur le Budget du Québec 2025 et la fiscalité des entreprises, il sera aujourd’hui question du CDAE. Ce crédit constitue un levier essentiel pour les entreprises spécialisées en technologies de l’information et des communications, leur offrant un soutien fiscal stratégique pour favoriser l’innovation et la compétitivité sur le marché numérique. Il a été conçu pour encourager l’essor des secteurs technologiques au Québec, en fournissant un soutien fiscal aux entreprises actives dans les technologies de l’information et des communications. Avant la réforme introduite par le Budget du Québec 2025, le CDAE offrait un crédit d’impôt remboursable de 24 % combiné à un crédit d’impôt non remboursable de 6 %. Dans le cadre de l’actualisation des priorités économiques, le gouvernement a commencé en 2024 à ajuster les taux du CDA, réduisant graduellement le crédit remboursable à 20 % d’ici 2028, et faisant passer le crédit non remboursable à 10 %. Dans le cadre du budget provincial 2025, de nouvelles modifications ont été annoncées afin que les incitatifs reflètent mieux l’évolution des technologies, notamment en les recentrant sur l’intégration de technologies émergentes récentes, telles que l’intelligence artificielle (IA) et le traitement et l’hébergement de données. Les nouvelles règles stipulent ainsi que seules les activités intégrant de manière significative des fonctionnalités d’intelligence artificielle seront désormais admissibles au CDAE. De plus, le traitement et l’hébergement de données (SCIAN 51821) sont ajoutés aux activités admissibles, reflétant l’importance croissante de ces services dans le paysage technologique moderne. En revanche, les activités visant l’entretien ou l’évolution des systèmes d’information et infrastructures technologiques ont été retirées de la liste des activités admissibles, ce qui a pour effet de recentrer le fonds sur les technologies de pointe. Une attention particulière a été accordée aux entreprises effectuant de l’impartition intercompagnie, principalement avec des filiales de sociétés étrangères. Pour ces entreprises, dans la mesure où la proportion de ces activités atteint 50 % ou plus, les taux de crédit seront réduits de moitié, afin de les inciter à s’engager de manière plus directe dans l’économie locale et l’innovation technologique au Québec. Ces modifications seront applicables aux années d’imposition qui débutent après le 31 décembre 2025. Toutefois, les entreprises ont la possibilité de choisir d’appliquer ces modifications aux années d’imposition débutant après le jour du discours du budget, pourvu que le choix soit effectué avant la fin du neuvième mois suivant la date limite à laquelle elles sont tenues de produire leur déclaration fiscale. Consultez notre premier bulletin sur le budget provincial 2025 : Budget provincial 2025 : Nouveau crédit d’impôt remboursable pour la recherche, l’innovation et la précommercialisation (CRIC)

    Lire la suite
  3. Quatre conseils aux entreprises pour éviter la dépendance et la vulnérabilité à l’Intelligence Artificielle

    Alors que le monde discute des guerres tarifaires touchant divers produits, on néglige parfois les risques pour les technologies de l’information. Pourtant, plusieurs entreprises s’appuient sur l’intelligence artificielle pour la prestation de leurs services. Plus particulièrement, l’usage des grands modèles de langage est intégré dans une foule de technologies, dont ChatGPT a été le porte-étendard. Mais les entreprises doivent-elles se placer en situation de dépendance face à des fournisseurs de services technologiques s’ils sont basés uniquement aux États-Unis? Des solutions de rechange chinoises telles Deepseek font parler d’elles, mais soulèvent des questions sur la sécurité des données et le contrôle de l’information qui y est associé. La professeure Teresa Scassa écrivait déjà, en 2023, que la souveraineté en matière d’intelligence artificielle prend différentes formes, incluant la souveraineté étatique, mais aussi la souveraineté des communautés sur les données et la souveraineté individuelle1. D’autres invoquent déjà l’intelligence artificielle comme un vecteur du recalibrage des intérêts internationaux2. Dans ce contexte, comment les entreprises peuvent-elles se prémunir contre les fluctuations qui pourraient être décidées par des autorités gouvernementales d’un pays ou d’un autre? À notre avis, c’est justement en exerçant une certaine souveraineté à leur échelle que les entreprises peuvent se préparer à de tels changements. Quelques conseils : Comprendre les enjeux de propriété intellectuelle : Les grands modèles de langage sous-jacents à la majorité des technologies d’intelligence artificielle sont parfois offerts sous des licences ouvertes (open source), mais certaines technologies sont diffusées sous des licences commerciales restrictives. Il est important de comprendre les contraintes des licences sous lesquelles ces technologies sont offertes. Dans certains cas, le propriétaire du modèle de langage se réserve le droit de modifier ou restreindre les fonctionnalités de la technologie sans préavis. À l’inverse, des licences ouvertes permissives permettent d’utiliser un modèle de langage sans limite de temps. Par ailleurs, il est stratégique pour une entreprise de garder la propriété intellectuelle sur ses compilations de données qui peuvent être intégrées dans des solutions d’intelligence artificielle. Considérer d’autres options : Dès lors que la technologie est appelée à manipuler des renseignements personnels, une évaluation des facteurs relatifs à la vie privée est requise par la loi avant l’acquisition, le développement ou la refonte technologique[3]. Même dans les cas où cette évaluation n’est pas requise par la loi, il est prudent d’évaluer les risques liés aux choix technologiques. S’il s’agit d’une solution intégrée par un fournisseur, existe-t-il d’autres options? Serait-on en mesure de migrer rapidement vers une de ces options en cas de difficulté? S’il s’agit d’une solution développée sur mesure, est-elle limitée à un seul grand modèle de langage sous-jacent? Favoriser une approche modulaire : Lorsqu’un fournisseur externe est choisi pour fournir le service d’un grand modèle de langage, c’est souvent parce qu’il offre une solution intégrée dans d’autres applications que l’entreprise utilise déjà ou par l’intermédiaire d’une interface de programmation applicative développée sur mesure pour l’entreprise. Il faut se poser la question : en cas de difficulté, comment pourrait-on remplacer ce modèle de langage ou l’application? S’il s’agit d’une solution complètement intégrée par un fournisseur, celui-ci offre-t-il des garanties suffisantes quant à sa capacité de remplacer un modèle de langage qui ne serait plus disponible? S’il s’agit d’une solution sur mesure, est-il possible, dès sa conception, de prévoir la possibilité de remplacer un modèle de langage par un autre? Faire un choix proportionné : Ce ne sont pas toutes les applications qui nécessitent les modèles de langage les plus puissants. Lorsque l’objectif technologique est modéré, plus de possibilités peuvent être considérées, dont des solutions basées sur des serveurs locaux qui utilisent des modèles de langage sous licences ouvertes. En prime, le choix d’un modèle de langage proportionné aux besoins diminue l’empreinte environnementale négative de ces technologies en termes de consommation d’énergie.  Ces différentes approches s’articulent par différentes interventions où les enjeux juridiques doivent être pris en considération de concert avec les contraintes technologiques. La compréhension des licences et des enjeux de propriété intellectuelle, l’évaluation des facteurs relatifs à la vie privée, les clauses de limitation de responsabilité imposées par certains fournisseurs, autant d'aspects qui doivent être considérés en amont. Il s’agit là non seulement de faire preuve de prudence, mais aussi de profiter des occasions qui s’offrent à nos entreprises de se démarquer dans l’innovation technologique et d’exercer un meilleur contrôle sur leur avenir. Scassa, T. (2023). Sovereignty and the governance of artificial intelligence. UCLA L. Rev. Discourse, 71, 214. Xu, W., Wang, S., & Zuo, X. (2025). Whose victory? A perspective on shifts in US-China cross-border data flow rules in the AI era. The Pacific Review, 1-27. Voir notamment la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 3.3.

    Lire la suite
  4. L’intelligence artificielle peut-elle être désignée comme inventeur dans une demande de brevet?

    De plus en plus développée, l’intelligence artificielle (l’« IA ») créée par l’humain serait maintenant à son tour capable de création autonome, ouvrant la porte à une reconceptualisation de la notion d’inventeur en droit des brevets. Dans un arrêt récent, la Cour suprême du Royaume-Uni a toutefois conclu qu’un système d’intelligence artificielle ne peut pas être l’auteur d’une invention au sens de la réglementation applicable en matière d’octroi de brevets. Cette prise de position rejoint celle de plusieurs autres tribunaux à travers le monde s’étant déjà prononcés sur la question. Qu’en est-il au Canada, où les tribunaux ne se sont pas encore penchés sur l’enjeu? Dans ce bulletin, nous revenons sur la décision de la Cour suprême du Royaume-Uni et sur les décisions équivalentes rendues dans d’autres pays pour ensuite explorer la perspective canadienne. “an inventor must be a person” : La Cour suprême du Royaume-Uni se prononce dans Thaler (Appellant) v Comptroller-General of Patents, Designs and Trade Mark 1 Résumé de la décision En 2018, Dr Stephen Thaler dépose des demandes de brevet pour deux inventions décrites comme ayant été générées par un système d’IA autonome. La machine en question, DABUS, est donc désignée dans les demandes comme l’inventeur. Le Dr Thaler prétend qu’en tant que propriétaire de DABUS, il est en droit de déposer une demande de brevet pour les inventions générées par sa machine. Dans de telles circonstances, il ne serait pas tenu de nommer une personne physique comme inventeur. Tant la Haute Cour de justice que la Cour d’appel rejettent son appel de la décision de l’Office de la propriété intellectuelle du Royaume-Uni. Ce dernier avait décidé de ne pas donner suite aux demandes de brevet, notamment en raison de la désignation inadéquate de l’inventeur au sens du Patents Act 1977. La Cour suprême du Royaume-Uni, la dernière instance d’appel du pays, rejette également son recours. Dans une décision unanime, elle conclut que la loi est claire : « an inventor within the meaning of the 1977 Act must be a natural person, and DABUS is not a person at all, let alone a natural person: it is a machine ».2 Il n’est pourtant pas remis en question que DABUS a bel et bien créé les inventions en l’espèce. Cela n’implique pas pour autant que la notion d’inventeur au sens de la loi puisse être élargie par les tribunaux pour inclure les machines. Une tendance qui se maintient La Cour suprême du Royaume-Uni n’est pas la première à ne pas se laisser convaincre par les arguments du Dr Thaler. Tant les États-Unis3 que l’Union européenne4 et l’Australie5 ont adopté des positions similaires et concluent que seul un être humain peut se qualifier d’inventeur au sens de la législation applicable dans leur juridiction respective. La décision anglaise s’inscrit en effet dans une tentative à l’échelle mondiale entreprise par le Artificial Inventor Project de faire reconnaître l’inventivité de la machine DABUS, et par le fait même de l’IA de manière générale, comme capable de générer des droits de brevet au bénéfice des propriétaires de systèmes d’IA. À ce jour, seule l’Afrique du Sud a émis un brevet au Dr Thaler mentionnant DABUS comme inventeur.6 Ce pays se présente ainsi comme l’exception qui confirme la règle. Cependant, le Bureau de l’enregistrement pour des sociétés et de la propriété intellectuelle de l’Afrique du Sud n’examine pas les demandes sur le fond. Aucun motif n’a donc été fourni qui indiquerait que la question de l’IA comme inventeur ait été considérée. Plus récemment, en février dernier, le Bureau américain des brevets et des marques de commerce a publié une directive sur les inventions créées avec l’assistance de l’IA. Celle-ci confirme la position judiciaire et indique notamment que "a natural person must have significantly contributed to each claim in a patent application or patent".7 Qu’en est-il au Canada? En 2020, le Dr Thaler a également déposé une demande de brevet canadien pour les inventions générées par DABUS.8 L’Office de la propriété intellectuelle du Canada (l’« OPIC ») a émis un avis de non-conformité en 2021, établissant ainsi sa position à première vue : Because for this application the inventor is a machine and it does not appear possible for a machine to have rights under Canadian law or to transfer those rights to a human, it does not appear this application is compliant with the Patent Act and Rules.9 Cependant, l’OPIC précise être ouvert à recevoir les arguments du demandeur sur la question : Responsive to the compliance notice, the applicant may attempt to comply by submitting a statement on behalf of the Artificial Intelligence (AI) machine and identify, in said statement, himself as the legal representative of the machine.10 À ce jour, aucun avis d’abandon de la demande n’a été émis par l’OPIC et celle-ci demeure active. Son statut au Canada est donc incertain. Il sera intéressant de voir si, après avoir subi de nombreux échecs dans les autres pays du monde et s’être tout juste fait confirmer l’invalidité de sa demande par la Cour suprême du Royaume-Uni, le Dr Thaler tentera maintenant de convaincre les tribunaux canadiens. A priori, la Loi sur les brevets11 (la « Loi ») ne représente pas un frein à une reconnaissance d’un système d’IA comme inventeur d’une invention brevetable. En effet, la Loi ne définit pas le terme « inventeur ». Qui plus est, il n’y a aucune référence à l’exigence d’une « personne » dans la définition d’un demandeur ni indication en ce sens dans les dispositions régissant la délivrance de brevets. Les Règles sur les brevets12 n’offrent pas non plus de précision. L’exigence qui serait sous-entendue par un emploi clair du terme « personne » par le législateur dans le libellé des articles de la loi est importante : il s’agissait d’une considération clé de l’analyse de la Cour suprême du Royaume-Uni dans Thaler. La jurisprudence demeure également équivoque. Selon la Cour suprême du Canada, il faut se demander « [q]ui est l’auteur de l’idée originale » puisque l’inventeur est celui qui a participé à la conception de l’invention.13 Par comparaison, nous notons toutefois qu’il a été conclu qu’une personne morale ne pouvait être envisagée comme inventeur par opposition à une personne physique.14 Force est de constater que les tribunaux canadiens n’ont jamais eu à trancher la question spécifique de l’IA comme inventeur et qu’en attendant une telle décision judiciaire ou prise de position par le législateur, la question demeurera ouverte. Conclusion Au vu de l’incertitude en droit canadien à savoir si l’IA peut être reconnue comme inventeur, il serait opportun pour les autorités canadiennes de clarifier la question. Comme suggéré par la Cour suprême du Royaume-Uni, la place de l’IA en droit des brevets est un enjeu de société actuel, et il reviendra ultimement au législateur de se prononcer.15 En ce sens, un amendement à la Loi ou l’émission d’une directive par l’OPIC se font toujours attendre. Plus encore, outre la qualification juridique de l’IA comme inventeur, il faudra déterminer si une personne peut autrement se voir accorder des droits sur une invention créée dans les faits par l’IA. En effet, la possibilité pour le propriétaire de l’IA d’être titulaire d’un brevet sur l’invention générée par sa machine était aussi une question soulevée dans Thaler. Encore une fois, contrairement à la loi anglaise,16 notre Loi sur les brevets ne ferme pas la porte à cette éventualité. Notamment, la législation canadienne n’établit pas une liste exhaustive des catégories de personnes pouvant obtenir un brevet. S’il fallait vraiment revoir le système, il serait peut-être plus à propos de permettre la titularité des droits de brevet par le propriétaire de l’IA plutôt que de reconnaître l’IA comme inventeur. En effet, le système de propriété intellectuelle trouve sa justification première dans le fait de favoriser l’innovation et la créativité. Une négociation implicite sous-tend l’octroi de droits de brevet : une forte protection est accordée en échange d’une divulgation suffisante pour permettre à une personne versée dans l’art de reproduire l’invention. On s’assure ainsi d’une contribution à la société tout en récompensant l’inventeur. Il est évidemment plus difficile de soutenir qu’une machine nécessite un tel incitatif. Désigner l’IA comme inventeur et lui octroyer des droits en ce sens s’accorde donc mal avec la raison d’être d’une protection par brevet. En revanche, son propriétaire pourrait être justifié de réclamer une telle protection pour les inventions créées par sa machine, ayant investi temps et énergie dans la conception de l’IA. Dans l’état actuel du droit, une intervention du législateur serait vraisemblablement nécessaire. Est-ce qu’une telle proposition permettrait de favoriser l’innovation dans le domaine de l’IA générative? Cela dit, nous investissons collectivement énormément de ressources « humaines » pour le développement de solutions d’IA de plus en plus performantes. Arrivera-t-il un moment où nous ne pourrons plus considérer que des ressources humaines ont été investies pour les technologies créées par l’IA? Dans un tel cas, favoriser les propriétaires de solutions d’IA pourrait devenir contre-productif. Quoi qu’il en soit, une position prudente consiste pour le moment à insister sur l’apport humain à l’invention créée avec l’aide de l’IA, de façon à mettre de l’avant une personne comme inventeur plutôt que l’IA. Quant aux inventions conçues entièrement par un système d’IA, une protection par les secrets d’affaires serait davantage à envisager. Les professionnels de notre équipe de propriété intellectuelle sont à votre disposition pour vous accompagner dans vos démarches d’enregistrement de brevets et démystifier ces enjeux avec vous. [2023] UKSC 49 [Thaler]. Ibid au para 56. Voir la décision de la Cour d’appel des États-Unis pour le circuit fédéral dans Thaler v Vidal, 43 F. 4th 1207 (2022) (requête pour appel à la Cour suprême des États-Unis rejetée). Voir la décision de la Chambre de recours juridique de l’Office européen des brevets dans J 0008/20 (Designation of inventor/DABUS) (2021) (demande de renvoi des questions à la Grande Chambre de recours rejetée). Voir la décision de la Full Court de la Cour fédérale d’Australie dans Commissioner of Patents v Thaler, [2022] FCAFC 62 (requête pour appel à la Haute Cour d’Australie rejetée). ZA 2021/03242. Federal Register: Inventorship Guidance for AI-Assisted Inventions. CA 3,137,161. Lettre du bureau datée du 11 février 2022 dans le cadre de la demande de brevet canadien 3137161. ibid. LRC 1985, c P-4. DORS/2019-251. Apotex Inc. c. Wellcome Foundation Ltd., 2002 CSC 77 aux paras 96-97. Sarnoff Corp. c. Canada (Procureur général), 2008 CF 712 au para 9. Thaler, aux paras 48-49, 79. Ibid au para 79.

    Lire la suite