Bourse Lavery IA

Vue d’ensemble

Qu’est-ce que la Bourse Lavery IA ?

Destinée aux entreprises en démarrage dans le domaine de l’intelligence artificielle (IA), la Bourse est octroyée annuellement, par la Fondation Montréal inc. et Lavery à l’entreprise en démarrage s’étant le plus démarquée dans le secteur de l’intelligence artificielle et démontrant un fort potentiel de croissance.

Quel est le montant de la Bourse Lavery IA ? 

D’un montant de 15 000 $, la bourse donnera en plus accès à du coaching juridique de Lavery adapté aux besoins des jeunes entreprises dans le secteur de l’intelligence artificielle, dont notamment en matière de propriété intellectuelle, protection des renseignements personnels et en financement d’entreprise. Les lauréats auront également accès à l’ensemble des services offerts par la Fondation Montréal inc.

Pourquoi la Bourse Lavery IA a-t-elle été créée ?  

Lavery a créé, au printemps 2017, le laboratoire juridique L³IA en IA, qui a pour objectif d’analyser et de prévoir les impacts de l’IA sur certains domaines du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires. 
 
« Par la création de cette bourse, nous voulons résolument propulser les start-ups évoluant dans ce secteur d’activité et les accompagner au niveau juridique à l’aide des connaissances que nous avons développées avec notre laboratoire », a affirmé Guillaume Lavoie, associé responsable du groupe Lavery CAPITAL.
 
Pour sa part, la Fondation a déclaré par la voix de sa directrice générale Liette Lamonde « Les jeunes entrepreneurs intègrent de plus en plus l’intelligence artificielle au cœur de leur modèle d’affaires. Nous sommes heureux de pouvoir leur offrir, en plus de la bourse, des services spécifiques à cette industrie, renforçant ainsi le rôle de super-connecteur de la Fondation Montréal inc. auprès de la communauté d’affaires »

Suis-je admissible ? 

Les critères d’admissibilité outre, le fait d’œuvrer dans le secteur de l’intelligence artificielle, sont les mêmes que ceux de la Bourse+ de la Fondation Montréal inc. Pour en savoir plus cliquez ici.

Comment puis-je postuler pour la Bourse Lavery IA ? 

Les candidats à la Bourse Lavery IA doivent déposer une demande via le site de la Fondation Montréal inc.  Les dates de dépôt de dossier, le processus de sélection ainsi que les documents à remplir sont les mêmes que ceux énoncés à la page Bourse+. Pour en savoir plus cliquez ici.
  1. La définition juridique de l’intelligence artificielle évolue : différents pays, différentes approches

    Alors que notre société commence à apprivoiser l’intelligence artificielle, les législateurs de plusieurs territoires sont confrontés aux inquiétudes de la population ainsi qu’à la volonté de tirer profit de ces technologies pour le bien public. La réflexion est bien entamée dans plusieurs pays, mais avec des résultats variables. Le Commissariat à la protection de la vie privée du Canada consulte présentement des experts afin de formuler des recommandations au Parlement. On vise par cette démarche à déterminer si des règles particulières relatives à la vie privée doivent s’appliquer lorsque l’intelligence artificielle est en cause. Notamment, le Canada devrait-il adopter un régime s’approchant du régime européen (RGPD)? De plus, on y soulève la possibilité d’adopter des mesures similaires à ce que propose le projet d’Algorithmic Accountability Act de 2019 présenté au Congrès américain, qui donnerait à la Federal Trade Commission des États-Unis le pouvoir de contraindre les entreprises à évaluer les risques liés à la discrimination et à la sécurité des données des systèmes d’intelligence artificielle. La Commissions d’accès à l’information du Québec procède actuellement à des consultations sur le même sujet. L’approche américaine semble aussi vouloir favoriser le positionnement commercial de ce pays dans le domaine de l’intelligence artificielle. Le National Institute of Standards and Technology (NIST) a publié le 9 août 2019 une ébauche de plan d’action gouvernemental, en réponse à un ordre exécutif du président américain. Cette ébauche, U.S. LEADERSHIP IN AI : A Plan for Federal Engagement in Developing Technical Standards and Related Tools1, préconise notamment la mise au point de nouvelles technologies robustes pour augmenter la fiabilité des solutions incorporant l’intelligence artificielle, ainsi que le développement de normes standardisées pour ces technologies. En parallèle, le service de recherche du Congrès a publié le 21 novembre 2019 une mise à jour de son mémoire intitulé Artificial Intelligence and National Security2. Ce document présente une réflexion sur les applications militaires de l’intelligence artificielle, notamment sur le fait que divers dispositifs de combat puissent mener des attaques létales de manière autonome. On y réfléchit aussi sur les moyens de contrer les « deep fake », notamment par la mise au point de technologies pour débusquer ce qui pourrait devenir un moyen de désinformation. On mise donc sur le progrès technologique pour déjouer la technologie utilisée à mauvais escient. En Europe, à la suite de consultations achevées en mai 2019, un groupe d’experts sur la responsabilité et les nouvelles technologies a produit un rapport à l’intention de la Commission Européenne, intitulé Liability for Artificial Intelligence3, qui présente une réflexion sur les régimes de responsabilité applicables à de telles technologies.  Le groupe souligne que sauf pour les questions de renseignements personnels (RGPD) et celles concernant les véhicules automobiles, les régimes de responsabilité des états membres ne sont pas harmonisés en Europe. Le groupe d’experts recommande notamment d’harmoniser les régimes de responsabilité. Selon eux, des risques comparables devraient être encadrés par des régimes de responsabilité similaires4. Plus tôt, en janvier 2019, le Comité consultatif de la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du Conseil de l’Europe, avait émis des Lignes directrices sur l’intelligence artificielle et la protection des données5, offrant notamment des  recommandations aux législateurs, mais aussi aux développeurs, fabricants et prestataires de services qui utilisent de telles technologies afin de se conformer aux conventions en matière de droits de l’homme. Mais à travers ces différences d’approche, une question fondamentale subsiste : si des règles particulières doivent être adoptées, à quelles technologies doit-on les appliquer? Il s’agit là d’une des questions fondamentales posée par le Commissariat à la protection de la vie privée au Canada. En d’autres termes, qu’est-ce que l’intelligence artificielle? L’expression n’est pas clairement définie d’un point de vue technologique. Elle représente un vaste ensemble de technologies ayant des caractéristiques et des modes de fonctionnement diversifiés. C’est donc la première question à laquelle devront s’attaquer les législateurs s’ils souhaitent mettre au point un cadre juridique spécifique aux technologies d’intelligence artificielle. Le document du groupe d’experts européen cité ci-dessus nous donne quelques pistes de réflexion qui nous semblent pertinentes. Selon eux, on doit prendre en considération les facteurs suivants pour la qualification de la technologie : sa complexité; son aspect opaque; son ouverture à l’interaction avec d’autres solutions technologiques; son degré d’autonomie; la prévisibilité des résultats; le fait qu’elle se fonde sur des quantités importantes de données, et sa vulnérabilité aux attaques et risques informatiques. Ces facteurs contribuent à cerner les risques inhérents aux différentes technologies, au cas par cas. De manière générale, il nous semble préférable de ne pas adopter un ensemble de critères rigides devant s’appliquer à toutes les technologies. Nous suggérons plutôt de cerner les objectifs législatifs en fonction de caractéristiques pouvant se retrouver dans plusieurs technologies. On peut par exemple penser qu’une technologie d’apprentissage profond peut parfois utiliser des renseignements personnels, et parfois ne requérir aucun tel renseignement ou très peu. Une telle technologie peut dans certains cas prendre des décisions de manière autonome, alors que parfois, elle ne sera qu’un soutien à la décision. Enfin, si certaines technologies permettent une certaine transparence, d’autres demeureront plus opaques, et ce parfois en raison des contraintes de nature technologiques ou commerciales. Pour les développeurs, il importe également de qualifier correctement la solution envisagée afin de mesurer les risques afférents à son exploitation commerciale. Plus précisément, il peut être important de réfléchir avec des juristes de différents horizons pour s’assurer que la solution proposée n’est pas complètement incompatible avec les lois présentement applicables dans les différents territoires où elles seront déployées, mais aussi avec les lois qui pourraient être adoptées à court terme dans ces territoires.   https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_fedengagement_plan_9aug2019.pdf https://fas.org/sgp/crs/natsec/R45178.pdf https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 Idem, p. 36. https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-et-la-protection-de/168091ff40

    Lire la suite