Lourde tâche pour l'Institut canadien de la sécurité de l'intelligence artificielle
Temps de lecture :
5 minutes
Par La Presse Canadienne, 2024
MONTRÉAL — Le Canada tentera d’élever une muraille de sécurité autour de l’intelligence artificielle (IA) dont la technologie continue de se raffiner à grande vitesse, élargissant ainsi non seulement son potentiel bénéfique, mais aussi les risques et dangers qu’elle présente pour la société.
Le ministre fédéral de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, a procédé au lancement, mardi à Montréal, de l’Institut canadien de la sécurité de l’intelligence artificielle (ICSIA), qui avait été promis dans le dernier budget de son gouvernement.
«C'est rare dans une vie qu'on ait la chance d'être témoin, de contribuer à une avancée pour protéger l'humanité», a-t-il lancé, dans les bureaux de Mila, l’Institut québécois d’intelligence artificielle, aux côtés de son fondateur, le professeur Yoshua Bengio.
«Déjà rendus quelque part d'inquiétant»
L’Institut bénéficiera d’un budget de 50 millions $ sur cinq ans et regroupera des chercheurs de haut niveau qui se pencheront sur les manières d’installer des garde-fous autour de cette technologie qui présente déjà des problèmes, a expliqué le professeur Bengio. «Il y a déjà de la désinformation. L'enjeu, c'est que l'intelligence artificielle pourrait mettre à l'échelle des outils d'influence, de persuasion. On le voit déjà avec les hypertrucages (deep fakes).»
Des expériences avec des outils d’IA, a-t-il dit, ont démontré «que la machine est capable d'influencer mieux que l'humain. Nous sommes déjà rendus quelque part d'inquiétant et il faut s'en occuper». Aussi, a-t-il fait valoir, «nous voulons nous assurer que l'IA ne soit pas utilisée de manière dangereuse par des régimes autoritaires et que ça ne nous explose pas au visage».
L’Institut canadien vient rejoindre deux autres organismes du genre, l’un aux États-Unis, l’autre au Royaume-Uni, et l’annonce de sa mise sur pied survient à la veille d’un sommet international sur la sécurité de l’intelligence artificielle, qui se tiendra les 20 et 21 novembre à San Francisco, aux États-Unis.
Craintes dans l'entreprise
«Le Canada prend les devants pour s'assurer que nous aurons une technologie qui sera au service de l'humanité, qui aura un bon nombre de règles et d'encadrements», a déclaré M. Champagne.
Le Canada traîne un peu de la patte dans l’intégration de l’intelligence artificielle dans divers secteurs économiques et les craintes qu’elle suscite ne sont pas étrangères à ce retard, a fait valoir le président et chef de la direction de l’Institut canadien de recherche avancée (CIFAR), Stephen Toope. «Plusieurs dirigeants d'entreprises nous ont dit que, pour se sentir confiants d'adopter l'IA, ils ont besoin d'assurances en ce qui a trait à la sécurité, un environnement réglementaire solide.» CIFAR sera responsable du volet recherche de l’Institut.
«Si on veut passer de la peur à l'opportunité, il faut bâtir la confiance», a fait valoir le ministre Champagne. Et les répercussions de cette confiance se feront sentir dans des aspects de plus en plus nombreux de la vie de tous les jours des Canadiens, ce qu’il a ainsi illustré: «On ne se préoccupe pas si l'intelligence artificielle vous aide à choisir la meilleure pizza que vous voulez un jeudi soir avec votre famille, mais on se préoccupe de l'intelligence artificielle qui va décider si vous avez un prêt ou si par exemple vous allez avoir une police d'assurance ou à la rigueur si on va vous offrir un emploi, parce que c'est là qu'il peut y avoir des dérives et c'est ça qu'on veut prévenir.»
Travailler en amont
Yoshua Bengio reconnaît que la tâche sera ardue. «Il faut travailler avec les compagnies (d'IA) pour évaluer ces risques et mitiger ces risques. Je pense aux problèmes d'alignement – comment on s'assure que l'IA se comporte de manière qui corresponde à nos intentions, à nos lois – et de contrôle, pour qu'elle agisse dans le sens de ce qu'on veut, par exemple dans le contexte de la cybersécurité et de la désinformation.»
L’expert estime qu’il y a des pistes d’intervention d’abord directement à l’étape de fabrication des systèmes d'IA. «Si le système d'IA est fabriqué avec des garde-fous qui l'empêchent de produire du contenu dangereux pour la démocratie, toxique (il donne l’exemple de la pornographie juvénile), il y a des choses qu'on peut faire techniquement en amont.» Il faudrait ainsi que les concepteurs de ces systèmes rendent plus difficile à utiliser «pour les pays qui veulent s'en servir contre nous. C'est un enjeu important de sécurité, c'est un enjeu de design de ces systèmes», avance-t-il.
Les plateformes déresponsabilisées
Une autre part du problème ne repose pas entre les mains des concepteurs de ces systèmes, mais entre celles des géants du web qui laissent tout passer, déplore M. Bengio. «Il faudrait que les plateformes aient une responsabilité. Aujourd'hui elles sont un peu dans une zone grise. (…) C'est tellement facile de créer un compte sur une de ces plateformes et de le faire de manière anonyme. C'est clair que c'est une porte ouverte à des groupes qui veulent déstabiliser nos démocraties.»
Une partie de la solution, avance-t-il, pourrait très bien se trouver du côté de l’IA elle-même. «Côté technologique, il y a des chercheurs qui essaient de voir comment on pourrait utiliser l'IA pour détecter que du contenu est faux ou trompeur ou viole certaines normes.»
Un autre des problèmes présentés par l’IA est son usage de contenus protégés par les droits d’auteur. Des outils d’IA comme ChatGPT sont entraînés avec, par exemple, la lecture de journaux, d’ouvrages de toutes sortes. Cette question est sur toutes les lèvres à l’international, reconnaît Yoshua Bengio. «Il y a des procès en cours. Ce n'est pas une question facile. On va espérer que ça converge aussi rapidement que possible de manière qui à la fois permette l'innovation et protège ceux qui créent du contenu.»
Et au Canada? Le ministre Champagne ne s’avance qu’avec la plus grande prudence sur cette question. «Il y a souvent, dans ces modèles-là, de la propriété intellectuelle qui est utilisée et à ce moment-là, la question c'est: comment rémunère-t-on ceux qui ont les droits sur cette propriété intellectuelle? L'intelligence artificielle est soumise au droit d'auteur. C'est une nouvelle technologie, mais ça n'enlève pas les principes de base qui ont toujours existé. On est en train de faire une consultation publique au Canada justement pour traiter de cet enjeu», explique M. Champagne.
Pierre Saint-Arnaud, La Presse Canadienne