Réalisatrice à CBC/Radio-Canada, Chloé Sondervorst est l’une des plus fines observatrices des technologies émergentes, en particulier pour ce qui concerne les réseaux sociaux et l’intelligence artificielle (IA). Son compte TikTok est d’ailleurs une véritable mine d’information pour se garder à jour en la matière. Sinon, son regard équilibré, entre l’enthousiasme et la critique posée, nous permet de mieux réfléchir aux implications de ces outils dans nos vies, mais aussi, de manière plus large, dans la société.
Entrevue : David Desjardins, cofondateur de la flèche /Photo : Julie Artacho
Chloé, avec chaque nouvelle avancée technologique, on gagne généralement une chose et on en perd une autre. Dans le domaine de la créativité, qu’est-ce qu’on gagne et qu’est-ce qu’on perd avec les IA génératives, de ton point de vue?
Ça dépend de qui on parle. Les enjeux ne sont pas les mêmes pour un·e professionnel·le établi·e et quelqu’un qui fait ses premiers pas dans le domaine créatif. Par exemple, un·e professionnel·le connaît l’industrie, ses codes, et à partir de là, peut se demander : «Quelle portion de mon travail suis-je prêt·e à déléguer?» Si je crée un visuel, mais que j’ai besoin de changer le format, plutôt que de retourner dans mon logiciel de design, je pourrais utiliser une IA qui me ferait gagner du temps.
Quelqu’un qui veut faire ses premiers pas peut avoir un gain de temps au début, mais aura moins l’occasion d’expérimenter, de se casser les dents… et peut-être même que les opportunités d’apprentissage dans les postes de stagiaire en entreprise vont disparaître parce que les tâches de ces postes auront été déléguées à un outil (IA).
Il y a beaucoup de nuances à préciser quand on parle des gains et des pertes, selon l’endroit où on se situe dans cet écosystème de la création.
Pour faire écho à ce que tu évoques, j’ai parlé à des gens dans le milieu du droit qui s’inquiètent aussi que les jeunes avocat·es utilisent l’IA pour trouver des cas de jurisprudence utiles aux litiges sur lesquels ils et elles travaillent, parce que ça les empêche de faire des découvertes fortuites, d’apprendre en faisant de la recherche et de gagner un bagage de connaissances…
Oui, les questions d’apprentissage sont centrales dans tout ça. La technologie peut nous aider à apprendre, mais peut aussi être un obstacle à cause des raccourcis… L’IA est une source, mais ça ne peut pas être la seule. Si on veut créer des choses originales, il faut pouvoir s’inspirer d’une rencontre fortuite, d’une feuille qui vole dans le vent [rires]; il faut multiplier les sources d’inspiration pour développer SON propre truc.
Il y a un paquet d’enjeux éthiques liés aux IA. Le plagiat, le droit d’auteur, le pillage des données personnelles. Est-ce que la population est consciente de tout ça?
Je ne suis pas certaine. D’un côté, je pense que la plupart des gens ont décidé d’opter pour le laisser-faire. Simplement parce que nos vies baignent dans le numérique. D’autre part, on voit une certaine lassitude dans l’usage des réseaux sociaux : les gens partagent moins de photos de famille, de leurs enfants, publient moins en général. On constate un intérêt grandissant pour la messagerie privée. Mais on est tellement traqué·es à chaque action, chaque fois qu’on utilise un GPS, à chaque recherche Web, que finalement, on connaît peu de personnes qui ont une hygiène numérique rigoureuse afin de laisser le moins de traces possible.
Je pense que ça souligne l’importance de la réglementation, comme en Europe où c’est plus musclé qu’en Amérique du Nord. Par exemple, là-bas, tu peux échapper à l’utilisation de tes données pour entraîner l’IA de Meta (le «opt out»). Pas ici.
Tu consacres beaucoup de temps et de contenus aux IA. Pourquoi as-tu décidé de t’y vouer à ce point dans les réseaux sociaux, dans tes projets parallèles à ton travail de réalisatrice?
J’ai étudié en philo et je trouve que l’IA nous ramène à des questions profondes sur le bien commun, sur la définition de l’humanité. Ça nous donne une occasion de réflexion collective qui n’était pas tellement présente, je trouve. On parle beaucoup plus d’éthique depuis quelques mois qu’auparavant, il me semble.
Mon intérêt part d’une soif de comprendre et d’apprendre. Il y a tellement d’applications positives dans tout ça. Je pense par exemple aux personnes en situation d’insécurité linguistique, quand tu vis dans un environnement où la langue dominante n’est pas ta langue maternelle. Là, on a un nouvel outil pour aider pour ça. Autre chose : la synthèse vocale, ça génère de la crainte dans le domaine artistique, mais ça peut aussi changer la vie de personnes qui ont perdu la voix ou vont la perdre.
Ensuite, il y a toutes les applications politiques et militaires qui sont importantes à comprendre. La force de l’IA, c’est de compiler et d’analyser des données pour faire des recoupements. Quand c’est utilisé par des gouvernements à des fins de contrôle, c’est vraiment inquiétant.
Le problème, quand on parle des risques, c’est qu’il y a une surdose médiatique, une fatigue informationnelle. Il faut vraiment garder l’équilibre entre les risques et les bénéfices quand on aborde ce sujet…
Sinon le public n’écoute plus, parce qu’on est saturé·es de mauvaises nouvelles…
Exactement.
Pour terminer, on a récemment vécu quelques expériences intéressantes dans ce domaine. Les chatbots de Google et de Microsoft qui refusent de répondre lorsqu’on leur demande qui a gagné l’élection de 2020 aux États-Unis. La fonction Recall de Microsoft qui a révélé une faille énorme permettant d’en extraire les données. Il y a aussi eu une mégapanne chez OpenAI qui a engendré des pannes en série chez les autres fournisseurs… Est-ce que c’est simplement la conséquence d’une industrie qui bouge trop vite et casse des choses, de peur d’être à la traîne?
La concurrence stratégique et économique motive les entreprises à aller rapidement. Il y a aussi l’idée de rendre les outils publics pour augmenter la quantité de données soumises, ce qui leur permet d’améliorer leurs modèles. Dans un monde idéal, on pourrait penser qu’il serait possible d’établir des paramètres où on consentirait à notre participation à l’amélioration de ces systèmes pour le bien collectif. Mais on s’entend qu’en ce moment, on est plutôt dans une logique extractiviste pour des besoins de concurrence.
Si on adopte une perspective ouverte à l’innovation, mais à l’innovation raisonnée, on pourrait dire qu’on tolère un certain risque, une marge d’erreur, parce que c’est ce qui permet de rendre les outils plus performants. La réalité, c’est qu’on n’a jamais demandé le consentement du public.
Et on a donc l’impression d’être condamné·es à vivre avec les conséquences.