Il est certain que nous sommes souvent avertis de la nécessité de ne pas prendre tout ce que nous trouvons en ligne pour argent comptant. La désinformation est un danger bien connu, et il est très facile de tomber dans ses pièges. Il suffit parfois de lire un article au titre accrocheur et convaincant pour être trompé. Mais avec l'avènement de l'intelligence artificielle, la désinformation a atteint de nouveaux sommets, notamment dans le domaine audiovisuel.
Cela dit, il ne suffit plus de se méfier des articles, mais aussi des vidéos. Les deepfakes, ou hypertrucages, sont fascinants et impressionnants, mais ils représentent également une menace sérieuse. Leur capacité à créer des vidéos qui semblent incroyablement réelles remet en question la distinction entre le réel et le fictif. Par ailleurs, ces manipulations visuelles et auditives sont devenues très présentes sur diverses plateformes médiatiques, alimentant ainsi un climat de méfiance généralisée envers les sources d'information. Leur réalisme extrême a déjà eu des répercussions significatives dans de nombreux domaines de notre vie quotidienne. Un exemple frappant est survenu le 6 octobre 2018, lorsque certaines personnes ont partagé une vidéo sur les réseaux sociaux dans laquelle un ancien président des États-Unis affirmait avoir éradiqué le virus du VIH. Cependant, il s'est avéré que Donald Trump n'avait jamais prononcé ces paroles ni participé à la réalisation de cette vidéo (L’apostrophe, 2019).
L’hypertrucage est un procédé utilisant l’intelligence artificielle (IA) pour produire une image. Avec une base de données comprenant des photos et des vidéos, une IA peut créer une image de toute pièce et la superposer à une vraie photo dans le but de produire une simulation réaliste. D’ailleurs, une compagnie montréalaise nommée montréalaise_Lyrebird utilisa l’hypertrucage en 2018. Cette dernière avait mis en place un logiciel de transformation de la voix qui permettait de prendre la voix de quelqu’un et de la copier sur la bouche de n’importe quel individu afin de lui faire dire ce qu’ils voulaient (L’apostrophe, 2019). Ce procédé est apparu pour la première fois en 2008 au cinéma et est rapidement devenu un moyen par lequel les plateformes médiatiques, ainsi que l’industrie de la pornographie, pouvaient métamorphoser le visage de certains individus comme des actrices. L’hypertrucage est donc souvent mobilisé comme outil menaçant la réputation ou l’image de célébrités et cause de plus en plus de dégâts dans différentes industries. Le terme pornodivulgation ou revenge porn a même été établi pour expliquer ce phénomène qui sert à atteindre ou affaiblir l’image de certains individus.
Le deepfake est un outil qui peut être très utile et qui peut impacter positivement la société, elle témoigne notamment du progrès dans le monde médiatique. Par contre, ce dernier est malheureusement également associé à son utilisation néfaste et manipulatrice. L'utilisation de ce procédé, ayant pour finalité de créer du contenu pornographique, est de plus en plus commun et cible souvent des personnalités féminines de streaming qui ne partagent pas de contenu explicite. Bien que ce contenu soit artificiel et modifie la réalité, les victimes des hypertrucages expriment de l’humiliation et de l’anxiété extrême face à leur image de soi et leur représentation sociale. Une multitude de célébrités ont perdu leur emploi, leurs amis, ou même leur famille, tout simplement en raison d’un deepfake partagé qui semblait réel. Il devient alors clair que les répercussions, qu’elles soient psychologiques ou autres, sont extrêmement grave et ont des répercussions pouvant anéantir une vie. Conséquemment, un individu qui crée des images explicites de quelqu’un d’autre sans leur consentement commet officiellement un acte de violence sexuelle contre cette personne (Decrypt, 2023).
L'essor des deepfakes a également engendré une augmentation significative des cas de fraude, notamment au Québec, où les voix de plusieurs individus sont trafiquées dans le but de commettre des fraudes financières (La Presse, 2023). Cette tendance inquiétante est exacerbée par la diffusion fréquente de vidéos truquées mettant en scène le milliardaire à la tête de Tesla, de SpaceX et de la plateforme sociale X. Son soutien au dogecoin, comme moyen de paiement pour un billet dans l’espace, a piqué l'attention de nombreux individus faisant de lui une cible de choix pour les fraudeurs. En effet, il est facile de trouver une multitude de vidéos de Elon Musk ou il promet des rendements exceptionnels de 30% par jour ou propose des offres absurdes telles que deux bitcoins pour le prix d’un.
Ces hypertrucages ont même entraîné des pertes importantes pour plusieurs individus, et ont même fait huit victimes au Québec depuis l’été dernier (La Presse, 2023). Exprimant leur angoisse face à des pertes atteignant des dizaines de milliers de dollars pour certains; cette situation démontre davantage le danger que représentent les deepfakes, comme l'a souligné Gary Gensler, président de la Commission des valeurs mobilières et des changes des États-Unis, en septembre 2023 (Decrypt, 2023). Ces contrefaçons, créées minutieusement par l'intelligence artificielle, peuvent induire en erreur les investisseurs et les régulateurs, influençant ainsi les marchés financiers. Au-delà de ces implications financières, les deepfakes posent une menace sérieuse pour la sécurité et la confiance dans le monde numérique, incitant les chercheurs en cybersécurité à redoubler d'efforts pour contrer cette menace.
Bref, l'essor des deepfakes représente une menace sérieuse pour la société, créant des risques de fraude, de manipulation et d'atteinte à la réputation. Alors que les conséquences de cette technologie continuent à se multiplier, nous sommes confrontés à une question importante: comment pouvons-nous préserver notre crédibilité dans un monde numérique dominé par les faux-semblants?
Marielle Bucheit
Sources:
Deepfakes : Entre Intelligence Artificielle et désinformation. L’Apostrophe. (n.d.). https://www.apostrophemag.ca/articles/deepfakes-entre-intelligence-artificielle-et-desinformation
Karim Benessaieh, La Presse. (2023, December 13). Fraudes Financières: Le Deepfake Débarque au Québec. La Presse. https://www.lapresse.ca/affaires/techno/2023-12-13/fraudes-financieres/le-deepfake-debarque-au-quebec.php
Reiff, N. (2023, September 18). La Pornographie Deepfake : Le Consentement sur votre image est-il une cause perdue ?. Decrypt. https://decrypt.co/fr/resources/la-pornographie-deepfake-le-consentement-sur-votre-image-est-il-une-cause-perdue