ChatGPT et les autres agents conversationnels auront un impact sur les prochaines élections à Maurice, comme ailleurs dans le monde, préviennent des chercheurs locaux et internationaux.
Publicité
2024 devrait être une année électorale à Maurice. C’est également le cas dans de nombreux pays du monde. Lors des précédentes élections, les réseaux sociaux ont eu un rôle prépondérant. Cela devrait encore être le cas cette année. Mais une nouvelle technologie pourrait bien bouleverser la donne. Il s’agit de l’intelligence artificielle (IA). L’émergence de ChatGPT, et plus récemment de Bard et Copilot, a poussé des chercheurs américains à s’intéresser à l’impact de ces générateurs de contenus sur les élections.
L’IA peut générer de fausses nouvelles (fake news) utilisées pour influencer les électeurs en affectant positivement ou négativement l’image d’un candidat ou d’un parti politique. Elle peut même aller encore plus loin en générant de fausses vidéos (deep fake) ou de fausses bandes sonores mettant en scène des candidats. Là aussi, l’objectif est d’altérer l’image des protagonistes.
Les chercheurs ont constaté que ChatGPT-2, une ancienne version de ChatGPT, est la plus utilisée par les personnes qui cherchent à influencer des élections. La raison est que cette version ne dispose pas des mêmes filtres de sécurité contre les fake news que ChatGPT-3 et ChatGPT-4, les versions les plus récentes et les plus avancées. Il est donc plus aisé de créer de fausses nouvelles avec cet outil. Les chercheurs ont notamment constaté des fausses nouvelles autour des conflits en Ukraine et en Palestine.
À Maurice, une campagne électorale se profile à l’horizon avec la dissolution du Parlement prévue cette année. « Oui, absolument, l’IA aura un impact sur les prochaines élections à Maurice. C’est applicable dans tous les pays, et Maurice n’y échappera pas. Il y aura une utilisation d’agents conversationnels pour créer des deep fakes et des fake news », explique le Dr Heman Mohabeer, expert en IA, dans une déclaration au Dimanche/L’Hebdo.
« Éthiquement, c’est difficile de contrôler l’IA. Cependant, ChatGPT-3 et ChatGPT-4 ont des garde-fous. Ils refusent de créer du contenu inapproprié. Mais ce n’est pas le cas de ChatGPT-2. Le problème, c’est que son code source est public. Donc, même si ChatGPT-2 est supprimé d’Internet, d’autres agents conversationnels ont été développés grâce à son code source », ajoute-t-il.
Le Dr Heman Mohabeer prévient qu’il est de plus en plus difficile de détecter du faux contenu généré par l’IA. « Si on pose une question à ChatGPT, on aura une réponse basique qui peut être reconnue comme générée par de l’IA. Mais si la personne donne beaucoup de contexte à ChatGPT, ce dernier peut créer des contenus plus proches de la réalité et donc difficiles à détecter. De plus, on peut lui donner de nombreux articles écrits par un même journaliste. ChatGPT va ensuite pouvoir imiter fidèlement son style d’écriture », soutient l’expert.
Il est de plus en plus difficile de détecter les deep fakes, poursuit le Dr Heman Mohabeer. « Il est aussi de plus en plus difficile de vérifier les sources d’informations des contenus postés en ligne », soutient l’expert. Pour lui, « le véritable danger n’est pas l’IA en elle-même, mais les personnes avec des compétences dans ce domaine qui auraient de mauvaises intentions. »
De leur côté, les chercheurs américains préconisent une meilleure modération des contenus sur les réseaux sociaux. Ils constatent également que les internautes sont désormais plus méfiants lorsqu’ils consultent des articles et visionnent des vidéos. Selon les chercheurs, cela a des conséquences inattendues. En effet, les internautes doutent de la véracité d’articles et de vidéos authentiques, ce qui nuit tout autant à l’information, notamment dans le cadre des campagnes électorales.
Notre service WhatsApp. Vous êtes témoins d`un événement d`actualité ou d`une scène insolite? Envoyez-nous vos photos ou vidéos sur le 5 259 82 00 !