Actualités

Réseaux sociaux : les vidéos live sont ingérables

Publicité

Comment garder un certain contrôle sur les vidéos live publiées sur les réseaux sociaux ? C’est la question qui fait débat depuis que le terroriste de Christchurch a diffusé en direct les images de son crime. Les géants des plate-formes sociales comptent tellement d’utilisateurs qu’il est impossible, même avec le coup de pouce de l’intelligence artificielle, de tout scruter. La solution ? Il n’y a pas beaucoup d’options au-delà de la responsabilisation civique. 

Roukaya Kasenally
Roukaya Kasenally

Comment modérer un réseau social qui compte deux milliards d’utilisateurs mensuels publiant chaque jour des millions de vidéos ? C’est le dilemme auquel Facebook doit faire face depuis les attentats de Christchurch en Nouvelle-Zélande. La plate-forme dit avoir bloqué à la source 80% des vidéos publiées de la fusillade, mais les 20% restant représentent tout de même 300 000 vidéos. Alors comment réagir face aux nouveaux problèmes que soulèvent les vidéos live ?

« La difficulté, la question qu’on se pose, touche aux personnes qui ont relayé la vidéo », estime Christina Chan Meetoo, chargée de cours en journalisme et médias à l’Université de Maurice, « les médias et les tabloïdes ont relayé la vidéo telle quelle sans même un avertissement dans certains cas. » Selon elle, c’est surtout cela qui a permis de multiplier la diffusion de la vidéo après le live initial. La responsabilité mal assumée des grands médias a joué un rôle clé.

La question relève de l’éthique, mais aussi de l’éducation. « On aura toujours des gens sans jugeote qui vont transmettre en se laissant emporter par le côté excitant du live », ajoute la chargée de cours, « mais les grands médias sont supposés avoir des normes professionnelles. Ce type avait un manifeste, il voulait une audience et on le sert sur un plateau. »

Roukaya Kasenally, également chargée de cours dans le domaine des médias, met aussi l’accent sur la responsabilisation : « Internet a permis un élargissement extraordinaire de l’espace démocratique. Nous sommes dans un système tellement ouvert, où tout est accessible, qu’il faut impérativement avoir des filtres. Le premier filtre est celui de la personne, comme citoyen responsable. » Le pouvoir que met la technologie entre les mains du citoyen doit aussi s’accompagner d’un exercice responsable de ce pouvoir. 

Ibrahim Khoodoruth
Ibrahim Khoodoruth

L’universitaire estime que si on passe beaucoup de temps à parler de droits, on n’en passe pas assez à discuter des responsabilités qui les accompagnent. « Il y a ce besoin de mettre l’accent sur les obligations et responsabilités de tout un chacun ; que ce soit le citoyen lambda, les opinion makers, quelqu’un qui se sert des outils d’information et de communication. » Peut-être, suggère-t-elle, qu’il est temps de faire l’éducation des citoyens sur les limites à ne pas franchir ?

Qu’en est-il de la question de réglementation ? « Le problème, c’est que l’idée d’un Internet contrôlé fausse complètement le principe d’un espace démocratique libre, estime Roukaya Kasenally, et puis il y a la question de qui va gérer ? Le gouvernement ? Une agence indépendance ? Certains estiment que si on commençait à contrôler le web, ce serait le début de la fin. »

Le sociologue Ibrahim Khoodoruth estime toutefois qu’il serait mal avisé d’approcher le problème de manière parcellaire. « C’est plus une question de civisme, explique-t-il, on ne peut pas donner un petit cours sur tous les problèmes qu’on a, mais il faut une éducation pour la vie. Le citoyen doit être capable de discerner où commencent ses droits et où se situent ses limites. »

Mais l’universitaire estime aussi qu’avec la technologie, il est possible de mieux contrôler la publication des vidéos live, si on le veut vraiment. « Il faut un système similaire aux radios, avec un léger décalage, explique Ibrahim Khoodoruth, avec la technologie, rien n’est impossible, c’est une question de volonté. » Ces progrès technologiques devraient également être accompagnés d’un cadre légal qui puisse dissuader tout potentiel contrevenant.

Peu de solutions au-delà de la modération

Il n’existe pas encore de technologie assez avancée pour détecter les vidéos live de scènes de violence automatiquement. C’est ce qu’assure Loganaden Velvindron, membre de Cyberstorm.mu, une équipe spécialisée dans la programmation et la sécurité informatiques. Tout le système de prévention dépend des utilisateurs. 

« Normalement, quand il y a un live, Facebook ne sait pas vraiment d’où provient le contenu, déclare Loganaden Velvindron, ils dépendent du feedback des utilisateurs et des plaintes pour commencer à enquêter. »

Qu’est-ce qui empêche d’utiliser la technologie pour automatiser le processus ? « Pour le moment, du point de vue technique, ils n’ont pas la capacité de calcul pour générer ce genre de résultats en quelques secondes, explique Loganaden Velvindron, c’est assez normal. »

Noor Soormally, informaticien et directeur de Whitefield Business School, estime également qu’il faut mieux modérer le contenu publié. « Il faut une équipe qui travaille sur le contenu publié, explique-t-il, si votre groupe médiatique autorise des gens à publier des commentaires sur votre site, par exemple, vous devez employer une équipe qui travaille sur la modération et s’assurer que personne ne viole les provisions de l’ICT Act. »

Sauf que FaceBook emploie déjà 15 000 contractuels pour la modération. Le volume est simplement trop important pour tout scruter rapidement. « Une autre solution serait de différer de quelques secondes les transmissions, comme c’est le cas avec les radios chez nous, suggère Noor Soormally, un léger différé pour analyser le contenu pourrait être une option. » Selon ce dernier, il est temps pour FaceBook de revoir son mode d’autorisation pour la publication de vidéos. 

Sur le long terme, ce dernier est persuadé qu’il est possible de développer la technologie nécessaire pour automatiser le processus. « Toute chose, quand on vient de la développer, a ses limites, explique-t-il, si on investit le temps et les ressources nécessaires pour minimiser l’impact de telles vidéos, il peut y avoir des progrès. »

La section 46 de l’ICT Act en option

Ashok Radhakissoon
Ashok Radhakissoon

Si la législation mauricienne ne fait pas mention spécifique des vidéos live, l’arsenal légal comprend cependant des arguments qui peuvent être utilisés contre la diffusion de telles vidéos si leur contenu est inapproprié. C’est l’opinion exprimée par deux hommes de loi qui connaissent sur le bout des doigts l’Information and Communication Technologies (ICT) Act.

Ashok Radhakissoon, ancien directeur de l’Information and Communication Technologies Authority (ICTA), explique : « Si on croit que le contenu de ces vidéos, live ou autre, peut être offensant, discriminant, ou nuisible à la cohésion sociale… dans ce cas-là, en la diffusant, on on crée un autre problème. » 

Qu’en est-il d’une personne qui se diffuserait en direct en train de commettre un acte de violence ? « Ce serait un délit sous l’article 46 de l’ICT Act, notamment sous la nouvelle version qui dit que si une personne est distressed par une vidéo ou quoique ce soit partagé par des moyens électroniques, elle peut avoir recours aux autorités. » 

L’article 46 de l’ICT Act dresse la liste des délits sous cette loi et a été amendé en 2018 pour élargir son champ. Il faut toutefois qu’une personne se sentant lésée porte plainte contre le diffuseur du contenu concerné. 

Un avis que partage également l’homme de loi, Neil Pillay. « Il n’y a pas de cadre spécifique concernant la diffusion des vidéos live, explique ce dernier, mais on peut se prévaloir de l’article 46 de l’ICT Act. » Sous cette section, il peut y avoir un délit et, précise l’avocat, « si demain je suis agacé que vous m’ayez envoyé cette vidéo, je peux faire une déposition à la police. » Une infraction peut valoir une peine d’emprisonnement d’un maximum de 10 ans et d’une amende maximale de Rs 1 million.

En dehors de ce cadre spécifique, toutefois, Ashok Radhakissoon ne pense pas qu’il soit même possible d’encadrer ou de réglementer la diffusion de vidéos live. « Même si les médias ne diffusent pas, les internautes peuvent le faire librement, explique ce dernier, aucune loi n’empêche de diffuser un élément, sauf si une loi mauricienne est violée. »

Neil Pillay
Neil Pillay

La seule option serait la censure. « Ce serait extraordinaire, avec une vision assez négative de notre pays en tant que démocratie, poursuit l’homme de loi, les informations qui choquent, insultent, discriminent, ont toujours existé et nous avons déjà des lois qui punissent ces actes. » Il peut bien y avoir des images terribles à voir, mais qui ne sont pas non plus des fake news. Impossible d’empêcher la diffusion de telles images sans censure, argue-t-il. 

Neil Pillay estime qu’il faut faire très attention quand on aborde la question d’une possible régulation de la diffusion de vidéos live. « N’oublions pas quelque chose : en général, les choses faites dans le monde sont faites de bonne foi. FaceBook Live a son utilité et a, notamment permis de diffuser en direct des cas de brutalité policière par exemple », avance-t-il. L’autre versant, c’est que la technologie peut être utilisée à mauvais escient. 

« En théorie, on pourrait l’empêcher avec des cadres légaux, convient Neil Pillay, on pourrait contraindre les plate-formes comme FaceBook à arrêter d’offrir le service en les rendant responsables de tout ce qui est publié sur leur plate-forme. Mais il faut bien se poser la question avant : do the good things outweigh the bad ? »


Christchurch : 1.200.000 vidéos bloquées

FaceBook a publié les détails sur le nombre de personnes qui ont visionné et partagé la vidéo de Christchurch. On peut en tirer quelques conclusions. D’abord, que la vidéo initiale n’a eu qu’un impact limité avant de voir sa diffusion multipliée dans les 24 heures qui ont suivi. Ensuite, que Facebook dépend beaucoup de ses utilisateurs pour détecter des vidéos de ce genre le plus rapidement possible. Les responsables de FaceBook ont également avoué avoir eu du mal à enlever toutes les variantes de la vidéo originale par la suite.

  • 200 : le nombre de fois où la vidéo a été visionnée lors de sa diffusion en direct. Aucun utilisateur n’a rapporté la vidéo. 
  • 4 000 : le nombre de fois où la vidéo a été visionnée avant que Facebook ne l’enlève.
  • 29 : le nombre de minutes passées avant que la vidéo ne soit signalée par un internaute, soit 12 minutes après la fin de sa diffusion en direct.
  • 1 500 000 : le nombre de vidéos de l’attaque que FaceBook a enlevées de sa plate-forme durant les 24 premières heures. Plus de 1 200 000 de ces vidéos ont été bloquées au moment où elles étaient uploadées et n’ont donc pas été diffusées..

Pourquoi les réseaux sociaux ont du mal à y mettre de l’ordre

Réseaux sociaux

Un article publié par le Wall Street Journal (WSJ), le samedi 16 mars dernier, explique pourquoi les réseaux sociaux tels FaceBook sont incapables de bloquer la publication de vidéos live comme celle du terroriste de Christchurch en Nouvelle-Zélande. Malgré l’intelligence artificielle, il est compliqué d’identifier rapidement des scènes de violence réelle.

La vidéo de l’attentat de Christchurch dure 17 minutes. 17 minutes durant lesquelles toute la violence de l’acte a été diffusée au monde entier. Le WSJ cite une porte-parole de FaceBook qui explique que c’est après que la vidéo ait été rapportée par la police de Nouvelle-Zélande qu’elle a été effacée de son réseau, ainsi que de sa filiale Instagram. Youtube a également dû enlever des milliers de vidéos liées à l’incident.
Selon le WSJ, Facebook, Instagram et Youtube ont investi massivement dans des systèmes d’intelligence artificielle pour détecter des scènes de violences, ainsi que dans des modérateurs humains pour passer en revue les contenus rapportés par d’autres utilisateurs. Le hic : le volume d’utilisateurs et de vidéos publiées est bien trop important. « The difficulty in evaluating which videos cross the line, has created a minefield for the companies », souligne l’article.

Facebook explique dans l’article qu’elle retient les services de plus de 15 000 contractuels et employés pour la modération des contenus. Un personnel qui fait partie d’un département de 30 000 personnes dédié à la sécurité. Les employés comptent des « graphic violence specialists » qui ont pour tâche de décider si des images violentes ont une valeur sociale, sont des « news value » ou servent plus à terroriser. 
Depuis l’incident de Christchurch, Facebook a mis sur pied un filtre pour détecter des vidéos similaires en utilisant l’intelligence artificielle (IA). Facebook prévient également d’autres sites quand elle détecte des liens vers la vidéo publiés ailleurs. 

L’article cite toutefois des experts en technologie qui estiment qu’il n’existe pas de moyen fiable de détecter des scènes de violence sur les plate-formes qui permettent le live streaming. « Computers also struggle to distinguish real violence from fictional films », explique l’article. Un spécialiste de l’IA, cité dans l’article, explique que « There’s a perception that AI can do everything and detect everything, but it’s a matter of how much room do you leave to produce false alerts ».

 

Notre service WhatsApp. Vous êtes témoins d`un événement d`actualité ou d`une scène insolite? Envoyez-nous vos photos ou vidéos sur le 5 259 82 00 !