Paris, 21 jan 2015 (AFP) – Facebook, Twitter et YouTube appliquent encore
majoritairement leurs propres règles pour juger si un contenu est contrevenant
ou violent, mais pourraient se voir contraints par les autorités françaises à
supprimer plus de publications en vertu des nouvelles mesures de lutte contre
le terrorisme.
Le Premier ministre Manuel Valls a annoncé mercredi une « intensification »
du travail avec les acteurs internet, sans plus de précisions. Au cours du
premier semestre 2014, ces grandes plateformes – qui sont régulièrement
l’objet de polémiques sur les limites de la liberté d’expression – n’ont dû
retirer que quelques dizaines de contenus à la demande du gouvernement.
– Twitter:
Le réseau social compte 284 millions d’utilisateurs dans le monde, qui
publient chaque jour plus de 500 millions de tweets et ont tous accès à
l’option « signaler » en bas de chaque message lorsqu’il leur semble illégal ou
incitant à la violence.
Twitter ne pratique pas de modération « a priori » des contenus publiés sur
sa plateforme, mais indique « vérifier tous les signalements de contenus qui
contreviennent » à ses règles internes, qui interdisent par exemple « les
menaces de violence à l’égard d’autrui ». Ses équipes techniques peuvent
ensuite décider de supprimer un contenu s’il contrevient à ces règles.
Parallèlement, les autorités de chaque pays peuvent demander au groupe de
retirer certains contenus frappés d’illégalité par les lois nationales. « Nous
publions ces demandes d’information et de retrait de contenu dans notre
rapport semestriel de transparence », rappelle Twitter, dont le dernier
exemplaire portant sur le premier semestre 2014 faisait état de 36 demandes
d’informations (par exemple l’identité d’un détenteur de compte) et 107
demandes de suppressions de contenus en provenance des autorités françaises.
– YouTube (Google):
La plateforme de diffusion de vidéo (qui appartient à Google) rappelle
qu’elle a « des politiques claires qui interdisent certains types de contenus
comme ceux mettant en avant de la violence gratuite, des discours de haine
et/ou d’incitation à commettre des actes violents, et nous supprimons les
vidéos qui violent ces politiques quand elles nous sont signalées par nos
utilisateurs ».
« Nous bloquons aussi les comptes enregistrés par des membres de groupes
désignés comme +organisations terroristes étrangères+ et utilisés à titre
officiel pour promouvoir leurs intérêts », souligne le groupe.
Le 13 janvier, le patron de Google France, Nick Leeder, avait indiqué que
plusieurs vidéos « illégales » en lien avec les attentats perpétrés contre
Charlie Hebdo et la supérette casher avaient été effacées « le plus rapidement
possible » de YouTube à la demande des autorités françaises.
– Facebook:
« Nous retirons des contenus et, lorsque nécessaire, communiquons avec les
autorités, lorsque nous percevons un risque de blessures ou une menace directe
pour la sécurité du public », explique Facebook dans les « standards » destinés à
sa communauté d’utilisateurs qui peuvent à tout moment « signaler un contenu » à
une équipe active 24h/24.
« En moyenne, un signalement est traité en 72 heures, mais le processus peut
être accéléré en cas de force majeure », indique la plateforme.
« Vous ne devez pas menacer autrui ou organiser des actes de violence. Les
organisations connues pour des activités terroristes ou criminelles ne sont
pas autorisées à utiliser notre site », ajoute le réseau social, qui souligne
également qu’il ne « permet pas l’attaque d’individus ou de groupes sur la base
de leur race, ethnicité, origine nationale, religion, sexe, orientation
sexuelle, handicap ou état de santé ».
Dans son dernier rapport de transparence portant sur le premier semestre
2014, Facebook indiquait avoir reçu de la part des autorités françaises des
demandes d’information concernant 2.599 comptes d’utilisateurs. En outre, « en
vertu des lois locales interdisant le négationnisme », la plateforme indiquait
avoir « limité l’accès » à 22 « éléments de contenu signalés ».