Tiktok voudrait elle redore son blason et éviter les bannissements comme elle a pu subir au Pakistan, où elle a mis en place des mesures de modération de contenus ? Ou du tout moins, peut-être espère elle éviter les ennuis en Europe, par rapport à cette expérience précédente. Afin de protéger la sécurité des enfants, mais aussi la santé mentale des jeunes, elle a décidé de solliciter une aide extérieure pour l’aider en matière de modération de contenu.
La modération de contenu pour éviter la censure
En réalité, Tiktok a du faire face, en janvier dernier, aux revers de la justice Italienne. Cette dernière a ordonnée au réseau social de bloquer les utilisateurs dont l’âge ne peut être vérifié, après la mort d’une jeune fille, qui a été rapportée dans les médias locaux. Cette dernière serait décédée d’asphyxie suite à sa participation à un défi de black-out sur la plate-forme de partage vidéo.
En outre, Tiktok a été la cible de plusieurs plaintes en provenance de différents membres de l’Union Européenne, membres de la protection des consommateurs. Ces derniers ont effet publié, le mois dernier, deux rapports détaillant un certain nombre de violations présumées des règles de protection des consommateurs et de la vie privée de l’Union, y compris des préoccupations spécifiques à la sécurité des enfants.
De son côté, Tiktok se justifie, en mentionnant ses efforts en terme de protection des utilisateurs: «Nous révisons constamment nos conditions et politiques existantes, et innovons pour prendre de nouvelles mesures audacieuses pour donner la priorité à la sécurité.”
Pour se conformer au maximum, elle convoquera donc un collège d’experts en matière de protection des utilisateurs, et de modération de contenu. De par leurs différents parcours, chacun devrait apporter à sa manière sa vision propre sur le sujet. Ils seront donc en mesure de fournir des conseils avisés et pertinents sur la meilleure manière d’innover sur la modération de contenus, pour que Tiktok puisse être utilisée en toute sécurité.
Une démarche similaire il y a un an
Le réseau social n’en est pas à son premier conseil d’experts, concernant la modération de contenus. Il y a deux ans déjà, elle avait effectué une démarche similaire pour le marché Américain, où il est peut de dire qu’elle a connu de nombreuses péripéties. Ce conseil consultatif Américain avait du regarder de près ce que les législateurs Américains attendaient du réseau social.
Autant dire qu’elle n’a pas le droit à l’erreur dans ce pays, où de nombreuses négociations avaient été nécessaires, pour que tiktok puisse continuer à être opérationnel dans ce pays.
Ce continent est particulièrement rentable pour l’entreprise, qui y a réalisé en 2020 pas moins de 500M$ de chiffre d’affaires. Mais, pour ce qui concerne la mise en place du conseil d’experts pour l’Europe, l’accent sera mis principalement sur la sécurité des enfants, la santé mentale des jeunes et la parentalité numérique. De plus, les concepts d’exploitation et abus sexuels d’enfants en ligne; d’extrémisme et de radicalisation; anti-préjugés / discrimination, et crimes de haine seront principalement mis en lumière.
Souligner la responsabilité des sociétés en terme de modération de contenu
Les législateurs Européens veulent également renforcer la notion de responsabilité des sociétés et plateformes spécialisées, en terme de modération de contenu.Une proposition de loi sur les services numériques devrait être votée à ce titre, permettant une mise en place assez rapide. Bien entendu, cette dernière ne s’appliquera pas uniquement à Tiktok, mais aux autres plateformes du même style, comme Instagram, Twitch, Whatsapp par exemple.
A relire: “Infographie: Le nombre de téléchargements mensuels pour les applications mobiles sociales”
Cette loi envisagera les différents types de publics à protéger, mais aussi les différents préjudices que ces derniers peuvent subir, ainsi que les sanctions corollaires. Tiktok pourrait également être contrainte à devoir fournir aux sociologues et chercheurs dans les faits sociaux, à devoir fournir différentes données, pour que les impacts psychiques puissent être mesurés.
Une nouvelle optique sécurisante donc, aussi bien pour les applications sociales, que pour les utilisateurs.
Yvan Dupuy