Source: The Conversation – in French – By Joel Scanlan, Senior Lecturer in Cybersecurity and Privacy, University of Tasmania
La sécurité des utilisateurs doit être intégrée à la conception des plates-formes numériques. Elle n’est pas forcément complexe ou coûteuse, contrairement à ce que prétendent les entreprises numériques. Une expérience, menée sur la plateforme pornographique Pornhub, montre qu’un simple message adressé aux internautes cherchant des images pédopornographiques est fort dissuasif.
Le mot d’ordre officieux de l’industrie tech pendant deux décennies était « Move fast and break things », qu’on pourrait traduire par « aller vite quitte à tout casser ». Une philosophie qui a brisé bien plus que les seuls monopoles des taxis ou le modèle d’affaires des chaînes hôtelières. Elle a aussi façonné un monde numérique rempli de risques pour les plus vulnérables.
Pour la seule année fiscale 2024-2025, l’Australian Centre to Counter Child Exploitation a reçu près de 83 000 signalements de contenus d’exploitation sexuelle d’enfants en ligne (CSAM), principalement sur des plateformes grand public – une hausse de 41 % par rapport à l’année précédente.
En Australie, avec l’entrée en vigueur cette semaine de l’interdiction d’utiliser les réseaux sociaux pour les moins de 16 ans, ainsi que la mise en place de la vérification de l’âge pour les utilisateurs connectés aux moteurs de recherche le 27 décembre et pour les contenus réservés aux adultes le 9 mars 2026, nous atteignons un moment charnière – mais il faut bien comprendre ce que cette régulation permet et ce qu’elle laisse de côté. (Note du traducteur : En France, la loi du 7 juillet 2023 fixe à 15 ans l’âge minimal pour l’inscription et l’utilisation des réseaux sociaux).
L’interdiction empêchera une partie des enfants d’accéder aux plateformes (s’ils ne la contournent pas), mais elle ne corrige en rien l’architecture toxique qui les attend lorsqu’ils y reviendront. Elle ne s’attaque pas non plus aux comportements nocifs de certains adultes. Nous avons besoin d’un changement réel vers un devoir de vigilance numérique, qui obligerait légalement les plateformes à anticiper les risques et à les atténuer.
Le besoin de penser la sécurité dès la conception
Aujourd’hui, la sécurité en ligne repose souvent sur une approche dite « whack-a-mole », une référence à ce jeu d’arcade qui consiste à donner des coups de maillet sur la tête de taupes émergeant aléatoirement de quelques trous. De fait, les plateformes attendent que les utilisateurs signalent des contenus nocifs, puis les modérateurs les retirent. C’est une méthode réactive, lente, et souvent traumatisante pour les modérateurs humains qui y participent.
Pour remédier réellement au problème, il faut intégrer la sécurité dès la conception. Ce principe impose que les dispositifs de protection soient inscrits au cœur même de l’architecture de la plateforme. Il dépasse la simple restriction d’accès pour interroger les raisons pour lesquelles la plateforme permet, à l’origine, l’existence de mécanismes menant à des usages nocifs.
On en voit déjà les prémices lorsque des plateformes marquées par des précédents problématiques ajoutent de nouvelles fonctions – comme les « connexions de confiance » sur Roblox, qui limitent les interactions dans le jeu aux personnes que l’enfant connaît aussi dans la vie réelle. Cette fonction aurait dû être intégrée dès le départ.
Au CSAM Deterrence Centre, dirigé par Jesuit Social Service en partenariat avec l’Université de Tasmanie, nos travaux contredisent le discours récurrent de l’industrie selon lequel assurer la sécurité serait « trop difficile » ou « trop coûteux ».
En réalité, nous avons constaté que des interventions simples et bien conçues peuvent perturber des comportements nocifs sans nuire à l’expérience des autres utilisateurs.
Perturber les comportements dangereux
L’une de nos découvertes les plus marquantes provient d’un partenariat avec l’un des plus grands sites pour adultes au monde, Pornhub. Lors de la première intervention de dissuasion évaluée publiquement, lorsqu’un utilisateur cherchait des mots-clés liés aux abus sur mineurs, il ne se retrouvait pas face à un écran vide. Un message d’avertissement s’affichait et un chatbot l’orientait vers une aide thérapeutique.
Nous avons observé une baisse des recherches de contenus illégaux, et plus de 80 % des utilisateurs confrontés à cette intervention n’ont pas tenté de rechercher ces contenus à nouveau sur Pornhub durant la même session.
Ces données, cohérentes avec les résultats de trois essais contrôlés randomisés que nous avons menés auprès d’hommes australiens âgés de 18 à 40 ans, démontrent l’efficacité des messages d’avertissement.
Elles confirment également un autre constat : le programme Stop It Now (Australie) de Jesuit Social Service, qui propose des services thérapeutiques aux personnes préoccupées par leurs sentiments envers les enfants, a enregistré une forte augmentation des recommandations web après que le message d’avertissement affiché par Google dans les résultats de recherche liés aux contenus d’abus sur mineurs ait été amélioré plus tôt cette année.
En interrompant le parcours de l’utilisateur par un message clair de dissuasion, on peut empêcher qu’une pensée nocive se transforme en acte dangereux. C’est de la « safety by design » (« sécurité dès la conception »), utilisant l’interface même de la plateforme pour protéger la communauté.
Rendre les plateformes responsables
C’est pourquoi il est crucial d’inclure un devoir de vigilance numérique dans la législation australienne sur la sécurité en ligne, engagement pris par le gouvernement plus tôt cette année.
Plutôt que de laisser les utilisateurs naviguer à leurs risques et périls, les plateformes en ligne seraient légalement tenues de repérer et de réduire les risques qu’ils créent, qu’il s’agisse d’algorithmes suggérant des contenus nocifs ou de fonctions de recherche permettant d’accéder à du matériel illégal.
Parmi les mesures possibles, figurent la détection automatique de comportements de grooming (repérer les personnes cherchant à exploiter des enfants), le blocage du partage d’images et de vidéos d’abus déjà connus ainsi que des liens vers les sites qui les hébergent, et la suppression proactive des voies permettant d’atteindre les personnes vulnérables – par exemple empêcher que des enfants en ligne puissent interagir avec des adultes qu’ils ne connaissent pas.
Comme le montre notre recherche, les messages de dissuasion jouent également un rôle : afficher des avertissements clairs lorsque les utilisateurs recherchent des termes dangereux est très efficace. Les entreprises technologiques devraient collaborer avec des chercheurs et des organisations à but non lucratif pour tester ce qui fonctionne, en partageant les données plutôt qu’en les dissimulant.
L’ère du « aller vite quitte à tout casser » est révolue. Il faut un changement culturel qui fasse de la sécurité en ligne une caractéristique essentielle, et non un simple ajout optionnel. La technologie pour rendre ces plateformes plus sûres existe déjà, et les données montrent qu’intégrer la sécurité dès la conception peut porter ses fruits. Il ne manque plus qu’une réelle volonté de le faire.
![]()
Joel Scanlan est le co-responsable académique du CSAM Deterrence Centre, un partenariat entre l’Université de Tasmanie et Jesuit Social Services, qui gèrent Stop It Now (Australie), un service thérapeutique offrant un soutien aux personnes préoccupées par leurs propres sentiments, ou ceux de quelqu’un d’autre, envers les enfants. Joel Scanlan a reçu des financements de l’Australian Research Council, de l’Australian Institute of Criminology, du eSafety Commissioner, de la Lucy Faithfull Foundation et de l’Internet Watch Foundation.
– ref. Sur Pornhub, un simple message suffit à dissuader les utilisateurs cherchant des vidéos pedopornographiques – https://theconversation.com/sur-pornhub-un-simple-message-suffit-a-dissuader-les-utilisateurs-cherchant-des-videos-pedopornographiques-271771
