Sarah El Haïry : « Confronter des enfants à des systèmes de captivité algorithmique, c’est aussi de la prédation »
Dans un entretien accordé au Monde, la Haute-commissaire à l'Enfance et vice-présidente du MoDem, Sarah El Haïry, détaille sa vision des actions à entreprendre contre les risques visant les plus jeunes utilisateurs des réseaux sociaux et annonce des actions contre Chatiw, un site permettant des discussions anonymes.
Etes-vous dans un moment d’intensification des actions en justice contre les sites de discussions anonymes ?
On a conscience de la multiplicité de tels sites, qui sont des vrais foyers pédocriminels. Dès qu’on en ferme un, il y en a souvent dix qui se créent. On l’a vu sur Coco, on l’a vu sur Bounty… Mais, pour nous, au Haut-Commissariat à l’enfance, la règle est simple : quand on reçoit une alerte sur un site, on vérifie si les mécanismes de protection sont suffisants pour éviter qu’un mineur ne soit confronté à des prédateurs ou à des sollicitations sexuelles.
La loi a été renforcée [loi du 21 mai 2024 portant sur la régulation de l’espace numérique, dite « loi SREN » pour « sécuriser et réguler l’espace numérique »] : s’il y a des contenus à caractère sexuel, il y a normalement une vérification d’âge en place. Et c’est d’autant plus important quand il y a le risque qu’un mineur se fasse aborder par un majeur, et des risques de pédocriminalité.
Si l’on constate une absence de vérification de l’âge, d’inscription préalable ou des comportements problématiques, je saisis systématiquement Pharos et l’Arcom, parce qu’ils ont la capacité de lancer les procédures nécessaires et, souvent, de faire cesser les horreurs en place. La justice, avec les moyens de police, fait ensuite le travail nécessaire d’enquête, et de recueil d’éléments de preuve.
Nombre d’affaires pédocriminelles se passent aussi, en partie, sur les réseaux sociaux et messageries traditionnels, notamment Telegram. Ces services proposent-ils un cadre suffisamment protecteur pour les mineurs ?
Le temps est venu de poser une régulation encore plus ferme, claire et ambitieuse.
C’est ce qui est en cours avec le G7 et le président de la République. Le cadre européen, sur ces sujets, est absolument essentiel et conduira, je l’espère, au renforcement de DSA [le règlement européen sur les services numériques, adopté le 19 octobre, pour lutter contre la diffusion des contenus manipulateurs] et de l’IA Act [le règlement européen sur l’intelligence artificielle].
En France, la loi imposant la vérification de l’âge pour limiter les réseaux sociaux aux moins de 15 ans mettra en place un premier bouclier.
Mais je pense aussi qu’il faudra aller un brin plus loin et, à un moment, se poser la question de la responsabilité pénale des dirigeants de ces plateformes.
Parce que les choix d’architecture numérique, tels que le type de contenus proposés, la viralité, la monétisation, le modèle comportemental, la formule algorithmique… sont aussi des décisions actives. Elles conduisent les plus jeunes à des comportements addictifs, à de l’emprise, ou à de l’enfermement dans des bulles algorithmiques. Ce qu’il se passe aux Etats-Unis, avec les procès menés contre Meta et YouTube, le prouve.
Face aux accusations d’addiction ou de mal-être adolescent, Meta et Google pointent d’autres responsables, comme les constructeurs de smartphones, ou les familles. Comment appréhendez-vous ces arguments ?
C’est trop simple de dire cela. Tout le monde doit prendre sa part. La question doit se poser pour tous les services numériques : est-ce que les enfants y sont en sécurité ? On pourrait penser à des réseaux sociaux plus adaptés, où un mineur ne peut pas accepter d’invitation à une discussion ou un suivi sans la supervision, ou la double validation, des parents.
On sait aussi que le cerveau d’un enfant ou d’un adolescent n’a pas terminé sa construction. Il est trop jeune pour utiliser un certain nombre de services conçus pour des cerveaux de 25 ans.
Je serais favorable à ce que l’on établisse des dizaines de critères que l’on pourrait facilement vérifier, et qui permettraient aux parents de comprendre quels sont les degrés de risque, ou d’adaptation, pour chaque service utilisé par leurs enfants. Les mécanismes de contrôle parental des écrans ou des applications restent trop complexes.
YouTube Kids est un exemple de service « safe by design ». Les contenus y sont filtrés, certains mots bannis, la modération est accrue, le scroll ou la consommation limitée… Il faut assumer de mieux réguler les dark patterns (« interfaces trompeuses »), il faut arrêter avec le scrolling infini. Un enfant de 8 ans, 9 ans, 10 ans, qui se retrouve confronté à des organisations de systèmes de captivité algorithmique, j’appelle ça aussi de la prédation.
(...)
Parmi les nouveaux risques figurent les « nudifiers », ces applications à base d’IA [intelligence artificielle] qui sont utilisées pour dénuder des personnes, dont des mineurs, sans leur consentement. Quelles actions entreprenez-vous face à ces logiciels ?
Mon enjeu premier, devant ces outils IA, a été la prévention. D’un coup, il devient facile pour un ado avec une appli de s’amuser à dénuder quelqu’un comme si c’était un acte comme un autre. Sauf que les pédopsychiatres qui accompagnent des enfants victimes de harcèlement après la diffusion de ce genre d’images doivent gérer des situations de trauma.
J’avais saisi la Commission européenne sur Grok. Au-delà de l’enquête européenne, il s’agissait de dire, fortement, que les images d’IA diffusées par Grok [avec des mineurs ainsi déshabillés] tombaient sous le coup de la loi en France. L’Irlande, de même que l’Ofcom, le régulateur britannique, ont aussi ouvert leurs propres enquêtes.
C’est un combat mondial qui doit être mené.
Lire l'entretien dans Le Monde.