Ce procédé de régulation a priori des contenus n’est pas totalement nouveau. Avant même l’irruption des IA génératives, des plateformes comme Facebook utilisaient déjà des "agents intelligents" pour détecter et filtrer automatiquement certains types de contenus problématiques, tels que les discours haineux, les images violentes ou les spams. Ces systèmes reposent sur des algorithmes capables d’analyser le texte, les images et même les métadonnées pour identifier des signaux suspects.
Récemment, l’intégration des IA avancées (comme les LLMs) a permis d’améliorer ces mécanismes. Par exemple, ces IA peuvent mieux comprendre le contexte d’un message ou détecter des sous-entendus toxiques. Cependant, leur déploiement reste prudent, car une application trop visible risquerait d’être perçue comme une forme de censure pure et simple, ce qui pourrait nuire à l’image de la plateforme.
Toutefois, généraliser ce type de régulation a priori à l’échelle mondiale pose de nombreux problèmes. D’une part, il serait techniquement difficile de modérer efficacement des milliards de messages quotidiennement sans commettre d’erreurs massives. D’autre part, cela pourrait constituer une atteinte disproportionnée à la liberté d’expression. Une approche plus équilibrée consisterait peut-être à renforcer les mécanismes de modération a posteriori tout en investissant dans des technologies capables de limiter rapidement la diffusion de contenus manifestement illégaux.