L’intelligence artificielle, un nouvel outil au service de l’astroturfing ?

Le lien entre l’Intelligence artificielle et l’astroturfing

Si l’intelligence artificielle, définie comme « un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies » [1]est devenue un terme courant grâce à des outils comme les assistants personnels intelligents ou Chat GPT, son fonctionnement et ses impacts sur nos sociétés restent largement méconnus du grand public.

Bien que l’intelligence artificielle se manifeste à travers les moteurs de recherche, les systèmes de recommandations ou encore les outils de génération d’images tels que « Thispersondoesn’t exist », son influence ne s’arrête pas là. Elle constitue également un puissant levier pour façonner l’opinion publique, que ce soit à des fins politiques ou économiques, dans le cadre de l’« astroturfing ». Ce terme, évoqué pour la première fois en 1986 par le sénateur démocrate du Texas Lloyd Bentsen, décrit une fausse mobilisation citoyenne. Le sénateur avait alors été confronté à une campagne de relations publiques orchestrée par une entreprise, simulant un soutien populaire pour faire pression contre une législation qui lui était à l’époque défavorable. Le choix du terme « astroturfing » fait référence à une marque de gazon synthétique, « Astro Turf », imitant les terrains en gazon véritable [2], par opposition à la mobilisation véritable et citoyenne dite « grassroot ».

Depuis lors, une pluralité de chercheurs et de journalistes a exploré ce concept, parmi lesquels John Stauber et Sheldon Rampton, qui ont proposé, en 1995, la définition suivante : « un programme de base qui consiste en la fabrication instantanée d’un soutien public pour un point de vue, dans lequel soit des militants mal informés sont recrutés, soit des moyens de tromperie sont utilisés pour les mobiliser » [3]. Plus récemment, l’auteur francophone Sophie Boulay, définit le concept comme « une stratégie de communication dont la source réelle est occultée et qui prétend à tort être d’origine citoyenne ». Ainsi, tout simplement, l’astroturfing est une pratique de manipulation visant à créer l’illusion d’un soutien populaire ou d’un mouvement spontané pour servir des intérêts particuliers.

De nombreux cas d’astroturfing ont été relevés à Bruxelles, comme celui de « Friends of Glass », un groupe de pression pro-verre qui a émergé en réponse à la montée de l’industrie du plastique. Bien que ce groupe se soit présenté comme une organisation citoyenne, il était en réalité soutenu par des entreprises du secteur du verre. Son objectif était de promouvoir le verre comme une alternative écologique, en réponse aux préoccupations environnementales croissantes. Pour ce faire, « Friends of Glass » s’est allié à des entreprises, des ONG et des consommateurs afin de défendre ses intérêts et de verdir l’image de son activité, tout en minimisant le coût environnemental de la fabrication du verre[4].

Si la notion d’astroturfing n’a pas attendu l’émergence de l’intelligence artificielle pour se développer, il est évident que l’intelligence artificielle s’imposera de plus en plus comme un outil indispensable à cette pratique et, par conséquent, à l’influence de l’opinion publique. Un phénomène que rappelle l’historien français de la propagande David Colon : « Le plus souvent, l’astroturfing implique la création massive par des algorithmes de faux comptes (bots) sur les réseaux sociaux ou l’usurpation de comptes existants. Ces programmes informatiques générant automatiquement du contenu sont très présents sur Twitter, où ils influencent les tendances »[5].

– En politique, notamment dans nos sociétés occidentales où les élus tirent leur légitimité du vote et donc du choix populaire, de nombreuses pratiques d’astroturfing ont été utilisées, notamment à travers la création et la gestion de communautés artificielles sur les réseaux sociaux. Pour exemple, lors des élections présidentielles françaises de 2022, de nombreux doutes ont été émis concernant les relais d’opinion autour d’Éric Zemmour sur les réseaux sociaux. Plusieurs pratiques de « cyber-astroturfing » ont été recensées pour « amplifier la parole » d’Éric Zemmour, comme l’a souligné David Chavalaris,  directeur de recherche au CNRS. Face à ces soupçons, le responsable numérique de la campagne, Samuel Lafont, a répondu : « On fait tout à la main, on n’a pas besoin de robots. »

– Naturellement, comme le démontre le cas de « Friends of Glass », le secteur privé trouve aussi un intérêt dans l’astroturfing, surtout dans un contexte où la responsabilité sociale et environnementale (RSE) devient un véritable outil stratégique pour les organisations qui doivent produire de la valeur pour l’ensemble de la société, appelée communément valeur étendue. Un enjeu d’autant majeur, lorsque l’on sait par exemple que les revenus influencés par les avis en ligne des consommateurs ne représentent pas moins de 23 milliards de livres, rien qu’au Royaume-Uni . Néanmoins remarquons que certaines pratiques, telles que la création de faux avis en ligne, sont interdites en France, comme le rappelle la Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes (DGCCRF).

Le cas pro-Brexit

Au regard de ces éléments, nous pouvons légitimement nous poser la question des conséquences réelles des campagnes d’astroturfing s’appuyant sur l’intelligence artificielle. Bien que peu de cas aient pu être analysés en profondeur, en raison de la complexité méthodologique, certaines campagnes ont fait couler beaucoup d’encre. Parmi elles, le cas de la campagne pro-Brexit de 2016, sur laquelle les chercheurs anglo-saxons Marco Bastos et Dan Mercea ont découvert, à l’issue d’une étude, l’existence de 13 500 faux comptes rien que sur Twitter, ayant milité au sujet du référendum de 2016 . Loin de notre idée de défendre la thèse selon laquelle le « cyber-astroturfing » alimenté par l’IA aurait été une variable prépondérante dans le résultat du référendum, il faut toutefois constater que les milliers de comptes Twitter analysés par les chercheurs anglo-saxons ont agi de manière coordonnée pour amplifier artificiellement la part des arguments en faveur du « Vote Leave », c’est-à-dire augmenter la visibilité du contenu : Une « fausse amplification » orchestrée par des comptes factices .
Cette stratégie d’influence de l’opinion publique, alliant dimension quantitative (action de masse) et qualitative (utilisation des données permettant un meilleur ciblage), permet d’acquérir une position intéressante dans le « share of voice », comme l’illustre l’étude de l’Indiana University, parue en 2018, sur le rôle disproportionné des bots dans la diffusion des fausses informations lors des élections présidentielles américaines .
Face à ce constat, il convient de connaître l’impact conatif de ces campagnes de manipulation numérique. À ce sujet, le professeur de sociologie au Médialab de Sciences Po, Jean-Philippe Cointet, rappelle que les réseaux sociaux peuvent influencer le comportement des citoyens. Néanmoins, cette influence semble relativement modeste, et les études sur le lien entre réseaux sociaux et comportements électoraux restent rares. Notre article ne prétend donc pas prouver l’existence de ce lien, mais souligne du moins l’intérêt des organisations pour le « cyber-astroturfing ».

Un risque majeur pour la confiance

Naturellement, ces pratiques soulèvent une question éthique pour nos diverses organisations (entreprises, ONG, etc.), qui prennent un risque majeur de rompre la confiance que les citoyens leur accordent. Or, la confiance est l’essence même de nos organisations[1].

« Sans la confiance, il ne peut y avoir de relation stable et durable » (Gurviez, P. et Korchia, M., 2002).

Les sciences de gestion, accompagnées notamment par la psychologie sociale (Rempel, J.K et Holmes, J.G et Zanna, M.P. 1985)[2], se sont intéressées depuis plusieurs décennies à la notion de confiance qui revêt un intérêt fondamental dans les relations sociales mais aussi d’échange (M. Morgan, R., et D. Hunt, S., 1994)[3]. Les apports des différentes recherches en science de gestion concluent sur la nécessité de construire et de maintenir la confiance, qu’elle soit d’ordre interpersonnelle, institutionnelle ou encore interorganisationnelle, conformément à la typologie établie par Zucker en 1986[4]. D’une manière générale, les sciences de gestion abordent la confiance autour de trois variables constitutives : la crédibilité, la bienveillance et l’intégrité.

Ainsi, nous comprenons ici que l’usage de l’astroturfing, facilité par les nouvelles technologies, peut rapidement nuire à la confiance du citoyen ou du consommateur en remettant en cause :

  • La crédibilité, avec l’instrumentalisation d’une fausse opinion publique qui défend l’organisation et ce qu’elle promeut.
  • L’intégrité, avec la rupture des principes éthiques et l’automatisation des vecteurs d’information.
  • La bienveillance, par le non-respect des cibles (citoyens, consommateurs…).
 
 

Reste à savoir comment évolueront les capacités des citoyens à distinguer l’opinion publique authentique (déjà difficilement détectable par eux-mêmes) et celle générée par des techniques d’astroturfing, ce qui passera nécessairement par la réduction de l’asymétrie de l’information (partage d’information, éducation numérique…).

Nicolas Martinez , Analyste de la Commission Médias & Affaires Publiques de l’INASP, en partenariat avec Politique Médiatique

[1] CNIL, 2022.

[2] Sophie Boulay, « Exploration du phénomène d’astroturfing : une stratégie de communication usurpant l’identité citoyenne dans l’espace public », Revue internationale de communication sociale et publique / 2012.

[3] Stauber, John, et Sheldon Rampton. (1995). Toxic Sludge is Good for You : Lies, Damn Lies and the Public Relations Industry. Maine : Common Courage Press.

[4] Laurens, S. (2015) . Astroturfs et ONG de consommateurs téléguidées à Bruxelles. Quand le business se crée une légitimité « par en bas » Critique internationale, N° 67(2), 83-99. https://doi.org/10.3917/crii.067.0083

[5] Colon, 2019

[6] Bollinger, S., Neukam, M. et Guittard, C. (2023) . Vers une responsabilité sociétale de l’entreprise (RSE) stratégique Une contrainte stimulant l’innovation. Innovations, N° 72(3), 65-102.

[7] Leiser, Mark. (2016). AstroTurfing, ‘CyberTurfing’ and other online persuasion campaigns.

[8] Bastos, M et Mercea,D (2017), The Brexit Botnet and User-Generated Hyperpartisan News. Social science computer reviews.

[9] Murthy, D., & Dawsonera. (2013). Twitter: Social communication in the Twitter age. Cambridge, MA: Polity

[10] Weedon, J., Nuland, W., & Stamos, A. (2017). Information operations and Facebook. Facebook: Facebook Security

[11] Shao, C., Ciampaglia, G.L., Varol, O. et al. (2018). The spread of low-credibility content by social bots. Nat Commun 9, 4787.

[12] Yvon, P (2020). La confiance comme essence de l’organisation. Doctorat. France. ffhalshs02563030f

[13] Rempel, J. K., Holmes, J. G., & Zanna, M. P. (1985). Trust in Close Relationships.

Journal of Personality and Social Psychology, 49, 95-112.

[14] Robert, M. et Shelby, D. Hunt (1994). The commitment-trust Theory of relationship

marketing. Journal of marketing, Sage Publications.

[15] ZUCKER, L. G. (1986). Production of trust : institutional sources of economic structure, (1840- 1920). In STAW B. M. et CUMMINGS L. L. (dir.), Research in Organizational Behavior, 8, 53-111.confiance: approche économique et sociologiques, Gaëtan Morin Europe, Boucherville (Québec).

© 2025 INASP