0% ont trouvé ce document utile (0 vote)
31 vues5 pages

Iste Ingecog24v7n1 8

Cet article explore le lien entre la guerre cognitive et la dépendance technologique, en soulignant comment des technologies comme les smartphones et les réseaux sociaux facilitent cette guerre. Il met en avant la nécessité pour les sociétés démocratiques de questionner les conséquences de cette dépendance sur l'information et la cognition des citoyens. L'article conclut sur l'importance de comprendre ce processus de dépendance pour mieux se défendre contre les campagnes de guerre cognitive.

Transféré par

onomatopeja20000
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
31 vues5 pages

Iste Ingecog24v7n1 8

Cet article explore le lien entre la guerre cognitive et la dépendance technologique, en soulignant comment des technologies comme les smartphones et les réseaux sociaux facilitent cette guerre. Il met en avant la nécessité pour les sociétés démocratiques de questionner les conséquences de cette dépendance sur l'information et la cognition des citoyens. L'article conclut sur l'importance de comprendre ce processus de dépendance pour mieux se défendre contre les campagnes de guerre cognitive.

Transféré par

onomatopeja20000
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Guerre cognitive et dépendance technologique

Cognitive warfare and technological dependence

Julien Cegarra1
1
Université de Toulouse, Institut National Universitaire Champollion, SCoTE EA-7420, Albi, France –
[Link]@[Link]

RÉSUMÉ. Cet article vise à souligner la forte intrication entre guerre cognitive et des développements technologiques (en
premier lieu le smartphone et les réseaux sociaux). Plus précisément, il montre que la dépendance technologique dans
les sphères personnelles et professionnelles permet mais également facilite la guerre cognitive. L’article argumente
ensuite sur la nécessité qui s’impose aux sociétés démocratiques de mieux questionner les conséquences de cette
dépendance technologique.
ABSTRACT. The aim of this article is to highlight the strong interplay between cognitive warfare and recent technological
developments (primarily the smartphone and social media networks). More specifically, it shows that technological
dependence in the personal and professional spheres not only enables but also facilitates cognitive warfare. The article
goes on to argue that democratic societies need to question the consequences of this technological dependence.
MOTS-CLÉS. Guerre cognitive, Guerre de l’information, Technologie, Technologies numériques.
KEYWORDS. Cognitive warfare, Digital technology, Information warfare, Technology.

Introduction

“Les hommes politiques étrangers parlent de l'ingérence de la Russie dans les élections et
les référendums à travers le monde. En fait, le sujet est encore plus grave : la Russie
s'immisce dans vos cerveaux, nous changeons votre conscience et vous ne pouvez rien y
faire.” (Vladislav Surkov) [SUR 19].

Selon certains auteurs, la guerre cognitive est « l‟art d‟utiliser des technologies pour altérer la
cognition de cibles humaines » [CLA 22]. C‟est donc en premier lieu la recherche explicite de la
manipulation des esprits afin d‟influencer le fonctionnement mental puis les actions individuelles ou
collectives. De par sa dénomination, elle pourrait être envisagée à tort comme une préoccupation
uniquement militaire. Or, les populations civiles sont souvent l‟objet même de la guerre cognitive, cela
en raison des objectifs qu‟elle vise. Il peut s‟agir, par exemple, d‟influencer des élections, d‟ébranler la
confiance dans les institutions, de perturber des services publics, de limiter la pensée critique, de
polariser l‟opinion, ou encore de déclencher ou d‟inhiber des actions individuelles [MOR 23]. Pour la
société civile, ces objectifs restent pourtant presque invisibles car les auteurs ne sont pas facilement
identifiables et les actions peuvent se traduire par de « simples » campagnes d‟opinion ou
d‟information sur les réseaux sociaux. Il apparaît alors essentiel de s‟intéresser plus largement à ce
sujet pour mieux le comprendre mais aussi pour mieux s‟en défendre.

La guerre cognitive s‟inscrit dans un développement de multiples technologies dans les sphères
personnelles et professionnelles dont, en premier lieu, le smartphone et les réseaux sociaux. Ces
technologies peuvent apparaître sous leurs apports positifs : elles facilitent les échanges en réduisant
les barrières temporelles, géographiques, langagières ; elles permettent le partage d‟information, de
connaissances, des arts, etc. Cet article vise à présenter comment, en s‟imposant dans notre quotidien,
ces technologies constituent des dépendances qui permettent et facilitent la guerre cognitive. Il se
termine sur la nécessité qui s‟impose aux sociétés démocratiques de mieux questionner cette
dépendance technologique.

© 2024 ISTE OpenScience – Published by ISTE Ltd. London, UK – [Link] Page | 57


1. Dépendance technologique : un moyen pour la guerre cognitive

Sans minorer l‟importance des phénomènes sociaux liés à la dépendance technologique, cet article
se focalise sur l‟expression de cette dépendance au niveau individuel. En effet, acquérir une
technologie et en avoir un usage pérenne s‟inscrit dans une démarche progressive d‟expériences
personnelles. Dans la vaste littérature Human-Computer Interaction (HCI) il est souvent considéré que
l‟emploi d‟une technologie revient à une réflexion ponctuelle, locale voire définitive menant à une
décision individuelle d‟utiliser ou non une technologie. En pratique, l‟adoption d‟une technologie peut
être imposée (par exemple dans le monde professionnel) et se réalise selon un processus progressif,
complexe, où s‟entremêlent de nombreux facteurs qui peuvent évoluer au cours du temps (par
exemple : motivation, utilité, adaptation potentielle de la technologie aux usages). Lors de cette
adoption, plusieurs phases prototypiques peuvent être distinguées, allant d‟une première précédant
même les premiers usages (guidée par des attentes sur la technologie), suivie de celle des premiers
usages (familiarisation), et d‟une dernière qui s‟établie lorsque la technologie est grandement intégrée
à nos activités quotidiennes ou professionnelles (routinisation) [DUF 23].

Il est parfois nécessaire d‟atteindre ce niveau d‟intégration pour que des conséquences négatives
deviennent remarquables. Par exemple, lors des premières interactions avec un téléphone portable,
celui-ci pourrait être envisagé comme un formidable moyen de maintenir des contacts. Mais à l‟usage
plusieurs aspects problématiques peuvent être mentionnés comme, par exemple, l‟illusion que toute
personne devrait être joignable à tout instant. On peut d‟ailleurs noter que l‟instauration d‟un droit à la
déconnection vient souligner la nécessité d‟une négociation de nouvelles normes sociales imposées par
cette technologie. À un niveau sociétal, on désigne par « dilemme de Collingridge » [COL 80] le fait
que les conséquences (négatives) des technologies ne sont pas toutes identifiables avant leur
déploiement. Il implique également que le contrôle social devient plus difficile à exercer une fois que
la technologie est largement intégrée. À un niveau individuel ce dilemme est aussi manifeste lorsque
l‟on constate la dépendance technologique, par exemple, lors d‟une panne de réseau téléphonique. La
guerre cognitive mobilise directement cette dépendance puisqu‟elle s‟appuie sur une omniprésence de
certaines technologies ce qui permet de toucher un grand nombre de cibles très rapidement.
Un journal papier, contrairement à un fil d‟informations sur un réseau social, ne connaît pas d‟un
lecteur sa position GPS, ses contacts, les pages visitées, les contenus appréciés, etc. Ce profilage
inhérent aux outils numériques des réseaux sociaux est une opportunité majeure pour les campagnes de
guerre cognitive. Par exemple, lors de l‟élection présidentielle américaine de 2016, l‟équipe de
Donald Trump s‟est appuyée sur des spots publicitaires Facebook en visant spécifiquement des
électeurs sélectionnés qui ne soutenaient pas directement Trump mais qui présentaient des
« qualités communes » avec les soutiens de Donald Trump [KIM 16]. Ce « micro-ciblage
comportemental » s‟est appuyé sur le logiciel AggregateIQ qui agglomère des données sur des
électeurs pour développer des slogans politiques personnalisés permettant ensuite d‟orienter le vote
vers un candidat particulier. Ce programme informatique a été particulièrement évoqué lors du
scandale Facebook-Cambridge Analytica lorsqu‟il a été rendu public qu‟il a été construit en s‟appuyant
sur des données personnelles irrégulièrement récoltées auprès de 87 millions d‟utilisateurs de
Facebook.
Ainsi, si la guerre cognitive ne nécessite pas fondamentalement de technologies spécifiques, la
dépendance autour de certaines technologies (smartphone, smartwatch, smartdevices, réseaux sociaux)
offre des fonctionnalités et des possibilités qui sont un moyen de sa mise en œuvre.

2. Dépendance technologique : un facilitateur de la guerre cognitive

Force est de constater l‟important développement et l‟usage généralisé de technologies connectées


(téléphonie, montres, automobile…). Leur déploiement conduit de plus en plus à considérer les
conséquences de cette « hyper connectivité », notamment en lien avec un ensemble de phénomènes
dits de « techno-stress ». Il s‟agit par exemple d‟une surcharge technologique (techno-overload) où
© 2024 ISTE OpenScience – Published by ISTE Ltd. London, UK – [Link] Page | 58
l‟utilisateur de ces technologies se retrouve destinataire d‟innombrables contenus (mails, réseaux
sociaux personnels et professionnels…) qu‟il est impossible de traiter en profondeur tout en étant
pourtant confronté à des messages nécessitant un traitement immédiat [TAR 11]. Il s‟agit aussi de
nombreuses technologies produisant des « technoférences », c‟est-à-dire une propension à interrompre
ou perturber les interactions quotidiennes [MCD 15]. Ces « techno-stress » conduisent à une relation
subie à l‟information qui rend difficile le maintien et le développement d‟un esprit critique.
La guerre cognitive peut particulièrement profiter de cette dépendance. Par exemple, dans le cadre
d‟une doctrine des « Trois guerres » [CHA 21], l‟État chinois privilégie une stratégie d‟« orientation
cognitive » visant notamment à diffuser le plus tôt possible une version des faits conforme à leur
position. Du point de vue psychologique cette première version des évènements, même fausse,
marquera davantage les esprits. On peut citer l‟exemple d‟une campagne de guerre cognitive diffusée
en 2016 sur un écran de Times Square à New York touchant potentiellement 350 000 touristes chaque
jour (ibid.). Le clip présentait notamment un témoignage d‟une parlementaire britannique détourné
pour laisser croire à son soutien à la souveraineté chinoise en Mer de Chine du sud. Le visionnage de
ces vidéos sur les réseaux sociaux serait également difficile à remettre en cause sans avoir
connaissance du contexte et de la décision de la Cour permanente d‟arbitrage de La Haye.

Par ailleurs, il existe aussi des dépendances aux technologies plus extrêmes encore. Les
psychologues s‟intéressent tout particulièrement à certains usages problématiques de ces technologies
numériques. Leur approche relève souvent des liens entre des fragilités personnelles et les
comportements addictifs, par exemple les conséquences des usages extrêmes des réseaux sociaux sur la
dépression, l’anxiété, la faible estime de soi, la recherche de sensation, les pensées suicidaires, etc.
Mais il existe, entre ces usages extrêmes et les usages raisonnables, tout un ensemble intermédiaire qui
peut également impacter notre rapport au réel et à l’autre. Par exemple, un phénomène tel que
le phone-snubbing où une personne privilégie la discussion à distance, perçue comme riche, en
maintenant une communication de faible qualité avec une personne en présence [CHO 18]. De même,
en raison des systèmes de recommandations de contenus, des usagers même modérés peuvent se
transformer en des relais très actifs dans la guerre cognitive. Les réseaux sociaux peuvent ainsi
produire des formes d‟« auto-radicalisation », en renvoyant toujours un utilisateur vers du contenu
apprécié et similaire, encourageant l’isolement dans des « bulles épistémiques » confinant chacun des
usagers devenus dépendants dans des sous-réseaux isolés où des avis différents ne peuvent plus être
rencontrés [NGU 20].
Ces éléments soulignent également l‟importance de distinguer la guerre cognitive d‟une campagne
de désinformation. Une information véridique et embarrassante piratée à partir d‟un compte mail d‟une
personnalité, des photos privées d‟un candidat à une élection, ou encore des messages soulignant des
conséquences chargées émotionnellement d‟un évènement spécifique peuvent être des moyens
efficaces pour polariser une opinion publique. L‟ONG Reset a ainsi recensé 242 000 comptes
Facebook créé à partir de février 2021 et relayant de 2022 à 2023 des compagnes russes d‟influence.
La moitié des comptes concernés avait initialement comme seul contenu une photo d‟un plat et une
recette de cuisine en russe. Tous ces comptes ont notamment relayé des messages liés au coût des
crises énergétiques et économiques, ont alerté sur une potentielle troisième guerre mondiale, etc. La
figure 1 illustre des messages diffusés sur les réseaux par ces comptes pour constituer des campagnes
de guerre cognitive et cela simultanément dans plusieurs pays (ici France et Allemagne).

© 2024 ISTE OpenScience – Published by ISTE Ltd. London, UK – [Link] Page | 59


Figure 1. Deux messages postés par de faux comptes et visant à diffuser un message chargé
émotionnellement sur la guerre en Ukraine [WEB 01].

Conclusion

La vitalité d‟une démocratie est foncièrement associée à la manière dont les citoyens ont accès à
l‟information. Or, la guerre cognitive, bien qu‟ayant pour objectif d‟agir sur la cognition, intervient très
directement sur les informations qui circulent entre les individus. Ces individus étant des citoyens. On
soutient dans cet article que la dépendance technologique est un moyen mais aussi un facilitateur de la
guerre cognitive. Il apparaît donc essentiel de mieux comprendre comment s‟élabore ce processus
psychologique de dépendance technologique avant d‟étudier comment se défendre contre les
campagnes de guerre cognitive. Dans une étude sur l‟influence russe pendant les élections aux
« pays baltes », des auteurs ont montré toute l‟importance de préserver la confiance dans les
institutions (dans leur étude, le système électoral) [BAC 19]. Cela peut être réalisé par des messages
qui soulignent les valeurs sociétales fondamentales. Ils mettent également en évidence un aspect
particulièrement important dans ce sujet, celui de « différencier l'ingérence étrangère du discours
légitime et protégé des acteurs politiques à l'intérieur du pays ».

Les enjeux démocratiques doivent aussi poser la question cruciale de la dépendance technologique.
Certains posent ainsi la question du « besoin technologique », en considérant qu‟il pourrait être
possible de distinguer des besoins humains authentiques, naturels, universels et des besoins artificiels,
aliénants [WEB 02]. Plus précisément, ces auteurs proposent de considérer que les besoins
authentiques relèvent du développement de l‟autonomie humaine, de la relation avec les autres et plus
largement de compétences psychologiques. De fait, et conformément au « dilemme de Collingdrige »,
alors que certaines technologies comme les réseaux sociaux semblent initialement satisfaire un besoin
authentique, elles apparaissent s‟en éloigner de plus en plus fréquemment par leurs usages et leur
conception même. Dès lors, si ces technologies ne peuvent s‟inscrire dans la satisfaction de besoins
authentiques, il paraît utile de questionner à la fois la dépendance technologique et ses conséquences
psychologiques.

Présentation de l’auteur

Julien Cegarra est spécialiste en ergonomie cognitive, professeur des universités à l‟Institut National
Universitaire Champollion (INUC), directeur de l‟équipe d‟accueil « Sciences de la Cognition,
Technologie, Ergonomie » (SCOTE - EA-7420) – Albi.
Les propos tenus dans cet article et les thèses qui y sont soutenues sont publiés sous la seule
responsabilité de l‟auteur, et n‟engagent ni son institution d'appartenance, ni la revue qui les publie.

© 2024 ISTE OpenScience – Published by ISTE Ltd. London, UK – [Link] Page | 60


Bibliographie

[BAC 19] BACKES O., SWAB A., Cognitive Warfare. The Russian Threat to Election Integrity in the Baltic States.
Cambridge (MA, USA): Belfer Center for Science and International Affairs (Harvard University), 2019.
[CHA 21] CHARON P., JEANGENE VILMER J.-B., Les Opérations d’influence chinoises : un moment machiavélien. Paris
(FR): IRSEM, Ministère des armées, 2021.
[CHO 18] CHOTPITAYASUNONDH V., DOUGLAS K.M., “The effects of „phubbing‟ on social interaction”, Journal of
Applied Social Psychology, vol.48, n°6, pp.304–316, 2018.
[CLA 22] CLAVERIE B., DU CLUZEL F., “Cognitive Warfare: the advent of the concept of Cognitics in the field of
warfare”, in B. CLAVERIE, B. PRÉBOT, N. BUTLER N., F. DU CLUZEL (eds.), Cognitive Warfare: The Future of
Cognitive Dominance. Neuilly (FR): NATO-CSO Collaboration Support Office, pp.2/2-8, 2022.
[COL 80] COLLINGRIDGE D., The Social Control of Technology. New York (NY, USA): St. Martin‟s Press, 1980.
[DUF 24] DUFRAISSSE M., CEGARRA J., ATAIN KOUADIO J.J., CLERC-URMÈS I., WIOLAND L., From unknown to
familiar: an exploratory longitudinal field study on occupational exoskeletons acceptance, Submitted for publication
in International Journal of Human-Computer Interaction, 2024.
[KIM 16] KIM Y., “Algorithmic Opportunity : Digital Advertising and Inequality in Political Involvement”, The Forum,
vol.14, n°4, pp.471-484, 2016.
[MCD 15] MCDANIEL B.T. “Technoference: Everyday intrusions and interruptions of technology in couple and family
relationships”, in C.J. BRUESS (Ed.) Family communication in the age of digital and social media. Berlin (GE): Peter
Lang Publishing, 2015.
[MOR 23] MORELLE M., CEGARRA J., MARION D., ANDRÉ J.-M., “Towards a Definition of Cognitive Warfare.
Conference on Artificial Intelligence for Defense”, 5° conférence CAID (Conference on Artificial Intelligence for
Defense) – DGA Maîtrise de l’Information, Rennes (FR): 22-23 novembre 2023.
[NGU 20] NGUYEN C. T., “Echo chambers and epistemic bubbles”, Episteme, vol.17, n°2, pp.141-161, 2020.
[SUR 19] SURKOV V., “Владислав Сурков: Долгое государство Путина”, Nezavissimaïa Gazeta, 11 february 2019.
[TAR 11] TARAFDAR M., QIANG T., RAGU-NATHAN T., RAGU. N., “Crossing to the Dark Side: Examining Creators,
Outcomes, and Inhibitors of Technostress”, Communications of The ACM – CACM, vol.54, pp.113-120, 2011.

Sites internet

[WEB 01] RESET NGO., Under the Radar: Vast Networks of Fake Accounts Raise Questions About Meta’s Compliance
with the EU’s New Digital Rulebook., October 2023, [Link]
Facebook-Fake-Advertisers_Reset.pdf – consulté le 29 janvier 2024.
[WEB 02] MARTIN A., COLIN C., “Quelle ergonomie pour les low-tech ?”, 21 avril 2021,
[Link] – consulté le 29 janvier 2024.

© 2024 ISTE OpenScience – Published by ISTE Ltd. London, UK – [Link] Page | 61

Vous aimerez peut-être aussi