141124
Plateformisation du web et le commerce (Les objectifs initiaux et l'évolution
d'Internet)
● web 1.0 : un "web en lecture seule"(1995-2000) - offrant peu de possibilités
d'interaction - peu de possibilités d'interaction; accessible via un navigateur, peut lire
les infos par les entreprises grâce à leurs serveurs; difficile à trouver un modèle
profitable
= initialement conçu dans le domaine militaire et universitaire, visait à
favoriser la production de connaissances, la libre circulation de l'information et la
création de communautés.
+ difficile d’imaginer un modèle économique viable
● web 2.0 : le web social, collaboratif / investissements massifs et l'éclatement de la
bulle Internet (fin des années 90 - début des années 2000); on peut interagir de
différente manières avec les publications mais ils peuvent également créer eux
même; début du web collaboratif
= début était marqué par la culture de l’anonymat / volonté de faire coïncider
notre identité (“faceculture” de Facebook vs la “maskculture” de 4Chan, Reddit…)
+ modèle économique : infos collectés par les entreprises + proposer des pub
ciblées, adaptés
Pierre Omidyar et la création d’un modèle rentable(ebay) sur Internet (‘95)
- Idée de base: Permettre aux utilisateurs de vendre leurs propres objets en
ligne.
- Concept : Les utilisateurs sont à la fois producteurs et consommateurs de
contenu.
- L'entreprise ne produit pas le contenu → coûts réduits.
- Les utilisateurs génèrent l'activité et le trafic du site.
- Problème de coût : Augmentation du trafic = frais d'hébergement élevés.
- Solution de rentabilisation : Prélèvement de commissions sur chaque
transaction entre utilisateurs.
- Gestion des litiges : Mise en place d'un forum pour que les utilisateurs
règlent eux-mêmes leurs différends.
- L'entreprise se place en intermédiaire, sans gérer directement les conflits!!
Développement rapide des bénéfices :
● En 1997, Pierre Omidyar rebaptise sa société "eBay".
● En 1998, eBay entre en bourse, avec un chiffre d’affaires atteignant 1
million de dollars.
Invention du modèle plateforme :
● eBay marque l’invention d’un nouveau modèle économique pour
Internet : la "plateforme".
● Concept de la plateforme : Se place en intermédiaire "neutre" entre
utilisateurs pour faciliter leurs interactions.
○ Cependant, cette "neutralité" est trompeuse : les plateformes
contrôlent les contenus publiés.
Caractéristique clé des plateformes :
● API (Interface de Programmation d'Application) : Permet
l'exportation et le partage des données utilisateurs vers des tiers.
● Marque le début de la monétisation des données personnelles, qui
devient un pilier économique pour Internet.
MAIS
Culture de l'anonymat : Les utilisateurs pouvaient se connecter sous des
pseudonymes, jouer avec leur identité
+ Offrait une liberté d’expression et la possibilité d’explorer différentes
identités
- Facilite le développement du trolling, du spam, des escroqueries et
autres comportements nuisibles
= Transition vers la "politique des vrais noms" :
→ Aujourd’hui, la connexion sous une identité réelle est souvent exigée pour
accéder aux services en ligne. (la majorité des plateformes (ex. Facebook) exigent que les
utilisateurs se connectent à leur compte, souvent lié à leur vraie identité)
- Suivi et traçabilité : Facilite le contrôle et le suivi des
activités en ligne.
- Amélioration de l'expérience utilisateur : Créer un
environnement perçu comme "plus sûr" et "amical"
pour les consommateurs.
- Données personnelles : Les informations collectées
sont alignées avec la véritable identité de l’utilisateur,
facilitant la monétisation.
Influence de Facebook et de Mark Zuckerberg :
● Zuckerberg a promu l’idée que chaque profil en ligne devait correspondre à
une vraie personne.
● Exemples : Facebook, Instagram – plateformes où l’identité numérique et
physique sont étroitement liées.
Réaction : la "culture du masque" :
● En opposition à cette exigence de vraie identité, certains espaces en ligne
(ex. 4Chan, Reddit) rejettent cette norme.
● Caractéristiques de la culture du masque :
○ Privilégie l’anonymat et le pseudonymat.
○ Reflète le premier Internet, où les utilisateurs avaient une liberté
d’expression plus importante et pouvaient se distancier de leur identité
réelle.
● Ces plateformes permettent ainsi de créer des profils multiples sans
nécessairement relier chaque profil à une personne physique identifiable.
La participation et les données produites
● Les plateformes encouragent une participation accrue,
permettant de dresser un portrait détaillé de chaque
utilisateur.
● Changements récents : Des activités autrefois non
quantifiées (ex. interactions sociales, comportements de
navigation) sont désormais collectées et analysées.
Typologies de données personnelles potentiellement collectées
● Données d'identification : email, nom, âge, localisation
précise.
● Données financières : numéro de carte bancaire, historique
d'achats.
● Données d’interaction : likes/retweets (Twitter),
commentaires.
● Données de recherche et de navigation : recherches
récentes (Google), historique de navigation.
L'ombre numérique : Ensemble de données collectées à partir des comportements en
ligne, constituant un double numérique.
● En quoi cette ombre numérique reflète-t-elle réellement mon identité ?
● Quels types d'informations sont agrégés pour construire ce portrait numérique ?
. Opacité de la collecte de données
● Données visibles et invisibles : Certaines données sont facilement
identifiables (par exemple, autorisations vocales), mais d’autres types de
collecte sont opaques et difficiles à comprendre.
● Consentement implicite : Souvent, les utilisateurs acceptent les
autorisations par habitude, sans lire les conditions, pour accéder rapidement
aux services.
Types de données collectées à partir de l'utilisation quotidienne
● Données vocales : Les enregistrements vocaux sur des applications ou
assistants virtuels impliquent souvent des autorisations pour "améliorer le
service".
○ Utilisation pour la reconnaissance vocale, analyse d’habitudes de
communication, etc.
● Données de réveil connecté : Les alarmes intelligentes enregistrent les
habitudes de sommeil (heures de coucher et de réveil).
● Données de lecture et d’information :
○ Les articles lus, le temps passé sur chaque article, les sujets d'intérêt
(politique, loisirs, etc.) peuvent révéler des préférences personnelles
et des opinions.
Réflexion sur la dynamique d'acceptation des conditions
● Contexte de l'acceptation : Souvent, l’acceptation de conditions se fait
rapidement pour accéder à un service sans analyse approfondie des
implications.
● Impact : En cumulant ces données, les plateformes créent un portrait
complexe de chaque utilisateur sans que celui-ci soit toujours conscient de
l'ampleur ou de l'usage de ces informations.
Captation continue de données dans la vie quotidienne
● Données générées par les applications et objets connectés :
○ Applications de santé et de bien-être : Méditation, fitness
(nombre de pas, course, géolocalisation), alimentation
(historique des choix alimentaires).
■ Exemple : Les informations sur les préférences
alimentaires (salades vs. burgers) pourraient même
influencer les assurances santé.
○ Enceintes connectées : Participation à la surveillance de
l'environnement domestique.
○ Applications de rencontres : Collecte massive de données
personnelles et habitudes de navigation.
○ Maison intelligente : Thermostat, éclairage, et autres
capteurs qui indiquent les horaires et habitudes (ex. : allumer
la lumière peut signaler votre présence).
○ Appareils intelligents : Surveillance accrue avec
l’augmentation des objets connectés.
● Effets secondaires de la traçabilité :
○ Utilisation de données de géolocalisation, comportement
d'achat, et même la consommation d'électricité pour déduire
des habitudes (ex. : heures de présence à domicile).
○ Réseaux professionnels comme LinkedIn : analyse des heures
d’utilisation pour anticiper l’activité.
La "Digital Shadow" ou ombre numérique
- > Ombre numérique : Ensemble des traces numériques laissées par
chaque action en ligne, créant un portrait de l’utilisateur.
○ Chaque clic sur “J’accepte” aux conditions de service ajoute
des données supplémentaires à cette empreinte.
○ Opacité : L’utilisateur n’a pas toujours conscience de l’étendue
des informations partagées ni de leur utilisation.
Croissance exponentielle des données et impact sur le quotidien
● Augmentation continue des données personnelles : Les appareils
connectés augmentent considérablement la quantité de données
partagées. - Incertitude sur l’utilisation finale des données : Peu
de transparence quant à la manière dont ces données influencent la
vie quotidienne ou les décisions prises à notre sujet.
Données intimes et risques de confidentialité
● Sensibilité des données : Les applications de santé collectent des
informations très personnelles qui, en cas de fuite, pourraient avoir de lourdes
conséquences.
○ Dans certains pays, cela pourrait poser des problèmes sérieux si des
informations privées sont exposées.
● Inconscience des permissions accordées : Beaucoup d’utilisateurs ne
réalisent pas la portée des autorisations qu’ils donnent aux applications de
santé et de fitness.
Cas d’étude : Tracking fitness et critiques de Gabriel
● Contexte : Gabriel a étudié le phénomène du suivi fitness (ex. bracelets
connectés) et la collecte de données pour les assurances.
● Pratique de contournement : Elle a exploré des moyens de "simuler"
l’activité physique (ex. attacher un bracelet à un métronome) pour donner
l’impression d’une activité.
○ Critique : Cette simulation est une réponse à l’obligation imposée par
certaines assurances, principalement aux États-Unis, de suivre
l’activité physique.
- Assurance et surveillance de l’activité physique
- dans le futur, les assurances exigent l’utilisation
de trackers pour couvrir les clients.
- Les assurances pourraient refuser de
couvrir les individus qui n'acceptent pas
ces dispositifs de surveillance.
- Risque de trouver des moyens de
contourner ces trackers, créant des
"entourloupes" pour simuler de l'activité
physique.
Intérêt des industries pharmaceutique et des applications de
rencontre
● Industrie pharmaceutique : Intérêt accru pour les données
de santé, car elles sont liées aux comportements et habitudes
de vie des utilisateurs.
○ Les données des utilisateurs sont particulièrement
sensibles (ex. intérêts, orientation sexuelle, profession).
○ Projet "The Dating Brokers" de Johanna Moll : Mise en
lumière de la vente massive de profils de rencontres à
des entreprises.
● Achat de données : Moll et Tac & Tech ont
acheté 1 million de profils de rencontres pour
136€, révélant un marché de données
personnelles.
○ Photos, nationalité, orientation sexuelle,
centres d’intérêt, profession,
caractéristiques physiques et traits de
personnalité.
● Réseau de revente et d’exploitation des
données :
○ Plus de 700 entreprises exploitent ces
données sans le consentement explicite
des utilisateurs des sites de rencontre.
○ Les données sont rachetées et circulent
entre différentes entreprises, souvent à
l'insu des utilisateurs.
■ Les données partagées sur une application peuvent
circuler dans des contextes inattendus !!
Importance de la transparence et de la protection des
données personnelles
● Constat : Ce marché de la revente de données montre que les
informations personnelles peuvent se retrouver dans des
contextes très divers sans l’accord des utilisateurs.
● Invitation à la vigilance : Le projet souligne l'importance de
comprendre comment et où nos données peuvent circuler, et
l’impact de cette circulation sur la vie privée.
Règlement général sur la protection des données (RGPD) et la gestion des données
personnelles
● Encadrer la collecte, la circulation, le traitement et le stockage des données
personnelles en Europe. -> Toute personne peut demander la suppression de ses
données personnelles hébergées par des entreprises.
○ Limite : Suppression complexe à mettre en œuvre ; estimé à environ 300
heures de démarches pour supprimer ses données de multiples
plateformes.
Profilage accéléré et collecte de données sur les nouvelles plateformes
● TikTok :
○ Profilage rapide facilité par la brièveté des vidéos : Les interactions
simples (regarder ou ignorer) suffisent à affiner les profils
d’utilisateurs.
● Le "Selfie" :
○ Fonction initiale : Créer du lien social et des interactions par l’image.
○ Problème : Chaque selfie partagé fournit des informations
personnelles et contextuelles (lieux, personnes, environnement)
utilisées pour le profilage.
Partage d’images et licences de réutilisation
● Plateformes de partage de photos : Flickr, autres plateformes populaires.
○ Licence Creative Commons (CC) : Souvent, les images sont mises
en ligne sous une licence "usage non commercial".
■ Droit de réutilisation : Les images peuvent être partagées
mais non vendues.
○ Impact : Beaucoup d’images personnelles restent accessibles et sont
réutilisables sous conditions, malgré leur caractère privé.
Enjeux de l'extraction de données visuelles
● Extraction de données des images : Ces photos, même sous licence CC,
sont parfois exploitées pour obtenir des informations sur les utilisateurs (lieux,
préférences, etc.).
● Importance de la vigilance : Même avec des conditions de
non-commercialisation, les images peuvent être utilisées à des fins de
profilage ou de collecte d’informations.
● De nombreuses photos (selfies, images personnelles) des années
précédentes se sont retrouvées dans les bases de données pour
l'entraînement des algorithmes d’IA à l’origine partagées pour des raisons
sociales, ont été utilisées pour développer des technologies de
reconnaissance faciale sans consentement explicite des utilisateurs.
Projet "Today’s Selfie, Tomorrow’s Biometric" (Madame Harvey) :
○ Montre comment des photos anodines ont été détournées pour
l’entraînement de systèmes de reconnaissance faciale, un usage imprévu à
l'origine.
Cas de "StravaLeaks" :
○ Strava, une application de suivi sportif, partage les trajets de course si les
paramètres de confidentialité ne sont pas ajustés - des gardes du corps des
présidents Macron et Poutine ont involontairement partagé leurs trajets de
course, rendant possible la déduction des lieux où se trouvaient les
personnalités protégées
○ = Les trajets révélaient des informations sensibles sur la localisation des
présidents, compromettant leur sécurité.
● Paramètres par défaut : Beaucoup d'utilisateurs ne réalisent pas
l’impact des paramètres de confidentialité laissés par défaut.
● Implications : Des informations sensibles peuvent être révélées
simplement en partageant des données de géolocalisation, souvent
de manière non intentionnelle.
L'ère du capitalisme de surveillance et les risques de la traçabilité numérique
Problèmes de traçabilité pour la sécurité des agents et des militaires
● Les données de géolocalisation non sécurisées exposent les déplacements des
agents (ex. Château de Poutine, militaires israéliens).
● Risques pour la sécurité des agents et de leurs proches : les trajets partent souvent
de leur domicile, révélant leur lieu de résidence.
-> Possibilité de pression sur les agents en ciblant leur famille et leur
domicile.
● Dans ce système, les données comportementales et personnelles deviennent une
ressource exploitée par les entreprises numériques.
○ Capitalisme de surveillance (terme popularisé en 2019) : Modèle
économique basé sur l’extraction massive de données pour générer du profit.
■ Illusion de gratuité :
● Les plateformes offrent un accès gratuit, masquant ainsi le prix
réel : l’exploitation de nos données comportementales.
● Les utilisateurs pensent ne rien payer mais, en réalité, les
entreprises tirent profit de leur navigation et de leurs
interactions en ligne.
● Relation entreprise-utilisateur : Les entreprises extraient des données
comportementales sans toujours informer clairement les utilisateurs de la
valeur et de l’usage de ces données.
● Difficulté d'échapper au traçage :
○ Même en étant conscients de cette extraction de données, il est
difficile, voire impossible, d’y échapper.
○ Numérisation de la vie quotidienne : L’administration, le commerce,
la vie sociale et politique sont de plus en plus dépendants des
plateformes numériques, rendant complexe le refus d'une présence
en ligne.
● La surveillance vise non seulement à prédire les comportements, mais aussi
à piloter les actions des utilisateurs.
○ But ultime : Orienter les comportements dans le monde réel pour
servir des intérêts commerciaux.
● Pokémon Go et Niantic Labs :
○ Le jeu Pokémon Go utilise la géolocalisation pour guider les joueurs vers
des lieux spécifiques dans l’espace physique.
○ Objectif : Inciter les utilisateurs à se déplacer vers des endroits stratégiques
(parcs, lieux publics), parfois pour générer du trafic ou promouvoir des zones
commerciales.
○ Implication : Ce type de technologie montre comment le numérique peut
diriger les foules et influencer les mouvements dans l’espace public.
Analyse de la critique par Shoshana Zuboff (auteure de "The Age of Surveillance
Capitalism")
● Thèse de Zuboff : Le capitalisme de surveillance ne consiste pas uniquement à
analyser les comportements, mais à influencer activement les décisions et actions.
● Critique de la technologie de surveillance :
○ Va au-delà de la simple monétisation des données.
○ But : Transformer les utilisateurs en acteurs manipulés, influencés dans
leurs choix et déplacements pour maximiser la rentabilité.
Impact sur la société et le travail
● surveillance numérique influence non seulement la consommation,
mais aussi les pratiques sociales et les déplacements dans le monde
réel.
● utilisateurs peuvent être incités à consommer ou se déplacer d'une
manière influencée directement par des objectifs commerciaux,
transformant ainsi leur comportement.
Ludification et manipulation par la géolocalisation
● Pokémon Go et boutiques : Les entreprises peuvent placer
des éléments de jeu (ex. Pokémon) dans des lieux physiques
pour attirer les utilisateurs.
○ Exemple : Incitation à visiter une boutique où un
Pokémon est "caché", ce qui encourage les
déplacements physiques vers des endroits ciblés.
○ Principe de la ludification : Utilisation d’éléments de
collection et de jeu pour influencer les comportements
et inciter les utilisateurs à aller dans des lieux qu’ils
n’auraient pas visités sans cette stimulation.
Du simple ciblage publicitaire à la modification comportementale
● Différence clé : Le capitalisme de surveillance va au-delà de
l’incitation à acheter ; il modifie activement le comportement des
utilisateurs.
○ Exemple : Au lieu de seulement encourager des achats en
ligne, les plateformes amènent les utilisateurs à agir dans le
monde physique, réduisant leur autonomie.
Critique de Shoshana Zuboff : Perte d’autonomie et de libre arbitre
● Modification comportementale : La surveillance numérique entraîne une
transformation des comportements, dépossédant les individus de leur
autonomie et de leur libre arbitre.
○ Danger selon Zuboff : Les individus deviennent des agents
manipulés, dont les actions sont contrôlées à distance pour maximiser
les profits des plateformes.
4. Exemples de contrôle comportemental
● Applications de surveillance du sommeil : Conseillent des
changements de mode de vie pour améliorer la qualité du sommeil,
influençant directement les habitudes quotidiennes des utilisateurs.
● Suivi des chauffeurs de taxi : Utilisation de capteurs et de traqueurs
pour évaluer la conduite des chauffeurs, avec possibilité de sanctions
si leurs comportements ne respectent pas les normes.
○ Objectif : Contrôler la qualité de service en temps réel, parfois
au détriment de l’autonomie du conducteur.
Enjeu éthique et social : Jusqu’où cette surveillance peut-elle aller ?
Jusqu’à quel point la manipulation de nos comportements est-elle acceptable
?
Impact -> Ce modèle de surveillance et de modification comportementale transforme
les utilisateurs en agents sous influence, réduisant leur capacité de choix personnel.
+++ Un danger démocratique
● Expansion de la surveillance : La collecte de données ne se limite plus à Internet
mais s'étend aux objets connectés, posant un problème pour la démocratie.
● Critique de Zuboff : La modification des comportements à des fins économiques
peut facilement se transformer en influence politique, menaçant ainsi la liberté de
choix des individus et les fondements démocratiques.
Affaire Cambridge Analytica : Manipulation de l’opinion publique
● Contexte : Cambridge Analytica, société de conseil politique britannique, a
été impliquée dans un scandale de collecte et d’utilisation abusive des
données personnelles en 2018.
● Implications politiques :
○ Accusée d’avoir influencé la campagne présidentielle de Donald
Trump en 2016 et d’avoir joué un rôle majeur dans le vote du Brexit.
○ Son activité a été qualifiée d'atteinte à la démocratie en raison de la
manipulation des opinions publiques via des techniques de ciblage
sophistiquées.
Méthodes et révélations de l’affaire
● Collecte de données sans consentement : Cambridge Analytica a aspiré
les données de 87 millions d’utilisateurs Facebook sans leur accord.
○ Technique utilisée : Un quizz de personnalité conçu pour récolter
des données psychologiques et comportementales.
○ Mission officielle : La société se présentait comme experte en
utilisation des données pour "mieux comprendre" l’opinion publique,
mais en réalité, elle exploitait ces données pour influencer et
manipuler les choix des électeurs.
● Lanceur d’alerte : Un ancien employé, Christopher Wylie, a révélé ces
pratiques illégales dans les médias (notamment le Guardian), suscitant une
vaste prise de conscience mondiale sur les risques des manipulations de
données.
-> Impact et leçons pour la démocratie
● Atteinte à la démocratie : Cette affaire illustre comment la
collecte massive de données peut être détournée pour
manipuler l’opinion publique à grande échelle.
● Enjeu : Ce type de surveillance représente un danger pour les
démocraties, car il réduit la capacité des citoyens à prendre
des décisions éclairées sans influence extérieure non
consentie.
● Via un test de personnalité sur Facebook, Cambridge Analytica
pouvait accéder non seulement aux données des participants,
mais aussi à celles de leurs contacts.
● Conséquence : Même les utilisateurs n’ayant pas participé
directement au test pouvaient voir leurs données aspirées et
utilisées à des fins politiques.
Utilisation des données pour du ciblage politique
● Objectif : Créer des profils psychologiques des utilisateurs pour cibler des messages
de propagande favorable au Brexit et à Trump.
○ Public ciblé : Utilisation de profils psychologiques pour identifier les
personnes les plus influençables ou fragiles et les inciter à changer d’opinion.
○ Portée massive : Mise en œuvre d'une campagne de manipulation à grande
échelle, exploitant des données personnelles pour influencer les
comportements électoraux.
Nouvelle forme de propagande numérique / Approche innovante
et invasive :
○ Cette méthode constitue une nouvelle forme de
propagande, exploitant la psychologie des utilisateurs
de manière subtile et non transparente.
○ Le scandale a révélé comment le ciblage numérique
pouvait être utilisé pour manipuler les opinions
politiques de manière précise et efficace.
○ Problème légal : Cambridge Analytica a acquis ces
données sans consentement des utilisateurs, ce qui est
une violation des lois sur la protection des données.
● Conséquence : Cette affaire a fait grand bruit dans les
médias, exposant les risques de manipulation via le big
data et renforçant la prise de conscience autour de la
confidentialité des données.
Google : Le pionnier du capitalisme de surveillance
● Rôle de Google : Google a joué un rôle décisif en établissant le modèle
économique basé sur la collecte de données personnelles pour générer du
profit.
○ Modèle de référence : Ce modèle a transformé les informations
personnelles en une marchandise rentable, inspirant les pratiques
ultérieures d'entreprises comme Cambridge Analytica.
● Début de Google :
○ Au lancement, Google était apprécié pour son absence de
publicité, contrastant avec d'autres moteurs de recherche
saturés de liens commerciaux.
○ Changement de modèle : Google a initié la collecte massive
de données, ouvrant la voie au modèle de capitalisme de
surveillance.
● Première plateforme à monétiser les données personnelles :
○ Google a su exploiter les interactions et données des
utilisateurs pour en tirer profit, créant ainsi un modèle
économique basé sur la collecte et la vente de données
comportementales.
Évolution du capitalisme et marchandisation des interactions humaines
● Historique de la manipulation des comportements :
○ Depuis toujours, les entreprises cherchent à influencer les
comportements d'achat via la publicité et le marketing.
○ Différence majeure avec Internet : La massification et la
précision de l'influence grâce aux données, rendant possible
une personnalisation extrême et un suivi en temps réel.
Intégration de nouvelles dimensions au marché
● Transformation du capitalisme : Le capitalisme a élargi son champ
d’action en intégrant dans le marché des éléments autrefois
non-marchandisés, comme les interactions humaines.
○ Exemple : Nos interactions, nos comportements, et même nos
relations personnelles deviennent des ressources monétisées
par les entreprises numériques.
Impact de l'Internet sur le capitalisme
● Internet et la massification de l’influence : Internet a amplifié et rendu possible
l’influence à grande échelle, permettant un profilage et une prédiction des
comportements d’achat et sociaux sans précédent.
● Réflexion critique : Cette évolution interroge sur les limites de la marchandisation,
notamment concernant les aspects les plus intimes et personnels de la vie humaine.
Google et la transition vers un modèle basé sur la collecte de données personnelles
Les débuts de Google : Un moteur de recherche sans publicité
● Design épuré : À ses débuts dans les années 90, Google se distingue par
l’absence de publicité, offrant une interface simple et sans distractions.
● Accumulation de données : Dès le départ, Google collecte des tonnes de
données sur les recherches des internautes sans exploitation commerciale
directe.
La transition vers la monétisation des données
● Contexte financier : Google fait face à des pressions de ses actionnaires
pour trouver un modèle économique viable.
● Découverte du potentiel des données : L’entreprise se rend compte que les
données de recherche et d’activité des utilisateurs contiennent des signaux
exploitables pour prédire les comportements.
○ Modèle révolutionnaire : Google commence à analyser ces données
pour créer des profils et des outils d’analyse comportementale,
permettant de mieux comprendre et anticiper les besoins des
utilisateurs.
L’émergence d’un modèle opaque de surveillance des utilisateurs
● Collecte passive et transparente : L’utilisateur effectue des recherches sans
savoir que chaque clic et chaque temps de consultation sont analysés pour
en tirer des informations personnelles.
● Absence de transparence : Les internautes ignorent en grande partie ce qui
est collecté et comment leurs données sont utilisées, car la collecte se fait en
arrière-plan.
Google et la prédiction de l’avenir : La vision de la vie "consultable"
● Déclaration ambitieuse : Selon un dirigeant de Google, le but ultime est de rendre
les informations personnelles, les émotions et les expériences de chaque individu
consultables.
○ Capteurs et appareils intelligents : Google prévoit que les capteurs, les
caméras et autres appareils intelligents permettront d’enregistrer et
d’analyser chaque aspect de la vie des individus.
○ Impact sur la vie privée : La vision est celle d’un futur où chaque action,
pensée, et interaction pourrait être collectée et analysée, transformant ainsi
chaque détail de la vie en une donnée consultable.
Le modèle économique du "capitalisme de surveillance" : Traçage, prédiction et
"extractivisme" des données; Vision de Larry Page : L'expérience humaine comme
ressource exploitable
● Transformation de l'expérience humaine : Selon Larry Page, les actions et
interactions en ligne deviennent des ressources à exploiter.
● Traçage permanent : Dès que Google a initié ce modèle, d’autres acteurs, comme
Facebook, ont suivi, instaurant un traçage constant de chaque interaction pour en
tirer du profit.
Facebook : Une "usine de production de données"
● Modèle de Facebook : Facebook fonctionne comme une usine qui produit des
données en extrayant des informations de toutes les interactions de ses utilisateurs.
○ Infographie de la chaîne de production : Un centre d’infographie (sous
forme de PDF navigable) illustre les mécanismes d’extraction de données sur
Facebook.
○ Objectif : Montrer les processus complexes par lesquels Facebook
transforme chaque interaction en données monétisables.
L’extractivisme des données : Un nouveau paradigme
● Concept d'extractivisme : Inspiré de l'extractivisme traditionnel (exploitation des
matières premières), ce terme est utilisé ici pour désigner l’exploitation des données
personnelles comme une ressource.
○ Définition : Traiter l'environnement numérique et les interactions humaines
comme des ressources à exploiter, extrayant des "matières premières" de
nos vies numériques (clics, recherches, interactions).
○ But : Prédire et influencer les comportements des utilisateurs pour en tirer un
profit maximal.
Prédictions et traçage invisibles
● Prédictions comportementales : Les données extraites permettent de réaliser des
prédictions sur les comportements des utilisateurs, souvent sans qu'ils en aient
conscience.
● Opacité des pratiques : La majorité de ces processus (collecte, traçage, prédiction)
se fait de manière opaque, rendant difficile pour les utilisateurs de comprendre
l’étendue des informations collectées sur eux.
Le "nouvel extractivisme" : Exploitation des données comme ressource
● Définition classique : L'extractivisme désigne l'extraction de ressources naturelles
(ex. : minerais, pétrole) sans considération pour leur renouvellement ou les
conséquences écologiques.
● Caractéristique : Prendre des ressources sans les remplacer ni compenser les
dommages causés à l’environnement.
● Définition de Bladen : Applique le concept d’extractivisme aux données
personnelles, les considérant comme des ressources exploitées sans souci des
impacts futurs.
○ Données comme ressource : Les informations personnelles et l'attention
des utilisateurs sont extraites de manière similaire aux ressources naturelles,
sans considération pour leur renouvellement ou les impacts sociaux et
psychologiques.
● Absence de retour : Tout comme pour l’extraction minière, les entreprises prennent
des données sans offrir de contrepartie aux utilisateurs.
Métaphore minière : Data mining et exploitation des données
● Exemple de Simon Denny :
○ Créateur d'un jeu nommé "Extractor", Denny explore l’analogie entre "mining"
(extraction minière) et "data mining" (extraction de données).
○ Objectif : Illustrer que les pratiques d'extraction de données suivent le même
schéma que l'extractivisme des ressources naturelles, avec des
conséquences peu visibles mais potentiellement lourdes.
● Usage métaphorique croissant : Le terme "extractivisme" est de plus en plus utilisé
pour décrire l’exploitation intensive des données personnelles, de l’attention des
utilisateurs, et des interactions numériques.
● Impact : Cette extraction de données peut engendrer des effets à long terme sur la
vie privée, l’autonomie des utilisateurs et la santé mentale - En appliquant des
pratiques de type extractiviste aux individus, le capitalisme de surveillance réduit les
personnes à de simples ressources exploitables, suivant le même modèle que
l’exploitation des ressources naturelles.
Condition contemporaine : Corps et données extraites
● Exploitation de notre condition humaine : Nous sommes devenus des "corps"
auxquels on extrait des données, captifs des réseaux numériques.
● Besoin de représentation graphique : Pour mieux comprendre et illustrer cette
condition, des représentations graphiques et allégoriques sont souvent nécessaires.
● "Extractor" : Jeu de société allégorique par Simon Denny
● Objectif du jeu : Faire le lien entre l’extraction de ressources naturelles et
l'extraction de données numériques.
○ Nature allégorique : Le jeu explore de manière ludique comment
l'extraction de données reflète les pratiques extractivistes appliquées
aux ressources naturelles.
○ Intentions : Encourager les participants à réfléchir aux implications de
la collecte massive de données.
Littérature dystopique et surveillance : Références à 1984 de George Orwell
● Œuvre majeure : Le roman 1984 (écrit en 1948) est une critique dystopique du
totalitarisme.
○ Concept central : Un pouvoir totalitaire qui cherche à contrôler non
seulement les actions mais aussi les pensées les plus intimes des citoyens.
○ Propagande et contrôle : Dans 1984, la propagande envahit la conscience
des individus, dictant leur mode de pensée et absorbant leur libre arbitre.
○ Avertissement contre le totalitarisme : Orwell proposait une réflexion sur
les dangers d'un contrôle absolu de l’État sur la vie privée, dans un monde où
chaque pensée et action est surveillée.
Parallèle avec le capitalisme de surveillance
● Résonance contemporaine : Les pratiques modernes d'extraction de données
rappellent la dystopie orwellienne, où les moindres interactions et pensées sont
surveillées et exploitées pour le profit.
● Impact de la surveillance : La collecte de données à grande échelle par les
plateformes numériques pourrait mener à une forme de contrôle sur les pensées et
comportements, posant des questions sur la liberté et l'autonomie individuelles.
Extractivisme Attentionnel; Yves Citton
= attitude caracterisée par trois cécités
- réduire un environnement à ce qui nous en apparait comme constituant une
ressource pour nos pratiques intéressées actuelles
- exploiter ces ressources sans se soucier de leur renouvellement
- exploiter ces ressources sans se soucier des conséquences plus lointaines (dans
l’espace ou le temps) de cette exploitation