Curieux phénomène que celui qui agite nos contemporains. Les mêmes personnes qui acceptaient sans broncher que Facebook analyse leurs messages privés, scrute leurs photos de vacances et dissèque leurs relations amoureuses s’insurgent aujourd’hui contre ChatGPT qui s’entraîne sur des données publiques. Cette indignation à géométrie variable révèle une hypocrisie fascinante : nous découvrons soudainement l’existence de problèmes vieux de deux décennies.

Le paradoxe mérite qu’on s’y attarde. Pourquoi l’entraînement des modèles de langage choque-t-il davantage que quinze ans d’exploitation commerciale systématique de nos données personnelles ? Pourquoi cette soudaine prise de conscience face à des pratiques qui ne font que prolonger, sous une forme différente, ce que nous subissons depuis l’avènement des réseaux sociaux ?

Les exemples ne manquent pas pour illustrer cette amnésie sélective. Meta exploite nos données depuis 2007, transformant chaque like, chaque commentaire, chaque seconde passée sur ses plateformes en or numérique. LinkedIn modifie discrètement ses paramètres de confidentialité pour intégrer automatiquement l’accès aux données de ses utilisateurs, sans que cela ne suscite la moindre émotion. Google nous profile depuis des décennies, construisant des portraits psychologiques d’une précision chirurgicale à partir de nos recherches, nos déplacements, nos achats.

Mais quand un modèle d’IA utilise des textes publics pour apprendre à générer du contenu, c’est le tollé.
Et c’est précisément pour cette raison que je dis haut et fort : MERCI L’IA !

L’amnésie collective

 

Retraçons cette chronologie de l’aveuglement volontaire. De 2007 à 2022, nous avons progressivement normalisé l’exploitation industrielle de nos données personnelles. Facebook nous a habitués à livrer notre intimité en échange de quelques fonctionnalités sociales. Google nous a convaincus que la gratuité de ses services justifiait la surveillance permanente de nos activités. Amazon a transformé nos habitudes d’achat en algorithmes prédictifs. Et nous avons dit oui à tout, cliqué sur “J’accepte” sans lire, validé des conditions d’utilisation que personne ne comprenait.

Les vrais dégâts de cette complaisance collective sont pourtant bien documentés. La manipulation électorale orchestrée via Cambridge Analytica a influencé des scrutins démocratiques majeurs. Les bulles de filtres créées par les algorithmes de recommandation ont fragmenté notre perception de la réalité. L’addiction aux réseaux sociaux, savamment entretenue par des mécanismes de récompense variable, a transformé des millions d’utilisateurs en consommateurs compulsifs de contenu. La discrimination algorithmique a institutionnalisé des biais dans le recrutement, l’octroi de crédits, la justice pénale.

Le coût humain de cette exploitation silencieuse se mesure en vies brisées. L’augmentation des taux de dépression chez les adolescents corrèle directement avec l’usage intensif des réseaux sociaux. La polarisation politique s’est accentuée sous l’effet d’algorithmes conçus pour maximiser l’engagement en privilégiant le contenu clivant. La désinformation s’est propagée à une vitesse inédite grâce à des systèmes de recommandation aveugles aux conséquences de leurs choix éditoriaux. Quinze ans d’exploitation ont produit une société plus fragmentée, plus anxieuse, plus manipulable.

Et comme si cela ne suffisait pas, l’IA générative a démocratisé la désinformation à une échelle industrielle. Les deepfakes permettent désormais à n’importe qui de créer de fausses vidéos compromettantes, de faire dire n’importe quoi à n’importe qui. Les générateurs de texte produisent de la désinformation sur mesure, adaptée aux biais cognitifs de chaque audience. Mais là encore, l’indignation est sélective : nous nous alarmons des deepfakes tout en ayant toléré pendant des années que les algorithmes de Facebook amplifient les théories du complot et que YouTube radicalise ses utilisateurs par ses recommandations automatiques.

 

L’IA comme électrochoc salutaire et opportunité historique

 L’intelligence artificielle agit comme un révélateur chimique sur une photographie latente. Elle rend enfin visible ce qui était invisible, tangible ce qui demeurait abstrait. Quand OpenAI, Claude, Meta and co utilisent des données publiques pour s’entraîner, cette utilisation devient compréhensible et visible pour le grand public. Contrairement aux algorithmes de recommandation dont le fonctionnement reste opaque, l’IA générative produit des résultats observables qui permettent de comprendre comment nos données sont exploitées.

Cette différence de perception s’explique par la nature même des résultats produits. Prenons Netflix : quand la plateforme me suggère une série qui pourrait me plaire basée sur mes précédents visionnages, l’exploitation de mes données reste floue, abstraite. Je vois une recommandation, mais je ne perçois pas concrètement comment mes habitudes de consommation ont été analysées, décortiquées, transformées en profil comportemental. L’algorithme travaille dans l’ombre, ses mécanismes demeurent invisibles.
À l’inverse, quand OpenAI lance son éditeur d’images qui permet de créer des œuvres “à la manière de Van Gogh” ou “dans le style de Picasso”, l’exploitation devient tangible, presque palpable. Je vois directement que l’IA a ingéré, digéré et restitue des milliers d’œuvres d’art. Le processus d’apprentissage se matérialise sous mes yeux : l’algorithme me montre explicitement qu’il a appris de données existantes pour produire du nouveau contenu.

Cette visibilité change tout. Quand Spotify me propose une playlist personnalisée, je ne visualise pas les millions de données d’écoute qui ont nourri ses recommandations. Quand ChatGPT me répond dans le style d’un auteur particulier, je comprends immédiatement qu’il a été nourri des textes de cet auteur. L’IA générative a cette particularité fascinante : elle rend visible son processus d’apprentissage à travers ses productions, là où les algorithmes traditionnels cachent leur fonctionnement derrière des interfaces lisses et des résultats apparemment magiques.
Et donc en cela, l’IA nous offre une seconde chance historique. Elle constitue un catalyseur exceptionnel pour repenser notre rapport aux données personnelles. Après quinze ans de somnolence collective, nous disposons enfin d’un levier de sensibilisation efficace. Les concepts techniques deviennent accessibles, les enjeux juridiques se concrétisent, les risques abstraits prennent forme.

L’éducation numérique progresse mécaniquement. L’IA rend compréhensibles des concepts techniques complexes comme l’apprentissage automatique, l’analyse prédictive, le profilage comportemental. Cette compréhension nouvelle permet aux citoyens de mieux appréhender les enjeux de protection des données dans leur ensemble.
Le momentum réglementaire créé par l’IA doit être saisi pour durcir toute la réglementation numérique. L’attention portée aux algorithmes d’IA peut s’étendre aux algorithmes de recommandation, de ciblage publicitaire, de scoring comportemental. Cette fenêtre d’opportunité ne se représentera peut-être pas de sitôt.

    Ne gâchons pas cette opportunité

    L’urgence commande d’utiliser cette sensibilisation nouvelle pour réformer l’ensemble de l’écosystème numérique. L’indignation sélective contre l’IA doit se muer en vigilance généralisée contre toutes les formes d’exploitation de nos données personnelles. Il serait absurde de réglementer strictement l’IA tout en laissant les plateformes traditionnelles continuer leurs pratiques opaques.

    Au-delà de l’intelligence artificielle, notre vigilance doit s’étendre à tous les algorithmes qui nous manipulent quotidiennement. Les systèmes de recommandation de YouTube, les algorithmes de ciblage publicitaire de Google, les mécanismes d’engagement de TikTok méritent la même attention critique que les modèles de langage. L’IA n’est que la partie émergée d’un iceberg algorithmique bien plus vaste.

    La responsabilité de saisir cette chance incombe à tous les acteurs. Les citoyens doivent maintenir leur niveau d’exigence au-delà du seul domaine de l’IA. Les entreprises doivent accepter que la transparence devienne la norme, non l’exception. Les régulateurs doivent profiter de cette prise de conscience pour renforcer l’ensemble du cadre juridique de protection des données.

    L’ironie de la situation atteint des sommets d’absurdité. Voilà donc où nous en sommes : il aura fallu qu’une machine apprenne à imiter notre langage pour que nous découvrions enfin l’ampleur de la surveillance dont nous faisons l’objet depuis deux décennies. Il aura fallu que GrokX ingère nos tweets pour que nous réalisions que Meta analysait déjà nos messages privés. Il aura fallu qu’un algorithme génère du contenu à partir de nos données pour que nous comprenions que Google nous profilait depuis toujours.

    Merci donc à l’intelligence artificielle d’avoir eu la délicatesse de nous révéler, avec quinze ans de retard, toute la merde que nous avons laissé faire avec nos données personnelles. Merci de nous avoir enfin sortis de notre torpeur numérique en nous montrant, de manière si spectaculaire, ce que nous aurions dû voir depuis longtemps. Sans cette technologie providentielle, nous serions probablement encore en train de cliquer joyeusement sur “J’accepte” en nous demandant pourquoi nos publicités sont si bien ciblées et nos fils d’actualité si addictifs.

    L’IA aura eu ce mérite involontaire : transformer notre complaisance en indignation, notre aveuglement en lucidité, notre passivité en exigence. Reste à espérer que cette prise de conscience tardive ne se limitera pas à l’intelligence artificielle, mais s’étendra enfin à l’ensemble de l’écosystème numérique qui nous exploite depuis si longtemps avec notre bénédiction tacite.