La grande interview

«Résister, ce n’est pas refuser la technologie, c’est la comprendre»

Les technologies numériques ne sont plus de simples outils: elles structurent désormais nos comportements, nos décisions et notre perception du monde. Ecrivain et podcasteur, Bruno Giussani appelle à une vigilance active pour préserver notre capacité à penser librement.

William Türler

Bruno Gius­sani
Par le mot «résistance», Bruno Gius­sani n’entend pas un rejet de la technologie, mais l’adoption d’une posture de vigilance, une clairvoyance, un regard critique. François Wavre/lundi13

Publicité

Essayiste, ancien responsable de la stratégie numérique du World Economic Forum, journaliste bien connu et pendant deux décennies figure influente des conférences TED, Bruno Giussani observe depuis longtemps les mutations profondes liées au monde numérique. Dans son dernier livre, intitulé Manuel de résistance à l’emprise technologique, il analyse la manière dont les réseaux sociaux, les algorithmes et l’intelligence artificielle redéfinissent nos modes de vie, jusqu’à influencer nos facultés cognitives. Sans sombrer dans le rejet technologique, il plaide pour une prise de conscience collective et une défense de notre autonomie intellectuelle.
Pourquoi avoir choisi de parler de «résistance» face à la technologie dans votre ouvrage?
Le terme peut sembler fort, mais il correspond à une réalité: nous sommes de plus en plus immergés dans des environnements numériques qui structurent nos vies. Les réseaux sociaux, les smartphones ou encore l’intelligence artificielle ne sont plus de simples produits: ce sont des architectures dans lesquelles nous évoluons, qui façonnent notre paysage économique, social et politique. Cela dit, par «résistance», je n’entends nullement un rejet de la technologie, mais l’adoption d’une posture de vigilance, une clairvoyance, un regard critique. Une conscience claire que la technologie donne, mais qu’elle prend aussi.

Contenu Sponsorisé

Ces architectures – bureautique, gestion, paiement, flux d’information, divertissement, chatbots – échappent largement aux utilisateurs. Elles sont conçues, contrôlées et exploitées par leurs développeurs. Une grande partie des services numériques fonctionne sur des infrastructures distantes, sur le «cloud», en «nuage», comme on dit. Autrement dit, nous dépendons de systèmes que nous ne maîtrisons pas. D’où la nécessité de comprendre leur fonctionnement, mais aussi leur impact et leur influence.

Influence

Dans l’ouvrage «Manuel de résistance à l’emprise technologique. Comment ne pas se laisser manipuler à l’ère de l’IA» (Editions des Equateurs), Bruno Giussani explore comment les réseaux sociaux, les algorithmes et l’intelligence artificielle reconfigurent en profondeur nos modes de vie.
Vous parlez d’un «encerclement cognitif» orchestré par les réseaux sociaux, les algorithmes et l’IA. A quel moment avons-nous collectivement perdu le contrôle?
Cet encerclement est d’abord structurel: aujourd’hui, il est difficile de travailler, de communiquer ou même de participer à la vie sociale et culturelle sans passer par des outils numériques. Pensez juste au rôle des QR codes, aux systèmes de paiement ou de réservation, à toute l’électronique embarquée dans les voitures, aux achats en ligne, à l’automatisation croissante des chaînes d’approvisionnement. Mais l’encerclement est aussi cognitif parce qu’une grande partie de ces outils – notamment les chatbots d’IA – impactent directement notre capacité de comprendre et de penser.

Publicité

C’est le résultat d’une évolution de décennies, mais s’il faut vraiment y mettre une date, je dirai 2007, avec l’arrivée du smartphone. D’une connectivité localisée on est passés à une connectivité permanente, mobile et intime. Avec cet appareil, nous avons basculé dans un modèle fondé sur les applications, qui fonctionnent comme des écosystèmes fermés et facilitent la collecte massive de données personnelles, base des algorithmes de recommandation, de l’économie de l’attention, de la publicité ciblée et, plus récemment, de l’intelligence artificielle générative.
On évoque souvent les dérives, les biais ou la dépendance liés à ces technologies, mais elles recèlent aussi de véritables opportunités.
Bien sûr. L’intelligence artificielle est probablement l’une des technologies les plus puissantes jamais développées. Et également la plus versatile. C’est une technologie universelle, dans le sens qu’elle peut s’appliquer à de très nombreux domaines: santé, éducation, industrie, art, science, vie quotidienne. Elle peut être intégrée à d’autres technologies. Est capable d’apprendre, et donc de progresser. Et il y a plusieurs types d’IA, pas uniquement les «modèles de langage», ceux qu’on connaît comme chatbots. Il y en a qu’on utilise depuis longtemps, qui apportent de vrais avantages et ont déjà permis des avancées significatives dans de nombreux secteurs. Par exemple, l’IA appliquée à l’optimisation des processus de production, à la robotique industrielle, à la modélisation de systèmes complexes. Ou au domaine médical, où l’IA déjà aujourd’hui lit les images radiologiques avec une précision souvent supérieure à celle des médecins.

Publicité

Mais pour revenir aux IA génératives, les chatbots nous offrent quelque chose de presque irrésistible: la possibilité de déléguer à une machine l’effort de penser, d’analyser, d’apprendre, d’écrire, même de décider. En ce sens, ils nous donnent l’impression d’avoir des «super-pouvoirs», en permettant d’accomplir rapidement des tâches complexes. Mais cette facilité peut aussi entraîner une délégation excessive de nos capacités et donc, à terme, leur affaiblissement.
Certains dirigeants de la tech admettent ne pas comprendre entièrement comment fonctionnent leurs systèmes. C’est inquiétant, non?
En simplifiant, on peut voir les chatbots comme des boîtes noires: on pose une question et ils produisent des réponses. Ces résultats sont souvent très plausibles, parfois bluffants, que ce soit du texte, du code, des images, des dialogues, des choses plus sophistiquées. Mais ce qui se passe à l’intérieur de la boîte reste encore en partie mystérieux même pour ceux qui les développent. On parle du problème de l’«interprétabilité». C’est d’autant plus troublant que ces systèmes sont toujours plus interconnectés les uns aux autres. Cette complexité croissante peut générer des comportements imprévisibles et rendre leur fonctionnement encore plus opaque, voire incompréhensible.

Publicité

Considérez un exemple simple: les QR codes. Il s’agit d’un langage que seule une machine peut lire et comprendre. En l’occurrence, ce langage est statique. Mais imaginons deux machines qui entrent en dialogue, de façon dynamique donc: cela ne se passerait bien évidemment pas en français, mais de façon inintelligible aux humains. Ce qui pose une question fondamentale de contrôle et de responsabilité.

«Ce qui se passe à l’intérieur des chatbots reste encore en partie mystérieux, même pour ceux qui les développent.»

Qui tient réellement les rênes aujourd’hui: les Etats, les entreprises technologiques ou les algorithmes eux-mêmes?
Dans le cas des technologies américaines, qui sont celles que nous utilisons, ce sont les grandes entreprises qui contrôlent à la fois les infrastructures et les algorithmes. L’IA peut être envisagée comme une toile complexe qui s’étend autour de nous et façonne activement chaque aspect de notre vie. Le même système, le même chatbot sert aussi bien à écrire un mot d’anniversaire qu’à planifier des frappes militaires... Mais ce «pouvoir du cloud» est de plus en plus aligné aux priorités politiques. La technologie numérique devient un outil central de projection de puissance à l’échelle mondiale.

Publicité

A quel point le libre arbitre est-il menacé?
Il est remis en question. Nous sommes engagés dans une forme de «guerre cognitive», où l’information est filtrée, orientée, parfois manipulée par des algorithmes. Tantôt inventée, aussi. Si l’on n’en prend pas conscience, cela peut altérer notre capacité à comprendre la réalité et à prendre des décisions de manière autonome. Protéger notre liberté passe donc par la préservation de notre intégrité cognitive, de notre capacité à penser par nous-mêmes.

Guerre cognitive

Il s’agit d’un ensemble de stratégies visant à influencer la perception, les opinions et les comportements d’une population. Elles s’appuient sur l’information, les médias et les algorithmes pour agir sur le cerveau humain.
Surestime-t-on la manipulation ou, au contraire, passe-t-on à côté de son ampleur?
La manipulation et la propagande ne sont pas nouvelles, mais les technologies modernes les amplifient à une échelle inédite. Depuis deux décennies, l’expérience des réseaux sociaux nous apprend combien l’information peut être instrumentalisée et comment cette manipulation affecte notre perception et notre comportement, à tous les niveaux. Elle peut être évidente, par exemple dans certains biais d’un chatbot, mais elle est souvent plus subtile. Un simple choix de mots, un glissement sémantique, un angle éditorial ou une hiérarchisation de l’information peuvent suffire à influencer une perception.

Publicité

Comment peut-on s’en prémunir concrètement?
Il n’existe pas de recette miracle et il faut rappeler que la manipulation ne se limite pas au monde numérique. Nous baignons dans un monde d’influences. Pour s’en protéger, il est essentiel de développer une distance critique permanente: s’interroger sur les sources, croiser les informations, comprendre les mécanismes à l’œuvre ainsi que le contexte socioéconomique dans lequel ces technologies fonctionnent. Ce réflexe, autrefois propre aux journalistes ou aux archivistes, devient aujourd’hui indispensable pour tous.
On entend souvent parler de «dette cognitive».
En effet, c’est ce phénomène par lequel, en déléguant constamment certaines activités cognitives à la machine – réfléchir, écrire, s’orienter, rechercher, coder, voire décider –, nous finissons par compromettre nos compétences. Le GPS en est un exemple classique: il simplifie nos déplacements, mais affaiblit notre sens de l’orientation, notre capacité de nous situer dans l’espace.
Comment reprendre le contrôle au quotidien?
Pour limiter cette dette, il faut continuer à exercer nos capacités, même lorsque la technologie pourrait nous éviter l’effort et faire le travail à notre place plus rapidement. Il s’agit d’adopter une forme d’hygiène digitale, de continuer à consentir des efforts cognitifs. Il est également nécessaire d’être intentionnels dans notre usage des outils d’intelligence artificielle: les considérer non pas comme des remplaçants, mais comme des assistants. Leur rôle devrait être de nous aider à réfléchir, et non de penser à notre place. De nous accompagner dans le raisonnement, et non pas de décider pour nous.

Publicité

Sur le plan politique, faut-il réguler davantage ces technologies?
Pas forcément davantage, mais mieux. La régulation doit prévenir les abus tout en laissant l’espace nécessaire à l’innovation et au développement technologique. L’absence de régulation ne fait que permettre aux entreprises technologiques de fixer les règles du jeu. L’idée selon laquelle la régulation freine l’innovation est largement exagérée. Elle est souvent utilisée comme argument pour éviter toute contrainte.

«La régulation doit prévenir les abus tout en laissant l’espace nécessaire à l’innovation et au développement technologique.»

La souveraineté numérique européenne est-elle encore réaliste face à la domination des géants de la technologie?
Elle est affaiblie, mais pas impossible. Le retard européen s’explique par plusieurs facteurs: fragmentation du marché, manque de politique industrielle, mais aussi une certaine naïveté stratégique. Il existe pourtant des alternatives à de nombreux services qu’on continue d’acheter aux géants américains. Le problème, c’est qu’elles manquent de débouchés. Il faudrait par exemple orienter davantage les commandes publiques vers des fournisseurs suisses et européens.

Publicité

L’intelligence artificielle impose-t-elle de repenser l’éducation?
Il faut bien évidemment apprendre à utiliser l’IA: il n’y aura plus de jobs à l’avenir qui n’auront pas à faire avec ces machines. Mais pour devenir des utilisateurs non seulement efficaces mais également éveillés de systèmes qui imitent la pensée humaine, il faut savoir penser par soi-même. Dans ce contexte, les sciences humaines – philosophie, éthique, sociologie, littérature – gardent toute leur importance.
Plusieurs acteurs de la Silicon Valley défendent l’idée d’une connexion cerveau-machine, comme une prochaine étape de l’évolution humaine. Est-ce, selon vous, une avancée ou une ligne rouge?
C’est une perspective vertigineuse. Elle ouvre la possibilité d’une interaction directe entre le cerveau et la machine, avec tout le potentiel mais aussi les risques que cela implique. On peut imaginer une société à deux vitesses: ceux qui auront accès à ces technologies pour se faire «augmenter» et les autres. Au-delà de la technologie, cela pose des questions éthiques et morales majeures. Par exemple, si l’on souhaite utiliser ces technologies pour aider les personnes en situation de handicap à retrouver des fonctions perdues, où tracer la limite? Il est délicat de donner une réponse définitive.

Publicité

Vous évoquez dans votre livre une possible «co-évolution heureuse» entre humains et intelligences artificielles. A quoi ressemblerait concrètement cet équilibre?
Je vais vous répondre par une caricature, mais que je pense éclairante. Nous faisons face à deux avenirs possibles. D’un côté, un futur sombre, à la Star Wars, où des régimes autoritaires utilisant une technologie militaire avancée imposeraient un ordre hiérarchique et répressif, au mépris des libertés individuelles. De l’autre, un futur plus harmonieux, à la Star Trek, où la technologie, encadrée par des valeurs humanistes et démocratiques, servirait l’émancipation collective, libérant l’humanité pour réfléchir à la vie et explorer l’univers. Entre ces deux trajectoires, tout dépendra de nos choix: la technologie, en elle-même, ne garantit rien.

Bio express

1964

Naissance au Tessin.

1986

Etudes en sciences politiques à l’Université de Genève.

1998

Responsable de la stratégie numérique du WEF à Genève.

2003

Chercheur invité à Stanford.

2005

Directeur européen et curateur global des conférences de la fondation TED. Cofondateur du Forum des 100.

2025

Podcast «La menace cognitive».

2026

Publication du «Manuel de résistance à l’emprise technologique».
A propos des auteurs
William Türler
William Türler
William Türler s’intéresse à tout ce qui façonne le monde des affaires. Après avoir collaboré avec plusieurs médias romands, il écrit aujourd’hui pour PME, où il couvre la tech, l’innovation et les grandes tendances économiques. Il aime raconter les histoires derrière les projets et les idées.

Publicité