Une nouvelle technologie ne bouleverse pas seulement nos modes de vie. Elle peut avoir une influence philosophique majeure et consister en un véritable changement de paradigme. L’invention de l’imprimerie au XVe siècle permit la démocratisation de la connaissance sans laquelle le protestantisme ne serait pas né. La révolution industrielle aura favorisé l’émergence du libéralisme politique puis du socialisme utopique au début du XIXe siècle. Les nouvelles technologies de l’information et de la communication depuis la deuxième moitié du XXe siècle ont fait éclore l’idée d’une postmodernité dont il est difficile encore de saisir tous les contours.
Pour en comprendre la portée, il faut en revenir à la technologie fondatrice sans laquelle le numérique n’aurait pu trouver son existence. Il s’agit de l’électricité dont le développement à partir du XIXe siècle aura permis, en matière de communication, l’instantanéité de l’information dans les échanges. Si la radio et la télévision ont été une onde de choc qui nous a fait passer d’une communication de l’écrit à une communication de l’oral, le numérique, l’internet et le web auront permis une décentralisation de l’information et la capacité progressive que chacun, depuis chez soi, puisse devenir à la fois émetteur et récepteur de l’information.
L’aventure d’internet commence en 1969, près de trente ans après l’invention de l’ordinateur par l’Anglais Alan Turing. Le premier réseau de transfert de données s’appelle Arpanet et il a été conçu par l’armée américaine, plus précisément par la DARPA (Defense Advanced Research Project Advancy). Le projet dépasse le seul cadre de l’armée. Le monde universitaire y collabore. Cette équipe de recherche voulait voir les ordinateurs travailler en réseau, de sorte que, en cas de panne ou d’attaque d’un lieu stratégique militaire, les opérations puissent continuer sans encombre.
Entre libertaires et businessmen
Le projet voit le jour en 1972. Le protocole tel qu’on le connaît aujourd’hui, le TCP/IP, sera effectif en 1983. Au cœur des années 1970, dans l’univers de Woodstock et des mouvements hippies, il fait des émules. Une utopie libertaire peut désormais voir le jour : chaque citoyen, depuis son ordinateur, serait à même de construire la société de demain et participer à l’intérêt général sans l’ombre d’une coercition. L’« anarchie » enfin possible par l’apparition d’une nouvelle technologie. Le monde de l’internet voit le jour au cours de ces années de fièvre collective aux États-Unis. Si ces projets utopiques font fi des réalités anthropologiques, ils mettent tout de même en lumière la promesse de ce réseau fonctionnant à la périphérie : « Chaque nœud a la possibilité d’être créatif et innovant, contrairement à l’appareil fixe d’un réseau intelligent au centre, comme la téléphonie, dont seuls l’opérateur central et son centre de recherche sont susceptibles d’innover pour l’ensemble du réseau » (1). L’utilisateur se trouve doté d’un pouvoir accru, jamais égalé. C’est d’ailleurs pour cette unique raison que le minitel, réseau centralisateur, a échoué devant son concurrent. C’est à partir de ces années que se développent des communautés de hackers dont la spécificité est la gouvernance du réseau par un collectif ouvert et auto-organisé. La plupart existent encore et participent à la régulation de l’internet et du web comme l’ICANN et le W3C (2).
Leur indépendance est aujourd’hui relative car ils sont soumis au poids grandissant des géants du numérique. Dès le début des années 1980, deux tendances émergent dans le numérique d’une manière frontalement opposée : les libertaires et les marchands. Les premiers voient en internet la possibilité d’un monde libre et gratuit. Les seconds voient dans ce nouveau réseau de télécommunications des opportunités d’affaires. L’ardent supporteur des premiers fut Linus Torvalds, le fondateur de Linux, et les emblématiques Steve Jobs (Apple) et Bill Gates (Microsoft/Windows) représentèrent les seconds.
En 1990, Tim Berners-Lee et Robert Cailliau, au CERN en Suisse, vont démocratiser l’internet par l’invention du web. Web et internet ne doivent pas être confondus : Tim Berners-Lee va utiliser le protocole TCP/IP pour permettre un système d’échange simplifié grâce au lien hypertexte, afin que les internautes naviguent facilement de page en page, sans avoir nécessairement besoin de connaître les langages de l’informatique. Les sites web sont nés. Internet n’est plus la simple affaire des hackers qui veulent changer le monde. Il est notable de préciser que le web que l’on connaît aujourd’hui a été inventé par deux Européens (britannique et belge), bien que ce soient les entreprises américaines qui en ont le plus bénéficié.
De la toile aux plateformes
De 1990 à 1996, on assiste à une formidable expansion du réseau d’échange qui finit par constituer la vaste toile que l’on connaît aujourd’hui, que l’on nomme aussi l’espace web, comme s’il s’agissait d’une nouvelle forme géographique. De 1993 à 1996, on passe de 193 à 230 000 sites web avec 36 millions d’utilisateurs dans le monde. En 1997, la France compte 21 367 sites web. Cette ascension fulgurante repose sur le fait que le CERN a renoncé à ses droits d’auteur et a versé toutes les technologies du web dans le domaine public. Les inventeurs sont ainsi restés fidèles aux utopies de leurs prédécesseurs, soucieux, dans un contexte de fin de guerre froide, de faire régner un monde sans frontières de partage et de paix.
L’extraordinaire développement de ce canal de communication va générer toute une « nouvelle économie ». Les premières start-up (jeunes entreprises spécialisées dans l’innovation et dont le fonctionnement financier repose sur des levées de fonds) font leur apparition et, avec très peu de salariés, vont atteindre des capitalisations boursières en dehors de toute réalité. Tout commence le 30 avril 1995 lorsque le gouvernement américain décide de privatiser le réseau internet. Le web est médiatisé et fait l’objet de toutes les promesses d’enrichissement. Les moteurs de recherche s’imposent avant même l’apparition de Google : Altavista ou Yahoo – qui devient la première grande entreprise numérique. Toutes les informations renvoient à de la publicité et deviennent une véritable mine d’or. Les premiers sites e-commerce comme Amazon ou Ebay apparaissent. Dans une économie de désintermédiation où l’immatérialité domine et réduit les coûts de transaction, les États-Unis vont connaître jusqu’en 2000 des années fastes. Les investissements vont augmenter considérablement. Pour produire de la croissance, il faut désormais informatiser l’économie. Mais les modèles d’affaires de ces nouvelles entreprises sur lesquelles on mise fortement sont fragiles. Les start-up n’ont en réalité que très peu de clients. Cette bulle internet finit par éclater sous la forme d’un krach boursier.
Cet essor soudain et massif du web va donner naissance aux velléités indépendantistes des pionniers de l’internet qui ne sont paradoxalement pas sans lien avec la nouvelle économie puisqu’ils nourrissent cette fiction d’un monde sans droit territorial, totalement dérégulé. En 1996, John Perry Barlow, militant libertarien américain, écrit dans un mail une déclaration d’indépendance du cyberespace qui restera célèbre dans l’univers des « geeks » (anglicisme pour désigner les passionnés de nouvelles technologies) : « Gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace. Vous n’avez aucun droit de souveraineté sur nos lieux de rencontre » (3). De là est venue l’idée d’un espace web autonome, indépendant des réalités nationales, poursuivant une route de liberté totale, mais laissant rapidement libre cours à toutes les formes de marchandage, autant celles des start-up devenues des monopoles que celles des commerces illicites comme la pédopornographie, les trafics de drogues et d’armes, les sites terroristes… En quelques années, l’utopie s’est transformée en cauchemar pour les héritiers des mouvements hippies.
Dans les années 2000, le web va laisser la place à deux innovations dont la concomitance va générer l’extraordinaire développement des plateformes au cours des années 2010 et l’économie des données. Il s’agit d’une part de l’apparition du web conversationnel avec la naissance des forums, des blogs et des réseaux sociaux. Ces derniers connaissent à la fin des années 1990 des essais infructueux. En 2002, le réseau social professionnel Linkedln est créé. En 2004, c’est au tour du réseau social Facebook dont l’extraordinaire expansion aura lieu à partir de 2007, date ô combien symbolique puisqu’il s’agit aussi de la création de l’iPhone d’Apple. Cette conjonction du smartphone et du réseau social va participer de « l’empowerment » du citoyen qui pourra en tout lieu et en tout temps participer au débat public. Facebook et Twitter auraient ainsi favorisé l’émergence du « printemps arabe » à partir de 2010.
Les GAFAM et le big data
Le smartphone dénommé iPhone par Apple, le réseau social YouTube racheté si rapidement par Google, participent par le « i » et le « You » de l’idée d’un homme augmenté, désormais participatif de la société, prenant en main son destin, acteur sans autorité supérieure de la société de demain (4). Cette idée s’est rapidement développée dans les nouvelles formes de management nées de la nouvelle économie. Elle a recours à une forme d’horizontalité du pouvoir où les salariés co-construisent le processus de décision et deviennent de véritables entrepreneurs d’eux-mêmes. Ce mélange de la culture protestante nord-américaine et de la pensée libertarienne s’internationalise par l’apport du numérique. Dans tout l’Occident, elle va pousser chacun à devenir des citoyens – mais aussi des consommateurs – augmentés. Ce ne sera pas sans lien avec le développement de la pensée transhumaniste qui connaît à la fin des années 2000 une forte popularité.
La crise économique de 2008 va paradoxalement propulser l’économie numérique. Pierre-Yves Gomez parle d’un « relais de croyance » pour relancer le capitalisme spéculatif mis à mal par la crise des subprimes (5). L’intelligence artificielle, l’innovation, l’internet globalisé, l’interconnexion globale deviennent les promesses économiques, sociales et politiques d’un avenir radieux. C’est ainsi que l’on voit apparaître des plateformes oligopolistiques constituant de véritables monopoles dans un espace web où les nations sont apparemment aux abonnés absents. Google, Amazon, Facebook, Apple et Microsoft forment les GAFAM tandis qu’en Chine se constituent les BHATX (Baïdu, Huawei, Alibaba, Tencent, Xiaomi). Cependant, ces empires financiers, à grand renfort de storytelling, ne sont pas sortis du néant. Le rôle de leurs gouvernements respectifs n’est pas à négliger. Le fondateur d’Ali Baba, Jack Ma, est membre du Parti communiste chinois. Les start-up de la Silicon Valley ont collaboré très tôt avec les services de renseignement américains (6). Le mythe des entrepreneurs qui ont élaboré à la force du poignet un exploit technologique est une illusion. Très tôt, la Chine et les États-Unis ont vu dans le numérique la possibilité d’étendre leur puissance. À la fin des années 2010, c’est l’ensemble des pays du monde qui prennent conscience de l’enjeu stratégique majeur que représentent le web et l’intelligence artificielle.
Les années 2010 sont caractérisées par le web des données. L’espace web était censé être le lieu de la gratuité, celui des logiciels libres. Mais les entreprises du numérique ont su en tirer profit autrement que par la publicité jugée inefficace, grâce à la captation des données. Le big data est devenu l’or noir du XXIe siècle. Exploiter cette somme immense de données qui circule à travers le monde est devenu un enjeu pour le marketing, pour la connaissance, mais aussi pour le développement de l’intelligence artificielle. Lors de la crise pandémique, les seuls logiciels de visio-conférence à s’être emparé du marché sont ceux de Google, de Microsoft et d’Apple. La puissance de ces logiciels, dont la force est de s’appuyer sur nos données, écrase les concurrents par leur efficacité ou leur ergonomie.
Vers une société de surveillance
Le rêve de l’intelligence artificielle qui avait pris naissance dans les livres de science-fiction dès les années 1950, et qui s’était accru avec le développement de l’informatique, avait vite été considéré comme une chimère à l’issue des années 1970. L’apparition de ces outils inédits – l’ordinateur portable, le smartphone ou la tablette – remet le sujet sur la table et rouvre les champs du possible. Le big data va nourrir les objets connectés qui nourriront à leur tour le big data. Les scientifiques parlent des machines « apprenantes », du deep learning (intelligence profonde) dont l’un des apôtres en France est Yann Lecun (ancien responsable de l’intelligence artificielle chez Facebook). L’idée d’une autonomisation progressive des machines serait l’enjeu de la décennie 2020, comme l’a laissé supposer en 2017 Vladimir Poutine en s’adressant à des étudiants russes : « L’intelligence artificielle représente l’avenir non seulement de la Russie, mais de toute l’humanité. Elle amène des opportunités colossales et des menaces imprévisibles aujourd’hui » (7).
Il est étonnant de voir que l’idéal libertaire préludant à l’invention du web a conduit à un univers ultra-connecté qui participe d’un « capitalisme de surveillance » et non d’un univers libre. En 2013, Edward Snowden, ancien membre de la CIA et de la NSA, révèle l’existence de plusieurs programmes de surveillance de masse aux États-Unis et en Angleterre. En 2014, la société Cambridge Analytica capte les données de 83 millions d’utilisateurs de Facebook pour pronostiquer les intentions de vote en faveur d’hommes politiques anglais et américains, sans leur consentement. Avec ces deux scandales récents au retentissement mondial, une prise de conscience est née et n’a fait qu’accroître des suspicions déjà présentes envers les États et les plateformes.
L’histoire de cette nouvelle technologie se conjugue avec l’histoire politique, économique et sociale de ce dernier demi-siècle. Le numérique accompagne ce qu’on appelle le « néolibéralisme » qui n’est en réalité que la forme renouvelée du libéralisme avec l’apport du libertarisme, du capitalisme financier et du nouveau management. Mais, comme à chaque fois, la liberté indéterminée qu’elle défend se retourne contre la liberté concrète. L’homme du numérique se déclare désormais et paradoxalement libre de toute entrave dans le cadre d’une surveillance globalisée. Pour rejoindre le travail prémonitoire de Claude Polin (8), l’excès de liberté conduit à une société de contrôle acceptée par tous. Par rivalité mimétique et par nécessité, il est à craindre que l’Occident prenne le même chemin que le totalitarisme chinois.
Pierre Mayrant
(1) Dominique Cardon, Culture numérique, Presses de Sciences-Po, 2019, p. 29.
(2) ICANN (Internet Corporation for Assigned Names and Numbers) et W3C (World Wide Web Consortium).
(3) Voir l’intégralité de cette déclaration sur le site Cairn.info.
(4) Éric Sadin, La fin d’un monde commun, l’ère de l’individu tyran, Grasset, 2020.
(5) Pierre-Yves Gomez, L’Esprit malin du capitalisme, Desclée de Brower, 2019.
(6) Pascal Boniface, Géopolitique de l’intelligence artificielle, Eyrolles, 2021, p. 127.
(7) Cité dans le site web La Revue du digital, Vladimir Poutine : « le leader en intelligence artificielle dominera le monde », article du 2 septembre 2017.
(8) Claude Polin, L’Esprit totalitaire, Sirey, 1977.
© LA NEF n°337 Juin 2021