Résumé : Le Deuxième Age de la Machine – Eric Brynjolfsson et Andrew McAfee

Résumé complet de l'ouvrage de référence de Brynjolfsson et McAfee sur le futur de l'innovation technologique

The Second Machine Age Couverture

Mise à jour: l’ouvrage est désormais traduit en français sous le titre « Le deuxième âge de la machine ». Ce résumé est basé sur l’édition américaine.

Dans leur ouvrage de Février 2014, les deux professeurs de la business school du MIT livrent leur vision sur les perspectives offertes par les nouvelles technologies.

Et ils n’y vont pas avec le dos de la cuillère en annonçant l’entrée une ère nouvelle, qui rompt avec tous les modèles passés : un second âge des machines qui débute quelques 200 ans après la première révolution industrielle.

Andrew McAfee a une formule assez parlante pour décrire sa thèse : dans le futur nous allons voir de plus en plus de choses qui ressemblent à de la science-fiction et du moins en moins qui ressemblent à des emplois. Le décor est posé.

L’essai regorge d’exemples que je ne citerai pas directement ici mais dont je reparlerai dans de prochains articles. Tous pointent néanmoins dans la même direction : des compétences qu’on a très longtemps pensées l’apanage exclusif des hommes sont en train d’être acquises par des machines. Manipuler des objets fragiles, interagir avec un environnement instable, percevoir le monde, faire preuve de créativité (ou du moins en donner l’illusion)… Pour les deux américains il est clair que la technologie devient capable de choses proprement inimaginables, au point de changer durablement le monde

Pourquoi nous ne sommes pas à l’aube d’une « simple » troisième révolution industrielle mais bien d’un second âge des machines ?

Certaines inventions ont déjà changée à elles seules la face du monde, notamment la machine à vapeur et l’électricité. Tout comme la technologie digitale, il s’agit de General Purpose Technologies. On les reconnaît car elles sont globales, c’est à dire qu’elles touchent tout le monde et pas un secteur de l’économie en particulier, elles s’améliorent en permanence et qu’elles permettent de nouvelles innovations ultérieures.

Oui mais cette fois-ci, l’innovation technologique présente 3 caractéristiques singulières :

  • Les progrès suivent une croissance exponentielle
  • L’information est désormais digitale
  • L’innovation est décuplée par un effet combinatoire

Loi de Moore et progrès exponentiel

La première composante renvoie à la fameuse loi de Moore, nom de l’un des fondateurs d’Intel qui a conjecturé en 1975 que la puissance des processeurs informatique doublerait tous les 18 mois. Pourtant basée sur sa seule intuition, cette prédiction s’est révélée exacte depuis plus de 40 ans.

Ce que relève les auteurs c’est que cette loi abstraite peut se traduire par des gains de puissance brute, mais également en terme d’efficience énergétique, d’encombrement et bien sur de prix. Or ces mêmes gains se transmettent à toutes les technologies basées sur des processeurs informatiques.

Pour visualiser, sachez que l’ordinateur de guidage d’Apollo 11 qui permit au vaisseau américain d’atterrir sur la lune était 1300 moins puissant que votre iPhone 5S. Par ailleurs, votre smartphone remplace aussi avantageusement ce qui remplissait une pleine page du catalogue de Radioshack (célèbre chaine de magasin d’électronique aux Etats-Unis) et accessoirement un coffre de voiture pour un prix bien moindre.

Enfin ce qu’il est important de garder en tête c’est que la vélocité du progrès va aller en s’accélérant de manière toujours plus rapide. Si on dispose d’un ordinateur capable de modéliser les réactions nucléaires au sein du Soleil, cela veut dire qu’on pourra s’intéresser à des simulations 2 fois plus complexes 18 mois plus tard. Ce qui fait dire à certains qu’un jour une conscience informatique émergera. Je ne m’attarde pas là dessus puisqu’en parlerai dans un prochain article.

La digitalisation du monde

Nous avons aussi assisté ces dernières décennies à une transition des technologies analogiques vers leurs homologues numériques qui bénéficient de la loi de Moore. Les senseurs et capteurs (caméras, microphones, accéléromètre …) ont énormément gagné en qualité et en accessibilité. A titre d’exemple les auteurs citent les systèmes LIDAR qui permettent notamment aux Google Car de percevoir leur environnement. Le fournisseur de Google les facturait 35 millions de dollar l’unité en 2000, 80.000 en 2013.

En définitive tout le matériel informatique progresse selon cette logique, à l’exception notable des batteries qui relève toujours d’un processus essentiellement chimique.

Le passage de l’analogique au numérique a également été celui du papier au bit numérique. L’information est désormais avant tout digitale ce qui présente deux conséquences majeures :

  • Elle est non rivale (à l’inverse d’un livre, plusieurs personnes peuvent y accéder simultanément)
  • Son coût marginal de reproduction est quasiment nul (pensez à la facilité à copier des films ou des fichiers musicaux d’un ordinateur à un autre)

Or aujourd’hui un algorithme est capable de tâches cognitives proprement hallucinantes comme déterminer les influences d’un peintre à condition qu’il dispose d’une base de donnée suffisante pour « affûter son jugement ».

Ça tombe bien puisque :

  • L’avènement des capteurs digitaux permet justement d’abaisser considérablement le coût d’acquisition des données tout en gagnant en qualité.
  • La loi de Moore s’applique également au stockage des données
  • Nous nous servons majoritairement d’outils informatiques pour communiquer ce qui rend exploitable par les machines le travail humain. Ainsi le matériel de base de Google Translator est l’historique complet des documents de l’ONU qui sont systématiquement traduits en plusieurs langues.
  • La puissance informatique disponible pour 1 dollar augmente continuellement ce qui permet de traiter plus efficacement ces données

L’information devient donc plus facilement accessible et de plus en plus abondante. Les auteurs citent CISCO Systems qui estime que le trafic Internet a été multiplié par 12 entre 2006 et 2011.

Internet démultiplie le pouvoir de la collaboration

Brynjolfsson et McAffe soutiennent enfin que l’innovation précède la plupart du temps d’une recombinaison ingénieuse ou originale de ce qui existait auparavant et rarement d’un théâtral coup de génie. Or les moyens de communication sont tout bonnement excellents aujourd’hui et les entreprises et universités échangent au niveau mondial. La moindre avancée se diffuse presque instantanément et peut être réutilisée par tout le monde.

On commence d’ailleurs à parler d’intelligence collective. Le livre rapporte l’histoire étonnante de la NASA qui publia sur la plateforme Innocentive l’état de 35 années de recherches infructueuses sur un domaine de l’étude des particules solaires. Et un ancien ingénieur spécialiste des fréquences radio répondit avec un modèle fiable à 85% en se basant sur sa connaissance des phénomènes magnétiques et aucunement sur un bagage astrophysique. Le fameux think outside the box

L’innovation va se poursuivre et s’accélérer

On est donc en présence du cadre suivant : on a une technologie dont le moteur double en puissance tous les 2 ans. Lorsqu’on « branche » ce moteur sur de très larges jeux de données, on devient en mesure de rivaliser et bientôt de surpasser les hommes dans de nombreux domaines jusque là préservés. Par ailleurs ce moteur en progrès permanent est utilisé aussi pour récolter toujours plus de données. Enfin les perspectives de résoudre les problèmes rencontrés sont amplifiées par un partage relativement universel de l’information et donc des solutions.

Face à un tel cercle vertueux, McAffee et Brinjolfsson concluent que nous ne sommes qu’au début d’une révolution technologique. 

Concrètement cela veut dire que les prototypes incroyables que l’on voit à l’œuvre aujourd’hui vont arriver très vite sur les marchés grand public, surement dans moins de 10 ans.

Nos économies et nos sociétés en question

La croissance économique créé beaucoup moins d’emplois que par le passé

Les critiques pourront opposer à cette vision qu’elle ne se traduit pas dans les faits. La croissance de la productivité ralentit effectivement depuis les années 1970. Les auteurs se défendent de la manière suivante :

  • Il y a un décalage entre l’introduction d’une technologie et sa traduction en terme de gain de productivité. Les usines mirent 20 à 30 ans à être réorganisées après le passage au moteur électrique. Les auteurs estiment que pour chaque euro dépensé en matériel il faut en investir 9 autres en formation et en coûts engendrés par la réorganisation.
  • La réalité du monde digitale est difficilement capturable par les statistiques économiques. Passer des appels via Skype est un service génial mais cela ne génère pas de PIB. De même Wikipedia a cannibalisé les ventes des encyclopédies papiers sans prendre forcement le relai en terme de flux marchands.

Néanmoins nous réalisons toujours des gains de productivité. En revanche pour la première fois depuis 200 ans, ils n’entrainent plus avec eux une hausse de l’emploi. Le découplage est net depuis les années 1970. Dis autrement, nous arrivons toujours à produire de la croissance mais une faible partie de la population en tire l’essentiel des fruits.

Des millions d’emplois sont tout bonnement menacés de disparation sous la concurrence des progrès de l’automatisation. L’acmé de certaines profession est même déjà bien loin : les ouvriers peu qualifiés, les secrétaires, les guichetiers …

Les créations d’emplois à temps plein sont historiquement basses depuis 2009. Les auteurs émettent l’idée que la crise a constitué l’opportunité d’une première rationalisation des entreprises à l’ère digitale. Il est en effet difficile de supprimer des emplois en période de prospérité. On peut penser qu’une bonne partie des emplois perdus durant la crise ne sera jamais recréée.

La nouvelle économie fonctionne par ailleurs sur un modèle winner take all : le meilleur acteur rafle toute la mise et pas seulement une part de marché. Elle favorise l’émergence de champions qui ne se limitent pas à un bassin local de clientèle.

Par exemple, il est courant aux Etats-Unis de passer par un professionnel pour remplir sa déclaration d’impôt. Désormais des entreprises proposent des logiciels qui remplissent la même fonction pour un prix moindre. Les consommateurs y gagnent certes. Mais les milliers d’emplois dédiés vont surement être remplacés par une poignée d’éditeurs ; ce qui était auparavant un marché réparti entre une multitude de petits acteurs est désormais partagé entre quelques entités. Les milliers d’emplois deviennent une centaine de programmeurs, des commerciaux et quelques administratifs.

Il en découle un formidable risque pour la montée des inégalités dans la société. Risque qui est confirmé par les statistiques officielles. Aux Etats-Unis :

  • Le salaire médian a atteint un pic en 1999, autrement dit les bas salaires ne progressent plus.
  • D’après les travaux d’Acemoglu et d’Autor, les hausses de salaire sont beaucoup plus hétérogènes depuis les années 1970 selon le niveau d’étude (en faveur des plus diplômés).
  • La mobilité sociale est en forte baisse.

De plus on peut noter qu’au niveau macro-économique, à mesure que les robots remplacent les hommes, le rapport entre le capital et le travail se modifie en faveur des détenteurs de capital.

Enfin la sociologie du chômage a mis en évidence ses conséquences statistiquement néfastes sur le taux de divorce, la participation aux élections ou encore le taux d’incarcération.

Quel avenir pour nos sociétés ?

Les auteurs proposent une analyse classique du rapport coût / bénéfice de la situation. D’un côté l’innovation a permis les progrès de la médecine, un accès quasi gratuit à la connaissance et a libéré les travailleurs de bon nombre de tâches pénibles

D’un autre, les inégalités se sont renforcées sans pour autant que le niveau général de richesse augmente. 1% de la population peut s’enrichir d’un facteur 10 si cela permet dans le même temps à tout le monde de progresser d’un facteur 2. Cet état de fait en vigueur depuis l’après-guerre a désormais du plomb dans l’aile.

Les inégalités présentent donc un risque de troubles sociaux profonds dans la société qui n’est tout simplement pas souhaitable.

De plus elles pourraient venir gripper la mécanique d’innovation actuellement à l’œuvre :

  • En « empêchant » des génies potentiels d’émerger notamment par un accès limité à l’éducation
  • En poussant les politiques à adopter des mesures sociales qui viendraient entraver l’innovation (réglementations limitant le déploiement des technologies, mécanismes de taxation / redistribution susceptibles de décourager les entrepreneurs)

Les auteurs maintiennent malgré tout une vision relativement optimiste de l’avenir. Ils esquissent en fin d’ouvrage les pistes de solution suivantes :

  • La clef de l’avenir est dans la collaboration humain machine. On sait qu’un ordinateur a été capable de battre un champion du monde d’échec, on sait moins que ce même ordinateur a été défait par une équipe humaine assistée de son propre ordinateur.
  • La technologie nous permet d’envisager des systèmes de taxation extrêmement perfectionnés afin de contrebalancer les externalités négatives. Ainsi on sait désormais gérer une politique de prix dynamiques dans les péages urbains pour réguler la congestion routière.
  • Les systèmes sociaux actuels sont inadaptés au monde qui s’annonce. Les auteurs se prononcent en faveur du revenu de base ou du système d’impôt négatif préconisé par Milton Friedmann.

Mon avis sur ce livre

Brynjolfsson et McAffe livrent un ouvrage assez complet et dressent un état des lieux précis de notre situation actuelle. La première partie dans laquelle ils bâtissent un cadre d’analyse de l’ère digitale est particulièrement intéressante et foisonne d’exemples (assez connus pour les personnes qui s’intéressent à la question cependant).

En personnes intelligentes, les deux universitaires se doivent par honnêteté intellectuelle d’expliquer également la face sombre de leur analyse dans une deuxième partie qui est beaucoup moins réjouissante.

On les sent au final tiraillés à la fin de l’essai entre leur foi inébranlable dans l’apport positif de la technologie et les conclusions où les a portés la deuxième partie. Les dernières pages consacrées aux solutions auraient gagné à être étoffées car elle paraissent légères face à la robustesse du reste de l’ouvrage.

Share Button

Leave a Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *