C'est une énième étude – émanant, cette fois, des équipes de recherche de Barclays – qui nous le dit : la vague d'automatisation que nous connaissons actuellement ne créera pas un monde sans travail, même si elle n'a pas que des effets positifs. Mais le raisonnement tenu est-il pertinent et ne jette-t-il pas un doute sur ses conclusions ?
Selon les rédacteurs du rapport, l'impact de la robotisation et de l'intelligence artificielle au niveau macro-économique doit être relativisé pour deux raisons majeures. D'une part, lors de l'introduction d'une technologie disruptive, l'automatisation partielle (c'est-à-dire affectant seulement certaines tâches dans les domaines concernés) serait prédominante par rapport à une substitution totale à l'humain. D'autre part, l'adaptation serait facilitée parce que les sauts de productivité suivent les innovations avec retard.
Forts de ces convictions, ils confirment, comme la plupart de leurs collègues, qu'il ne faut pas craindre une réduction du nombre d'emplois, car la baisse des coûts de production due à l'automatisation entraîne une augmentation de la demande, qui requiert un surcroît de main d'œuvre, et la création de métiers entièrement nouveaux. Ils admettent toutefois que le travail tend alors à devenir moins exigeant en compétences, donc accessible à une population plus large, ce qui induit une pression sur les salaires.
Sans être idyllique, le tableau dressé se veut rassurant. Mais est-il réaliste ? On peut légitimement se poser la question quand on comprend que le scénario proposé n'a quasiment rien à voir avec une analyse prospective (y compris avec ses probabilités d'erreur) mais est, en réalité, une synthèse des observations des grandes mutations du passé, simplement plaquée sur les enjeux de notre époque. En d'autres termes, l'humanité a su s'adapter aux changements précédents, elle surmontera le prochain…
Selon les rédacteurs du rapport, l'impact de la robotisation et de l'intelligence artificielle au niveau macro-économique doit être relativisé pour deux raisons majeures. D'une part, lors de l'introduction d'une technologie disruptive, l'automatisation partielle (c'est-à-dire affectant seulement certaines tâches dans les domaines concernés) serait prédominante par rapport à une substitution totale à l'humain. D'autre part, l'adaptation serait facilitée parce que les sauts de productivité suivent les innovations avec retard.
Forts de ces convictions, ils confirment, comme la plupart de leurs collègues, qu'il ne faut pas craindre une réduction du nombre d'emplois, car la baisse des coûts de production due à l'automatisation entraîne une augmentation de la demande, qui requiert un surcroît de main d'œuvre, et la création de métiers entièrement nouveaux. Ils admettent toutefois que le travail tend alors à devenir moins exigeant en compétences, donc accessible à une population plus large, ce qui induit une pression sur les salaires.
Sans être idyllique, le tableau dressé se veut rassurant. Mais est-il réaliste ? On peut légitimement se poser la question quand on comprend que le scénario proposé n'a quasiment rien à voir avec une analyse prospective (y compris avec ses probabilités d'erreur) mais est, en réalité, une synthèse des observations des grandes mutations du passé, simplement plaquée sur les enjeux de notre époque. En d'autres termes, l'humanité a su s'adapter aux changements précédents, elle surmontera le prochain…
Il n'est certes pas interdit de considérer l'avenir avec cet optimisme modéré, en estimant que les conditions actuelles ne sont pas très différentes de celles qui servent de référence. Mais il est permis de supposer que quelques facteurs spécifiques sont susceptibles de perturber le modèle historique. Non seulement peut-on ainsi prendre l'hypothèse que la nature des transformations d'aujourd'hui a ses particularités, mais il faut aussi s'interroger sur l'accélération technologique contemporaine, qui a toutes les chances de changer radicalement la manière dont ses impacts sont absorbés.
Dans un autre registre, le contexte global de la révolution que nous sommes en train de vivre aura probablement une influence directe sur son déroulement et son issue. Le défi du réchauffement climatique, par exemple, contribuera probablement aux choix stratégiques qui se présenteront. En réalité, il sera même, sans aucun doute, déterminant pour la réalisation du potentiel de l'automatisation, notamment en termes de sélection des priorités. Ignorer ces possibilités rend l'exercice prospectif futile.
Nul n'est capable de prédire l'avenir que nous réservent les progrès de l'intelligence artificielle et sa généralisation. En revanche, au vu des enjeux (et de ce que nous apprend l'histoire), il est indispensable d'envisager tous les scénarios plausibles (sans tomber dans l'hystérie) et, pour chacun d'eux, de concevoir des plans d'action concrets permettant d'en absorber le choc. Ceux qui persistent à nier les incertitudes et les risques ne rendent service à personne et endossent une dangereuse responsabilité.
Dans un autre registre, le contexte global de la révolution que nous sommes en train de vivre aura probablement une influence directe sur son déroulement et son issue. Le défi du réchauffement climatique, par exemple, contribuera probablement aux choix stratégiques qui se présenteront. En réalité, il sera même, sans aucun doute, déterminant pour la réalisation du potentiel de l'automatisation, notamment en termes de sélection des priorités. Ignorer ces possibilités rend l'exercice prospectif futile.
Nul n'est capable de prédire l'avenir que nous réservent les progrès de l'intelligence artificielle et sa généralisation. En revanche, au vu des enjeux (et de ce que nous apprend l'histoire), il est indispensable d'envisager tous les scénarios plausibles (sans tomber dans l'hystérie) et, pour chacun d'eux, de concevoir des plans d'action concrets permettant d'en absorber le choc. Ceux qui persistent à nier les incertitudes et les risques ne rendent service à personne et endossent une dangereuse responsabilité.
A force d'entendre parler de l'IA à toutes les sauces dans tous les médias (qui ne connaissent souvent pas grand chose à l'informatique), et des révolutions qu'elle va entrainer tout azimuths, il serait bon de se pencher sur ce que désigne ce terme IA d'un point de vue technique.
RépondreSupprimerTout d'abord, ce n'est pas la première fois que l'IA excite les esprits. Au début des années 90, l'IA allait alors tout révolutionner. Les machines allaient devenir intelligentes, parler, comprendre des textes, savoir les résumer, etc... A la base de cette croyance, il y avait des nouveaux languages de programmation comme le prolog (et beaucoup d'autres), qui avec une approche algorithmique récurcive plutôt que séquentielle étaient capable de faire de nouvelles choses jusqu'ici difficiles. C'est cette vague, associée à l'augmentation des puissances mémoire/CPU qui par exemple, a permis aux logiciels d'echec de battre n'importe quel humain, ou au pire de faire match nul. Ces techniques récursives ont été utilisées dans quelques domaines finalement assez peu nombreux.
Les machines sont-elles devenues intelligentes pour autant ? Non bien sûr. Et les rêves d'IA sont retombés d'eux mêmes.
Depuis quelques années, c'est le grand retour de l'IA, du machine learning, du deep learning et j'en passe. Des termes dont la plupart des commentateurs sont incapables de décrire la réalité qu'il recouvrent. Ces nouvelles techniques font toutes la même chose in fine. Elles font de la "recherche de similitudes". Pour rechercher des similitudes, il faut bien sûr disposer d'un reservoir de données conséquent, comme base de référence. Celui-ci est amenée par les nouvelles technologies de stockage dite "Big Data".
Les techniques "d'IA" d'aujourd'hui se basent sur l'analyse de ces données passés, pour rechercher des similitudes, rien de plus. Elles seront à l'aise pour déterminer si les données d'un client par exemple (ses transactions, ses recherches web, etc), se rapprochent plutôt de tel autre client ou tel autre groupe de client, afin de proposer un produit ou une solution adaptée. Ou si un mail parle plutôt de telle ou telle question, etc.
Point "d'intelligence articielle" là dedans. Les problèmes résolus par les machines seront plus nombreux, parfaitement identifiés et compris, sans que cela ne change fondamentelent les choses. On ne dira pas plus demain que l'ordinateur est intelligent que l'on ne croit aujourd'hui qu'un logiciel d'echec est intelligent (et pourtant, on ne sait pas comment il fait).
Bref, tout cela pour dire que l'IA ne va pas supprimer des tas d'emploi du jour au lendemain, loin de là. Il y a bien plus à craindre des logiciels qui ne contiennent aucune IA. Comme par exemple, les caisses sans caissiers. Et bien d'autres comme cela...
Patrick, mon point est justement de prendre garde à ce type de raisonnement. Ce n'est pas parce que les transformations actuelles sont marginales qu'il faut négliger le risque futur d'une vraie rupture.
Supprimer