« La technologie n’est ni bonne ni mauvaise, et elle n’est pas neutre.» Melvin Kranzberg
Introduction : une rupture dans l’histoire des techniques
Depuis la première révolution industrielle, chaque mutation majeure de l’appareil productif a suscité des débats analogues : promesses d’efficacité, craintes de déclassement, interrogations sur la place de l’humain dans le système économique. L’intelligence artificielle s’inscrit dans cette continuité, mais en modifiant la nature même de ce qui est automatisé.
Là où les vagues précédentes ciblaient la force physique — machines à vapeur, chaînes de montage, robots industriels —, l’IA agit au cœur du travail cognitif : collecte et tri de l’information, rédaction, traduction, analyse, planification, aide à la décision.
En quelques années, des systèmes d’IA ont été intégrés à un grand nombre d’outils existants : moteurs de recommandation dans le commerce, algorithmes de scoring de crédit, logiciels de recrutement filtrant les candidatures, systèmes d’aide au diagnostic médical, plateformes de gestion de stocks ou de logistique. Le phénomène touche des secteurs aussi divers que la finance, le commerce de détail, la santé, l’industrie, l’éducation ou les services publics [2][3].
L’ampleur de la recomposition se mesure dans les projections du FEM : si le solde net anticipé sur cinq ans n’est que légèrement négatif, la rotation interne est considérable, avec près d’un quart des emplois qui devraient connaître une transformation significative de leur contenu ou de leur existence [2]. De son côté, l’OCDE montre que les emplois « à haut risque d’automatisation » tendent, même lorsqu’ils ne disparaissent pas, à connaître une stagnation des salaires et une moindre création nette de postes [7]. Ces analyses convergent vers l’idée que l’IA ne provoque pas mécaniquement une disparition brutale du travail, mais accélère une recomposition qui fragilise certains groupes plus que d’autres.
I. Une transformation de nature, pas seulement de degré
Les études de l’OCDE sur l’automatisation offrent un cadre quantitatif robuste. En combinant les données sur la structure des tâches (enquêtes PIAAC) et des hypothèses sur la capacité des technologies numériques à reproduire ces tâches, elles concluent qu’en moyenne 14 % des emplois dans les pays membres présentent un risque élevé d’automatisation, tandis que 32 % supplémentaires sont susceptibles de voir une part importante des tâches transformée [1]. Il ne s’agit donc pas seulement de quelques métiers isolés, mais d’une recomposition de grande ampleur du contenu du travail.
Le Future of Jobs Report 2023 affine ce constat en adoptant une approche prospective centrée sur les anticipations d’employeurs. Selon ce rapport, élaboré à partir d’un panel couvrant 673 millions d’emplois formels, la perte nette de 14 millions d’emplois d’ici 2027 représente environ 2 % du total, mais les flux entrant et sortant sont très élevés : 83 millions de postes devraient disparaître et 69 millions être créés sur la période [2]. Les destructions se concentrent dans certaines familles professionnelles — employés de bureau, comptables, caissiers, postes administratifs — tandis que les créations se situent principalement dans les domaines de l’analyse de données, de la technologie, de la durabilité et de certains services avancés [3].
Une note de l’OCDE consacrée au devenir des emplois à haut risque d’automatisation montre que, sur la dernière décennie, ces emplois n’ont pas forcément été détruits massivement, mais qu’ils ont connu un rythme de création plus faible et une dynamique salariale plus lente que les autres catégories [7]. Cette observation nuance l’idée d’un choc brutal, mais souligne un glissement progressif vers une polarisation entre emplois très qualifiés, relativement protégés, et emplois peu qualifiés de services, moins stables et moins rémunérés.
II. Les promesses : efficacité, sécurité, nouveaux métiers
Les travaux synthétisés dans l’OECD Employment Outlook 2023 mettent en avant des gains de productivité significatifs liés à l’adoption de l’IA dans certains secteurs. Dans des domaines comme la finance, la logistique ou le service client, les entreprises qui déploient l’IA à grande échelle déclarent des améliorations de performance de l’ordre de 15 à 30 % sur certaines fonctions, en raison d’une automatisation du traitement de l’information, d’une meilleure allocation des ressources et d’une réduction des erreurs [4]. Ces estimations, issues de données d’entreprises et d’enquêtes, doivent être interprétées avec prudence, mais elles donnent un ordre de grandeur de l’effet potentiel.
Sur le plan de la santé et de la sécurité au travail, les études de l’OCDE et de l’Organisation internationale du travail montrent que l’automatisation de certaines opérations dangereuses (exploitation minière, manutention lourde, interventions en milieux contaminés) ainsi que l’usage de systèmes de détection de risque basés sur l’IA peuvent contribuer à réduire la fréquence des accidents, en retirant les travailleurs des situations les plus exposées ou en signalant des comportements à risque [5]. Dans les secteurs de services, des outils d’assistance à la rédaction, de gestion intelligente des communications et de planification automatisée peuvent, en théorie, alléger la charge cognitive et administrative.
Au Canada, des estimations expérimentales de Statistique Canada indiquent qu’une proportion importante des emplois est exposée à l’IA, sans pour autant être menacée de disparition immédiate. L’exposition s’exprime souvent sous forme de complémentarité : les modèles automatisent certaines tâches de collecte ou de traitement, tandis que les travailleurs demeurent responsables de l’interprétation, de la supervision et du contact humain [6]. Cette dynamique favorise l’émergence de nouveaux métiers et de profils hybrides, associant expertise sectorielle (santé, droit, éducation, finance) et compréhension des systèmes algorithmiques.
Dans ce contexte, l’économiste Joseph E. Stiglitz rappelle que les gains de productivité issus des technologies ne se traduisent pas automatiquement par une amélioration de la condition des travailleurs :
« La question n’est pas de savoir si la technologie crée de la richesse, mais de savoir comment cette richesse est distribuée.» Joseph E. Stiglitz
Cette mise en garde situe clairement l’IA dans une problématique de répartition des bénéfices, plutôt que dans un débat simpliste entre optimisme technophile et pessimisme technophobe [9].
III. Les risques : polarisation, contrôle, inégalités
Les projections du FEM sur les créations et destructions d’emplois mettent clairement en évidence une polarisation du marché du travail [2][3]. Les emplois de bureau routiniers, les fonctions administratives standardisées, certains segments de la comptabilité ou de la saisie de données apparaissent particulièrement exposés. En parallèle, les métiers très qualifiés qui combinent maîtrise technique, compétences analytiques et responsabilités relationnelles sont en croissance, tout comme certains emplois peu qualifiés de services de proximité. Les travaux de l’OCDE sur les emplois à risque confirment cette tendance à l’érosion des emplois intermédiaires [7].
Un autre axe de préoccupation réside dans la gestion algorithmique. Des recherches récentes de l’OCDE montrent que des systèmes d’IA sont utilisés pour organiser le travail, fixer les objectifs, mesurer les performances et déterminer les rémunérations dans des secteurs aussi variés que la logistique, la livraison à la demande, certains centres de contact ou des activités de bureau structurées [8]. Ces dispositifs peuvent améliorer la cohérence et la réactivité des décisions, mais ils peuvent également réduire l’autonomie des travailleurs, intensifier le rythme de travail et rendre opaques les critères d’évaluation.
Une note de politique publiée au niveau européen souligne le besoin d’accroître la transparence des systèmes de gestion algorithmique, d’informer clairement les travailleurs sur l’usage de ces outils et de garantir des voies de recours lorsque des décisions significatives (horaires, sanctions, licenciements) reposent en partie sur des traitements automatisés [11]. L’enjeu n’est pas seulement la protection de la vie privée, mais la préservation d’un minimum de contrôle humain sur les trajectoires professionnelles.
Les effets de l’IA sur les inégalités apparaissent nettement dans les études régionales. Au Québec, une analyse conjointe de l’Institut du Québec et du Conseil canadien pour la réussite des jeunes estime qu’environ 18 % de la main-d’œuvre, soit 810 000 travailleurs, occupent des emplois jugés vulnérables à l’automatisation, avec une surreprésentation des femmes et des travailleurs plus âgés dans ces catégories [10]. Le rapport souligne également des différences sectorielles et territoriales marquées, les grandes entreprises urbaines ayant davantage les moyens d’investir dans la formation et l’adaptation.
À l’échelle des entreprises, la Banque de développement du Canada (BDC) observe que si 39 % des dirigeants pensent utiliser l’IA, ce chiffre s’élève à 66 % lorsqu’on leur présente une liste de logiciels intégrant effectivement des modules d’IA [11]. Une part significative des entreprises est donc déjà engagée dans l’adoption de ces technologies, parfois sans en mesurer pleinement les implications pour l’organisation du travail et les compétences requises.
Sur le plan macroéconomique, la littérature sur les inégalités — à laquelle Stiglitz a largement contribué — insiste sur le fait que, dans des contextes institutionnels où le pouvoir de négociation des travailleurs est limité, les gains de productivité liés à l’innovation tendent à se concentrer du côté du capital, plutôt que de se traduire par des hausses de salaires ou des améliorations des conditions de travail [9]. Appliquée à l’IA, cette lecture suggère qu’en l’absence de mécanismes de redistribution et de régulation, la technologie peut jouer un rôle de multiplicateur d’inégalités.

IV. Encadrer la transition : formation, régulation, redistribution
La littérature économique et les rapports d’organisations internationales convergent sur un premier levier : la formation. Les analyses de Statistique Canada et de l’OCDE indiquent qu’une fraction importante de la main-d’œuvre devra se requalifier ou adapter ses compétences pour rester employable dans un marché du travail traversé par l’IA [6]. Il ne s’agit pas uniquement de former des spécialistes de l’IA, mais de diffuser une littératie algorithmique de base permettant de comprendre le fonctionnement et les limites des systèmes utilisés au travail, ainsi que leurs implications sur l’évaluation et la carrière.
Sur le plan réglementaire, l’Union européenne a adopté l’AI Act, premier cadre législatif d’ampleur explicitement dédié à l’intelligence artificielle. Ce texte introduit une approche fondée sur le risque, en classant les systèmes d’IA selon leur niveau de criticité et en imposant des obligations renforcées pour les usages à haut risque, notamment dans les domaines du recrutement, de l’évaluation de la performance, de l’accès au crédit ou des services publics essentiels [12]. L’accent est mis sur la transparence, la qualité des données, la gestion des risques et la supervision humaine significative.
Au Canada, le projet de loi C-27, qui inclut une Loi sur l’intelligence artificielle et les données, a suscité un débat important sur la manière d’encadrer les systèmes d’IA à impact élevé, en particulier ceux qui peuvent causer des préjudices physiques, psychologiques ou discriminatoires [13][14]. Les analyses du Montreal AI Ethics Institute mettent en lumière les tensions entre le souci de protection des citoyens, les impératifs d’innovation et les attentes des acteurs économiques [14]. Ces discussions illustrent le fait que la régulation de l’IA n’est pas un frein à la technique, mais une composante de sa légitimité sociale.
Enfin, même correctement encadrée, l’IA produira des gains de productivité substantiels. La question de leur distribution reste centrale. Des travaux de l’OCDE sur les effets distributifs des gains de productivité liés à l’IA soulignent la nécessité de politiques complémentaires : investissement dans les services publics (éducation, santé, transition écologique), soutien ciblé à la formation continue pour les travailleurs les plus exposés, et renforcement des mécanismes de négociation collective sur l’introduction des technologies dans les entreprises [15]. Sur le plan conceptuel, Jacques Ellul rappelait déjà, bien avant l’ère numérique, que la technique est fondamentalement ambivalente, porteuse à la fois de potentialités d’émancipation et de formes nouvelles de contrainte [16]. L’enjeu est moins de l’accepter ou de la refuser que de la gouverner.
Conclusion : une intelligence humaine à la hauteur de la machine
L’intelligence artificielle agit comme un révélateur. Elle met en lumière les priorités et les déséquilibres de nos sociétés. Si l’objectif implicite reste la réduction des coûts à court terme, l’IA risque d’être mobilisée principalement pour intensifier le contrôle, accroître la pression sur les travailleurs les plus vulnérables et concentrer davantage la valeur créée. Si, au contraire, les choix institutionnels privilégient la qualité de l’emploi, la santé au travail, la soutenabilité et l’inclusion, l’IA peut être intégrée comme un instrument de réorganisation plus rationnelle et plus équitable du travail.
Pour les jeunes générations qui entrent aujourd’hui sur le marché du travail, l’IA n’est pas un horizon lointain, mais un environnement déjà présent dans les outils, les procédures de recrutement et les modes de gestion. L’enjeu, pour elles comme pour l’ensemble des travailleurs, n’est pas de se positionner « pour » ou « contre » la technologie, mais de comprendre les logiques qu’elle porte, les institutions qui l’encadrent et les droits qui permettent d’en influencer l’usage.
Le futur du travail ne sera ni un paradis automatisé ni une dystopie sans emploi. Il sera le résultat de décisions très concrètes prises aujourd’hui en matière de formation, de régulation, de négociation collective et de redistribution. L’IA impose une exigence supplémentaire : développer, non seulement des systèmes techniques puissants, mais une intelligence collective capable d’orienter cette puissance dans un sens compatible avec la dignité et la justice sociales.
« Tout ce qui est techniquement possible n’est pas nécessairement souhaitable.» Jacques Ellul
Bibliographie
[1] OCDE (2018). Observer Roundtable on Local Firms and Automation. Paris : OCDE.
[2] World Economic Forum (2023). The Future of Jobs Report 2023. Genève : WEF.
[3] World Economic Forum (2023). The Future of Jobs Report 2023 – Key Findings and Sectoral Insights. Genève : WEF.
[4] OCDE (2023). OECD Employment Outlook 2023 – Artificial Intelligence and the Labour Market. Paris : OCDE.
[5] OCDE (2023). OECD Employment Outlook 2023 – Job Quality, Health and Safety in the Age of AI. Paris : OCDE.
[6] Statistique Canada (2024). Experimental Estimates of Potential Artificial Intelligence–Related Job Transformation in Canada. Ottawa : StatCan.
[7] OCDE (2021). What Happened to Jobs at High Risk of Automation? OECD Social, Employment and Migration Working Papers. Paris : OCDE.
[8] OCDE (2025). Algorithmic Management in the Workplace. Paris : OCDE.
[9] Stiglitz, J. E. (2018). People, Power, and Profits: Progressive Capitalism for an Age of Discontent. New York : W. W. Norton.
[10] Institut du Québec & Future Skills Centre – Centre des Compétences futures (2025). Impact of Automation and AI on the Workforce in Quebec. Montréal / Toronto.
[11] Banque de développement du Canada (2024). The AI Imperative for Canada’s Entrepreneurs. Montréal : BDC.
[12] BusinessEurope (2023). Algorithmic Management at Work: Improving Transparency and Worker Protection. Bruxelles : BusinessEurope.
[13] Commission européenne (2024). Artificial Intelligence Act – Regulatory Framework for AI in the EU. Bruxelles : Commission européenne.
[14] Gouvernement du Canada (2024). Bill C-27 – Digital Charter Implementation Act – Charter Statement and Background Documents. Ottawa : Ministère de la Justice.
[15] Montreal AI Ethics Institute (2025). The Death of Canada’s Artificial Intelligence and Data Act: What Happened and What’s Next for AI Regulation in Canada? Montréal : MAIEI.
[16] Ellul, J. (1954). La technique ou l’enjeu du siècle. Paris : Armand Colin.
Recevez nos analyses stratégiques chaque semaine Inscrivez-vous.