PEAK
Brisez les limites, réalisez vos ambitions.L’intégration de l’intelligence artificielle dans la stratégie organisationnelle de l’entreprise
Introduction
Dans la société actuelle, mue par l’urgence et l’instantanéité, une place importante est accordée aux nouvelles technologies et à leur pervasivité (Claverie, 2010) au sein des entreprises et dans nos vies. La puissance de calcul des machines, leur perfectionnement et leur développement accru dans l’ensemble des situations du quotidien (reconnaissance faciale, extraction des connaissances, etc.) illustrent
l’efficacité de l’intelligence artificielle (IA). Dès lors, la question de l’IA en tant qu’intelligence augmentée se pose. Selon Hassani et al. (2020), l’IA serait une intelligence augmentée grâce aux nouvelles technologies.
Pour Virginia Rometty (ex-CEO d’IBM), l’intelligence artificielle est complémentaire de l’intelligence humaine. Il ne s’agit pas d’opposer l’homme à la machine mais d’envisager un duo, une association entre les deux. L’IA et ses technologies (apprentissage automatique, apprentissage profond, chatbot, réseau neuronal, assistant virtuel et autres) vont donc largement remodeler les processus organisationnels des entreprises et rendre ces dernières plus performantes. Cependant, ces évolutions soulèvent des questions liées notamment aux situations de travail, aux conséquences de ce nouveau genre de pervasivité – où l’IA est souvent assimilée à un « disrupteur de l’emploi » –, à ses effets sur les conditions de travail des salariés et aux solutions permettant de faciliter son acceptation par ces derniers.
Un certain nombre d’ouvrages et de réflexions ont été élaborés à ce sujet. Toutefois, force est de constater que la notion d’IA reste assez abstraite, « au sens où elle ne repose pas sur des données empiriques issues du point de vue des acteurs concernés » (Tamari et al., 2021).
Il est indéniable que depuis une dizaine d’années, cette technologie a fait des progrès impressionnants dus notamment au big data, à l’augmentation de la puissance de calcul et au développement algorithmique. L’IA est donc en train de bouleverser l’organisation du travail, des processus et de l’emploi au sein des entreprises, avec des impacts notamment sur leur performance.
L’objectif de cette intervention est de répondre à ces interrogations en apportant un point de vue éclairé et basé sur la littérature scientifique ainsi que sur le sentiment des acteurs concernés. Pour ce faire, le premier point évoquera la perception et la définition de l’IA. Le deuxième point analysera les conséquences et les difficultés qu’elle engendre notamment dans le monde du travail. Enfin, le troisième point proposera des solutions pour sa bonne implémentation au sein des entreprises.
1. La perception de l’IA en entreprise par la science : le difficile défi d’une définition précise
La notion d’IA reste très vague pour les profanes. En Angleterre, par exemple, « 42 % des personnes interrogées ont proposé une définition plausible de l’IA, tandis que 25 % pensent qu’il s’agit de robots » (Cave et al., 2019). L’IA est donc un concept mal connu, voire méconnu.
La littérature scientifique contient une pléthore de définitions concernant l’IA. Par exemple, selon Gamkrelidze et al. (2020), elle peut se définir comme « un ensemble d’algorithmes, des machines, et plus largement des technologies sous différentes formes (logiciels, robotiques, etc.) qui s’inspirent de ou qui visent à imiter des facultés cognitives humaines comme la perception, la production et la compréhension du langage naturel, la représentation des connaissances, ou encore le raisonnement ». Selon Hassani et al. (2020) : « L’IA est essentiellement un système informatique qui reproduit la cognition humaine en utilisant des données auxquelles on accède à partir d’une source/système
différente pour prendre des décisions et apprendre à partir des modèles qui en résultent. »
L’IA se définit donc, selon nous, comme une forme d’intelligence informatique nourrie par l’augmentation technologique dans le but d’améliorer, grâce à l’imitation des facultés cognitives humaines, la prise de décision et l’apprentissage. Aujourd’hui, l’IA possède de multiples fonctionnalités : recherche et analyse d’informations, technologies de reconnaissance faciale, recommandation, prédiction, exécution des décisions… Son développement dans de nombreux domaines soulève des interrogations quant à ses effets, notamment
dans le monde du travail. La littérature scientifique regorge d’études qu’il est important d’analyser pour une meilleure compréhension du sujet.
2. Comprendre l’IA au sein de l’entreprise : les difficultés et les conséquences engendrées par cette technologie dans le monde du travail
La littérature aborde la question de la substitution de l’homme par les machines. Ce fameux « mythe de la substitution » (Dekker & Woods, 2002), ou scénario de « l’employé remplacé » (Ferguson, 2019), suppose un remplacement des travailleurs humains par des machines dotées d’une IA. La conséquence est une perte des emplois pour l’humain. On est donc plus dans une perception de substitution de l’humain que dans la perspective de son « augmentation » par l’IA (Zacklad, 2018). Cependant, il est utile de rappeler que les organisations, et notamment les entreprises, ont toujours eu la volonté, dans une logique de réduction des coûts et d’amélioration de leur efficacité et de leur performance, de transférer davantage de tâches aux machines. Tout a commencé lorsque la main-d’œuvre humaine (le travail manuel) a été remplacée par des chaînes de montage pour accomplir des tâches répétitives et mécaniques (Dopico et al., 2016).
Les études scientifiques à ce sujet ne vont pas toutes dans le même sens (Hassani et al., 2020a). Certains auteurs prévoient une forte automatisation des emplois. Par exemple, Frey et Osborne (2017) estiment que cette automatisation concernera 47 % des emplois aux États-Unis. En France, la part des emplois potentiellement automatisables est évaluée à 42 % (cabinet Roland Berger, 2014, p. 8). Cependant,
d’autres chercheurs (Arntz et al., 2016) nuancent ces chiffres, affirmant que seuls 10 à 15 % des métiers sont automatisables, et même qu’une automatisation totale est impossible. Il s’agirait donc surtout d’une hypermédiatisation trompeuse qui occulterait les opportunités d’emplois offertes par l’automatisation (Autor, 2015). La tendance s’orienterait, in fine, non pas vers une perte de l’emploi, mais plutôt vers une employabilité plus importante due à une réorganisation du travail et s’échelonnant dans le temps. Mieux encore, certaines recherches montrent que l’IA serait une source de création d’emplois. Wilson et al. (2017), par exemple, anticipent la création de trois nouvelles catégories d’emplois commerciaux et technologiques axés sur l’IA :
- Les « formateurs », dont le rôle consisterait à apprendre aux IA le langage des humains.
- Les « explicateurs », qui représenteraient l’interface entre les technologues et les chefs d’entreprises. Cette fonction est importante compte tenu de la complexité croissante des systèmes d’IA.
- Les « souteneurs », qui auraient pour tâche de contrôler le fonctionnement de l’IA et de vérifier le traitement adéquat de ses effets involontaires dans un délai rapide.
Il y a donc bien une émergence de nouveaux métiers et emplois liés à l’IA, notamment dans la conception des systèmes (Wilson et al., 2017).
Aussi, il est important de comprendre que tous les emplois ne sont pas automatisables. Par exemple, selon Dejoux (2018), les aspects humains d’un métier (la créativité, les relations sociales, la flexibilité, la précision, la capacité d’adaptation et de résolution des problèmes) seraient difficilement automatisables.
D’ailleurs, le rapport de France Stratégie (Benhamou, 2018) montre que les métiers tirant leur force des activités humaines et sociales et mobilisant des compétences dites cognitives, faisant appel à la créativité tout comme à la résolution de problèmes complexes, seront épargnés. Un regard sur les évolutions du travail et de la nature des métiers et des compétences professionnelles (Giblas et al., 2018) est également important. En effet, les modes de travail pourraient changer avec la délégation de tâches répétitives aux systèmes d’IA. Cela entraînerait un gain de temps qui pourrait être utilisé autrement par les salariés, par exemple, pour des compétences sociales et relationnelles (Villani et al., 2018) ou des formations.
Pour finir, il convient de s’interroger sur les effets de l’IA sur les acteurs d’un point de vue émotionnel. La relation qui s’instaure entre l’homme et la machine en situation de travail est aujourd’hui une évidence (Schweitzer & Puig-Verges, 2018). À ce sujet, les recherches montrent que des interactions sociales s’installent entre l’humain et la machine dotée d’une IA. Reeves et Nass (1996) expliquent que les attentes sociales sont les mêmes lorsque nous communiquons avec des entités artificielles, et que nous assignons à celles-ci des règles d’interactions sociales. Cet état de fait se propage de façon intrusive chez l’homme, allant jusqu’à interférer dans la prise de décision et ayant des effets pervers sur celle-ci. Par exemple, dans certains cas, l’homme déléguera certaines décisions à la machine dotée d’une IA même si son choix à lui, en raison de son origine humaine, est meilleur (Agrawal et al., 2019).
Aussi, même si les recherches montrent que l’IA peut avoir un effet positif sur le bien-être des employés dès lors qu’on l’utilise dans une optique « d’augmentation et non de substitution » (Henkel et al., 2020), d’autres questions demeurent, notamment celle du lien entre savoir-faire et fierté, dans une perspective de complémentarité de travail avec une machine dotée d’une IA (Dignum, 2018).
Une autre difficulté concerne l’interaction homme-IA, et plus précisément la notion de confiance face à un algorithme dont la neutralité est remise en question. En effet, Yapo et Weiss (2018) démontrent comment les algorithmes issus du machine-learning sont affectés par des biais issus des programmeurs, alors que leur neutralité est censée être un atout et une force. La recherche montre que certaines erreurs
algorithmiques peuvent être d’origine humaine dès le départ. Il peut s’agir aussi d’un biais lié aux données, entraînant des résultats discriminants, comme l’oubli d’une population dans le calcul du risque d’un crédit, provoquant un refus de prêt systématique pour une certaine catégorie d’individus. Un autre exemple concerne la reconnaissance faciale où, dans le cadre d’infractions de droit commun, des personnes noires peuvent être davantage identifiées que les autres et donc plus souvent interpellées sans raison par les policiers aux États-Unis. C’est d’ailleurs pour cela que de nombreux États américains ont été contraints d’abandonner la reconnaissance faciale dans le champ de la sécurité des personnes.
Ces algorithmes biaisés sont corrigés par d’autres biais, affectant leur neutralité et créant des conflits d’ordre éthique. Tous ces problèmes plaident pour une bonne implémentation de l’IA dans les entreprises.
3. Recommandations pour une bonne implémentation de l’IA au sein des entreprises
Dans la littérature scientifique, trois solutions sont préconisées : la collaboration, la proactivité et l’acceptation de l’IA par les acteurs.
3.1. La collaboration
La collaboration humain-machine permet de pallier le problème d’un contrôle total de la machine visà-vis de l’homme. Il est à noter que « 52 % des entreprises utilisent déjà des solutions IA ou en ont le projet à court ou moyen terme » (Tata Consultancy Services, 2018). Désormais, la question est de savoir comment travailler avec l’IA sans la subir afin d’éviter le scénario de l’employé augmenté et dominé (Ferguson, 2019), victime de la technologie en raison de sa dépendance au résultat. Il s’agirait de mettre en place une relation de coopération homme-machine où l’IA serait perçue comme un outil d’aide, comme un complément, et où la présence humaine serait indispensable et reconnue sous un positionnement d’ambivalence technologique (Ellul, 1988). En d’autres termes, le professionnel (radiologue, employé, médecin…) utiliserait les compétences de la machine en acceptant que celle-ci puisse accomplir certaines tâches beaucoup plus efficacement que lui (Daugherty et Wilson, 2018). Les travaux de Wang et al. (2016) relatifs à la détection du cancer à travers des images sont d’ailleurs très
pertinents à ce sujet. Ils montrent que dans une recherche de métastase du cancer du sein, la combinaison des prédictions du système d’apprentissage issu de l’IA (deep learning) et des diagnostics du pathologiste humain réduit le taux d’erreur de 85 %. Cela prouve que la force de l’un remédie aux lacunes de l’autre (Jarrahi, 2018). Cette complémentarité prendrait la forme d’un duo homme-IA, où « à
l’IA reviendrait l’exécution, la gestion, l’organisation, à l’humain la création, l’imagination, la coopération et les émotions » (Dubet, 2019).
Cependant, de nombreux chercheurs mettent en avant les limites de cette relation, notamment parce qu’elle n’est pas de nature humaine (van den Bosch et Bronkhorst, 2018 ; Zouinar, 2020). La question de l’augmentation du travail par l’IA est également à prendre en compte dans la compréhension de cette collaboration. On pourrait ainsi voir cette augmentation comme une « amplification symbiotique » (Zacklad, 2018), dans le sens où un nouvel organe viendrait remplacer un organe manquant avec plus d’efficacité (Zacklad, 2018)
Enfin, la notion d’intelligibilité est aussi évoquée dans la littérature scientifique. Il conviendrait donc de développer, au sein des systèmes d’IA tels que les machines basées sur l’apprentissage profond (machines expertes et automatismes complexes), un procédé plus intelligible et explicable, moins opaque (Zouinar, 2020), revenant à adopter, selon l’éthique de l’intelligence artificielle, une approche inflationniste et substantialiste (Bruneault et Laflamme, 2021). Dans ce domaine, la perspective inflationniste admet que l’IA est une finalité technologique du développement de l’humain. D’ailleurs, certains pensent que les progrès en apprentissage profond vont permettre à la machine de réaliser les tâches intuitives de l’humain. L’approche inflationniste est une conception de l’IA selon laquelle le développement technologique est inévitable, nécessaire et irréversible. Il y a donc urgence à adopter une position proactive visant à anticiper les problématiques liées à l’IA.
Le but du concept d’intelligibilité est, in fine, de favoriser une meilleure compréhension du fonctionnement de ces systèmes afin de s’orienter vers le scénario de « l’employé réhumanisé » (Ferguson, 2019), tout en évitant l’effet d’opacité appelé « boîte noire » et en encourageant les principes plus éthiques (Hooker & Kim, 2019). Par exemple, concrètement, une des solutions pourrait venir d’une notion appelée « l’éthique par l’éducation ». Celle-ci consiste à appliquer deux principes éthiques dans le but d’éduquer, à l’instar d’un enfant, l’algorithme d’une IA : l’ethic by design et l’ethic by evolution.
L’ethic by design est une approche de R&D intégrant les enjeux humains dans la conception des applications d’IA afin que celle-ci soit compréhensible pour le plus grand nombre et s’inscrive dans le code des codeurs, ce qui permettrait d’interdire les algorithmes liberticides et indignes (Bensoussan, 2020 ; Dignum, 2018).
L’ethic by evolution est un concept qui permet de suivre l’évolution des systèmes pour les remettre en question de manière continue au regard des valeurs humaines et morales (Béranger & Chassang, 2021). Cette problématique a déjà fait l’objet d’études. Ainsi, Roth et al. (1987) ont observé les effets de l’opacité de ces systèmes sur l’activité humaine. Des recherches ont également porté sur les premiers
systèmes experts et l’automatisation dans des situations de travail (de Terssac et al., 1988 ; Parasuraman et Wickens, 2008).
3.2. La proactivité
La proactivité est une notion importante lorsqu’il s’agit d’identifier les secteurs et les emplois qui seront concernés par la transformation imposée par l’IA. C’est ainsi que les employés pourront être formés à ses enjeux et qu’il sera possible de créer de nouveaux emplois qui feront ressortir de nouveaux talents. Ceux-ci pourront développer des compétences nouvelles dans le champ de l’informatique, ce qui leur
donnera, toujours dans une perspective de proactivité, un coup d’avance sur les problèmes suscités par l’IA, qu’ils soient d’ordre éthique, juridique, technique ou économique.
Il semble opportun d’insister sur la formation des employés. Ce sont des acteurs indispensables dans la transition vers l’intégration et le développement pérenne de l’IA au sein des entreprises (Benhamou, 2018b). À ce propos, il est à noter que la moitié des entreprises a mis en place des projets d’IA à court terme ou envisage de le faire ; mais, celles-ci rencontrent des obstacles liés aux compétences et aux qualifications des acteurs (Tata Consultancy Services, 2018).
3.3. L’acceptation par les acteurs
À l’instar de nombreux outils technologiques et notamment de sécurité, la dimension pervasive de l’IA fait que sa perception par les acteurs au sein des organisations doit être prise en compte pour faciliter son implémentation (Lollia, 2019). Par exemple, si l’IA est perçue par les employés ou les consommateurs comme un outil de surveillance, de traçabilité et de recueil de données personnelles, son implémentation au sein de l’entreprise sera difficile. A contrario, si les employés la considèrent comme faisant partie intégrante de l’entreprise, elle sera plus aisée à mettre en place, car elle sera perçue comme un outil efficace et facilitateur. Une formation adéquate sera également utile pour la faire accepter par le plus grand nombre. Les aspects techniques de l’IA ne sont pas l’élément le plus important à prendre en compte pour que celle-ci soit admise au sein de l’entreprise. L’enjeu est davantage lié à sa perception par l’humain, avec la notion de conduite du changement qui l’accompagne (Lollia, 2019 ; Moss Kanter, 2011 ; Autissier et Moutot, 2015). À titre d’exemple, une solution basée sur l’IA dont l’objectif serait d’assurer la rentabilité d’une entreprise pourrait s’avérer inefficace si les employés la considéraient comme non éthique. Des travaux scientifiques (Lollia, 2019b) montrent en effet que même si un outil est utile et nécessaire pour une organisation, sa non-adoption par les acteurs peut éventuellement entraîner des conséquences néfastes. Dans ce cas, il est à craindre que ce dernier ne soit pas ou mal utilisé et que sa mise en œuvre dans l’entreprise soit compromise. Notons cependant que bien souvent, la pervasivité de l’IA implique, à l’instar des autres technologies nouvellement intégrées dans une organisation, un biais d’implémentation et donc une restructuration discrète du travail pour plus d’efficacité (Dramba, 2019).
Conclusion
L’IA s’inscrit aujourd’hui, sur le plan sociétal et entrepreneurial, dans une vision dichotomique. D’un côté, elle représente le pire, la perte d’emploi, la dominance de la machine sur l’homme, qui s’accompagne d’une transformation du savoir-faire. De l’autre, elle apparaît comme un remède aux maux dont souffre l’employé contraint d’exécuter des tâches manuelles pénibles et pouvant être automatisées, avec la création de nouveaux emplois et d’une nouvelle organisation du travail pour une entreprise plus performante. Au centre de tout cela, il y a les notions de responsabilité et d’éthique (Dignum, 2018).
Dans une vision plus globale, l’IA transforme l’emploi en le réorganisant, en supprimant des postes pour en créer d’autres, en améliorant certains domaines et en en faisant disparaître d’autres. Cette réorganisation entraîne de nouvelles interrogations et de nouveaux défis, notamment pour les acteurs concernés, qui sont confrontés encore à de nombreuses zones d’ombre. Par exemple, comment ressentent-ils le fait d’avoir accompli un travail avec une machine tout en partageant leur savoir-faire ? Le sentiment de fierté est-il le même ? Les nouvelles compétences acquises lors de cette collaboration homme-machine doivent-elles être prises en compte dans le salaire de l’employé ? La situation de dépendance envers les machines peut-elle se mesurer ? Comment l’éthique intervient-elle dans la performance de l’entreprise ? Au niveau du droit, en cas de faute, à qui est-elle imputable si elle vient d’une IA ?
Force est donc de constater que les pistes de recherche concernant le champ de l’intelligence artificielle et sa place au sein du monde de l’entreprise sont encore très nombreuses et ouvertes. Elles présagent un avenir prometteur pour l’exploitation scientifique de ce domaine.
BIBLIOGRAPHIE
Agrawal, A., Gans, J. S., & Goldfarb, A. (2019). Exploring the impact of artificial Intelligence: Prediction versus judgment. Information Economics and Policy, 47, 1–6. https://doi.org/10.1016/j.infoecopol.2019.05.001
Arntz, M., Gregory, T., & Zierahn, U. (2016). The risk of automation for jobs in OECD countries: A comparative analysis.
Autissier, D., & Moutot, J.-M. (2015). Le changement agile: Se transformer rapidement et de manière durable. Dunod.
Autor, D. H. (2015). Why Are There Still So Many Jobs? The History and Future of Workplace Automation. Journal of Economic Perspectives, 29(3), 3–30. https://doi.org/10.1257/jep.29.3.3
Benhamou, S. (2018a). The world of work in 2030: Four Scenarios. Max Neufeind, Jacqueline O’Reilly et Florian Ranft (2018). Work in the Digital Age: Challenges of the Fourth Industrial Revolution. Londres/New York, Rowman & Littlefield International, 259–270.
Benhamou, S. (2018b, July). Quels impacts de l’intelligence artificielle sur l’avenir du travail ? Analyse, 46–49.
Bensoussan, A. (2020). Quelle régulation juridique pour l’intelligence artificielle ? Enjeux Numériques. Intelligences Humaines et Artificielles. Quelles Interactions?, 12. http://annales.org/enjeuxnumeriques/2020/en-12-12-20.pdf
Béranger, J., & Chassang, G. (2021). Vers une régulation néodarwinienne de l’Intelligence artificielle centrée sur le concept de l’« Ethics by Evolution ». Éthique Publique, vol. 23, n° 2. https://doi.org/10.4000/ethiquepublique.6551
Bruneault, F., & Laflamme, A. S. (2021). Éthique de l’intelligence artificielle et ubiquité sociale des technologies de l’information et de la communication: Comment penser les enjeux éthiques de l’IA dans nos sociétés de l’information ? tic&société, Vol. 15, N° 1 | 1er semestre 2021, Article Vol. 15, N° 1 |1er semestre 2021. https://doi.org/10.4000/ticetsociete.5999