On reconnaît une innovation qui va changer le monde au nombre de nouvelles questions qu’elle pose et à sa capacité à remettre en cause des choses établies que l’on pensait inébranlables, des vérités que l’on croyait indélébiles. L’intelligence artificielle fait émerger de nouvelles opportunités et menaces, mais surtout énormément de problématiques inédites que nous allons tous devoir prendre à bras le corps : entreprises, dirigeants, parlementaires, professeurs, citoyens. Tout le monde.
Il s’agit de permettre à toute une société d’anticiper les mutations économiques, de garantir un cadre juridique adapté, de préserver notre modèle démocratique et de prévenir les risques de déclassement d’une partie de la population. Le sujet est épineux, car complexe. Le questionnement est multi-dimensionnel. Ça tombe bien, c’est justement l’objet de cet article.
Alors, bien entendu, difficile d’aborder l’intelligence artificielle sans parler de la notion de copyright et de responsabilité. Nous n’en parlerons pas ici, car nous avons déjà traité ce sujet dans une publication précédente, que vous pouvez lire ici : quid des responsabilités et du droit d’auteur ? À la place, nous allons plutôt nous intéresser aux questions sociales, économiques et philosophiques que met sur la table cette révolution technologique.
Entrer dans le monde de l’intelligence artificielle, c’est accepter de se confronter à l’inconfort, à l’incertitude, au questionnement permanent. Les sujets s’additionnent, s’entrecroisent et s’entremêlent pour nouer un avenir encore flou. L’excitation, l’angoisse : l’émergence de ce nouveau monde fait cohabiter des sensations aussi intenses que contradictoires. D’où l’importance de se poser quelques instants pour comprendre les contours de l’intelligence artificielle et les axes de réflexion à aborder.
01. La reproduction des biais et des discriminations
L’intelligence artificielle est le miroir de notre société. Par les données avec lesquelles nous la nourrissons, elle apprend de nous. Elle entre dans une forme de mimétisme, cherchant à acquérir notre manière d’écrire et d’interagir, mais également notre façon de percevoir le monde. Si elle prend le meilleur de chaque être, elle se voit dans le même temps absorber, tel un papier buvard, les imperfections de notre système.
Le datamining au cœur de la problématique.
Dans ce contexte, où le datamining se veut l’abreuvoir, la reproduction et l’amplification des biais de représentativité et des discriminations semblent inévitables. Le problème est majeur, d’autant que nous entrons dans une ère où les intelligences artificielles vont contribuer à façonner l’intelligence humaine et à alimenter nos perceptions. D’autant dans un monde où les intelligences artificielles ont toutes les chances de nourrir les unes les autres.
Le risque n’est donc plus tant la reproduction des biais et des discriminations, mais leur pérennisation, ad vitam aeternam. Ainsi, d’après l’univers post-futuriste de MidJourney, le chef d’entreprise est forcément un homme. L’éboueur est issu des minorités, et l’agent de ménage prend inévitablement le visage d’une femme. Et encore plus surprenant : un manifestant est forcément un homme.
Nous le savons : les biais amènent les biais, et une société ne peut évoluer positivement qu’en actionnant une rupture nette avec ce cercle vicieux. Oui, une jeune femme a besoin de modèles pour pouvoir se projeter en tant que dirigeante.
Comment peut-on contourner les biais ?
Il s’agit d’un sujet central, que les créateurs d’intelligence artificielle générative vont devoir prendre à bras le corps. Mais la responsabilité est collective. Les professionnels de la communication doivent aussi jouer leur rôle. A vrai dire, toute personne qui génère du contenu via des intelligences artificielles se doit d’agir en conscience. Car oui, en imaginant des prompts (dixit des instructions) précis et équilibrés, il est tout à fait possible de contourner les biais d’IA comme MidJourney ou ChatGPT. La malice et la créativité l’emportent toujours sur les faiblesses imposées du monde.
Malgré tout, une question nous taraude. L’intelligence artificielle va faire une entrée massive dans le monde professionnel, notamment pour nous aider à la prise de décision lors des processus de recrutement. Par ses biais, pourrait-elle discriminer certains candidats sur la base de leur genre, de leur origine ethnique ou de leur âge, simplement parce que les données d’entraînement reflètent ces discriminations passées ? Probablement. Mais ce n’est pas le seul problème. Loin de là.
L’intelligence artificielle : un levier de désinformation
D’ailleurs, dans le prolongement de cette première réflexion, une autre problématique émerge : la désinformation et la multiplication des fake news. Nous l’avons vu au cours des dernières semaines, avec de fausses photographies de Donald Trump, du Pape François et d’Emmanuel Macron qui ont berné bon nombre d’internautes. Oui, il est possible, notamment à partir de MidJourney V5, de créer une réalité alternative avec la création de fausses images, pourtant parfaitement réalistes.
Nous avons la possibilité décuplée de faire croire, de manipuler l’opinion et, par conséquent, de polluer le débat public. Nous avons nous-mêmes, en toute transparence, mener quelques expérimentations avec le visage du Président de la République Française. Alors, quid quand ces technologies se retrouvent dans les mains de mauvaises personnes, douées de mauvaises intentions ?
02. La protection des données sensibles
Dans son long périple à la découverte des intelligences artificielles, l’individu lambda, guidé par sa curiosité galopante, se confronte à une question fondamentale : où finissent mes informations, comment sont-elles exploitées et contribuent-elles à nourrir la bête ? Oui, la protection des données confidentielles fait partie des préoccupations prioritaires des entreprises, des citoyens et des régulateurs. Coucou l’Italie. Si les chatbots dopés à l’intelligence artificielle semblent amicaux à premier égard, s’affirmant de fait comme de sympathiques assistants personnels, difficile de savoir s’ils vous veulent vraiment du bien.
De grandes entreprises prennent les devants
En tout cas, des entreprises ont déjà pris leurs dispositions. Microsoft, Amazon, JPMorgan : toutes ont préféré rester sur leur garde et sensibiliser leurs collaborateurs, friands de ChatGPT et rapidement amenés, sans même en prendre conscience, à partager des données sensibles avec la bête majestueuse d’Open AI. « Vos entrées peuvent être utilisées comme données de formation pour une nouvelle itération de ChatGPT », a d’ailleurs écrit l’avocat d’Amazon dans un message adressé aux salariés.
ChatGPT reçoit des milliers de données sensibles
Il faut dire que les premières études font dormir d’un œil. D’après Cyberhaven, sur un panel de 1,6 millions de personnes, 2,6% ont déjà partagé des données sensibles avec ChatGPT. Boom. Si adopter l’intelligence artificielle peut s’avérer réellement bénéfique pour la productivité et la croissance d’une entreprise, il faut en revanche être particulièrement exigeant et vigilant dans sa manière de l’aborder et de la prendre en main. C’est justement un point sur lequel nous travaillons lorsque nous formons les collaborateurs à l’utilisation de l’intelligence artificielle. Il suffit de dire le mot magique : Haiclor Consulting.
03. Le manque croissant de transparence
La confidentialité des données est une question fondamentale. D’autant que cette révolution technologique est une grande symphonie menée avec une précision d’orfèvre par un nombre très restreint de chefs d’orchestre. Nous sommes sur une innovation de rupture avec des barrières à l’entrée élevées, ne serait-ce que par le coût financier et humain que requiert le développement d’une intelligence artificielle. Seules quelques entreprises technologiques sont capables de se positionner. Le schéma habituel se met en place : les États-Unis innovent, la Chine copie, et l’Europe, fidèle au poste, régule.
L’intelligence artificielle : vers des puissances supra-étatiques ?
Mais cette concentration interroge et révèle un risque fondamental, d’ordre démocratique et géopolitique : celui d’octroyer un pouvoir d’influence économique et politique, d’ordre quasi-supra-étatique, à quelques start-up au visage déjà affirmé de multinationales. Nous connaissons déjà cette situation avec les GAFAM. Dans le monde de demain, seul l’acronyme changera.
Pourtant, pour que nous puissions développer des intelligences artificielles neutres et éthiques, la transparence et le partage s’avèrent déterminants. C’est la clé pour comprendre avec justesse comment elles se construisent et déterminer, avec plus de précision, leurs potentiels biais. Mais l’open-source, épousée dans un premier temps, semble aujourd’hui fuie comme la peste. Ou le choléra. « Nous nous sommes trompés », a réagir le co-fondateur d’Open AI.
Bye-bye l’open-source ?
Un mal pour un bien ? Peut-être. En tout cas, la justification d’Open AI à ce sujet, rapportée par Numerama dans un excellent article sur le sujet, est tout à fait audible : la crainte du mauvais usage, par des personnes malintentionnées. Il serait en effet « déraisonnable de laisser en libre accès des outils extrêmement performants ». Bon, à vrai dire, le débat est ouvert. Les têtes pensantes du secteur ne sont pas toutes du même avis. Les positions divergent d’un acteur à l’autre. Ainsi, Meta, avec son intelligence artificielle LLaMA (Large Langage Model Meta), a par exemple décidé de maintenir sa démarche d’open-source pour permettre au monde scientifique et académique de mieux comprendre la construction de son modèle. Les récentes fuites vont-elles faire changer d’avis les équipes de Mark Zuckerberg ? Wait and see, comme on dit en Amérique.
04. La quête utopique de neutralité
Autre grande d’interrogation. On retient son souffle. Comment, et surtout à partir de quels critères d’objectivité, les entreprises technologiques conçoivent-elles un modèle d’intelligence artificielle ?
Le développement d’une intelligence artificielle prédictive
D’abord, il faut comprendre la base de la base. ChatGPT nous explique tout en quelques mots. Sympa ce chatbot. « J’ai été créé grâce à un processus d’apprentissage automatique. On m’a fourni un ensemble de données massif provenant de diverses sources, principalement du web : des livres, des articles, des sites internet, des forums ». Objectif : obtenir un modèle capable de prédire le mot suivant, en fonction du contexte, et d’établir ce qui ressemble, à première lecture, à un raisonnement censé.
La quête impossible de neutralité
Mais ChatGPT est-il politisé ? Peut-il façonner une vision du monde qui lui appartient, et nous la faire avaler comme un prozac ? A-t-il, par la construction même de son corps, une idéologie en sous-couche ? D’après lui, non. « Je m’appuie sur des lignes directrices et des règles éthiques établies par OpenAI lors de ma formation. Mon modèle a été conçu pour éviter les biais, la désinformation, et les réponses offensantes ». En fait, toute intelligence artificielle se veut objective. Mais il est justement là, le sujet : la neutralité. Nous avons nous-mêmes dans l’équipe un ancien journaliste, et sa phrase favorite est la suivante : « l’objectivité n’existe pas ». Se dire objectif, c’est s’aveugler de sa partialité. Ni plus, ni moins.
Alors de quelle neutralité parle-t-on ? Comment a-t-elle été dessinée ? Quels sont ses biais ? Est-ce que ChatGPT, qui n’est pas censé révéler de consignes qui conditionnent un comportement, peut-il influencer des citoyens et façonner des opinions ? Ce sont des questions complexes, auxquelles il est encore difficile d’apporter toutes les réponses.
L’intelligence artificielle doit-elle avoir une morale ?
À vrai dire, même si tous les efforts semblent être faits par Open AI pour atteindre une neutralité absolue, il paraît difficile de penser qu’aucune particule de la pensée des fondateurs et des ingénieurs n’ait influencé l’intelligence artificielle. Finalement, la quête de la neutralité absolue traduit en elle-même une forme de vision du monde. D’où notre interrogation : l’intelligence artificielle doit-elle avoir une morale ? Bac de philosophie. Vous avez quatre heures.
05. L’intelligence artificielle pourrait nous rendre bêtes
Revenons à nos moutons. L’intelligence artificielle va changer, mais peut-elle nous rendre bêtes ? En d’autres termes, comment accompagner et former les collaborateurs, les citoyens et les étudiants pour leur permettre de s’adapter à cette mutation d’ampleur, avec un esprit critique ?
Car là aussi, une crainte se fait ressentir. L’intelligence artificielle pourrait paradoxalement nous rendre moins intelligents. Par paresse cognitive, nous pourrions parfaitement perdre certaines facultés intellectuelles et devenir moins hermétiques aux fake news. Alors vous nous direz sûrement : certains ont déjà pris de l’avance sur ce sujet. C’est vrai.
Tous dépendants de l’intelligence artificielle ?
Alors, pouvons-nous nous embourber dans une vérité alternative ? Possiblement. Pouvons-nous perdre en compétence ? Probablement. En fait, par facilité, nous pourrions nous appuyer sur l’intelligence artificielle pour tout, tout le temps, peu importe le contexte, ce qui pourrait altérer notre jugement, biaiser notre compréhension du monde et créer une forme de dépendance.
Houston, on a un problème. Notamment dans des domaines de pointe, où la perte d’expertise pourrait s’avérer, dans certaines circonstances, fatales. Comme l’explique Jean-Emmanuel Bibault dans L’Éclaireur de la Fnac : « si on a des intelligences artificielles qui interprètent des scanners et dépistent des cancers à la place des médecins, on risque de perdre ce savoir-faire ».
L’intelligence humaine est-elle en danger ?
En fin de compte, l’impact de l’intelligence artificielle sur l’intelligence humaine dépend de la manière dont nous l’utilisons. Si nous l’employons pour nous assister et décupler nos compétences, cela peut assurément nous rendre plus intelligents et plus productifs. Toutefois, si nous nous reposons trop sur ces nouveaux outils et que nous oublions l’essentiel, à savoir monter en compétences et nourrir notre sens critique, alors oui, cela peut potentiellement faire de nous les idiots ultra-connectés du village.
05. Un tsunami sur le marché de l’emploi
Et là, vous nous voyez venir avec notre question qui ravive les plus grands fantasmes : l’intelligence artificielle va-t-elle nous remplacer ? Spoil : non, enfin un peu quand même. En revanche, cela va profondément impacter le marché du travail. Certains emplois vont doucement disparaître, car devenus obsolètes et sans valeur ajoutée par rapport à la machine. D’autres vont complètement changer. Une situation qui va forcément obliger les entreprises à évoluer, voire à pivoter pour survivre, dans un contexte nouveau et mouvant.
Vers un chômage de masse ?
Notre société entière va être bousculée, et il reviendra aux gouvernements et aux parlements de réussir à adapter les politiques publiques aux conséquences de cette révolution technologique, d’autant dans un pays comme la France où l’industrie du tertiaire, la plus impactée au demeurant, représente 77% des emplois à l’heure actuelle. Boom.
Traducteurs, rédacteurs, modérateurs, comptables : de très nombreux emplois sont menacés au cours des mois à venir. Même les sacro-saints développeurs risquent d’être fortement touchés dans un futur proche.
D’après Open AI, seuls 34 ne connaîtront aucune exposition aux mutations causées par l’intelligence artificielle. D’ailleurs, d’après un sondage réalisé par ResumeBuilder auprès de 1000 patrons américains, 25% des entreprises ont déjà remplacé certains salariés par l’intelligence artificielle, tandis que 63% envisagent une accélération des licenciements. Un tsunami.
« Oui, mais l’intelligence artificielle va aussi créer des emplois ». C’est vrai. Mais soyons honnêtes : il est indéniable que nous ayons, in fine, besoin de beaucoup moins de personnes pour réaliser une même quantité de travail. Ce qui pose des questions politiques, à commencer par la plus épineuse : la répartition des richesses.
Un marché de l’emploi en pleine transformation
Dans ce contexte, à quoi former la jeunesse et que faire des personnes qui se retrouveront sans emploi ? Que l’on soit rassuré, à moins que les robots humanoïdes ne viennent chambouler nos certitudes plus rapidement que prévu, de nombreux emplois subsisteront. Par exemple : les métiers du service à la personne et de l’expérientiel, ainsi que les métiers de l’artisanat et de la construction, devraient être plus ou moins épargnés. En tout cas, pour le moment. Et ça tombe bien : ces métiers, en pleine pénurie de main d’œuvre, recrute à foison.
Alors restons optimistes, avec un smile à minima de façade : l’intelligence artificielle ne nous remplacera pas. En tout cas, pas totalement. Il faudra simplement réinventer complètement notre approche, en pensant à la valeur ajoutée que nous pouvons apporter. Nous devrons tous, individuellement et collectivement, avoir une question qui nous obsède : en quoi sommes-nous meilleurs que l’intelligence artificielle ?
Intelligence artificielle : ces métiers qui vont muter
Les réalités d’aujourd’hui ne sont pas celles de demain. Ainsi, le graphiste devra s’affirmer comme un véritable Directeur artistique en quête de singularité. Le rédacteur devra réussir à aller au-delà de la forme, pour aller chercher des angles différenciants, la maîtrise des mots se laissant submerger par la vague des idées. Tandis que le comptable devra apporter une plus-value sur le plan stratégique, en conseillant les chefs d’entreprise sur les décisions à prendre pour permettre le développement de leur structure. Ces métiers ne vont pas forcément disparaître. Ils vont profondément évoluer.
L’humain sera au cœur des compétences recherchées, car c’est justement sur ce point que l’intelligence artificielle n’arrivera pas à rivaliser. Là où les entreprises d’aujourd’hui ont tendance à privilégier le recrutement de collaborateurs doués pour la planification, l’organisation et le travail en équipe, celles de demain privilégieront des personnalités : des créatifs, avec une pensée critique et une véritable intelligence émotionnelle. Bref, des collaborateurs agiles qui savent apprendre, analyser une situation et prendre des décisions réfléchies.
Comment agir quand on est chef d’entreprise ?
Vous l’aurez donc compris : l’intelligence artificielle va changer radicalement le monde tel que nous le connaissons et, par conséquent, être source d’incertitude. Certains sont optimistes. D’autres appréhendent, angoissent. C’est normal, nous vivons tous le changement différemment. Il pousse au questionnement, mais en aucun cas ne doit paralyser. L’immobilisme est le pire des mouvements.
Si vous êtes chef d’entreprise, il faut donc d’ores-et-déjà inclure ce nouveau paramètre à votre stratégie de développement, à votre organisation interne et à vos plans de formation. C’est essentiel pour permettre à votre entreprise de grandir sereinement. Muter ou périr : à choisir, préférons la proactivité à la réactivité tardive et mortifère.
C’est dans cette optique que nous avons développé Haiclor, une agence de consulting en agence artificielle à destination des ETI, des PME et des start-up des territoires. Depuis Chambéry, dans les Alpes, nous avons une ambition : vous accompagner dans cette transition, avec méthode et éthique, et vous faire entrer de plain-pied dans le monde de demain.
Vous voulez en discuter ? Par ici.