Aller au contenu principal

L’intelligence artificielle met-elle en danger notre humanité ?

Publié le : 1 octobre 2020 à 00:40
Dernière mise à jour : 1 octobre 2020 à 14:28
Par Yann-Yves Biffe.

L’intelligence artificielle, parce qu’elle supprime le doute, peut réduire notre capacité à nous interroger, à penser, in fine à créer. Au-delà de la philosophie, qui doit questionner les usages, nos collectivités sont invitées à utiliser les algorithmes pour le meilleur, mais en gardant le contrôle et sans fuir leurs responsabilités.

Dans les mêmes thématiques :

Par Yann-Yves Biffe.

On a beaucoup entendu qu’après la crise de la Covid-19, la vie ne serait plus pareille. On devrait changer. Après, les avis divergent en fonction de ceux que chacun avait au préalable : « Il faut aller vers plus de nature, recentrer l’être humain », pour les uns, quand pour les autres, à l’inverse, « la technologie va nous sauver ».
Et si, comme souvent, la vérité se trouvait au milieu de ces deux notions apparemment opposées ? Ou plutôt, est-ce que la meilleure réalisation de l’une ne va pas sans l’autre ?

Après avoir envoyé une voiture dans l’espace (mais à l’intérieur d’une fusée qui est revenue bredouille : là-haut, il n’y avait pas d’autoroute), récemment, les équipes de chercheurs d’Elon Musk ont réussi à greffer une puce dans un cerveau de cochon. Compliqué, mais l’inverse aurait été encore plus dur.
Ce n’est pas à ce type d’intelligence-là que fait allusion l’intelligence artificielle abordée dans cette chronique, mais aux programmes informatiques auto-apprenants qui sont perfectionnés en permanence, jusqu’à… jusqu’où ?

Ça donne à réfléchir à l’avenir de l’intelligence humaine

L’intelligence artificielle (IA) n’est plus une lubie de science-fiction. Elle se développe, encore balbutiante, certes, mais demain, elle sera partout, béquille généralisée dont on ne saura plus se passer. Pourquoi apprendre puisque les réponses sont dans le smartphone qu’on a sur soi en permanence ? On peut facilement alimenter sa réflexion sans avoir à porter une encyclopédie sur son dos. Certes. Mais dès lors, pourquoi réfléchir quand l’IA va le faire mieux que nous ? Alors vient le début du danger...
L’homme est-il encore un homme quand il délègue à l’IA ? Quand il s’oublie pour l’IA ?
Mais qu’est-ce qu’un Homme (au sens générique et non sexué, s’entend !) ?
Descartes disait : « Je pense, donc je suis. » La conscience d’être, donc d’être humain, passe par la pensée et par ma propre pensée. Le fait que je pense induit que j’existe.

La certitude d’être humain passe aussi par le regard de l’autre, de l’autre être humain, qui me reconnaît comme pair. Impossible que l’IA me reconnaisse comme pair. Au mieux, elle me définira comme être humain. Ce n’est plus de la reconnaissance, c’est du catalogage.

Mais revenons à la formule de Descartes. Je pense donc je suis. La langue française est riche de ses double sens. Je pense, c’est aussi que je ne suis pas complètement sûr. Donc je doute. Mais c’est ce doute qui fonde l’intelligence. Le doute réinterroge le réel, le certain, pour le réinventer : est-ce que les choses sont bien comme j’en ai l’impression ? Pourquoi ? Comment ? Peut-on les réinventer autrement ? Pour en faire quoi ? Le doute entraîne la créativité et la créativité est le propre de l’homme et de son intelligence.

À l’inverse, l’intelligence artificielle n’existe pas. C’est d’ailleurs le titre d’un livre publié par Luc Julia, co-créateur de Siri pour Apple, qui connaît, reconnaissons-le, bien son sujet. L’ordinateur n’est pas intelligent. Il a une grosse mémoire et il calcule très très très vite, c’est tout (mais c’est énorme), pour redistribuer ce que de l’intelligence humaine lui a renseigné. Ainsi, selon Julia interviewé par le Journal du Geek : « Avec le jeu de go, on ne peut pas modéliser toutes les possibilités. Une partie d’entre elles ont cependant été modélisées et des modèles statistiques aident à combler les trous. Ce n’est pas aussi propre qu’aux échecs mais globalement on a beaucoup plus de possibilités en mémoire qu’un joueur humain. Donc il n’y a pas d’intelligence, c’est simplement une masse de données et un peu de statistiques. »

De fait, l’intelligence artificielle nous abreuve de certitudes. C’est sa fonction. Elle ne doit pas se tromper. Elle ne laisse pas de place au « peut-être ». Elle vient répondre à nos questionnements, elle comble nos doutes. Mais si l’homme ne doute plus, s'il ne s’interroge plus en remettant en cause son environnement et lui avec, alors il devient moins humain.
Ainsi l’IA affaiblit ou désincarne notre humanité en nous-mêmes.
Cela vous semble un peu philosophique. Certes. Mais pas que.

Ça donne à penser que l’homme doit conserver le contrôle

Ainsi sommes-nous, humains déshumanisés, lorsque nous nous retranchons déjà, sans attendre la généralisation de l’intelligence artificielle, derrière un très pratique « c’est l’ordinateur qui l’a dit », « ça sort de la machine »… pour ne pas avoir à se justifier. L’algorithme est une boîte noire où on injecte des données et derrière laquelle on tend la main pour obtenir un résultat.
C’est terriblement pratique. La décision paraît objectivée, elle est portée par un tiers qui, qui plus est, ne nous en tiendra pas rigueur.
Mais c’est se diminuer que d’agir ainsi. C’est fuir ses responsabilités, son humanité de décision.
Car un ordinateur ne prend pas de décision. Il automatise des process qu’un homme, vous ou un autre, a définis et qui ont été codés pour ou par le programme informatique. Il faut se poser la question de ce qui se passe à l’intérieur de la boîte. Car ce sont des humains qui l’ont décidé.

Du coup, les algorithmes peuvent être influencés par de nombreux biais, puisque l’erreur est humaine. Selon Luc Julia toujours : « Si j’utilise volontairement ou involontairement des données orientées dans un certain sens – politiquement par exemple – pour entraîner mon IA, je crée une IA biaisée. Il faudra réguler tout cela. »
La Gazette des communes, dans son dossier « Les algorithmes ont-ils pris le pouvoir ? » du 24 août 2020, rappelle que « des garanties ont été apportées par la loi du 7 octobre 2016 pour une république numérique. L’objectif étant que l’administré puisse comprendre le fonctionnement de l’algorithme employé pour traiter son dossier ». Ainsi, tout administré doit être prévenu que son dossier est traité avec algorithme et pourquoi. Il peut même demander à avoir accès au code source de l’algorithme. Peu le feront, mais c’est un garde-fou. Encore faut-il être conscient qu’on utilise des algorithmes… « Des décisions au moins en partie automatisées, il y en a partout, mais le sujet est minoré, voire invisible », selon Hubert Guillaud, de la FING. « Il y a un déni de ce qui existe ou n’existe pas. » Pourtant, « tous les logiciels de pondération ou de scoring, pour l’attribution de points en vue d’accéder à une prestation ou une demande en ligne », sont potentiellement concernés, selon Jean-Philippe Clément, responsable des solutions data à la Ville de Paris.

Quid alors de l’étape d’après, plus impénétrable que les algorithmes linéaires et traçables : l’intelligence artificielle auto-apprenante ? Progressivement, l’homme lance les choses et la machine poursuit l’écriture de son propre programme… Dans ce cas aussi, il faut savoir comment l’algorithme est arrivé à son résultat, en traçant la logique qu’il a mise en place, au risque sinon d’arriver à des décisions biaisées, injustes… donc inhumaines.

Faut-il pour autant se passer de l’informatique ? Sûrement pas.
Mais il faut la considérer, IA comprise, comme ce que c’est : un auxiliaire de travail, une aide à la décision et à la production, pour valoriser votre intelligence de création et de décision.
D’ailleurs, un mouvement s’engage pour faire une place à l’IA sans perdre le contrôle. La ville de Montréal a ainsi ratifié la déclaration de Montréal « pour un développement responsable de l’intelligence artificielle », qui inclut notamment parmi ses 10 principes : « Le développement et l’utilisation des systèmes d’IA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise. »

Sûr que demain vous utiliserez des intelligences artificielles. Mais comme tout bon prof de maths, vous lui demanderez « comment es-tu arrivé à ce résultat » plutôt que de considérer la seule réponse, même si elle est bonne !

Prospective, management, numérique et communication publique : retrouvez d'autres chroniques illustrées sur www.yybiffe.com et via Twitter : @yyBiffe.