François Euvé

Jésuite et physicien. Il est rédacteur en chef de la revue Études depuis 2013.

François Euvé

Jésuite et physicien. Il est rédacteur en chef de la revue Études depuis 2013.

analyse

L’intelligence artificielle éclaire la décision, elle ne décide pas

L’intelligence artificielle a connu dans les années récentes des avancées spectaculaires qui fascinent et inquiètent. Sans doute faut-il se garder d’extrapoler les résultats au point de penser que bientôt la machine remplacera l’homme. Mais pour François Euvé, c’est l’occasion de s’interroger sur ce qui nous fait humain. L’anthropologie chrétienne peut nous y aider.

Les principes qui guident l’intelligence artificielle remontent à l’antiquité, au moins à partir du moment où, dans le cadre de la philosophie grecque, on a commencé à réfléchir à la structure du langage, au raisonnement, à la logique. L’idée sous-jacente est que l’idéal de la pensée est le raisonnement logique.

La capacité de calculer

De là à penser que l’idéal de l’humain est l’intelligence et que l’intelligence se ramène au calcul, il y a encore quelques pas. Mais ils seront franchis au cours des siècles. Pour le philosophe anglais Thomas Hobbes, « La raison n’est rien d’autre que le fait de calculer ». Lorsque l’on invente des « machines à calculer », on envisage qu’elles deviennent « rationnelles » sinon « intelligentes ». Dans les années 1950, les pionniers pensaient qu’une machine pourrait effectuer des tâches relevant typiquement de l’intelligence humaine comme, par exemple, traduire un texte d’une langue dans une autre.

Il ne s’agit pas de minimiser l’intérêt du calcul. La science moderne postule que le fonctionnement du monde est rationnel. La capacité de calculer nous donne la possibilité de reconstituer l’enchaînement des phénomènes, c’est-à-dire d’en prévoir les occurrences. Il y a bien des domaines dans lesquels les machines nous facilitent la vie. On sait déjà que certains diagnostics sont plus sûrs avec elles qu’avec un cerveau humain qui n’a pas la capacité de maîtriser tous les paramètres que cela suppose.

De fait, beaucoup de nos opérations se ramènent à des calculs. À certains égards, le cerveau est une machine à calculer (à l’école, on s’entraînait au calcul mental avant l’arrivée des calculettes qui font la même chose, mais beaucoup plus vite). Les langues ont une structure logique que l’on peut modéliser, ce qui permet des traductions automatiques de plus en plus fiables.

Que nous reste-t-il ?

Ce qui est en jeu est le rapport de l’homme à la machine. La science moderne décrit le fonctionnement du monde à l’aide d’un schème[1] mécanique. Cela s’inspire du fonctionnement de l’horloge et de son analogie avec le fonctionnement du ciel (les horloges astronomiques, connues au Moyen Âge, reproduisent le mouvement des astres et permettent de prévoir les phénomènes célestes comme les éclipses). De proche en proche, on généralise ce modèle à partir des systèmes physiques vers les systèmes vivants (l’« animal-machine » de Descartes), y compris le corps humain, et enfin vers les systèmes « mentaux » (le cerveau). À partir du 18e siècle, on cherche à faire des automates qui imitent le comportement humain.

Au gré des progrès techniques, il semblerait donc que le champ de l’humain soit en voie de rétrécissement spectaculaire. On sait depuis longtemps que ce qui nous fait humain n’est pas la force physique. Ce n’est même pas l’habileté technique. Il semblerait que ce ne soit pas non plus l’intelligence, au moins si l’on l’assimile au raisonnement logique. Que nous reste-t-il ?

Attentes et craintes s’expriment de plus en plus clairement. Des pronostics sont énoncés franchement : « Nous approchons d’une époque où les machines pourront surpasser les hommes dans presque toutes les tâches », selon Moshe Vardi, universitaire américain. Les machines ne vont-elles pas créer des machines plus puissantes qu’elles-mêmes, l’intelligence mécanique laissant loin derrière elle l’intelligence humaine ?

La prise de décision

Cela invite à passer sur le plan de la morale. L’Intelligence artificielle n’est-elle pas en train d’envahir le champ de la morale si l’on rend la machine capable de prendre des décisions ? En 2010, l’US Air Force avait demandé l’aide de l’industrie pour développer une intelligence avancée de collecte d’information, avec une capacité de décision rapide pour aider les forces américaines dans leurs attaques.

Les choses se jouent autour de la prise de décision. Il faut donc s’interroger sur ce que signifie « prendre une décision », « faire un choix », « exercer sa liberté !»

Les choses se jouent autour de la prise de décision. Il faut donc s’interroger sur ce que signifie « prendre une décision », « faire un choix », « exercer sa liberté ». On sait que les travaux sur le cerveau (parallèles à ceux qui concernent l’IA) tendent à montrer que la prise de décision se ramène à une série d’opérations, dont certaines semblent échapper à la conscience. Ce qui a induit certains chercheurs à nier toute notion de « libre arbitre » puisque, finalement, ce processus ne serait qu’un fonctionnement « réflexe ».

Nous sommes piégés par le fait qu’en logique formelle, une question n’est dite « décidable » que si elle peut être résolue par un processus itératif en un nombre fini d’étapes, autrement dit, par un algorithme de calcul. Cela peut très bien s’appliquer par exemple au combat aérien afin de « décider » le plus rapidement à quel moment tirer sur la cible ou quelle manœuvre faire pour échapper à l’adversaire. On comprend aisément que, dans ces cas, une machine puisse être plus rapide qu’un cerveau humain, même supérieurement « intelligent ». Il ne s’agit en fin de compte que de mécanismes logiques appuyés sur des données très nombreuses traitées rapidement. Le système n’a pas d’« état d’âme », n’est distrait par rien, ce qui assure une plus grande sécurité.

Mais s’agit-il de décision au sens fort du terme ? La décision proprement éthique s’effectue dans des circonstances où il existe un conflit qu’il n’est pas possible de résoudre par une procédure rationnelle. C’est là sans doute que réside et résidera la différence entre l’homme et la machine. L’intelligence artificielle éclaire la décision, elle ne décide pas.

Quelle responsabilité ?

Il y a proprement décision lorsque celui qui décide se tient pour responsable de son choix. Il l’assume et peut en répondre

Le choix suppose de trancher entre plusieurs options qui sont (logiquement) équivalentes. C’est lorsqu’une question est (logiquement) indécidable qu’elle peut relever d’une décision (humaine). Si, sur le plan rationnel, une seule option est possible, peut-on encore parler de décision ? Cela ne relève pas pour autant de l’arbitraire, du « tirage au sort ». Il y a proprement décision lorsque celui qui décide se tient pour responsable de son choix. Il l’assume et peut en répondre.

C’est dans l’aide mutuelle, le souci d’autrui, particulièrement du plus faible, que se joue l’accomplissement de l’humanité

Cela invite à se rendre sensible à un autre aspect. Si la décision est une démarche individuelle, elle implique une pluralité de partenaires. On répond de sa décision devant d’autres personnes, car l’homme est un être de relation. L’idéal humain n’est certainement pas l’individu qui aurait acquis les moyens (en particulier intellectuels) d’exister par lui-même. Or la dimension relationnelle suppose la reconnaissance de limites, de failles, d’insuffisances. L’intelligence artificielle recouvre souvent une anthropologie du « surhomme » où l’idéal serait l’autonomie absolue. Qu’en est-il de ceux qui ne bénéficient pas de ces « qualités » ? La vision chrétienne de l’humain est plus intégratrice : c’est dans l’aide mutuelle, le souci d’autrui, particulièrement du plus faible, que se joue l’accomplissement de l’humanité. Les techniques d’IA peuvent-elles y aider ? Si c’est le cas, il est bon d’en profiter.

 

 

[1] Le schème est une structure ou organisation des actions telles qu’elles se transforment ou se généralisent lors de la répétition de cette action en des circonstances semblables ou analogues

Pour aller plus loin

Partager sur les réseaux