Gags chez les I.A.

Doit-on s’étonner et se plaindre des erreurs commises par les nouvelles intelligences artificielles fondées sur l’apprentissage profond (IAAP), et en particulier les pilotes autonomes ?

Contrairement à ce que l’on peut lire dans des revues mal informées, l’apprentissage profond (deep learning) est une simulation remarquablement fidèle des réseaux neuronaux naturels du cerveau, surtout face aux méthodes plus anciennes. Cette technique permet aux algorithmes de construire eux-mêmes leurs résultats à partir des données fournies. Ils s’auto-organisent, de la même manière qu’un cerveau humain juvénile. Les données sont traitées par des algorithmes en couches successives, pourvues de boucles de rétro-contrôle, les sorties d’une première couche assemblées en résultat plus complexe par la deuxième couche, etc… Ce processus apprend en testant les différentes solutions possibles et en sélectionnant celle qui lui semble la mieux adaptée du point de vue de l’organisation existante. Quelle que soit la couche où un observateur prélève le résultat, ce qui est recueilli est un essai d’organisation et non la solution ultime. Les résultats tendent à devenir plus fiables à mesure qu’un grand nombre de données du même type sont traitées. Cependant il reste toujours une limitation forcée : la couche finale où est demandé à l’IAAP de produire le résultat. Celui-ci sera toujours contingenté par l’étendue des données fournies, par rapport aux questions posées. Les limites proviennent également du nombre de couches fournies à l’IAAP. Elles peuvent être excessives ou insuffisantes. Le cerveau humain a cette spécificité de fabriquer des couches supplémentaires quand il en a besoin. Il augmente son intelligence (pas toujours assez pour les espoirs de son propriétaire). Ainsi ce qui est demandé à l’IAAP est éventuellement une conclusion hâtive et mal argumentée, par manque de données et de réflexion.

Des termes plutôt humains, n’est-ce pas ? Oui, nous sommes très proches du fonctionnement d’un cerveau en cours d’apprentissage. Est-ce surprenant, dans ces conditions, de voir l’IAAP se tromper ? Les conditions de sa réponse sont presque celles d’un maître d’école qui forcerait un élève à donner la réponse juste alors qu’il n’a pas appris sa leçon. Sans l’ensemble des données nécessaires à une réponse fiable et les strates d’intelligence impératives pour les traiter, la tâche est impossible. Or c’est justement ce que l’on demande à l’IAAP : être capable de dépister des régularités là où l’esprit humain n’en voit aucune. Certes elle peut y parvenir si le problème vient de l’énorme masse de données à traiter, dépassant les capacités des neurones mais pas celles des circuits numériques additionnés. Mais l’IAAP sera tout aussi impuissante si les régularités sont simplement trop imperceptibles au sein du bruit pour être formellement identifiées.

Une IA fondée sur l’apprentissage profond fait des erreurs, inéluctablement. C’est dans son principe de fonctionnement, qui la rend très proche du cerveau humain, dont une caractéristique notable… est de faire des erreurs. L’IAAP est très différente des IA classiques logico-déductives, dont les calculs sont fiables et constants (si les algorithmes utilisés sont justes), mais qui sont médiocrement adaptables à une situation pour laquelle elles n’ont pas été conçues. Les IA classiques sont des intelligences horizontales, capables d’étendre le calcul proposé par l’observateur, mais pas d’en sortir. Puissantes pour trier des masses brutes de données, mais pas pour les organiser, sauf si on leur a clairement indiqué comment faire. L’IAAP, au contraire, fournit des résultats là où l’IA classique ne peut rien déduire. Mais ce sont des prédictions. L’erreur est possible. Fréquente au début, se raréfiant au fil des multiples évènements rencontrés. Apprentissage. A l’instar du cerveau humain. Difficile de reprocher une erreur à une IAAP adolescente. Même adulte, elle peut encore en faire. Comme l’humain adulte. Moins souvent sans doute, car l’erreur « humaine » est souvent liée à des facteurs étrangers au contexte : fatigue, émotion, panique, prise de psychotropes. Facteurs inexistants chez l’IAAP.

Conclusion pragmatique : une IAAP, pour approcher exponentiellement de son efficacité maximale, se mûrit en simulateur plutôt qu’en conditions réelles, dans le cas où ses erreurs pourraient s’avérer dangereuses. Vous songez immédiatement aux pilotes automatiques des véhicules, déjà accusés de décès de leurs passagers. Accusation à la fois licite et injuste, puisque remplacer tous les pilotes humains par des IAAP réduirait spectaculairement le nombre des morts sur la route. L’humain moderne n’a pas hésité à confier aux algorithmes informatiques sa gestion, malgré les bugs. Leur confiera-t-il son transport, malgré le spectre jamais annulé d’une erreur de calcul ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *