Le problème de la bo?te noire
Une bioéthicienne et un neuroinformaticien parlent de l'intelligence croissante des machines et de la raison pour laquelle cela conduit à de nouveaux défis éthiques.
Monsieur Grewe, que retenez-vous de votre service civil, au cours duquel vous avez travaillé avec des enfants atteints de troubles cognitifs ?
Benjamin Grewe : J'ai remarqué que la motivation ou l'humour, par exemple, ne sont souvent pas affectés, même si des fonctions supérieures telles que la saisie de concepts abstraits semblent souvent ne pas fonctionner correctement. Le cerveau humain est vraiment complexe.
L'intelligence artificielle peut-elle rivaliser avec l'intelligence humaine ?
Grewe : Lors de mes débuts dans l'apprentissage automatique, j'ai d'abord programmé un réseau neuronal artificiel pour analyser la manière dont l'homme apprend, entre autres les peurs. Cependant, cela ne fonctionnait pas comme prévu : Quoi qu'on lui montre, le réseau réagissait toujours de manière anxieuse. L'intelligence artificielle (IA) est censée imiter certains aspects de l'intelligence humaine, mais pas tous. Quel serait l'intérêt d'une voiture intelligente qui refuserait de vous rendre service parce qu'elle aurait justement trop peur de conduire ?
Agata Ferretti : L'IA moderne est axée sur les t?ches. En revanche, le niveau émotionnel est loin d'être aussi développé. L'intelligence humaine, en revanche, ne peut pas être réduite à la ma?trise exceptionnelle d'une t?che donnée. De ce point de vue, on pourrait même qualifier l'IA de "stupide", car elle ne se prête qu'à des domaines d'application étroitement limités.
Grewe : On se concentre toutefois de plus en plus sur l'entra?nement de l'IA à l'avenir pour plus d'un domaine d'activité spécifique. On essaie par exemple de rendre les systèmes linguistiques de l'IA plus intelligents gr?ce à d'énormes bases de données textuelles sur Internet. Les algorithmes développés dans ce cadre peuvent certes créer des textes grammaticalement corrects, mais ils ne comprennent que partiellement leur contenu. Ils utilisent par exemple le mot "chien" sans en avoir jamais vu ou touché un, et encore moins sans avoir été mordu par un.
Ferretti : On trouve des exemples similaires en médecine, où l'IA est utilisée pour le diagnostic du cancer à l'aide d'images. Un médecin s'appuie sur les connaissances et l'expérience médicales pour faire son évaluation. L'IA, en revanche, s'appuie entre autres sur les conditions d'éclairage ou les bords de l'image. Ces aspects sont importants pour reconna?tre des modèles, mais n'ont pas toujours une signification clinique pour le médecin. L'homme et la machine évaluent donc différemment la pertinence de cette corrélation.
Grewe : C'est un aspect important. Dans le cas d'attaques hostiles par exemple, appelées attaques adversaires, les chercheurs tentent de déjouer les réseaux neuronaux artificiels. Ils montrent par exemple l'image d'un chien, modifient ensuite trois pixels spécifiques et le réseau reconna?t ensuite un chat. Un être humain ne serait jamais dupe.
Confondre un chien avec un chat peut sembler amusant, mais les diagnostics de cancer comportent des enjeux importants...
Ferretti : C'est vrai, et il y a un problème même lorsque les systèmes fonctionnent correctement. Les patients peuvent se méfier des résultats s'ils n'en comprennent pas les tenants et aboutissants. Les médecins et les patients font confiance à un système lorsqu'il s'avère fiable et qu'ils constatent que les implications possibles sont communiquées de manière transparente. S'engager pour le droit des utilisateurs à des explications appropriées et à un certain degré de transparence renforcerait la confiance dans ces systèmes.
Cependant, même les scientifiques admettent ne pas savoir ce qu'ils apprennent ni comment ils l'apprennent...
Grewe : C'est un problème plus large et plus général de l'apprentissage automatique. Jusqu'à récemment, les chercheurs programmaient les robots à l'aide de codes de commande directs : "Pour saisir ce gobelet, déplace ta main vers la droite et ferme-la à la position XY". Ils savaient donc exactement ce que le robot faisait. Mais maintenant, ils lui fournissent de nombreuses données d'images, il essaie différents mouvements au petit bonheur la chance et lorsqu'il attrape le gobelet, ils lui disent : "C'était bien, maintenant apprenez et répétez s'il vous pla?t". Les chercheurs ne programment donc plus et ne connaissent plus chaque étape du processus, mais apprennent à la place à des algorithmes le comportement souhaité gr?ce à un apprentissage extensif. Mais il s'agit là d'une véritable bo?te noire. Personne ne sait exactement comment ces algorithmes fonctionnent. Le plus gros problème est qu'ils échouent parfois complètement et que nous n'en connaissons pas les raisons.
Nous avons donc besoin d'un apprentissage automatique interprétable, dont le modèle est con?u dès le départ pour être transparent ?
Ferretti : Un certain degré d'explicabilité serait utile. Cela peut aussi contribuer à clarifier la question de la responsabilité en cas de problème. Si l'on utilise la technologie dans le domaine de la santé par exemple, il doit être possible de déterminer qui est responsable d'une erreur de diagnostic - un médecin qui s'est trompé ou une erreur dans le système d'IA.
Grewe : Il doit être clair quand et pourquoi les systèmes d'IA font des erreurs. Si un être humain prend une décision, nous pouvons lui en demander les raisons. Ce n'est pas encore possible avec les algorithmes de réseaux neuronaux artificiels.
Ferretti : En outre, nous devons parler des données que nous alimentons dans ces machines. Si l'on part du principe que notre monde est aussi marqué par les préjugés et l'injustice, nous risquons de voir les machines reproduire ces problèmes si l'on ne fait rien pour les éviter. De plus, des biais d'échantillonnage dans les données pourraient entra?ner une discrimination. Par exemple, si l'on donne à la machine principalement des ensembles de données montrant des tumeurs sur une peau claire, il est probable qu'elle ne reconnaisse pas les excroissances sur une peau foncée. Ces systèmes doivent être testés avec précision afin de garantir la neutralité nécessaire des données et d'éviter toute discrimination.
Comment répondre à ces exigences éthiques ?
Ferretti : C'est difficile. Dans notre laboratoire, nous travaillons à l'élaboration de systèmes d'assurance qualité et de cadres qui devraient être nécessaires pour tester de telles technologies. Les instruments éthiques et juridiques actuels issus de la recherche médicale doivent être adaptés aux nouveaux problèmes posés par les algorithmes d'IA. Le défi consiste à développer un système capable de suivre le rythme de cette technologie qui progresse rapidement et de l'évaluer et de la contr?ler de manière adéquate.
Avons-nous besoin de nouvelles directives ?
Ferretti - Nous devons clarifier la manière dont les principes éthiques pour le développement de l'IA doivent être interprétés et appliqués dans la pratique. Il existe désormais de nombreuses directives éthiques différentes en matière d'IA, mais il y a une incertitude quant à la manière exacte de les mettre en ?uvre, car les points de vue des différentes parties prenantes diffèrent. Parallèlement, des directives strictes s'appliquent à l'utilisation de données sensibles - par exemple médicales - collectées dans les h?pitaux. Il en va tout autrement des données provenant des médias sociaux ou des applications de fitness, même si elles sont parfois utilisées à des fins similaires. Comment gérer ces données provenant de différentes sources ? Nous avons besoin d'un cadre de gouvernance plus complet qui garantisse la protection des données, l'équité ainsi qu'une plus grande transparence et qui surveille l'évolution technologique.
Les entreprises technologiques disposent généralement d'une puissance de calcul nettement supérieure à celle des hautes écoles. Cela vous limite-t-il en tant que chercheur ?
Grewe - Dans certains domaines comme la modélisation du langage, cela pose déjà problème, car les hautes écoles ne sont pas compétitives dans ce domaine. Ces modèles d'IA très performants sont entra?nés avec des textes provenant de tout l'Internet. Cela nécessite des ressources de calcul qui co?tent des millions de dollars. D'un autre c?té, même si je n'ai pas lu tout l'Internet, je pense que je suis quand même plus intelligent que tous les modèles linguistiques d'IA actuels. Je pense que nous avons besoin d'un tout autre concept d'apprentissage pour que les algorithmes d'IA comprennent mieux les problèmes et les résolvent de manière plus universelle.
Différente en quoi ?
Grewe - Il est peut-être temps d'abandonner l'apprentissage statistique et le big data et de s'inspirer de la manière dont les enfants apprennent. Je pense ici à des systèmes incarnés qui apprennent d'abord les bases pour développer des concepts abstraits très simples. Ensuite, ils peuvent apprendre des interactions et des schémas de plus en plus complexes. En outre, nous devrions aborder la recherche sur les algorithmes de manière plus interdisciplinaire, en combinant par exemple l'informatique et l'apprentissage automatique avec la robotique, les neurosciences et la psychologie.
Madame Ferretti, cette approche entra?nerait-elle moins ou plus de problèmes éthiques ?
Ferretti - Il en résulterait finalement plus de problèmes - la question est de savoir de quel horizon temporel nous parlons ici. Nous devons d'abord nous pencher sur les outils axés sur les t?ches qui pourraient faciliter et améliorer la vie. Ceux-ci posent déjà des problèmes éthiques extrêmement difficiles. L'avenir sera passionnant !
Ce texte est paru dans le dernier numéro du magazine de l'ETH. Globe a été publié.