Intelligence artificielle

Photo DALL·E 2, Texte: Thomas Abplanalp

Page précédente

Que doit-elle faire ?

L’IA occupera probablement toujours plus de place dans notre quotidien et prendra également des décisions « morales », ce qu’elle doit tout d’abord apprendre à faire.

Ce processus d’apprentissage suppose deux décisions qui définiront ensuite le fondement moral de l’IA. Il s’agit de questions qui influencent notre vie dans la société. La première, c’est avec quelles données une IA est alimentée. Ensuite, il faut déterminer son fondement moral. Au XVIIe siècle, le philosophe Emmanuel Kant a formulé la fameuse question d’éthique : « Que dois-je faire ?» Maintenant, au XXIe siècle, cette question ne s’applique plus seulement aux humains mais également à l’IA : « Que doit-elle (l’IA) faire ? »

Comparer des valeurs et en discuter

Cette question doit avoir sa place dans l’enseignement, pour permettre aux élèves de se frotter à ces questions auxquelles elles et ils seront confronté.e.s.

Pour les cycles scolaires supérieurs, le site Moral Machine1 offre une expérience dans le cadre de la voiture autonome. La personne qui se lance dans cette expérience de réflexion décide, en 13 scénarios, et chaque fois entre deux situations, ce que la voiture autonome doit faire dans le cas d’un accident. À partir des résultats, une discussion s’engage à propos des valeurs morales au sein de la classe. Les apprenant.e.s questionnent ainsi leurs conceptions morales personnelles et celles d’autrui. Quand on obtient, grâce à la discussion, des résultats différenciés, on peut passer à la vitesse supérieure et se demander quelles conceptions morales devraient être programmées dans les IA et en quoi les êtres humains et l’IA se différencient en tant qu’acteurs moraux.

Dans les cycles scolaires inférieurs, il y a lieu d’établir un lien direct avec l’univers de vie des élèves. On les invite à questionner leurs comportements. Elles et ils en arrivent nécessairement à parler de leur éducation. Dans un échange collectif, les enfants identifient alors les points communs et les différences concernant les règles éducatives, imprégnées de valeurs, en vigueur chez elles et eux. À partir de là, elles et ils peuvent se demander quelles règles de comportement les IA devrait apprendre.

Philosopher avec les enfants pour mieux comprendre un sujet ensemble

Dans l’optique de l’EDD, une discussion philosophique sur l’IA est appropriée car elle développe des compétences cognitives comme la réflexivité, la pensée critique et la capacité de poser des questions éthiques concernant le développement de la société. Et en abordant la question du fondement moral de l’IA, notamment par des outils didactiques appropriés, les apprenant.e.s questionnent leurs propres valeurs et celles d’autrui.

Pour cela, il convient de veiller à ce que les discussions se déroulent dans un climat d’ouverture et de respect. Les élèves sont encouragé.e.s à laisser parler les autres sans les interrompre, à réagir avec bienveillance à ce que leurs camarades disent et à s’ouvrir progressivement à de nouvelles perspectives. Des compétences socio-émotionnelles sont ainsi également développées. Le but d’une discussion philosophique est de parvenir ensemble à mieux comprendre un sujet et non pas de convaincre les autres de son opinion personnelle. Les apprenant.e.s constituent pour ainsi dire une communauté intellectuelle en mouvement vers un avenir durable.

Ressources pédagogiques sur le thème « Philosopher »

Préparer et animer des ateliers philo  Cycles 1 et 2

 

Philosophes en herbe !  Cycles 2

 

 

Page suivante

Retour à l'aperçu