Interview de Dr Peter G. Kirchschläger

L’école doit aménager des oasis sans écran

L’intelligence artificielle (AI) s’implante de plus en plus dans l’existence humaine – et soulève en même temps des questions éthiques. Peter G. Kirchschläger, professeur d’éthique à l’Université de Lucerne, réclame de ce fait une agence de l’ONU qui serait chargée de contrôler l’IA dans ses dimensions éthiques. Il recommande aux écoles d’utiliser les médias numériques de manière critique et de développer chez les enfants des compétences comme la coopération, liées à des domaines spécifiquement humains : les relations, les rencontres.

Monsieur Kirchschläger, commençons par une définition : qu’est-ce que l’intelligence artificielle ?

L’IA essaie d’imiter ce que fait l’intelligence humaine. Ceci fonctionne incroyablement bien quand il s’agit de traiter de grandes quantités de données, de réaliser des déductions logiques ou de gérer de la mémoire – une intelligence cognitive décuplée, en somme. En revanche, je vois des limites pour les dimensions émotionnelle et sociale de l’intelligence. Les robots n’ont pas de sentiments, ni d’émotions. Et ils ne sont pas non plus capables d’un jugement moral. J’entends par là la capacité de l’être humain de se fixer des règles éthiques sur la base de sa liberté et de les reconnaître comme contraignantes pour ses actions. Je proposerais aussi pour cette raison de ne pas parler d’« intelligence artificielle » mais de « systèmes fondés sur des données ».

Pourquoi est-ce que vous vous intéressez à ces systèmes ?

En raison de leur grande importance pour notre existence, les opportunités et les risques liés au recours à ces systèmes du point de vue éthique m’ont intéressé très tôt. Ce qui me préoccupe, c’est la question de savoir comment les utiliser au service de tous les humains et de leur dignité, mais aussi au service de notre planète.

Est-ce encore trop peu le cas ?

Oui. Ces systèmes sont conçus et utilisés actuellement presque uniquement pour accroître l’efficacité. Souvent, d’autres potentiels ne sont même pas pris en considération. Par exemple, les robots dans le domaine des soins ne servent pas à les améliorer mais à réduire leurs coûts. Ils soulagent bien sûr le personnel soignant. Mais les quelques minutes d’échange avec un infirmier ou une infirmière, de contact humain avec le ou la patient.e, se perdent.

Qu’est-ce qui distingue ces systèmes de machines ordinaires ?

Les systèmes fondés sur des données n’ont pas pour but de faciliter le travail humain mais de le remplacer, et ceci également pour des activités exigeantes comme la chirurgie ou la jurisprudence. Ces systèmes continuent de se développer en apprenant eux-mêmes, avec une intervention humaine très faible ou inexistante. Le problème que je vois finalement, c’est le fait que les machines exécutent bien et à bas prix de nombreux travaux mais ne le font tout de même pas si bien que les humains, qui sont plus « coûteux ».

Vous demandez que les humains prennent la responsabilité de la conception, du développement et de l’utilisation des systèmes fondés sur des données. Pourquoi ?

Le développement de systèmes fondés sur des données n’est soumis aujourd’hui à aucune réglementation restrictive. Sur Internet, des choses sont possibles qui, dans la vraie vie, sont réglementées ou interdites depuis longtemps. Nous y trouvons des propos incitant à la haine, des appels à la violence et de la manipulation. Il nous faut une agence internationale pour les systèmes fondés sur des données. Elle devrait s’employer à améliorer la coopération internationale et donc contribuer à un meilleur développement et à une répartition plus équitable des systèmes. Elle aurait aussi la fonction d’un service d’autorisation, en examinant si de nouvelles applications nuisent aux humains ou à la nature : les systèmes fondés sur des données doivent en effet promouvoir la durabilité, favoriser la paix et faire progresser les droits humains.

Quelles sont les questions éthiques soulevées au quotidien par les systèmes fondés sur des données ?

Une question éthique importante se pose d’abord dans le domaine de la protection des données et de la sphère privée. Actuellement, nos données sont volées et vendues. Il nous faut des règles qui s’appuient sur les droits humains et conduisent à une « utilisation des données dans un sens précis », comme c’est le cas chez chaque médecin de famille qui ne vend pas les données me concernant à des caisses maladie ou à des entreprises pharmaceutiques.

En second lieu, je pense que nous, les humains, devrions apprendre à évaluer les performances des systèmes fondés sur des données de manière plus lucide. ChatGPT, par exemple, se limite à réassembler des connaissances existantes à l’aide de règles sémantiques. Il se limite aux textes qui lui sont accessibles. Les algorithmes ne sont pas objectifs, équitables ou neutres mais fonctionnent à partir de la qualité des données. Ils reproduisent toutes sortes de préjugés et des stupidités en circulation sur le net. Avec chaque texte qu’il génère, ChatGPT enfreint en fin de compte les droits d’auteur.

Comment les enfants peuvent-ils être préparés dans l’enseignement à l’utilisation de l’IA ?

L’école ne doit pas être un lieu où l’on apprend à utiliser des programmes – les enfants passent suffisamment de temps devant les écrans. La tâche de l’école, c’est de familiariser les enfants avec une utilisation critique des possibilités des systèmes fondés sur des données. Je peux par exemple imaginer un exercice qui montrerait quels résultats produit un moteur de recherche – certaines cibles apparaissent tout en haut, en tête de liste, parce que quelqu’un a payé pour ça.

Cependant, ce qui me paraît encore plus important, c’est d’offrir aux enfants et aux jeunes des oasis sans écran à l’école – des endroits et des plages de temps libres de la concurrence permanente provenant des appareils. Les enfants ne doivent pas apprendre en premier lieu ce que les ordinateurs peuvent faire. Elles et ils devraient pouvoir découvrir ce qui fait l’essence de l’être humain et se rendre compte que des discussions et du temps passé ensemble sont plus intéressants que ce qui se passe sur le smartphone. Ainsi, le regard critique posé sur les systèmes fondés sur des données s’élargit en direction d’une pratique constructive – vers l’encouragement de la créativité, de la réflexion sur des questions philosophiques et la vie sociale.

Dans le débat public, on met généralement en avant les chances du numérique pour l’école.

Bien sûr que cette pression numérique existe, je connais de nombreux enseignant.e.s qui la ressentent et, au fond, la refusent. L’école doit être moderne, à la pointe de la technique ; en même temps, on oublie de voir que les humains ont une responsabilité face à ce qui se crée. Chaque innovation n’est pas nécessairement positive du point de vue éthique. Quand les enseignant.e.s utilisent des outils numériques dans leur enseignement, ils devraient toujours examiner leur facilité de compréhension, leur maniabilité ainsi que leur utilité ; ils devraient aussi pouvoir justifier quelle en est la légitimité du point de vue didactique, la plus-value pédagogique.

Texte: Daniel Fleischmann pour éducation21

Dr Peter G. Kirchschläger

 

 

 
Dr Peter G. Kirchschläger est professeur d’éthique théologique et directeur de l’Institut d’éthique sociale (ISE) de l’Université de Lucerne ainsi que professeur invité à la chaire de neuro­ informatique et de systèmes neuronaux à l’ETH Zürich et au ETH AI Center. Son dernier ouvrage « Digital Transformation and Ethics » a été publié en 2021.

« Les robots n’ont pas de sentiments, ni d’émotions. Et ils ne sont pas non plus ca- pables d’un jugement moral. »

Page suivante

Retour à l'aperçu