Interview mit Dr. Peter G. Kirchschläger

Text: Daniel Fleischmann für éducation21

Schule muss bildschirmfreie Oasen schaffen

Künstliche Intelligenz (KI) durchdringt immer mehr das menschliche Dasein – und wirft dabei ethische Fragen auf. Peter G. Kirchschläger, Ethik-Professor an der Universität Luzern, fordert darum eine UNO-Agentur zur Kontrolle von KI. Den Schulen empfiehlt er, kritisch mit digitalen Medien umzugehen und die Kinder in jenen Bereichen zu stärken, die das Menschsein genuin ausmachen: Beziehung, Begegnung, Kooperation.

Herr Kirchschläger, lassen Sie uns zuerst definieren: Was ist künstliche Intelligenz?

Künstliche Intelligenz versucht, zu imitieren, was menschliche Intelligenz leistet. Das gelingt fantastisch, wenn es um grosse Datenmengen, logische Deduktionen oder Erinnerungen geht. Grenzen sehe ich für Bereiche wie die emotionale und soziale Intelligenz. Roboter haben keine Gefühle. Und sie sind auch nicht moralfähig. Damit meine ich die Fähigkeit des Menschen, sich aufgrund seiner Freiheit selbst ethische Regeln zu setzen und für verbindlich zu erkennen. Ich würde daher auch vorschlagen, nicht von «künstlicher Intelligenz» zu sprechen, sondern von «datenbasierten Systemen».

Warum beschäftigen Sie sich mit diesen Systemen?

Aufgrund ihrer hohen Relevanz für unsere Existenz interessierten mich früh deren ethische Chancen und Risiken. Mich bewegt die Frage, wie datenbasierte Systeme in den Dienst von allen Menschen und ihrer Menschenwürde, aber auch unseres Planeten einzusetzen sind.

Geschieht das noch zu wenig?

Ja. Datenbasierte Systeme werden fast ausschliesslich zur Steigerung von Effizienz entwickelt und eingesetzt. Andere Potenziale kommen oft gar nicht in den Blick. Pflegeroboter dienen z. B. nicht dazu, die Pflege zu verbessern, sondern sie sollen Kosten senken. Natürlich entlasten sie das Pflegepersonal. Aber es gehen auch die wenigen Minuten eines Gesprächs mit einer Pflegefachperson, einer menschlichen Begegnung, verloren.

Was unterscheidet datenbasierte Systeme von gewöhnlichen Maschinen?

Datenbasierte Systeme zielen nicht darauf, die Arbeit des Menschen zu erleichtern, sondern ihn zu ersetzen, und zwar auch in anspruchsvollen Tätigkeiten wie der Chirurgie oder der Jurisprudenz. Sie entwickeln sich dabei selbstlernend weiter, mit wenig oder ohne Input von Menschen. Schliesslich sehe ich das Problem, dass Maschinen viele Arbeiten zwar gut und billig verrichten, aber doch nicht so gut wie die teureren Menschen.

Sie fordern eine Verantwortungsübernahme der Menschen für das Design, die Entwicklung und die Nutzung von datenbasierten Systemen. Warum?

Die Entwicklung von datenbasierten Systemen unterliegt heute keinen einschränkenden Vorschriften. Im Internet sind Dinge möglich, die im wirklichen Leben längst reguliert oder verboten sind. Hier finden wir rassistische Hetzrede, Aufrufe zur Gewalt und Manipulation. Wir brauchen eine internationale Agentur für datenbasierte Systeme (IDA). Sie hätte sich für eine Verbesserung der internationalen Kooperation einzusetzen – also einen Beitrag zur besseren Entwicklung und gerechteren Verbreitung von solchen Systemen zu leisten. Und sie wäre eine Zulassungsstelle, die prüft, ob neue Anwendungen dem Menschen oder der Natur schaden. Datenbasierte Systeme müssen die Nachhaltigkeit fördern, friedens- und menschenrechtsfördernd sein.

Welche ethischen Fragen werfen datenbasierte Systeme im Alltag auf?

Eine wichtige ethische Frage stellt sich erstens im Bereich des Datenschutzes und der Privatsphäre. Derzeit werden unsere Daten gestohlen und weiterverkauft. Wir brauchen Regeln, die auf den Menschenrechten basieren und in einer «zweckgebundenen Datenverwendung» münden, wie sie bei jedem Hausarzt Praxis ist, der meine Daten ja auch nicht an Krankenkassen oder Pharmafirmen weiterverkauft.

Zweitens glaube ich, dass wir Menschen lernen sollten, die Leistungen von datenbasierten Systemen nüchterner einzuschätzen. ChatGPT etwa sortiert lediglich bereits vorhandenes Wissen mithilfe semantischer Regeln neu. Er ist dabei beschränkt auf die ihm zugänglichen Texte. Algorithmen sind nicht objektiv, fair oder neutral, sondern leben von der Qualität der Daten. Sie reproduzieren all die Vorurteile und sonstigen Dummheiten im Netz. Schliesslich verletzt ChatGPT mit jedem Text, den es erstellt, geltendes Urheberrecht.

Wie können die Kinder im Unterricht auf die Nutzung von KI vorbereitet werden?

Schule muss kein Ort sein, wo man lernt, wie man Programme bedient – Kinder sitzen häufig genug vor dem Bildschirm. Aufgabe der Schule ist es, die Kinder mit dem kritischen Umgang mit den Möglichkeiten datenbasierter Systeme vertraut zu machen. So kann ich mir eine Rechercheaufgabe vorstellen, die zeigt, welche Ergebnisse eine Suchmaschine generiert – und dass gewisse Treffer ganz oben landen, weil dafür bezahlt wurde.

Bedeutender als das scheint mir aber, Kindern und Jugendlichen in der Schule bildschirmfreie Oasen anzubieten – Orte und Zeiten, die frei sind von der ständigen Konkurrenz durch Geräte. Kinder müssen nicht primär erfahren, was Computer können. Sie sollten erleben können, was das Menschsein ausmacht und dass Gespräche, das Zusammensein interessanter ist als das, was gerade auf dem Smartphone läuft. So erweitert sich der kritische Blick auf die datenbasierten Systeme in eine konstruktive Praxis – hin zur Förderung von Kreativität, der Auseinandersetzung mit philosophischen Fragen, sozialem Erleben.

Im öffentlichen Diskurs werden meist die digitalen Chancen für die Schule betont.

Natürlich gibt es diesen Digitalisierungsdruck, ich kenne viele Lehrpersonen, die ihn spüren und im Grunde ablehnen. Schule soll modern sein, auf dem neusten Stand der Technik; aber dabei blendet man aus, dass Menschen eine Gestaltungsverantwortung haben. Nicht jede Innovation ist ethisch positiv. Wenn Lehrpersonen digitale Medien im Unterricht einsetzen, dann sollten sie immer deren Verständlichkeit, Handhabbarkeit sowie Sinnhaftigkeit prüfen und begründen können, welches die didaktische Legitimation, der pädagogische Mehrwert ist.

Dr. Peter G. Kirchschläger

 

 

 
Professor für Theologische Ethik und Leiter des Instituts für Sozialethik ISE der Universität Luzern sowie Gastprofessor an der Professur für Neuroinformatik und Neuronale Systeme der ETH Zürich sowie am ETH AI Center. Sein letztes Buch «Digital Transformation and Ethics» ist 2021 erschienen.

«Roboter haben keine Gefühle. Und sie sind auch nicht moralfähig.»

nächste Seite

zurück zur Übersicht