Die Moral in der Maschine: Warum wir eine digitale Ethik brauchen
Heiliger Gral oder doch eine Büchse der Pandora? Wir haben mit Petra Grimm, der Leiterin des Instituts für Digitale Ethik an der Hochschule der Medien in Stuttgart über unsere digitale Zukunft, über fehlende Digitalkompetenzen und einen selbstbestimmten Umgang mit Künstlicher Intelligenz (KI) gesprochen.
Eurac Research: Frau Grimm, mit welchen Gefühlen blicken Sie unserer digitalen Zukunft entgegen?
Petra Grimm: Ich würde sagen, weder euphorisch noch resignativ. Die digitale Zukunft wird nicht wie ein Meteoritenschlag über uns kommen - sie wird von uns gemacht. Würden wir wie ein Kaninchen vor der Schlange stehen und uns Sorgen machen, wäre das der falsche Ansatz. Bislang gilt die Digitalisierung entweder als heiliger Gral, der alle unsere Probleme lösen kann oder sie wird als Büchse der Pandora verstanden, mit dem Verlust von Privatheit, Arbeitsplätzen oder mit der Abhängigkeit von digitalen Systemen assoziiert. Wenn wir aber unsere Gestaltungsmöglichkeiten nutzen, können wir die digitale Zukunft durchaus nachhaltig, gemeinwohlorientiert und demokratieverträglich gestalten. Technologien sollen schließlich kein Selbstzweck sein, sondern ein gelingendes Leben für uns alle ermöglichen.
Sie gehören zu den Entwicklerinnen der „10 Gebote der Digitalen Ethik“, eine Art Werte-Navi für das digitale Leben. Was ist digitale Ethik und warum brauchen wir sie?
Grimm: Digitale Ethik soll aufzeigen, was der digitale Wandel mit uns als Person und als Gesellschaft macht. Es ist eine zivilisatorische Herausforderung, unsere gesellschaftlichen Errungenschaften, unsere Grundwerte in dieses System zu implementieren. Dafür soll die digitale Ethik Instrumente und Argumente liefern. Es geht darum, Menschen zu befähigen, sich eine Haltung anzueignen und digitale Zivilcourage zu fördern.
Wo sehen Sie die größten Baustellen im Bereich der Digitalisierung?
Grimm: Früher war nicht alles besser, aber ich beobachte schon, dass eine Verständigung über Fakten immer schwieriger und damit der Zusammenhalt der Gesellschaft erschwert wird. Unsere Informationswelt hat sich durch die Digitalisierung gravierend verändert. Es hat sich eine Art Wahrheitsrelativismus herausgebildet. Menschen basteln sich ihre individuelle Wahrheit so zusammen, wie es ihnen gefällt. Das verhindert aber, dass wir uns auf eine geteilte Wahrheit beziehen können. Wenn jemand den Klimawandel bestreitet oder die schweren gesundheitlichen Folgen von Covid-19 leugnet, ist es schwer, nach gemeinsamen Lösungen zu suchen. Es fehlt die geteilte Wissensbasis. Das Fatale ist: Fake News schaffen nicht nur Verunsicherung und Misstrauen gegenüber Institutionen oder Qualitätsmedien, sondern kosten im schlimmsten Fall auch Leben. Etwa in Japan, wo 2013 eine Impfkampagne gegen Gebärmutterhalskrebs gestartet wurde. Gleichzeitig entstand eine Desinformationskampagne, die dazu führte, dass die Impfrate von fast 70 auf unter 1 Prozent absank – und heute liegt sie immer noch relativ tief. Was fehlt, ist eine wirksame Strategie gegen solche Desinformationskampagnen.
Wir sollten uns als Menschen nicht klein machen oder uns weniger zutrauen als einer Maschine.
Petra Grimm
Welche Strategien könnten das sein?
Grimm: In erster Linie brauchen wir mehr Bildung und Aufklärung. Ich plädiere nun schon seit über 20 Jahren für ein eigenes Fach für Digitalkompetenz. Es passiert bereits viel im Bereich der Medienbildung, aber es macht einen großen Unterschied, ob das Thema fächerübergreifend erarbeitet wird, oder ob eine Lehrperson tatsächlich speziell und zielgerichtet für dieses Fach ausgebildet ist. Jugendliche nutzen digitale Medien zwar ausgiebig, aber es fehlt ihnen oft an digitalen Kompetenzen, sie nicht nur an der Oberfläche gut zu bedienen, sondern auch die Wirkungszusammenhänge zu erkennen. Wie kann ich meine Privatheit schützen? Wie bildet man sich eine Meinung? Was leisten Medien für die Demokratie? Was sind die Interessen der Anbietenden? Die Antworten auf diese Fragen sind nicht selbstverständlich als Wissen vorhanden. Jugendliche sagen zum Teil selbst, dass sie sich etwa im Umgang mit Fake News mehr Kompetenzvermittlung wünschen würden. Ein weiterer Punkt sind unsere rechtlichen Vorgaben. Mit der neuen Datenschutzgrundverordnung sind Unternehmen verpflichtet, Privacy by Design, also Datenschutz durch Technikgestaltung umzusetzen, wenn sie neue Produkte entwickeln. Dazu braucht es wiederum einen Ethics by Design-Ansatz, um ethische Überlegungen und Werte in alle Prozesse der Gestaltung von digitalen Systemen einfließen zu lassen. Wir haben hierzu die SEC-Methode entwickelt, die Start-ups praktische Gestaltungsvorschläge und Tools bietet, um ihr Unternehmen nach ethischen Standards auszurichten. Auch der Ressourcenverbrauch von Streamingdiensten wie Netflix und in der Produktion von digitalen Geräten muss stärker thematisiert werden. Zum Glück findet gerade ein Bewusstseinswandel statt und auch auf regulativer Ebene gibt es Bestrebungen, den Wettbewerb zu verbessern und der Monopolisierung durch die großen Tech-Unternehmen entgegenzuwirken.
Die digitale Ethik umfasst ein riesiges Feld, Bereiche der Robotik, der Künstlichen Intelligenz und viele andere mehr. Wo betrifft sie ganz konkret unseren Alltag?
Grimm: Ein Beispiel ist sicherlich das Social Scoring, von dem wir oft in Zusammenhang mit China hören, das aber auch in europäischen Produkten zum Einsatz kommt. Der Bayrische Rundfunk hat vor Kurzem ein Experiment gestartet und den Einsatz Künstlicher Intelligenz bei der Jobbewerbung untersucht. Dabei wurde klar, dass die Wahl des Bildhintergrunds oder etwa das Tragen einer Brille oder eines Kopftuches die Bewertung stark beeinflussen können. Alles Faktoren, die über die berufliche Qualität der Person nichts aussagen. Und genau dort liegt das Problem. Wir meinen immer, dass Künstliche Intelligenz neutral, fair und objektiv sei. Das ist sie nicht. Diskriminierungen und Stereotype können durch Künstliche Intelligenz sogar verfestigt werden. Wenn Sie heute einen Kredit beantragen oder einen Onlinekauf tätigen, kann es passieren, dass Sie, je nachdem in welchem Viertel Sie wohnen, eine schlechtere Bewertung erhalten und den Kredit nicht bekommen oder aufgefordert werden, in der Vorkasse zu zahlen. Durch KI sind wir dabei, uns zu einer automatisierten Gesellschaft zu entwickeln. Wir brauchen hier Maßnahmen und Vorgaben, die es uns ermöglichen, künstliche Systeme zu kontrollieren, sie zu verstehen und die Sinnhaftigkeit dieser Maschinen auch zu hinterfragen.
Geht es also darum, uns gegenüber der Technologie zu emanzipieren?
Grimm: Ich würde von Selbstwirksamkeit sprechen. Dieses seltsame Vertrauen in Maschinen und die Vorstellung, dass sie uns überlegen sein könnten, ist absurd. Künstliche Intelligenz kann nur zwei Dinge besser als ein Mensch. Sie kann besser Muster erkennen und Wahrscheinlichkeiten berechnen. Sie kann mit riesigen Datensätzen schneller zu Ergebnissen kommen, hat aber kein Bewusstsein, keine Moral und keine Intelligenz wie ein Mensch sie hat. Wir sollten uns als Menschen nicht klein machen oder uns weniger zutrauen als einer Maschine.
Petra Grimm
Petra Grimm ist Leiterin des Instituts für Digitale Ethik an der Hochschule der Medien (HdM) in Stuttgart. Die Professorin für Medienforschung und Kommunikationswissenschaft ist außerdem Ethikbeauftragte der HdM und Autorin zahlreicher Publikationen, u.a. zu den Themen „Digitaler Wandel“, „Digitale Ethik“, „Narrative Medienforschung“ sowie „Mediennutzung von Kindern und Jugendlichen“. Gemeinsam mit der Beratungsplattform JUUUPORT und der EU-Initiative für mehr Sicherheit im Netz, klicksafe, hat sie die „10 Gebote der Digitalen Ethik“ entwickelt, die als Handlungsleitlinien für Jugendliche für ein verantwortungs- und rücksichtsvolles Miteinander im Netz dienen.
Petra Grimm ist eine der Vortragenden der Online-Tagung „Homo Digitalis“ des Center for Advanced Studies von Eurac Research am Donnerstag, 22. April, von 15.30 bis 19 Uhr. Die Teilnahme an der Tagung ist kostenlos und steht allen Interessierten offen. Anmeldung und Info: https://beta.eurac.edu/de/magazine/online-tagung-homo-digitalis
Citation
This content is licensed under a Creative Commons Attribution 4.0 International license except for third-party materials or where otherwise noted.