WIR BRAUCHEN EINE DIGITALE WELTKULTUR
Intelligente Sprachassistenten sollen nicht nur Befehle ausführen, sondern auch auf Emotionen reagieren. Dafür müssen sie uns gut kennen, vielleicht sogar besser als wir uns selbst. Ist das wünschenswert?
Am Morgen schaltet Alexa die Leuchten an und regelt die Fußbodenheizung hoch. Der Kaffee läuft bereits durch, das Pulver ist fast alle, also hat sie neues bestellt. Statt Radio spielt sie die Lieblingsplaylist, laut Zyklus-App und dem Tonfall des „Guten Morgen“ nach zu urteilen, sollte das heute notwendig sein. Alexa weiß, was ihre Nutzer brauchen, bevor sie es selbst wissen. Das jedenfalls ist die Vision von Jeff Bezos und seinen Entwicklern bei Amazon. Der Konzernriese hat einen Chip entwickelt, mit dem Alexa lautlos in Haushaltsgeräte einziehen kann: in die Mikrowelle, die Kaffeemaschine, den Kühlschrank, mit den „Echo“-Boxen sogar ins Fahrzeug. Mit der Funktion „Alexa Hunches“ will das Unternehmen die Gewohnheiten seiner Kunden lernen und vorhersagen. Es hat außerdem ein Patent für eine Funktion angemeldet,
mit der Alexa anhand der Nutzerstimme Rückschlüsse auf dessen körperliche oder seelische Verfassung ziehen könnte. Bei Heiserkeit oder einer verstopften Nase bekäme dieser dann Werbung für Halspastillen oder Grippemittel angesagt.
Auch Gefühle wie Freude, Aufregung oder Ärger soll Alexa entziffern lernen und in Verbindung mit Metadaten über Browserverläufe sowie das bisherige Kaufverhalten Werbung und Angebote weiter personalisieren. Im vergangenen Jahr gewann Amazon für seine Entwicklungen einen Preis, allerdings keinen schönen: Der Verein Digitalcourage kürte den Online-Händler für sein „neugieriges, vorlautes, neunmalkluges und geschwätziges Lauschangriff-Döschen namens Alexa“ mit dem „Big Brother Award“. Der Preis wurde von der britischen Menschrechtsorganisation Privacy International ins Leben gerufen und zeichnet besonders schlechte Leistungen
auf den Gebieten Datenschutz und Privatsphäre aus.
Der problematische Umgang mit Massendaten ist nur ein Aspekt, der sogenannte Künstliche Intelligenz oder lernende Algorithmen zu einem der ambivalentesten Themen unserer Zeit macht. Beinahe prophetisch klingen die Worte des mittlerweile
verstorbenen Astrophysikers Stephen Hawkings, der 2017 auf dem Web Summit in Lissabon sagte: „Die Entwicklung Künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist.“
Für die einen sind intelligente Computer die nächste gesellschaftliche Revolution. Sie lösen komplexe Aufgaben schneller und präziser, können in Unmengen von Daten Muster erkennen, die kein Mensch sehen würde. In Unternehmen kann dies zu nachhaltigeren Lagerplanungen führen, im Privaten zu einer gesünderen Lebensweise. Computer geben Antworten auf Fragen, die wir uns nicht gar nicht stellen, die
unser Leben aber einfacher und nachhaltiger gestalten.

Für die anderen läuft die Menschheit damit geradewegs ins Verderben. In diesem Szenario unterwirft Technologie den freien Willen, durchleuchten Staaten und Konzerne die Bürger skrupellos, während sie die Demokratie abschaffen. Die chinesische Regierung setzt bereits Gesichtserkennung zur Maßregelung politischer Gegner ein und „erzieht“ damit ihre Bürger. Algorithmen diskriminieren Menschen systematisch. Jede Information wird aus Profit- und Machtgier missbraucht. In ihrem Aufsatz „Grundlagen einer digitalen Ethik“ fasst die Kommunikationswissenschaftlerin Petra Grimm die Debatte der heutigen Zeit in zwei Fragen zusammen. Sie schreibt: „[Eine digitale] Ethik fragt nicht: ‚Was ist technisch möglich?’, sondern: ,Was ist wünschenswert?’ und: ,Für wen ist das wünschenswert?’“ Die meisten aber begrüßen Fortschritt, bevor sie ihn hinterfragen. Laut einer Studie der Postbank nutzen bereits 32 Prozent der Menschen hierzulande intelligente Assistenten wie Alexa oder Google Home. Das sind zwölf Prozentpunkte mehr als im Vorjahr. Den Markt dominieren die vier großen Hersteller: allen voran Amazon mit Alexa, danach folgen Apple, Google und Microsoft. Und sie sind, keine Frage, praktisch. „Alexa, mach die Leuchten
an“, „Alexa, spiel Deutschlandradio“, „Alexa, wie wird das Wetter morgen?“ Der Umgang mit diesen Sprachassistenten geht uns natürlicher über die Lippen als das Rumwischen auf dem Smartphone-Display. Intelligente Computer bieten
Orientierung in einer Welt der unendlichen Angebotsvielfalt. Ob auf Netflix, Spotify oder Amazon Prime: Sie merken sich unsere Vorlieben und leiten daraus Empfehlungen ab.
Diese Entwicklung könnte als alarmistisch betrachtet werden, weil sie die Persönlichkeitsentfaltung einschränkt. Wer nur noch konsumiert, was ihm ohnehin gefällt, testet seine Grenzen nicht mehr aus und schrumpft so immer weiter in seiner kleinen Blase zusammen. Das Ergebnis: Intoleranz und Unmündigkeit. Die eigene Identität wird zu einer Datensammlung und einem Zielgruppenprofil. Alexa, wer bin ich?
Im schlimmsten Falle käme uns damit vielleicht der Kern des Menschseins abhanden: die Fähigkeit zur Begeisterung. „Wir sind die einzigen Lebewesen, die auch etwas für wichtig halten können, was in Wirklichkeit weder für das eigene Überleben noch für die eigene Reproduktion gebraucht wird“, schreibt der Neurobiologe Gerald Hüther. Opern etwa, zum Mond fliegen, Lyrik oder Briefmarken, den Aufbau eines Grashalms. Aber nur, wenn wir uns Neuem aussetzen, können wir auch entdecken. Diese Überlegung wird umso wichtiger, als Alexa und Co. längst zum festen Bestandteil der Erziehung werden. Laut Postbankstudie werden die digitalen Helfer am intensivsten in Familien genutzt. Jeder zweite Vierpersonenhaushalt beherbergt demnach bereits ein solches Gerät. Es gibt Kinder, die „Alexa“ sagen, bevor sie allein aufs Klo gehen können. Weil der cloud-basierte Sprachdienst von der Masse lernt, verbreitet er auch deren Ansichten und Strukturen – ohne Reflexion, ob das gut so ist. Ein UNESCO-Bericht etwa kritisierte unlängst, dass die meist weiblichen Stimmen und Namen von intelligenten Sprachassistenten Geschlechterklischees manifestieren. Weiblichkeit würde dadurch mit Unterwürfigkeit in Verbindung gebracht. Problematisch sei auch, dass sich die Assistenten bei sexuellen Aufforderungen auffallend passiv verhalten: Auf die Beleidigung als „Schlampe“ reagiert Siri etwa mit den Worten: „Ich mag diese willkürlichen Kategorien nicht“ – beziehungsweise im Englischen mit „I don’t know
how to respond to that.“ Bis zum Frühjahr lautete die Antwort „I’d blush if I could – Ich würde erröten, wenn ich könnte“. Ob und wie diskriminierungsfreie Algorithmen programmiert werden können, ist nicht nur umstritten, sondern mittlerweile ein eigenes Forschungsgebiet. Schon jetzt aber finden Forscher Hinweise darauf, dass Kinder Anwendungen wie Amazon Echo oder Google Home nicht nur als technische Geräte wahrnehmen, sondern ihnen Emotionen zusprechen und die Fähigkeit, zu denken. Die amerikanische Kinderpsychologin und Wissenschaftlerin Rachel Severson
glaubt, dieses Gefühl werde sich mit der Komplexität von Künstlicher Intelligenz weiter ausprägen. Science-Fiction-Filme wie „Her“, in dem sich der einsame Theodore in das
intelligente Computerprogramm Samantha verliebt, scheinen nicht mehr allzu unrealistisch. Zwar ist das, was wir heute Künstliche Intelligenz nennen, noch weit davon entfernt, ein eigenes Bewusstsein zu bilden. Dennoch: Was bedeutet es für eine Gesellschaft, wenn wir uns aus der komplexen Welt stets in die Einfachheit einer ergebenen Software flüchten können? Ist hier zwischenmenschliche Entfremdung nicht vorprogrammiert?

Fragen wie diese unterschätzen den Selbsterhaltungstrieb des Menschen. Wir brauchen einander, um zu lernen und zu fühlen, müssen fühlen und lernen, um zu überleben. Die Kunst liegt darin, Technologie für die Menschlichkeit einzusetzen, statt sie damit abzuschaffen. Wie das gelingen kann, beschreibt etwa der Autor Cal Newport in seinem Buch „Digitaler Minimalismus.“ Auch Pete Thompson, ehemaliger
Vizepräsident des Alexa Voice Service und jetzt Produktchef sowie Senior Vice President bei eBay, sagt: „[Alexa] wird Menschen näher zusammenbringen. Weil sie nicht mehr die ganze Zeit auf ihr Smartphone starren müssen.“ Unterschätzt
wird auch der gemeinschaftliche Unterhaltungseffekt solcher Spielereien. In einer Umfrage der Digitalagentur Computerlove unter 1000 Nutzern gaben 20 Prozent an, sich von Alexa Witze erzählen zu lassen. Laut Amazon sei mehr als die Hälfte der Interaktionen mit der Sprachassistentin nutzenunabhängig und diene lediglich der Unterhaltung. Im Netz finden sich Listen mit den „lustigsten Fragen und Befehlen“
für Alexa, wie etwa: „Alexa, wo ist Chuck Norris?“ (Antwort: „Wenn Chuck Norris möchte, dass du weißt, wo er ist, wird er dich finden. Wenn nicht, wirst du es erst wissen, wenn es zu spät ist.”) Technologie als gemeinsames Erlebnis, als interaktive
Unterhaltung statt passiven Konsums.
„Die Menschen mögen Alexa“, sagt Thompson. Sie wollen ihre Meinung hören und vertrauen sich ihr an. Sensible Aussagen wie „Alexa, ich bin depressiv“ oder „Alexa, ich wurde missbraucht“ kommen durchaus vor. Die Sprachassistentin empfiehlt, mit echten Menschen zu reden: „Sprich mit Freunden oder Familie.“ Dann gibt sie die Nummer einer Hilfshotline durch. Wegen der vorherrschenden Marktmacht
Amazons im Bereich intelligenter Sprachassistenten könnte das Unternehmen zu einem wichtigen Player auf der ersten Stufe der sogenannten KI-Therapie werden. Dies geht jedoch mit einer großen Verantwortung einher. Die Menge und Sensibilität an Daten macht verletzlich. Auch wenn alle beteuern, Daten nicht an Dritte weiterzugeben: Dass Google, Apple und Amazon Gespräche ohne Zustimmung der
Nutzer von Mitarbeitern auswerten lassen, ist hinlänglich bekannt. Google stellte diese Praxis in Europa Anfang August ein, weil die Hamburger Datenschutzbehörde einen temporären Stopp bewirkte. Doch trotz der Empörung werden die Technologien weiter genutzt. In der Wissenschaft wird dies „Privacy Paradox“ genannt: Einerseits möchten Menschen ihre Privatsphäre schützen, andererseits ist das im Alltag kaum möglich, weil die Nutzung des Internets bereits Voraussetzung geworden ist, um Teil der heutigen Gesellschaft zu sein. Dies führe zu Resignation, schreibt Petra Grimm: „Die Veränderung des Systems kann nicht die oder der Einzelne herbeiführen, es braucht eine digitale Wertekultur, die alle Akteure mit einbindet.“ Die Initiative AlgorithmWatch fordert aus diesem Grund eine demokratische Kontrolle von Automatisierungsverfahren. „Wir dürfen die Gestaltungsmacht nicht wenigen Unternehmen überlassen“, sagte Mitgründer und Journalist Matthias Spielkamp in einem Interview mit dem „Enorm” Magazin. Einen Algorithmus-TÜV, wie ihn manche fordern, hält die Initiative jedoch für unrealistisch, weil sich Algorithmen nicht in diesem Ausmaß und in verschiedenen Einsatzgebieten überprüfen ließen. Und auch
die immer wieder aufkommende Idee einer digitalen Grundrechtecharta sei folgenlos: Sie könne stets anders gelesen werden. „Südkorea hat deutsche Datenschutzgesetze übernommen. Bis vor zwei Jahren baute die Regierung auf dieser Grundlage ein fein ziseliertes Überwachungssystem aus. Die gleichen Gesetze wie in Deutschland – mit einer völlig konträren Auslegung“, sagte die Ko-Initiatorin von AlgorithmWatch,
Lorena Jaume-Palasí, in einem Interview mit der „Frankfurter Allgemeinen Zeitung“. Allgemeingültige Regeln zu finden, die sich auf die digitale Welt anwenden lassen,
wird so zur gesellschaftlichen Aufgabe, an der sich alle beteiligen müssen: Bürger, Unternehmen, Politik und Forschung. Was wünschenswert ist, bleibt dabei fließend, eine Frage ohne endgültige Antwort. Auch nicht von Alexa.
Neueste Kommentare