Originalbeitrag: Volkswagenstiftung

Beim Herrenhäuser Gespräch am 14. Februar 2019 debattierten Expertinnen und Experten über unseren Umgang mit Künstlicher Intelligenz. Eine Diskussion über Privatheit, Kontrolle und Macht, wenn die Maschinen um uns herum intelligenter werden. 

Künstliche Intelligenzen steuern Musik und Licht in unseren Wohnungen, sie prüfen unsere Steuererklärungen und helfen Ärzten, Krebs zu erkennen. Sie schreiben aber auch Romane, malen Bilder oder vollenden unvollendet gebliebene Musikstücke. Intelligente Maschinen sind eine Herausforderung für den modernen Menschen geworden.

Einige Zuhörerinnen und Zuhörer standen, so viele waren zum 54. Herrenhäuser Gespräch zum Thema „Die Maschine denkt, die Maschine lenkt? Was Künstliche Intelligenz (KI) für uns Menschen bedeutet“ ins Xplanatorium im Schloss Herrenhausen gekommen. Auf die Fragen von NDR-Moderator Ulrich Kühn antworteten Autor Holger Volland, Gründer des Kulturfestivals THE ARTS+, Kulturwissenschaftlerin Dr. Nathalie Weidenfeld von der LMU München, die Sozialpsychologin Prof. Dr. Nicole Krämer von der Universität Duisburg-Essen und Informatiker Tobias Krafft aus dem Algorithm Accountability Lab der TU Kaiserslautern. Schnell wurde deutlich: Einfache Antworten gibt es nicht. Die KI bietet ebenso große Chancen, wie Bedrohungen. 

Die neuen Zuhörer in unseren Wohnzimmern

Auf dem Podium (v.l.n.r.):

Auf dem Podium diskutierten (v.l.n.r.) Autor Holger Volland, Kulturwissenschaftlerin Dr. Nathalie Weidenfeld, Sozialpsychologin Prof. Dr. Nicole Krämer und Informatiker Tobias Krafft mit Moderator Ulrich Kühn. (Foto: Nico Herzog für VolkswagenStiftung)

Ob als Chatbot oder Sprachassistent, die Künstliche Intelligenz hat längst Einzug in die Wohnzimmer gehalten. Dort begegnet sie uns am direktesten. Die Sozialpsychologin Nicole Krämer erforscht seit Jahren die Interaktion mit diesen neuen Mitbewohnern. Sie sagt: „Um einen solchen Dialog führen zu können, braucht man Intelligenz. Wir sehen aber: Was Maschinen können, ist noch nicht sehr stark fortgeschritten.“

Die Forschung von Krämer an der Universität Duisburg-Essen bestätigt, dass auch unvollkommene Maschinen dennoch soziales Verhalten simulieren können und so unsere Reaktion beeinflussen: „Sobald man soziale Clues gibt, reagieren wir sozial. Da braucht es ganz wenige Hinweise. Wenn man nett begrüßt wird, dann gesagt wird: ‚Du hast aber ein tolles Kleid an‘, das fühlt sich für uns gut an.“ Daran ändere auch das Wissen nichts, dass man eine Maschine vor sich hat. Die Maschinen beeinflussen unsere Emotionen.

Auf dem Podium (v.l.n.r.): Holger Volland, Nathalie Weidenfeld und Nicole Krämer.

Holger Volland (links), Nathalie Weidenfeld und Nicole Krämer (rechts) sind sich einig, dass die „Macht über die Daten“ nicht ausschließlich in den Händen von Konzernen liegen sollte. (Foto: Nico Herzog für VolkswagenStiftung)

Die Kulturwissenschaftlerin Nathalie Weidenfeld fürchtet um den engsten Lebensbereich, wenn die Maschinen ständig mitlauschen: „Es gibt den Verlust der Privatheit. Das passt zu unserer tief sitzenden Lust an der Entäußerung und zur Selfie-Kultur. Ich plädiere sehr für unser Recht aufs Geheimnis.“

Zusammen mit ihrem Ehemann, dem Philosophen Julian Nida-Rümelin, hat Weidenfeld das Buch „Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz“ verfasst. Darin plädieren beide für ein unaufgeregtes Verhältnis zu künstlichen Intelligenzen, einen pragmatischen Umgang statt ideologischer Verdammung in die eine oder andere Richtung.

Legt Rechenschaft ab, Computer!

Tobias Krafft und Moderator Ulrich Kühn auf dem Podium.

Tobias Krafft (links) erklärte dem Publikum und Moderator Ulrich Kühn seine Forschung am Algorithm Accountability Lab der TU Kaiserslautern. (Foto: Nico Herzog für VolkswagenStiftung).

Aufhalten lässt sich der Einzug von „schlauen Algorithmen“ in alle Lebensbereiche ohnehin nicht. Für den Informatiker Tobias Krafft folgt daraus eine Rechenschaftspflicht der Algorithmen der Gesellschaft gegenüber. Dies sieht er durchaus ambivalent – auch begründet durch seine aktuelle Forschung. Wenn der schlaue Assistent seinen Besitzer husten höre und Hustensaft empfehle, sei das durchaus positiv. Doch wie weit darf das Mitdenken der Maschine gehen?

Krafft fragt: „Wenn die Assistenten aus dem Sprachfluss die Stimmung zwischen Eheleuten herausfinden, und dann auf einen Scheidungsanwalt hinweisen. Ist das dann gut?“ Um das überhaupt beurteilen zu können, fordert er, den Spieß umzudrehen: Die Algorithmen müssten uns Rechenschaft ablegen. Noch sind viele Dinge unklar, die Algorithmen sind wie Black Boxes. Das ist Thema seiner Forschung, die die Volkswagen Stiftung fördert.

Holger Volland auf dem Podium neben Nathalie Weidenfeld.

Holger Volland (links) sprach das gesellschaftliche „Datendilemma“ an, das dringend ins Bewusstsein der Menschen dringen müsse, die KI-Technologien nutzen. (Foto: Nico Herzog für VolkswagenStiftung)

Holger Volland glaubt, dass der heutige Mensch noch gar nicht bereit für die Maschinen ist. „Wir haben keinen Schutz im Gehirn, der uns warnt: ‚Achtung das ist ein Roboter. Alles was du ihm verrätst geht in die Datenbank eines Unternehmens.'“ Er ist aber zuversichtlich, dass sich solche Fähigkeiten entwickeln: „Das dauert noch zwei, drei Generationen bis wir intuitiv wissen: Auch wenn etwas so tut, als sei es nett und persönlich, ist es nicht unbedingt nett und persönlich.“ Vielleicht braucht der Mensch einfach noch ein paar Schritte auf der Leiter der Evolution, um die schlauen Maschinen zu lenken?

Wenn KI malt und schreibt

Uneinigkeit herrscht unter Expertinnen und Experten über die Frage, wie die Produkte von Künstlicher Intelligenz zu bewerten sind. Simulieren die Automaten nur menschliches Tun oder können sie tatsächlich gleichziehen? In seinen Buch „Die kreative Macht der Maschinen“ geht Holger Volland unter anderem der Frage nach, wie Maschinen Romane schreiben – und welche Qualität solche Werke haben. Denn schon seit Jahrzehnten füttern Wissenschaftler Maschinen mit Texten zum Beispiel von Shakespeare, damit diese Muster erkennen und womöglich ebenso genialistische Werke verfassen. Volland sagt: „Da kommt ganz oft Bullshit raus. Man braucht immer noch den Menschen, der den Bullshit kuratiert, damit überhaupt Lesenswertes rauskommt.“

Prof. Dr. Nicole Krämer auf dem Podium.

Die Sozialpsychologin Nicole Krämer warnt davor, dass die Nutzung von Sprachassistenten dazu führen kann, dass man aus Bequemlichkeit die eigenen Daten preisgibt. (Foto: Nico Herzog für VolkswagenStiftung)

Nathalie Weidenfeld glaubt nicht, dass eine Maschine überhaupt zur Künstlerin werden kann. In Ihrem Verständnis setzt Kunst eine Intention voraus, ein Mitteilungsbedürfnis. „Dieses Wollen ist bei einer Maschine nicht gegeben, auch wenn sie etwas Schönes produziert“, sagt sie. Volland sieht das pragmatischer: „Ganz ehrlich, ich glaube, dass das wurscht ist. Wir gehen der KI ganz oft auf den Leim.“

Wem gehört die KI?

Eine zentrale Frage des Abends war, wer die Macht über die Daten hat. Die Verlockung, das Licht per Sprachbefehl vom Sofa aus zu löschen, bringt eine Gefahr mit: „Man vergisst ob der Bequemlichkeit, dass diese Daten irgendwo genutzt werden“, sagt Krämer, ob nun beim Lichtausschalten per Sprachbefehl oder in der Medizin-App.

Das Auditorium im Schloss Herrenhausen während der Veranstaltung zu "Künstlicher Intelligenz"

Künstliche Intelligenz bewegt die Menschen – rund 400 Personen kamen zum Herrenhäuser Gespräch. (Foto: Nico Herzog für VolkswagenStiftung).

Volland ergänzt: „Wir haben gesellschaftlich ein Datendilemma. Die KI kann nur gut sein, wenn sie viele Daten zur Verfügung hat. Aber je mehr Daten sie zur Verfügung hat, desto mehr kann sie auf den Einzelnen zurückschließen. Wir wollen beides. Und das wird so nicht klappen.“

Mehr lenken als lenken lassen

Nur weil eine neue Technologie verfügbar sei, hieße das nicht, dass man diese nutzen müsse. Wir sollten uns nicht so sehr von technologischen Verlockungen lenken lassen, findet Weidenfeld. Ihr Plädoyer: „Take over control again. Es ist nicht die Technologie, die entscheidet. Wir müssen entscheiden.“ Dass das gar nicht so einfach ist, wenn die Technologie unsichtbar in vielen Anwendungen steckt, räumt sie ein.

Volland gibt den Zuhörerinnen und Zuhörern mit auf den Weg, Wissen zu erwerben und selbst zu recherchieren: „Es macht Höllenspaß herauszufinden, was an Entwicklungen möglich ist. Es macht auch Höllenspaß sich davor zu gruseln. Forschen Sie selbst!“

Autor: Jakob Vicari

Sendetermin

Das Herrenhäuser Gespräch wird am 03. März 2019 um 20.00 Uhr im NDR Sonntagsstudio gesendet.