Artikel

Auf welchen Zukunftsvorstellungen basiert unsere Forschung?

Dr.in Nina Klimburg-Witjes über Verantwortung in Zeiten von KI, Arbeitsbedingungen von Wissenschaftler*innen und gesellschaftliche Verpflichtungen, die über die Erdatmosphäre und die Gegenwart hinausreichen.

In welchen wissenschaftlichen und technologischen Entwicklungen sehen Sie heute die größten Gefahren für die Zukunft?

Grundsätzlich ist es nicht einfach, einzelne Technologien herauszugreifen, weil es in vielen Disziplinen immer wieder heikle Fragen gibt. Im Moment stehen natürlich Künstliche Intelligenz und maschinelles Lernen ganz oben auf der Agenda. Das ist eine Entwicklung, die so schnell voranschreitet, dass wir mit der Regulierung nicht hinterherkommen. Einerseits herrscht Euphorie über die Errungenschaften und die Hoffnung, dass mit KI alles leichter wird. Wir könnten all die Tätigkeiten, die wir als Gesellschaft nicht so gerne erledigen, jetzt abgeben. Aber wir kommen schnell an den Punkt, an dem wir fragen müssen, wo die Grenzen sind. Auch wenn es gerade viele Diskussionen gibt, wie KI reguliert werden kann, ist politisch alles noch relativ unvorbereitet. Es gibt eine Theorie in der Wissenschaftsforschung, dass es immer länger dauert, Innovationen zu regulieren als diese technologisch weiterzuentwickeln und zu nutzen. Die Regulierung hinkt dem Fortschritt immer hinterher.

Wer trägt die Verantwortung, wenn es Unfälle von autonom fahrenden Autos gibt? Oder wenn Minderheiten auf Grund eines Algorithmus diskriminiert werden?

Welche Herausforderungen sind bei Künstlicher Intelligenz besonders groß?

Da wir intelligente Tätigkeiten an Maschinendelegieren wollen, entstehen in allen Bereichen ethische und gesellschaftliche Fragestellungen. Datenschutz, algorithmische Diskriminierung von Minderheiten, automatisierte Entscheidungsfindung – auch bei sicherheitspolitischen oder militärischen Aktivitäten, bis hin zum automatisierten Töten – da kommen enorme und komplexe Probleme der Regulierung auf uns zu. Die Politik trägt hier die Verantwortung, die Technikfolgenabschätzung zu ermöglichen und zu finanzieren. Wer trägt die Verantwortung, wenn es Unfälle von autonom fahrenden Autos gibt? Oder wenn Minderheiten auf Grund eines Algorithmus diskriminiert werden?

Können Sie bitte den Aspekt der Verantwortung in Zusammenhang mit Künstlicher Intelligenz noch weiter ausführen?

Wir müssen uns immer die Frage stellen, wie eine Ethik der Technologie aussehen kann. Was sind die Bedingungen, Mittel, Zwecke, Folgen von dieser Art von technischem Fortschritt? Bei Künstlicher Intelligenz kommen darüber hinaus noch Fragen nach den moralischen Implikationen von neuer Technologie hinzu: Auf welchen Zukunftsvorstellungen basiert diese Technologie? Wie wollen wir damit leben? Vor dem Hintergrund welcher Menschen- und Gesellschaftsbilder entwerfen wir die Technologie? Was ich besonders spannend finde, ist, dass alle Risiken durch KI uns als Gesellschaft zugleich viele Möglichkeiten eröffnen, Fragen nach Verantwortung völlig neu zu stellen. Denken wir zum Beispiel an selbst fahrende Autos. Was wir bis jetzt kennen, ist, dass Menschen Subjekte von Rechtsprechung sind: Jemand fährt Auto, er oder sie fährt über eine rote Ampel und verletzt jemanden, dann gibt es ein Gerichtsverfahren und die Frage der Schuld wird geklärt. Wie verhält es sich aber, wenn Technologien selbst steuern und autonom sind? Dann stellen sich diese Fragen völlig neu. Kann ein Auto schuld sein, kann ein Algorithmus verklagt werden?

Können die Entwickler*innen oder Wissenschaftler*innen, auf deren Arbeit die KI basiert, für den zukünftigen Umgang mit dieser Technologie verantwortlich gemacht werden?

Zur Beantwortung dieser Frage müssen wir bedenken, dass die Algorithmen, die wir jetzt einschreiben, auf menschlichen Moralvorstellungen und menschlichem Handeln basieren. Bei Gesichtskontrollen zum Beispiel ist schon jetzt eine Benachteiligung von Schwarzen Menschen klar nachweisbar. Das sind sogenannte Biases – also Verzerrungen – durch Vorurteile, die wir als Menschen haben, die wir in die Technologie einschreiben und die sich für die Zukunft verselbstständigen könnten. Wir müssen auch fragen, inwieweit wir als Wissenschaftler*innen für eine Zweckentfremdung der KI verantwortlich gemacht werden können. Inwieweit müssen wir diese antizipieren können? Und welche Maßnahmen kann man schon in der Entwicklungsphase ergreifen, um gegenzusteuern? Wir sind da schon ziemlich weit in der Diskussion, auch wenn wir deren Ausgang noch nicht kennen. Und schließlich gibt es ja auch die Befürchtung, dass sich KI in manchen Bereichen dem menschlichen Zugriff entziehen wird. Wir wissen nicht, wie sich die Intelligenz dieser Systeme selbständig weiterentwickeln wird. Konfliktfelder können wir aber jetzt schon erkennen. An diesem Punkt stellt sich die Frage, wie wir eine gemeinwohl-orientierte Regulierung von Technologieentwicklung erreichen können. Was sind die moralischen Grundsätze, die wir als Gesellschaft dafür anerkennen wollen?

Wir haben über die Verantwortung der Wissenschaftler*innen gesprochen, aber sind es nicht vielmehr die Politik und wir alle als Demokratie, die Regelungen finden müssen?

Ja, das ist eine komplexe Frage, letztendlich können wir diese Entscheidungen immer nur als Gesamtkonstellation diskutieren. Natürlich kann man als Wissenschaftler*in, die zum Beispiel im Bereich der Genomeditierung forscht, feststellen, dass ein großes Risiko besteht, dass die eigene Forschung potenziell negativ verwendet werden kann. Auf Grund dieses Sicherheitsrisikos könnte ich mich dazu entscheiden, dass ich lieber nicht publiziere. Das ist eine Möglichkeit, wie man individuell Verantwortung tragen kann – und eine ähnliche Entscheidung treffen kann, wie Möbius – aber es kann natürlich sein, dass das konkurrierende Labor oder die konkurrierende Wissenschaftler*in sehr wohl publizieren. Dann sind die Ergebnisse trotzdem in der Öffentlichkeit. Anders als im Stück oder bei dem „Oppenheimer“-Film ist es in internationalen Wissenschaftskontexten selten eine einzige Person, die an etwas forscht.

Gerade in den technischen Fächern bräuchten wir mehr Interdisziplinarität und Selbstreflektion über die langfristige Verantwortung des eigenen Handelns.

Frau Dr.in von Zahnd sagt den Satz: „Alles Denkbare wird einmal gedacht.“ Darin steckt auch, dass der Fortschritt nicht aufhaltbar und von einer einzelnen Wissenschaftler*in nicht kontrollierbar ist.

Hier sehe ich auch die Wissenschaftspolitik in der Verantwortung. Wir brauchen gute Arbeitsbedingungen, die den Druck rausnehmen, unbedingt publizieren zu müssen, um eine Professur zu bekommen oder um weitere Forschungsgelder zu bekommen. Es gibt ein großes Risiko, dass Wissenschaftler*innen unter diesem immensen Publikationsdruck auch dann veröffentlichen, wenn sie noch gar nicht ganz sicher sind und die Konsequenzen nicht abgeschätzt werden können. Das ist das eine. Und das andere ist, dass wir in allen Bereichen auch ein demokratiepolitisches Verständnis brauchen, das Teil der Ausbildung sein sollte. Gerade in den technischen Fächern bräuchten wir mehr Interdisziplinarität und Selbstreflektion über die langfristige Verantwortung des eigenen Handelns. Das kann man nicht einfach so voraussetzen.

Das heißt, es geht einerseits darum, die Arbeitsbedingungen für die Wissenschaftler*innen gut zu gestalten und andererseits bereits in die Ausbildung ethische Fächer zu implementieren.

Ganz genau. Im Studium sollte es von Anfang an, gerade bei den technisch-naturwissenschaftlichen Feldern, immer auch verpflichtende Komponenten geben, die sich mit gesellschaftspolitischen Vorstellungen, mit Fragen von Nachhaltigkeit – spezifisch je nach Fach, schließlich gibt es nicht „die Wissenschaften“ –, die sich praktisch mit dem, was die gesellschaftlichen, sozialen, politischen Langzeitfolgen der eigenen Arbeit und Forschung sein könnten, auseinandersetzen. Und dass der Druck wegfällt, unbedingt schnell und viel publizieren zu müssen, um überhaupt den eigenen Job zu erhalten oder als Projektleiterin oder Laborleiterin auch die Jobs der Gruppe zu erhalten – bei uns heißt das „publish or perish“ und kann auf Kosten der Qualität gehen. Natürlich sind Publikationen extrem wichtig für unser Feld. Aber es ist wichtig, genau hinzuschauen: Wie wird wissenschaftlich gearbeitet? Was sind die Bedingungen? Was bedingt in den Strukturen Macht, aber auch Machtmissbrauch? Was sind die Bedingungen von peer review, also wie werden die Forschungen von unabhängigen Dritten überprüft? Was sind die Möglichkeiten, kollektive Entscheidungen zu treffen, Forschungsergebnisse als riskant zu bewerten? All diese Auseinandersetzungen müssen kollektiv passieren. Nicht, weil ich gegen die Verantwortung des Einzelnen bin, sondern weil ich auf individueller Ebene relativ wenig Handlungsspielraum sehe.

Es gibt seit etwa 50 Jahren eine Wissenschafts-Soziologie, das ist ein sehr interdisziplinäres Feld aus Soziologie, Politikwissenschaften, Anthropologie, welches sich mit den sozialen Strukturen, Prozessen und Dynamiken innerhalb der wissenschaftlichen Gemeinschaft beschäftigt. Wie ist Wissenschaft organisiert, wie wird Wissen produziert, welche sozialen Einflüsse gibt es, die sich auf wissenschaftliche Erkenntnisse auswirken? Das ist ein sehr wichtiges Feld. Aber die Frage, was Spitzenwissenschaftler*innen auf sich nehmen: Ich weiß gar nicht, ob das wirklich die Frage ist. Das Hauptproblem sehe ich in prekären Arbeitsbedingungen in der Wissenschaft. Also in kurzfristigen Verträgen, in dem Zwang, jedes Projekt anzunehmen, Nebenjobs zu machen, um überhaupt über die Runden zu kommen, nie die Sicherheit zu haben, die es einem ermöglicht, Familienplanung zu machen, der Zwang, ständig umzuziehen für kurzfristige Jobs. Davon ausgenommen sind letztendlich eher die privilegierteren Wissenschaftler*innen mit Forschungsgeldern, mit Preisen, mit Infrastruktur, mit Unterstützung. Allgemein würde ich die Probleme der Wissenschaftler*innen jedoch eher in den schlechten Forschungsförderungssystemen sehen, die es vielen exzellenten Wissenschaftler*innen nicht ermöglichen, langfristig in der Wissenschaft zu bleiben.

Das ist ein Forschungsthema, das mich seit über 10 Jahren begleitet. Ein Beispiel wäre ein Projekt, bei dem es um Satellitenbilder im Kontext von internationaler Sicherheitspolitik ging, zum Beispiel von Grenzübergängen oder von nuklearen Arsenalen, etwa im Iran. Konkret habe ich mich mit den Analyst*innen beschäftigt, die diese Bilder analysieren und auf deren Basis politische Handlungsempfehlungen geben, und der Frage, wie sie mit Unsicherheiten umgehen. Es war natürlich schwer, den Zugang zu diesem Arbeitsfeld zu bekommen und mit diesen Menschen reden zu können. Ich habe mir danach auf der Metaebene angeschaut, wie wir als Sozialwissenschaftler*innen diese Communities studieren und deren Praktiken und Wissensproduktion verstehen können. Und wie gehen wir selbst mit sensiblen Daten aus unserer Feldforschung mit diesen Akteur*innen um? Letztlich ging es um die Frage, welche Einblicke wir als Gesellschaft in Praktiken der Geheimhaltung bekommen können, auch um ethische Ansprüche stellen zu können.

Welche Bedeutung haben Geheimnisse und geheime Prozesse in der Architektur der Politik?

Das ist eine schwierige Frage. Es gibt bestimmte politische Vorgänge, bei denen es durchaus wichtig ist, dass sie nicht öffentlich besprochen werden. Die Verhandlungen für eine Geiselbefreiung oder nukleare Abrüstungsverhandlungen kann man nicht in der Zeitung führen. Es ist wichtig, dass es diese Räume gibt. Aber es stellt sich natürlich trotzdem die Frage nach der demokratischen Legitimität und einer Form von Oversight, etwa politischen Gremien, die mit der Beaufsichtigung von Geheimdienstaktivitäten beauftragt sind. Bestimmte Sachen müssen im Geheimen oder nicht öffentlichen passieren, aber es muss trotzdem eine Form der Überwachung und Regulierung dieser Tätigkeit geben.

Das ist ein wichtiges Thema, das noch nicht wirklich im öffentlichen Diskurs angekommen ist. Sicher spielt in die Unsichtbarkeit im Diskurs hinein, dass es ein sehr komplexes, sehr technisches Thema ist, sehr weit weg – im Weltraum – passiert und für uns unsichtbar ist. Aber es birgt große Risiken, weil wir von der Weltrauminfrastruktur wie Satelliten für Navigation, Kommunikation, für militärische und Katastropheneinsätze, aber auch für unsere täglichen Bankgeschäfte, abhängig sind. Die Möglichkeit, dass diese Satelliten durch Weltraumschrott – also den Resten von vergangenen Weltraumaktivitäten – zerstört werden und wir sie nicht mehr verwenden können, ist sehr hoch. Gleichzeitig geht es auch um Fragen von Umweltverschmutzung, die wir jetzt über die Erde hinausgetragen haben.

Wir sind im Prinzip gerade dabei, genauso wie bei Mikroplastik oder bei Brennabfällen das Problem für zukünftige Generationen durch unser Handeln zu vergrößern.

Weltraumschrott ist also kein exportierter Müll.

Genau. Es sind alte Satellitenteile, Raketenteile, vergessene Instrumente von Astronauten, die da oben herumfliegen. Das können klitzekleine Teile, zum Beispiel Farbpartikel, bis hin zu riesigen Satelliten sein. Immer wieder fallen diese Teile auf die Erde, meistens allerdings in die Ozeane. Das Hauptrisiko ist allerdings, dass der Weltraumschrott die Technologien, die wir täglich verwenden, zerstört. Auch die ISS ist schon mehrmals getroffen worden und Astronaut*innen mussten sich in Ausweichkapseln flüchten, weil die Weltraumschrottteile, die teilweise so winzig sind wie ein Fingernagel, auf Grund der Geschwindigkeit, mit der sie fliegen, riesige Schäden anrichten können. Durch Kollisionen multiplizieren sich die Schrottteile. Das heißt, selbst, wenn wir jetzt aufhören würden, Raketen und Satelliten zu launchen, würde das Problem trotzdem weiter bestehen und sich von selbst verschlimmern. Aber tatsächlich werden in den nächsten Jahren mit den neuen Konstellationen von Elon Musk, Amazon und auch der EU so viele Satelliten wie noch nie zuvor in den Weltraum geschickt. Das heißt, wir sind im Prinzip gerade dabei, genauso wie bei Mikroplastik oder bei Brennabfällen das Problem für zukünftige Generationen durch unser Handeln zu vergrößern. Daraus entstehen natürlich ganz zentrale Fragen über Verantwortung.

Wie könnte man Weltraumschrott beseitigen?

Das ist extrem aufwändig, sehr teuer und technisch noch nicht ganz fertig entwickelt. Man braucht dafür eigene Satelliten mit Greifarmen, Laser oder Netze – aber hier gibt es bisher nur Prototypen, zusätzlich bestehen viele Probleme und Fragen, wie zum Beispiel, wem welches Teil gehört. Welcher Staat trägt die Verantwortung dafür? Es gibt viele Satelliten, die so tun, als ob sie kaputt wären, aber in Wahrheit noch funktionieren – für Überwachungs- und Militärzwecke. Die kann man nicht einfach runterholen. Als Staat Österreich kann man nicht einfach einen alten russischen Militärsatelliten entsorgen. Das ist politisch und diplomatisch sehr heikel und komplex. So wie es in den 1950er Jahren die Begeisterung für Plastik gab, dass alles plötzlich so praktisch und so billig ist – dasselbe haben wir jetzt auch mit Satelliten. Es gibt einen neuen Wettlauf ums Weltall, und die Gedanken an Nachhaltigkeit sind da noch sehr weit im Hintergrund. Ich arbeite mit dem Space Debris Office der ESA zusammen, dem „Weltraumschrottbüro“, die täglich daran arbeiten, Satelliten umzulenken, wenn diese Gefahr laufen, gegeneinander zu stoßen. Man kann die alten Satelliten noch so ein bisschen bewegen, um die Kollision zu vermeiden. Aber wie viel Arbeit es eigentlich bedeutet, Zusammenstöße zu vermeiden, ist in der öffentlichen Wahrnehmung kein großes Thema. Es gibt ein bisschen Hoffnung, dass der Nachhaltigkeitsgedanke bei der Entwicklung eine größere Rolle spielen wird, aber das, was da jetzt oben ist, das kriegen wir nicht mehr runter.

  • Da JavaScript dekativiert ist, werden einige Inhalte nicht geladen.
  • Da dein Browser nicht supportet wird, werden einige Inhalte nicht geladen.
  • Auf Grund von zu geringer Bandbreite werden einige Inhalte nicht geladen.
  • Auf Grund von zu schwacher Hardware werden einige Inhalte nicht geladen.