„Dass ein Algorithmus sich nicht verrechnet, heißt nicht, dass er immer recht hat!“
In: tv diskurs: 20. Jg., 4/2016 (Ausgabe 78)
Sie haben den Studiengang „Sozioinformatik“ gegründet und beschäftigen sich vor allem mit den Auswirkungen der Informatik auf die Gesellschaft. Was ist Ihr besonderes Forschungsinteresse?
Es scheint, dass ich erst in den letzten Monaten verstanden habe, was mein wirkliches Forschungsinteresse ist. Am Anfang war ich ein Anwender von mathematischen Methoden, um meine Daten zu interpretieren. Als Biochemiker hatten wir wenig mathematische und algorithmische Ausbildung und wir waren darauf angewiesen, dass uns jemand erklärt, wann wir welche Methode zur Interpretation unserer Daten verwenden dürfen. Dann bin ich selber Informatikerin geworden und habe angefangen, Algorithmen zu entwickeln, die eine bestimmte Eigenschaft von Personen oder Organisationen in eine Zahl fassen. In sozialen Netzwerken gibt es etwa den sogenannten Zentralitätsindex, eine Zahl, die jeder Person zugeordnet und als die Macht, die zentrale Stellung interpretiert wird, die diese Person innehat. In den USA gibt es den sogenannten Segregationsindex, der bestimmt, inwieweit Wohnviertel nur von Menschen einer bestimmten Rasse belegt sind. In vielen Fächern werden solche Maßzahlen verwendet, z. T. aber falsch interpretiert. Zu verstehen, wann man welche Zentralitätsindizes benutzen und welche Schlussfolgerungen man daraus ziehen darf, das hat mich die letzten zehn Jahre gekostet.
Sprechen wir über Big Data und Big Data Analytics, die zunehmende Datensammlung und ‑auswertung. Wie würden Sie Nichtinformatikerinnen und ‑informatikern erklären, was da passiert?
Wir haben durch digitale Systeme zum ersten Mal die Möglichkeit, Tätigkeiten zu beobachten und dabei Informationen explizit wahrzunehmen. Auch im Tante-Emma-Laden von früher wusste man, was wir gerne einkaufen und wann wir das tun. Daraus konnte man Schlussfolgerungen ziehen und vielleicht mal ein Produkt bestellen, von dem man dachte, dass es gut zum Kunden passt. Heutzutage brauchen wir uns nicht mehr auf Intuition zu verlassen, sondern können sehr viel mehr Informationen sammeln, während Sie am Einkaufen sind – natürlich nur, wenn Sie das im Internet tun oder so freundlich sind, eine Payback-Karte zu benutzen. Ein Teilaspekt von Big Data ist, dass man Daten zunächst ohne einen Zweck sammelt und im Nachhinein versucht festzustellen, ob die Informationen helfen vorherzusagen, welche Produkte Sie kaufen oder für welche Artikel Sie sich interessieren. Man hat in den 1990er-Jahren und Anfang 2000 angenommen, dass alles gut ist, wenn wir unsere Daten schützen – das ist aber nur ein Teil der Geschichte. Selbst Daten, die für sich genommen völlig harmlos sind, bergen eine ganze Menge Potenzial, etwas über uns abzuleiten, wenn sie miteinander verbunden werden.
Welche Informationen lassen sich aus Daten gewinnen, die für sich genommen belanglos sind?
Eine Studie in den USA hat gezeigt, dass man bei manchen Menschen die sexuelle Orientierung aus den Facebook-Daten herauslesen kann, auch wenn diese Person das nicht bekannt gegeben hat. Dies geht über die Freundschaften zu jenen, die mit dieser Information freigiebiger sind. Man kann über unser Einkaufsverhalten herauskriegen, in welcher Zeitzone wir uns befinden und ob wir Impulskäufer sind oder nicht. Man weiß ziemlich schnell, wie viel Geld wir wahrscheinlich zur Verfügung haben, wie alt wir sind, wie viele Kinder wir haben, ob wir schwanger sind oder uns gerade haben scheiden lassen. All diese Informationen lassen sich relativ leicht mit Einkaufs- und Mediennutzungsdaten herausbekommen.
Welche Schlussfolgerungen lassen sich noch aus der Mediennutzung ziehen?
Wenn sich etwa ein Netflix-Kunde Bob der Baumeister und Sex and the City ausleiht, handelt es sich bei der Kunden-ID höchstwahrscheinlich um eine Mutter, die für ihr Kind und sich selbst Filme ausleiht. In den USA gibt es Filme, die sehr christlich sind und die sich eine bestimmte Gruppe von evangelikalen Christen besonders häufig ansieht. Dann gibt es Filme, die eine politische Neigung nahelegen, die eher liberaler Natur sind, oder solche, die sich mit dem Outing von Jugendlichen beschäftigen. Wir unterschätzen häufig, dass sich Menschen in ihren Einzelinteressen sehr gleichförmig verhalten. Wenn wir ein Interesse an Star Wars haben, benehmen wir uns wie fast alle Menschen, die Interesse an Star Wars haben. Dann kann man die Einzelinformation mit anderen Daten verknüpfen.
Das kommende Forum der GMK – „Software takes command“ (das Forum fand 2016 statt, Anm. d. Red.) – setzt sich kritisch damit auseinander, dass unsere Lebenswelten zunehmend auf Basis von Algorithmen gestaltet werden. Wie beurteilen Sie die derzeitige Entwicklung? Können Algorithmen Macht über uns erlangen?
Algorithmen werden interessant, wenn sie benutzt werden, um Entscheidungen zu treffen oder um Entscheidungen vorzubereiten. Zukünftig wird man auf jeden Fall mithilfe von Algorithmen Entscheidungen über das Leben anderer treffen. Das ist nicht völlig neu. Die Schufa hat auch einen Algorithmus, um meine Kreditwürdigkeit zu berechnen. Ob diese Berechnung von Menschen durchgeführt wird oder von einem Computer, ist nicht wirklich entscheidend. Es liegt eine große Chance darin, dass Algorithmen objektiver sind als Menschen, aber es besteht auch das Risiko, dass sie schlecht gemacht sind und viele Menschen ungerecht behandelt werden. In den USA gibt es z.B. Algorithmen, die Richtern dabei helfen sollen, das Strafmaß festzusetzen. Diese unterstützenden Entscheidersysteme errechnen eine Kennzahl für die Rückfallquote eines Individuums. Zu einem Kriminellen, der das dritte Mal einen Handtaschenraub begangen hat, werden alle möglichen Parameter in diesen Algorithmus eingefüttert, der daraufhin „grün“, „gelb“ oder „rot“ signalisiert – je nachdem, für wie rückfallgefährdet er diesen Menschen hält. Ich habe mir die Mathematik dahinter und die Algorithmen, die zu diesen Kennzahlen führen, einmal angesehen – das ist meiner Meinung nach gefährlich schlecht gemacht, wirkt aber nach außen erst einmal sehr objektiv.
Können Sie die Risiken näher erläutern? Auf der medien impuls-Veranstaltung zu künstlicher Intelligenz im Mai 2016 haben Sie gesagt: „Dass Algorithmen sich nie verrechnen, bedeutet nicht, dass sie immer recht haben.“ Was meinen Sie damit?
Wesentlich ist, welche Variablen für die Entscheidung mit einberechnet werden. Wir haben uns in Deutschland entschieden, dass unveränderliche Eigenschaften nicht mit eingerechnet werden und wir etwa nicht nach unserem Geschlecht oder Alter beurteilt werden dürfen. In dem Beispiel aus den USA ist eine Diskriminierung von Bürgern mit afrikanischen Vorfahren zu sehen. Bei Angeklagten aus dieser Bevölkerungsgruppe schlägt der Algorithmus deutlich häufiger vor, dass sie wahrscheinlich rückfällig werden. Das ist interessant, denn natürlich darf man auch in den USA die in den Dokumenten jeweils niedergeschriebene Rasse nicht als Variable in einen Algorithmus einfüttern – bei uns wäre eine solche Einteilung von Personen ja grundsätzlich gar nicht zulässig und wäre auch in keinem Dokument zu finden. Auf jeden Fall gibt es andere Variablen, die so sehr damit korrelieren, wie etwa Schulausbildung, Sozialstatus oder alleinerziehend, dass diese unabänderliche Eigenschaft implizit doch mit einfließt. Das Beispiel zeigt, dass es bei gesellschaftlich wichtigen Entscheidungen eine gewisse Transparenz darüber geben muss, welche Art von Daten verwendet wird.
Sollten wir in diesem Anwendungsbereich als Gesellschaft also besonders vorsichtig sein?
Ja, ich glaube schon. Ich habe die Erfahrung gemacht, dass Menschen Computern entweder völlig misstrauen oder total vertrauen. Es gibt viele Systeme, die uns in unseren Arbeitsentscheidungen unterstützen, wie den Autopiloten oder den Parkassistenten, hier geben wir Verantwortung gerne an die Maschine ab. Bei dem Beispiel der Rückfälligkeitsrate und der US-amerikanischen Richter ist das viel komplexer. Die Maschine errechnet, dass eine Person ein Rückfallrisiko von 70 % hat, und die Leute verlassen sich darauf. Ein Problem ist, dass ein Richter von sich aus gesehen den kleineren Fehler macht, wenn er dem Vorschlag der Maschine folgt und die betreffende Person bei „rot“ ins Gefängnis steckt, statt auf sein vielleicht gegenteiliges Bauchgefühl zu hören. Trotzdem heißt „rote Klasse“, dass die Personen nur zu 70 % wieder rückfällig werden, 30 % von ihnen wären es nicht geworden. Bei Entscheidungen über Menschenleben muss der Einsatz von algorithmischen Entscheidern auf jeden Fall demokratisch legitimiert werden.
Algorithmische Entscheidungsprozesse nachvollziehbar zu machen, ist das zentrale Anliegen der Initiative Algorithm Watch, die Sie mit begründet haben. Was genau ist darunter zu verstehen?
Im Moment gibt es auf der einen Seite zu viel Hysterie und auf der anderen Seite werden teilweise schon Systeme eingesetzt, die hochbedenklich sind. Als Algorithm Watch wollen wir aufklären, die interessierten Personen untereinander vernetzen, Algorithmen untersuchen und den Prozess hin zu einer demokratischen Kontrolle unterstützen. Algorithm Watch fordert nicht, dass Codes offengelegt werden oder dass jeder Einzelne von uns verstehen sollte, warum ein Kreditvergabealgorithmus diese oder jene Entscheidung getroffen hat. Ich muss auch nicht verstehen, wie ein Automotor funktioniert, sondern habe Vertrauen in den TÜV, dass er Produkte ordentlich prüft. Nicht jeder sollte über Algorithmen entscheiden müssen. Aber ich wünsche mir, dass wir uns als Gesellschaft darüber einigen, welche Algorithmen wir für überprüfungswürdig und ‑notwendig halten und die geeigneten Qualitätsprozesse aufbauen, die sicherstellen, dass Algorithmen sinnvoll entscheiden. China wünscht sich etwa eine Maßzahl, die entscheidet, ob man ein guter Bürger ist. Algorithm Watch ist die Antwort darauf, dass man diese Dinge demokratisch verhandeln und auch unter eine demokratisch legitimierte Kontrollinstanz setzen muss.
Welche konkreten Forderungen an die Politik hätten Sie aus Sicht von Algorithm Watch, damit eine solche Institution effizient arbeiten könnte?
Wir müssten wissen, wo überhaupt Algorithmen eingesetzt werden, um Entscheidungen zu treffen, insbesondere auch im staatlichen Bereich. Wie genau wird die Entscheidung getroffen, ob jemand ein Visum bekommt oder nicht, und welche Art von Daten wird dafür benutzt? Wir müssten diskutieren, welche Algorithmen wir für so gesellschaftlich relevant halten, dass sie einen Einfluss auf Dinge nehmen können, die wir schon lange als gesellschaftliche Ziele festgelegt haben. Und wir müssen uns darüber unterhalten, was es uns wert ist, diese Systeme zu haben. Denn wie gesagt, sie bergen auch die Chance, dass alles objektiver wird. Der Richter hat bisher auch einen irgendwie gearteten Entscheidungsprozess in seinem Kopf, in den können wir aber nicht so gut hineingucken. Bei den Maschinen hätten wir die Chance, die Entscheidung besser nachzuvollziehen.
Bleiben wir bei den Chancen von Systemen, die auf Algorithmen basieren: Welche Anwendungen haben Sie hier im Kopf?
Die schulischen Algorithmen, die dafür sorgen könnten, dass wir alle individuelle Lernerfolge haben, bieten natürlich auch die Riesenchance, wirklich Inklusion zu leben. Ein Kind könnte während der gesamten Schulzeit immer in derselben Klassenstruktur bleiben und dieselben Leute um sich haben, weil wir eben dafür sorgen könnten, dass auf den Bildschirmen vor ihnen jeder Schüler sein individuelles Programm bekommt. Wenn das gut gemacht ist und entsprechend von Lehrkräften begleitet wird, könnte das sehr hilfreich sein. Es wäre aber auch möglich, dass die Maschinen uns helfen, von vornherein homogenere Lerngruppen zu bilden, sodass wir effizienter unterrichten können. Integration ließe sich mithilfe von digitalen Algorithmen natürlich auch verbessern. Wenn ich an die vielen Kinder denke, die zu uns geflohen sind und unsere Sprache nicht sprechen – gäbe es diese Systeme schon, die ihnen während des Unterrichts helfen, etwas in die Muttersprache zu übersetzen, würde das viele Chancen auf Inklusion und Integration bieten.
Welche speziellen Chancen liegen in der derzeitigen Datafizierung, wenn Sie an das Sammeln großer Datenmengen oder an das Internet der Dinge denken?
Ich würde nicht von Datafizierung sprechen, sondern vom Zeitalter des Loggings. Logging bezeichnet den Vorgang, dass digitale Geräte Messungen ablegen. Hinzu kommt, dass man Dinge, die man bisher nicht für messbar gehalten hat, tatsächlich in Zahlen erfassen kann. Uns ist klar, dass man den Herzschlag messen kann oder den Blutdruck, aber zum ersten Mal ist es möglich, dies ständig zu tun und diese Daten auch aufzubewahren. Das ist das eigentlich Neue, die Messung an sich ist nicht neu. Grundsätzlich ist die künstliche Intelligenz sehr gut darin, Muster zu entdecken, wenn wir genügend Datenpunkte haben. Über seltene Krankheiten, die weniger als 1.000 Menschen haben, kann ein Arzt in seinem Leben mit etwa 30.000 verschiedenen Patienten nicht viel lernen. Da brauchen wir Algorithmen der künstlichen Intelligenz, um Muster zu entdecken und die entsprechende Behandlung vorzuschlagen. Bei all diesen Situationen, in denen ein einzelner Mensch selten die Gelegenheit hat, überhaupt Einblick zu gewinnen, sind diese Algorithmen sehr gut und sehr hilfreich.
Algorithmen sind ja abstrakt und auf verschiedene Anwendungen übertragbar. Heißt das, dass Entwickler von Algorithmen für die Ergebnisse, die dieser produziert, in keiner Weise verantwortlich sind?
Im Endeffekt ist eine Teilmenge der Algorithmen so allgemein anwendbar wie ein medizinischer Test, der feststellt, ob die eine oder die andere Behandlung besser ist. Einen solchen Test kann man auch auf zwei Automobilprodukte anwenden oder auf die Frage, ob Japaner länger leben als Deutsche, weil sie sich anders ernähren. Bei diesen allgemeinen Musterfindungsalgorithmen kann ich als Entwickler nicht vorhersagen, wofür sie benutzt werden – da ist die Verantwortung geringer. Bei der Kennzahlentwicklung ist das anders. Wenn wir komplexe Situationen in einer einzigen Zahl abbilden, dann machen wir Fehler, das wissen wir alle. Wenn Schulkinder am Ende des Schuljahres mit einer Note zurückkommen, denken wir auch, dass sie unser Kind nicht wirklich charakterisiert, und so ähnlich ist das mit diesen Maßzahlen auch. Als Algorithmen- und Maßzahlenentwickler müssen wir besser kommunizieren, welche Nebenannahmen unsere Zahl mit einschließt.
Was sollte man Informatikern vermitteln, die komplexe Sachverhalte auf eine Zahl herunterbrechen? Müssten ethische Fragestellungen und Beurteilungskriterien für Algorithmen in der Ausbildung von Informatikern eine größere Rolle spielen?
Genau das fehlt mir in der Ausbildung der Informatiker. Wenn ich meine Studierenden auffordere, ein Programm zu entwickeln, das bewertet, wer in einem sozialen Netzwerk wirklich zentral ist, dann beginnen sie sofort mit der Aufgabe und wir haben am Ende 18 verschiedene Ideen. Keiner von den Studierenden wundert sich, dass wir alle so unterschiedliche Vorstellungen haben, keiner fragt, was die Intention dahinter ist oder was ich unter „Zentralität“ überhaupt verstehe. Dieses Bewusstsein, dass hier eine modellierende Entscheidung getroffen wird, wie man menschliches Verhalten in eine Zahl presst, das ist eine Qualität, die in vielen Curricula fehlt. Dass Algorithmen, die Zahlen entwickeln, aus denen später Entscheidungen über Menschenleben getroffen werden, einer besonderen Modellierungspflicht und ‑ethik bedürfen, wird zu wenig betont.
Ein sozialer und demokratisch verantwortungsvoller Umgang mit Big Data ist auch für die Medienpädagogik eine zentrale Herausforderung. An welchen Stellen sollten Medienpädagogik und Informatik zukünftig stärker kooperieren? Und welchen Beitrag kann und muss die Informatik aus Ihrer Sicht leisten?
Wir als Informatiker können viel zum Thema „Datenschutz“ beitragen und Schülern beibringen, warum man auf seine Daten aufpassen muss und was mit ihnen passiert. Die Datenlotsen in Rheinland-Pfalz tun das schon. Dieser neue Aspekt der Algorithmen ist jedoch mehr als reiner Datenschutz. Zu Algorithm Literacy würde meiner Meinung nach gehören, in den Grundschulen mit Psychologie anzufangen, damit Kinder verstehen, wie der Mensch tickt und was den Menschen vom Computer unterscheidet. Der Mensch ist kein rein rationales Wesen, wir treffen mitunter Entscheidungen, die nicht gut für uns sind. Es gibt viele Erkenntnisse darüber, wie Süchte oder Massenphänomene funktionieren; und es wäre wichtig, Kindern dies besser verständlich zu machen. Warum z.B. können Computerspiele süchtig machen oder welche Folgen kann übermäßiger, passiver Fernsehkonsum haben? Für mich fängt Medienkompetenz mit „Gnothi seauton“ an: „Erkenne dich selbst!“ Wir als Informatiker sind dann aufgerufen zu erklären, inwiefern ein Computer anders denkt als wir. Und wir müssen natürlich auch klarmachen, dass hinter einem Computer immer ein Mensch steht, der sich überlegt hat, wie der Computer etwas machen soll. Menschen denken in sozialen Kontexten. Wenn mir meine beste Freundin ein Geheimnis anvertraut, ist mir klar, dass ich das nicht herumerzählen kann. Der Computer kann diese sozialen Grenzen ohne Probleme überschreiten. Das ist uns oft nicht so bewusst.
Was braucht es Ihrer Ansicht nach zukünftig an Wissen und Können, damit Menschen weiterhin selbstbestimmt handeln und entscheiden können?
Ich glaube, dass wir in allen Ausbildungsberufen noch nicht genügend vermitteln, was komplexe Systeme sind. Nämlich Systeme, in denen Dinge auf eine so komplizierte Art und Weise interagieren, dass schon eine kleine Störung dazu führt, dass sich im gesamten System etwas ändert. Das haben wir bei der globalen Finanzkrise gesehen und das sehen wir auch im Bereich „Big Data“. Das Wichtigste ist, dass wir über unser Demokratieverständnis nachdenken, darüber, was es bedeutet, eine freie Gesellschaft zu sein. Jeder Bürgerin und jedem Bürger muss klar sein, dass wir dank unseres demokratischen Systems heute in Sicherheit und größtenteils friedlich zusammenleben können. Wir stehen an einem Scheideweg, an dem wir diese Dinge aufgrund der unterschiedlichen Entwicklungen auch verlieren könnten.
Kinder und Jugendliche sind weniger an Datenschutz interessiert, sondern möchten teilhaben und die verschiedenen Anwendungen nutzen. Was raten Sie ihnen im Umgang mit dem Internet?
Mein dringlichster Rat ist: Nutzt es nicht nur passiv. Selber einen Blog zu schreiben oder einen YouTube-Kanal zu betreiben, ist eine tolle Sache. Außerdem: Überlegt euch, ob ihr einem Link wirklich folgen wollt. Wenn man mit der Maus über den Link fährt, wird im Browser ja angezeigt, wohin dieser führt. Manche Webseitenadresse hört sich schon so merkwürdig an, dass vermutlich Werbung dahintersteckt. Mein dritter Ratschlag ist: Guckt ins Impressum, bevor ihr Meinungen von Webseiten übernehmt. Wenn hinter einer Meldung, dass Handys Gehirnkrebs verursachen, eine Naturheilmittelfirma steht, die Präparate an Krebskranke verkauft, ist Skepsis geboten. Ratsam ist immer, sich zu fragen: Wer zahlt das eigentlich? Wer hat welches Interesse daran, mir diesen Service kostenlos anzubieten? Wikipedia ist kostenlos, weil dahinter eine Stiftung steht und Menschen bereit sind, dafür zu spenden, das scheint also okay zu sein. Aber dieses Handyspiel, warum ist das denn umsonst? Aha, da gibt es In-App-Käufe. Schließlich ist ein Ratschlag: Lasst euch nicht hinreißen! Schreibt im Netz nichts, was ihr einer Person nicht auch ins Gesicht sagen würdet. Ladet keine Fotos von euch und euren Freunden hoch, lasst es einfach!
Im professionellen Bereich laden wir auch Bilder von uns hoch. Haben Sie da keine Bedenken, dass Sie z. B. ein Getränkeautomat bald mit Namen anspricht?
Doch, das ist wieder eine Frage der sozialen Kontexte. Wenn der Getränkeautomat sagt: „Ach, Frau Zweig, schön, dass Sie heute zum dritten Mal hier sind“, empfinde ich das als unangemessen. Wenn ich auf einer Datingwebseite Informationen über mich für einen bestimmten sozialen Kontext freigebe, nämlich weil ich auf der Suche nach einem geeigneten Partner fürs Leben bin, möchte ich mich darauf verlassen, dass diese Daten in einem anderen sozialen Kontext nicht genutzt werden. Deswegen sollte es Regeln für Data Scientists geben, die sozialen Kontexte zu beachten. Diese Regeln müssen wir wenigstens als Etikette, als Berufsethik fest etablieren – und sie den Computern beibringen. Ein Krimineller wird sie immer missachten, aber als Kunden und als Bürger können wir darauf pochen, dass auch prinzipiell öffentlich verfügbare Daten nicht in andere soziale Sphären abwandern. Zu sagen: „Du bist selber schuld, du hast ja dein Bild auf XING hochgeladen“, kann nicht die Lösung sein. Muss sie auch nicht.
Auf welche Entwicklungen müssen wir uns in den nächsten Jahren vorbereiten? Und überwiegen für Sie persönlich die Chancen oder die Risiken?
Ich glaube, dass wir jetzt die Weichen stellen müssen. Ich freue mich auf ganz viele Dinge, fahrerloses Fahren z. B. Wir werden uns darauf vorbereiten dürfen, personalisiert jederzeit Zugang zu Informationen zu haben, die unter Umständen nur uns angezeigt werden, Stichwort „Google Glass“. Wir werden sehr viel über uns selber lernen dürfen, indem wir uns selbst dauernd vermessen. Wenn man als Diabetiker weiß, dass der Blutzuckerspiegel dramatisch sinkt, wenn ein bestimmter Lehrer die Klasse betritt, kann man auf verschiedenste Weise darauf reagieren. Es wird aber auch Nebeneffekte geben. Da der Umbruch so dramatisch und schnell stattfindet, stellt sich mir die Frage: Wie kann man die gesellschaftlichen Prozesse beschleunigen, die dafür sorgen, dass die Nutzung und die Möglichkeiten der neuen Technologie in die gesamtgesellschaftlichen Ziele eingebunden werden? Wir werden eine Weile brauchen, um auszuhandeln, was wir haben wollen, was verboten oder kontrolliert werden muss und was wir einfach nicht richtig finden. Diese ständigen Verhandlungen, die wir als demokratische und freie Gesellschaft führen, sind aber nichts Neues – wir sind damit doch eigentlich wieder in Gewässern, die wir ganz gut kennen.
Claudia Mikat ist Geschäftsführerin der Freiwilligen Selbstkontrolle Fernsehen (FSF).
- Artikel
- Tabubrüche im Battle-Rap und Jugendschutzaspekte
Prof. Dr. Katharina Anna Zweig ist Sozioinformatikerin und Leiterin des Algorithm Accountability Labs der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau. Sie ist Mitbegründerin der Plattform AlgorithmWatch und Sachverständige der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ des Deutschen Bundestages.