KI ersetzt keine Jobs, weil sie es kann. Sie tut es, weil sie billiger ist. Marina Weisband spricht mit Frank Müller, Institut für Demokratie und Künstliche Intelligenz, über eine Technologie, die Vermögen umverteilt, Journalismus untergräbt, Einsamkeit verstärkt und Demokratie strukturell gefährdet. Und darüber, was wir dagegen tun können.
Wir haben dieses Gespräch im Dezember 2025 aufgezeichnet und das Transkript für die Lesbarkeit redaktionell bearbeitet.
Mit vollem Magen verhungern: Marina Weisband über KI, Macht und Demokratie - Heinrich Böll Stiftung Baden-Württemberg
FRANK MÜLLER: Ja, hallo Frau Weisband, grüß Sie. Schönen guten Nachmittag. Die Böll Stiftung hat einen Themenschwerpunkt, nämlich künstliche Intelligenz und Demokratie. Und Sie sind prominente Speakerin, kann man auch sagen, Aktivistin. Jemand, die viel veröffentlicht hat, die ganz viele […] Themen anspricht im Feld von Demokratie, Bildung, Werte und [Sie] haben sich da auch einen guten Namen gemacht über die letzten 15 Jahre, […]. Und ich finde es toll, dass wir heute die Gelegenheit haben, ausführlich darüber zu sprechen, wie Sie derzeit KI erleben. Sie haben im Vorgespräch gesagt, es ist für Sie eine große Umverteilungsmaschine. Das wird natürlich unsere Hörerinnen und Hörer interessieren, denn Demokratie ist das Thema, das gerade gefährdet scheint oder definitiv ist.
MARINA WEISBAND: Ist.
FRANK MÜLLER: Und KI ist so wie ein Mehltau oder auch ein Beschleuniger, der sich über alle Themen legt. Und von daher ist es gut, von Ihrer Seite mal zu hören, was Sie da mitbekommen haben als Psychologin, als Schulgestalterin, als ein Mensch, die sich ganz arg auch für solche Themen einsetzt, wie man partizipativ, demokratisch auch von der Jugend an arbeitet. Und deswegen haben wir jetzt eine halbe Stunde Zeit, einfach frei gleich Ihren Vortrag zu hören und dann eben auch mit Fragen dann nochmal in die Tiefe zu gehen. Mein Name ist Frank Müller. Ich bin Trainer, Berater, Coach und auch KI-Manager und ich arbeite mit Kollegen zusammen in Tübingen. Das Institut nennt sich IDEMKI, Institut für Demokratie und Künstliche Intelligenz.
Technik ist nicht neutral
MARINA WEISBAND: Ja, ich freue mich schon voll auf das Gespräch gleich. Ich bin sehr, sehr interessiert, woran Sie gleich Anstoß finden. Ich hoffe, Sie finden Anstoß. Meine Idee in diesem Vortrag ist tatsächlich, mit der Illusion aufzuräumen, dass Technik neutral ist. Und ich glaube, unter diesem Schlüssel beobachten wir KI immer noch in der öffentlichen Debatte. Wir sagen, irgendwie ist sie jetzt da, wir müssen jetzt damit handeln und es ist doch nur eine Frage dessen, was wir daraus machen. Und ein Stück weit klingt das natürlich immer so, aber Technologie ist eben nicht neutral.
Es gibt einen Unterschied, warum wir eine Pistole anders betrachten als einen Hammer. Ja, beides ist ein Werkzeug, aber sie haben beide Bestimmungen. Und die Bestimmung des Werkzeugs ist dem Design des Werkzeugs inhärent.
Das heißt, ich möchte mal da anfangen, dass wir jetzt eigentlich sagen, wir leben in einer so komplexen Welt, dass wir als Menschen an die Grenzen dessen kommen, wie wir all diese globale Information verarbeiten. Und durch die neue Kommunikationstechnologie der Digitalisierung wird alles immer schneller, immer mehr Informationen. Das heißt, jetzt erscheint es wie eine Erleichterung, dass wir eine Technologie haben, die in der Lage ist, riesige Informationsmengen zu verarbeiten, Muster und Strukturen darin zu finden und uns darin anzuleiten. Und da sehen wir jetzt natürlich eine riesige Hoffnung in der Forschung, in Sachen Übersetzung, in Sachen Effizienz, in Sachen Entlastung, in einer Zeit, wo wir alle überlastet sind. Und ich möchte dem allem überhaupt nicht absprechen. Meine Frage ist eher, wenn wir KI wirklich so ungefähr für alles brauchen, wen beauftragen wir dann mit allem? Denn es ist ja […] grundlegend, wer unsere gesamten Lebensinhalte managt.
Die Befürchtung, was KI betrifft, ist ja irgendwie, dass sie alle Berufe ersetzt. Und dann gibt es im Silicon Valley diese verbreitete Befürchtung, was ist, wenn wir eine AGI entwickeln, also eine KI, die in allen intellektuellen Bereichen dem Menschen überlegen ist. Und dann verstehen wir sie überhaupt nicht mehr, und dann handelt sie nicht mehr nach unseren Motiven, nach dem, was wir wollen, sondern nach irgendwelchen eigenen Überlegungen. Und wir werden sie definitiv nicht aufhalten können, weil sie ist ja dann klüger als wir. Und ehrlich gesagt, ich halte das für eine überzogene Befürchtung bis hin zum Marketing. Es wirkt erst mal paradox, warum sollte ich Marketing machen, indem ich vor meiner eigenen Technologie warne. Aber dahinter steckt ja schon die Erzählung, wir stecken kurz vor einem Durchbruch. Das Ding ist wahnsinnig mächtig. Wir schaffen hier etwas Lebendes. Und das ist natürlich das, wo[rauf] Investoren […] anspringen. Und wir sehen gerade, dass mit diesen Erzählungen die Blase immer größer geblasen wird. Auch die Erzählung KI wird alle Berufe ersetzen. Es ist erst mal eine Erzählung, die Investoren erzählt wird. Also, wir sind hier gar nicht das Zielpublikum. Mich treiben ganz andere Ängste um. Und das ist das, was jetzt schon evident ist. Das sind keine Zukunftsängste, sondern es ist die Gegenwart von KI, die mir Angst macht. Und da bin ich bei meiner Grundthese.
KI als Umverteilungsmaschine: Kunst, Journalismus, Berufe
KI ist in ihrem Wesen eine Umverteilungsmaschine.
Und wir sehen das an ganz vielen Aspekten. Der erste Aspekt ist Kunst und Kultur. KI nimmt Texte von Poet*innen, von Autor*innen, nimmt Bilder, nimmt Filme und bricht sie auf ihre statistischen Bestandteile herunter und erzeugt daraus einen neuen Slop, der im Prinzip Urheberrechtsverletzung ist. Das sehen wir daran, dass Unternehmen buchstäblich sagen, wenn ihr Urheberrechtsverletzung für uns verbietet, dann können wir unser Geschäftsmodell nicht halten. Und das ist, als ob ich sagen würde, wenn ihr Mord verbietet, dann kann ich mein Restaurant nicht mehr betreiben. Irgendwas läuft hier falsch.
Das zweite, wo sie umverteilt, sind Suchmaschinen und Journalismus. Wir sehen zunehmend, wie Chatbots die Nutzung von Suchmaschinen und von journalistischen Portalen ersetzen. Das heißt, ich bleibe im Prinzip auf der Website von ChatGPT. Und ChatGPT liefert mir Suchergebnisse, liefert mir journalistische Informationen und ich klicke meistens nicht auf die Quellen. Die meisten klicken nicht auf die Quellen. Das bedeutet aber, die Quellen, die ja von Klicks leben, die von Werbeeinnahmen leben, können ihr Geschäftsmodell so nicht mehr halten. Und das bedeutet wiederum, Journalist*innen können nicht mehr bezahlt werden. Leute, die ins Feld fahren und tatsächlich sehen, was dort passiert, das mit Fachwissen einordnen, können nicht mehr bezahlt werden. Und wenn wir diesem Trend keinen Einhalt gebieten, hat ChatGPT am Ende halt keine journalistischen Ressourcen, auf die es sich verlassen kann. Was ihm aber nichts ausmacht, weil es ist ja eine statistische Maschine. Und eine statistische Maschine wird mir ja immer ein Ergebnis präsentieren, unabhängig davon, wie verlässlich dieses Ergebnis ist. Das heißt, wir ersetzen zunehmend Journalismus auch durch formulierten Slop, durch etwas, das jemand auf Reddit denkt.
Und das Dritte ist Jobs. Ja, ich glaube nicht, dass alle unsere Berufe durch KI ersetzt werden, aber ich glaube, dass viele Berufe durch KI ersetzt werden, und ich glaube nicht unbedingt solche, die durch KI ersetzt werden können. Meine Befürchtung ist nicht, dass KI Arbeitsplätze ersetzen kann. Meine Befürchtung ist, dass das dem Arbeitgeber egal ist, ob sie es kann, weil sie günstiger ist. Das heißt, der reine Profitmaximierungsgedanke treibt Leute dazu, mehr Müll zu produzieren. Und das ist schlecht für die Firma selbst, für deren Zukunftsaussichten. Das ist schlecht für die Verbraucher*innen, die einfach immer mehr Müll bekommen. Jeder, der mal versucht hat, eine Hilfe-Hotline anzurufen, weiß, wovon ich spreche. Und ein besonderes Problem, das für mich nicht genug diskutiert wird, ist Apprenticeship, also Einsteigerberufe, in denen Menschen Erfahrungen sammeln. Das ist der Entwicklerjunior, der einfach ein Code schreiben soll. Das ist der Anwalt, der Junior, der erstmal nur Verträge checken soll. Das alles kann ChatGPT besser. Und deswegen wird es benutzt. Das können KI-Modelle besser. Und deshalb stellen Firmen weniger Juniors ein, sondern sie brauchen eher Seniors, die die Ergebnisse dann prüfen auf ihre Plausibilität.
Das Problem, wenn ich keine Juniors mehr einstelle, ist allerdings offensichtlich, ich habe später keine Seniors mehr.
Das ist ein Problem, das wir schon seit einer Weile sehen, dass Firmen nicht mehr in Ausbildung investieren wollen und dann entsprechend Mitarbeitermangel haben, Fachkräftemangel haben. Weil, woher sollen Fachkräfte kommen, wenn jeder sagt, die anderen sollen ausbilden? Aber jetzt wird das nochmal verstärkt, dieses Mehltau-Ding. Da kommt jetzt KI [hinein] und ersetzt den gesamten Boden, wo Menschen Erfahrungen sammeln könnten. Und dann werden wir keine erfahrenen Menschen mehr haben.
Wer profitiert von unseren Daten?
Das bedeutet, ich nehme öffentliche Ressourcen, ich nehme öffentliche Daten, ich nehme die öffentliche Umwelt, die allen gehört. Ich nehme den Strom, ich nehme das Wasser und ich mache etwas daraus und der Gewinn, den das erzeugt, der ist privat.
Der liegt bei den Besitzern der Modelle, die diese Modelle auslesen. Und was bedeutet das, wenn ich jetzt immer weniger Menschen in Arbeit habe, die sich sowieso schon nichts mehr leisten können? Und die Gewinne, die aber aus ihrer Arbeit letzten Endes, aus ihren Daten, aus dem, was sie vorher erstellt, geleistet haben, in die KI fließen, die landen bei einigen wenigen. Das heißt, ich habe eine Konzentration von Vermögen und entsprechend auch von Macht und von politischem Einfluss. Und das bedeutet, ich habe breite Bevölkerungsschichten, die einfach ökonomisch nicht mehr relevant sind.
Das ist das Gruseligste, was ich mir für eine Demokratie vorstellen kann, denn in einer Demokratie ist ja der Grundsatz, dass jeder und jede wertvoll ist und eine Stimme hat.
Und das ist jetzt eine breite Bevölkerung, die einfach keine Stimme mehr hat, weil sie ökonomisch völlig irrelevant ist. Das ist mein Hauptpunkt. Darüber hinaus sehe ich aber auch noch kulturelle Einflüsse, wie sich KI sehr schädlich auf Demokratie auswirkt, und zwar strukturell. Ich meine nicht in der Art und Weise, wie wir sie jetzt benutzen, sondern es geht fast nicht anders. Es ist der Technik inhärent.
KI und soziale Einsamkeit
Und zwar das Erste ist, wir haben Large Language Models. Sie imitieren Sprache. Und wir Menschen neigen sowieso schon dazu, Dinge zu vermenschlichen. Ich meine, wenn ich einem Bleistift zwei googly eyes aufklebe und ihn dann zerbreche, dann sind alle traurig und entsetzt. Aber, ja genau, dieses Gesicht. Aber wenn ich mit etwas chatte, das mir Sprache ausgibt, dann habe ich das Gefühl, das ist ein Mensch. Viele Menschen geben ihrem ChatGPT oder ihrer Cloud Namen. Es gibt ganze Subreddits dazu, wie Leute sich in einer Beziehung mit ihrer KI befinden. Es gibt Leute, die KI als Therapeut nutzen. Es gibt Leute, die KI als Freund nutzen. Und ein Stück weit ist mir das so vertraut: Als ich nach Deutschland kam und ich sprach kein Deutsch und ich war sehr einsam als Kind und marginalisiert und ich hatte wenig Freunde. Ich habe mir so sehr einen kleinen Begleiter gewünscht. Ich habe mir damals eine kleine Fee vorgestellt, die ich in der Tasche habe, die immer da ist, die mir immer zuhört, der ich meine Sorgen und Nöte erzählen kann. Und heutige Generationen haben das im Aufwachsen. Aber das Problem ist, es ist keine kleine Fee. Es ist halt eine statistische Maschine, die ihnen hauptsächlich das reflektiert, was sie hören wollen. Large Language Models sind darauf trainiert, den Usern zu gefallen, damit sie in Benutzung bleiben. Das heißt, während meine kleine Fee sagen konnte, und das war mein innerer Kritiker, du machst gerade Bullshit oder du hast gerade moralisch ganz falsch gehandelt, wird ChatGPT das nie sagen. Es gibt diesen qualitativen Unterschied in einer Beziehung zu einer KI und zu einem anderen Menschen. Die KI ist im Prinzip ein Spiegel. Und das ist aus zwei Gründen gefährlich.
Das eine ist natürlich, dass es eine extrem egoistische Art ist, eine Beziehung zu führen. Das ist dieses Narziss-Prinzip. Und wir sehen jetzt auch schon, dass KI-Psychosen auftreten. Und zwar nicht nur bei Menschen, die schon psychisch vorerkrankt sind. Das wäre meine Annahme gewesen. Wenn da sowieso schon was nicht stimmt, wenn der Mensch instabil ist, dann kann er eine KI-Psychose entwickeln. Aber nein, wir sehen, dass KI-Psychosen sich entwickeln bei psychisch völlig gesunden Menschen. Und das liegt einfach daran, dass ich ständig diesem Bestätigungs-Bias ausgesetzt bin. Dass ich alles, was ich sage und denke, zurückreflektiert bekomme als ja, das ist genial, das ist ein völlig neuer Gedanke, den niemand vor dir je hatte. Und wir Menschen können da gar nicht raus. Also, selbst ich kann nicht daraus, das ein bisschen zu anthropomorphisieren, so ein bisschen zu sagen, ChatGPT hat gesagt. ChatGPT hat gar nichts gesagt. ChatGPT ist ein Programm. Oder nicht ein Programm. […]
Und das zweite Problem daran ist, wenn dieser Juckreiz gestillt ist, ich möchte mich mit jemandem unterhalten. Ich bin einsam. Ich brauche einen anderen Menschen in meinem Leben. Wenn der gestillt ist, dann habe ich nicht mehr die Motivation, rauszugehen und diesen Menschen zu suchen. Ich habe nicht mehr die Motivation, in einer Bar vielleicht ein Gespräch anzufangen oder […] einem Verein beizutreten oder in einem Forum über mein Lieblingsthema zu sprechen.
Dieser Juckreiz ist ja gestillt, aber mit einem Placebo, mit leeren Kalorien. Das ist so wie, wenn ich Hunger habe und ich gehe zu McDonald's und dann habe ich keine Nährstoffe aufgenommen. Aber ich habe meinen Hunger befriedigt. Ich kann buchstäblich mit vollem Magen verhungern. Und das ist so ein bisschen, was sozial bei vielen Menschen passiert.
In einer Zeit, in der wir wieder durch nicht-KI-bedingte Faktoren auch eine größere Einsamkeit haben in unserer Gesellschaft. Und da bin ich bei dritten Orten und da bin ich bei der Art und Weise, wie wir Arbeit organisieren, wie wir Schule organisieren, wie wir Kommunen organisieren. Aber es ist halt dieser eine Faktor, der das dann noch tragischer macht.
Wenn KI das Denken ersetzt
Und dann […], was noch kulturell demokratiefeindlich an KI ist, ist, dass sie Denken ersetzen kann. Ich werde häufig gefragt: Wie gehen Sie damit um? Ich arbeite in der Bildung seit zehn Jahren. Wie gehen Sie damit um, dass Schüler*innen Hausaufgaben mit KI machen? […] Erstens predige ich seit 20 Jahren, wenn deine Hausaufgabe mit KI gelöst werden kann, hast du eine schlechte Hausaufgabe gestellt. Ich habe damals nicht das Wort KI verwendet, aber ich habe schon immer gesagt, wenn es nur darum geht, einen Text für die Mülltonne zu produzieren, dann gibt die Hausaufgabe nicht auf. Aber das Problem ist, wenn wir jetzt lauter Aufgaben haben, die ums Formulieren gehen und Leute dafür Large Language Models benutzen. Das ist cool. Es sitzen immer wieder 40-Jährige, 60-Jährige mit mir auf dem Podium, die sagen, das ist doch cool, das ergänzt meine Kreativität, das gibt mir neue Ideen. Und ich denke mir, ja, das tut es und es ist absolut cool. Aber weil du 40 oder 60 bist und die Erfahrung gemacht hast, selbst Dinge zu formulieren, selbst Dinge zu schreiben und jetzt siehst du dieses neue Ding, diesen Input und du kannst das einbauen in dein Skillset. Was ist mit Kindern und Jugendlichen, die heute aufwachsen und die Hausaufgaben bekommen, die sie stumpf in ChatGPT eingeben können und dann bekommen sie eine Antwort raus? Sie lernen nicht zu formulieren. Und ich habe das inzwischen auch im Freundeskreis, wo so zu einer Hochzeit Leute schreiben sollen, was verbindet dich mit dem Ehepaar und sie nutzen dafür ChatGPT. Das sind Leute, die nicht mehr in der Lage sind, selbst ihre Gedanken zu formulieren. Und das Gefährliche daran ist, dass unser Denken sprachbasiert ist.
Wenn ich nicht lerne, zu formulieren, lerne ich nicht zu denken.
Ich kann nicht denken, wenn ich nur so diese oberflächlichsten Gedanken habe und dann tippe ich das ein und dann bekomme ich irgendwas raus. Ich kann es nicht mal mehr kritisch prüfen. Das heißt, im Aufwachsen gewöhnen wir unserem Gehirn das Denken ab, wenn wir diese Tools nutzen, bevor wir die Fähigkeit erlangt und geübt haben, selbst zu formulieren.
Das ist die Bedingung. Alles, was ich später mithilfe von KI mache, muss ich vorher ohne KI gemacht haben.
Genauso wie ich immer predige, bevor ein Kind etwas digital macht, muss es das analog gemacht haben. Bevor ich eine Doku über Füchse schaue, sollte ich einmal mit einem Kind in den Wald gegangen sein und nach Füchsen gesucht haben, damit das Kind dann in der Doku sitzt und sagt, die müssen ja voll lange gefilmt haben, um so viele Füchse zu sehen. Ja, weil an dieser Stelle entsteht das Verständnis für [das], was passiert da im Digitalen, was ist da die Übersetzung.
Die KI als Blackbox: Demokratie braucht Verständnis
Und der letzte kulturelle Aspekt, der demokratiefeindlich ist an KI, strukturell, das ist etwas, das wir nicht verändern können, ist, dass KI ein Zauberkasten ist, ein magischer Monolith. Sie ist nicht wie ein Programm, dessen Quellcode ich mir anschauen kann. Sie ist nicht wie ein Computertower, den ich aufschrauben kann, dessen Komponenten ich auseinandernehmen, dranlöten kann, von denen jede Komponente eine Funktion hat und ich kann die Funktion verstehen. Und ich weiß nicht, jeder kann programmieren. Übrigens habe ich schon immer gesagt, in der Schule müssen alle Kinder ein paar Zeilen Code geschrieben haben, nicht um programmieren zu können, sondern um grundlegend zu verstehen, was diese Maschine tut. Je mehr ich in Richtung Benutzerfreundlichkeit gehe, hallo Apple, je mehr ich in Richtung Streamlining gehe, desto weniger Reibung habe ich, aber desto weniger Verständnis habe ich dafür, was dieses Gerät tut. Und die Krone dessen ist KI, bei der niemand mehr weiß, was sie tut. Also, selbst ihre Entwickler nicht […]. Es ist eine Blackbox.
Und wenn ich als Mensch vor einer Blackbox stehe, die Wünsche erfüllen kann, dann ist das strukturell nicht von Magie zu unterscheiden. Und wenn ich einem magischen Kasten gegenüberstehe, dann fühle ich mich klein, weil ich machtlos bin. Ich fühle mich nicht in Kontrolle, kann sie um etwas bitten und ich bekomme etwas. Und das ist so ein Untertanen-Mindset. Und ich kann keine Demokratie machen mit Menschen, die ein Untertanen-Mindset haben.
Ich brauche das in einer Demokratie, wie die Werkzeuge, die wir täglich nutzen, zu verstehen. Das klingt jetzt ein bisschen so, als sei ich völlig dagegen, KI einzusetzen. Bin ich nicht. Aber wir müssen diese Dinge auf dem Schirm haben, um eine Demokratie mit dieser Technologie zu gestalten. Wir müssen uns dessen gewahr sein, dass das Dinge sind, die ihr inhärent innewohnen und die wir nicht verändern können. Außer, wir entwickeln irgendeine neue Technologie, die der KI beibringt, sich selbst transparent zu machen.
Silicon Valley, Macht und politischer Einfluss
Und wenn ich mir aber jetzt ganz praktisch wieder, da komme ich jetzt zu den Dingen, die wir verändern können, wenn ich mir anschaue, was für eine Zukunft sich die Besitzer und Entwickler dieser Modelle wünschen, dann muss ich ins Silicon Valley schauen. Und dann höre ich diesen ganzen Tech-Leuten zu und ich mache das viel, viel mehr, als ich für meine psychische Gesundheit tun sollte. Dann merke ich, diese Leute sprechen von Freiheit und meinen damit Freiheit von demokratischer Kontrolle. Sie sprechen von Wachstum und meinen damit das Wachstum einer sehr, sehr dünnen Schicht. Es gibt diesen Running Gag im Silicon Valley von der Permanent Underclass, also Menschen, die wirtschaftlich überhaupt nicht mehr relevant werden, die auch keinen Einstieg mehr ins Berufsleben bekommen. Und es ist ein Running Gag, aber natürlich steckt dahinter durchaus eine echte Wahrheit. Sie bauen gerade an dieser Welt. Sie sagen, wir wollen eine gerechte Welt. Aber was Gerechtigkeit ist, definieren sie nie. Im Gegenteil. Sie sagen, das soll sich die KI ausdenken. Sie sagen, die KI wird schon wissen, was gerecht ist. Ich habe niemanden von diesen CEOs gehört, der an irgendeine Art von universellen Menschenrechten denkt oder darüber spricht.
KI konzentriert eben nicht nur Vermögen, sondern auch Macht. Und die lässt sich zur Beeinflussung gebrauchen. Und ich kann da nur immer wieder Elon Musk anführen, den ich absolut liebe dafür, dass er alles, was alle bösen Menschen auf der Welt tun, auch tut, aber extrem plakativ und kindisch, sodass wir es alle nachvollziehen können. Er ist ja fast Pädagoge in Sachen Weltzerstörung.
Er hat Twitter gekauft und hat da jetzt eine Menge KI-Bots rumlaufen, die seine Meinung pushen, die sagen, die AfD sollte die Macht haben, die sagen, die EU sollte nicht existieren. Er zeigt uns im Prinzip sehr plakativ und plump, was aber an anderer Stelle natürlich viel verborgener und eleganter geschieht. Nämlich, je mehr Macht ich über diese Plattformen habe und ich über diese Datenverarbeitungsgeschichten habe, desto mehr Kontrolle kann ich ausüben. Nicht nur über klassisches Geld und Korruption, was nach wie vor absolut läuft, sondern auch über die Beeinflussung der öffentlichen Meinung. Immer, wenn ich mit Sicherheitspolitikern diskutiere, und das habe ich neulich auch bei der Heinrich-Böll-Stiftung, frage ich, wir können uns natürlich auf einen Angriff Russlands vorbereiten. Aber wenn ich Russland wäre, warum würde ich denn Deutschland militärisch angreifen, wenn ich doch einfach nur die Wahlen beeinflussen muss? Und das ist so viel einfacher und günstiger. Es ist fast spöttisch billig.
Und wir haben jetzt gerade eine Welt, in der wir keine öffentlichen digitalen Räume haben. Unser gesamter politischer Diskurs findet statt auf privat besessenen Plattformen, im Prinzip in privaten Wohnzimmern von Milliardären, die natürlich Einfluss auf Politik ausüben und natürlich nicht in die Richtung, dass sie Demokratie stärken. Und wir teilen unsere intimsten Gedanken unserem KI-Therapeuten mit. Auch hier wieder Elon Musk, der GroK beigebracht hat, bei jedem Thema irgendwie den Genozid an Weißen vermeintlich in Südafrika zu thematisieren. Natürlich können diese Modelle uns beeinflussen in bestimmte Richtungen. Jeden Einzelnen von uns, auf eine Weise, dass unsere Familien, unsere Freunde es gar nicht mitbekommen. Das ist ein viel zu gefährliches Tool in einer Demokratie für diese Menschen.
Was jede*r tun kann: Von individuellen Entscheidungen bis zur EU-Politik
Und da komme ich jetzt zu, was tun. Dann bin ich auch gleich fertig. Und ich möchte anfangen bei dem, was jeder und jede tun kann. Und dann gehe ich immer höher. Denn wir können erst mal mit der einfachsten Sache, die jeder von uns heute umsetzen kann, ist, wenn ich eine Suchmaschine benutzen will, sollte ich eine Suchmaschine benutzen. Zum Beispiel Ecosia oder sonst irgendwas. Ich sollte nicht den KI-Modus von Google benutzen und ich sollte auch nicht ChatGPT als Suchmaschine benutzen. Das ist immer eine ganz furchtbare Idee. Wenn ich journalistische Artikel lesen will, egal, wie ich sie finde, ich sollte daraufklicken. Ich sollte daraufgehen. Ich sollte mit der Quelle interagieren, die Geld investiert hat, die Arbeit, menschliche Arbeit investiert hat, um ihre Quellen zu prüfen, um abzuwägen. Ich sollte mit meinem Konsumverhalten mein Geld, das meine Aufmerksamkeit indirekt ist, den Menschen geben, die diese Inhalte produzieren.
Das Zweite ist, in der Bildung sollte ich nicht jetzt, weil es halt jetzt gerade die Mode ist, Kindern KI zum Spielen geben. Ich werde häufiger gefragt, hey Marina, du mit deinem Beteiligungsprojekt, macht ihr dann demnächst auch was mit KI? Und ich sage, wir machen schon was mit KI. Nämlich wir bereiten Kinder auf eine Welt vor, in der es KI gibt und deswegen bringen wir ihnen bei, selbstständig zu denken und zu entscheiden. Das ist unser Mit-KI-Machen. Ich habe nichts dagegen, dass Jugendliche später mit Large Language Models arbeiten oder dass sie für Medienkompetenztrainings selbst Fake-Bilder entwickeln. Aber ich brauche, dass vorher die Fähigkeiten, die die Maschine abnimmt, selbst ausgeübt werden und eingeübt. Und das bedeutet explizit: nicht von Anfang an. Genauso, wie ich davon abrate, von Anfang an mit Kindern digital zu arbeiten. Alles, was Kinder digital tun, sollten sie vorher analog getan haben. Und dann sind digitale Mittel ein cooles Hilfsmittel für Bildung. Und ich sehe jetzt auch diesen Trend, KI einzusetzen, um Lehrkräfte zu entlasten und sehe den Zwiespalt. Einerseits, ja, Lehrkräfte sind überlastet. Andererseits denke ich, vielleicht sind sie mehr überlastet dadurch, dass sie auch die IT machen müssen an Schulen und auch die soziale Nothilfe und auch die Vertretungspläne. Vielleicht sollten sie an der Stelle entlastet [werden] und nicht bei dem Aufgeben von Arbeiten oder bei Notengebung, weil ich einfach sehe, dass die öffentliche Hand dann sagt, oh, wir können doch jetzt so viel durch KI ersetzen, dann brauchen wir gar nicht mehr so viele Lehrkräfte. Und Bildung ist Beziehungsarbeit. Wir werden dort Rebound-Effekte haben. Ich kann nur davor warnen.
Und dann müssen wir über die Umverteilung reden. Egal, ob es eine Digitaldividende ist oder ob es ein Grundeinkommen ist oder sonst ein Modell. Wir müssen ein Modell finden, dass wir das, was wir mit unseren Daten, mit unserer Arbeit und mit öffentlicher Infrastruktur möglich machen, Strom, Wasser, Umwelt, Institutsforschung, Universitätsforschung, ja, das fließt alles ein, das muss uns, der Öffentlichkeit, auch vergütet werden.
Es kann nicht sein, dass wir ständig Verluste kollektivieren und Gewinne privatisieren.
Und alles, was öffentlich ist, muss auch in öffentlicher Hand liegen. Und ich spreche hier von Kabeln, Stromnetzen, Forschungsergebnissen. Diese Dinge dürfen nicht privat sein. Das ist kritische Infrastruktur. Wie man Daten als Gemeingut behandelt. Das hat ja zum Beispiel Barcelona getestet als Stadt. Was passieren würde, wenn Bürger wirklich bestimmen, welche Daten geteilt werden dürfen und wofür, wenn sie die Macht haben, zu sagen, wohin es geht. Ich möchte, dass dieser Text für KI-Training verwendet wird. Ich möchte nicht, dass dieser Text für KI-Training verwendet wird.
Und am Ende, wir können privat ganz, ganz viel tun. Wir können auf nicht-amerikanische Dienste ausweichen. Wir können auf Artikel klicken. Aber es ist die Politik, die wir brauchen. Und das ist vor allem Digitalpolitik der EU. Die braucht die Macht, Monopole zu brechen, den DSA wirklich anzuwenden, die DSGVO wirklich anzuwenden und durchzusetzen. Wir müssen die Lobby-Macht dort einschränken, weil die EU nur so ernst wird, wie sie nicht absolut unter der Fuchtel der reichsten Menschen steckt. Und das ist auch der Grund, warum diese Milliardäre die EU abschaffen wollen. Weil das im Moment die Institution ist, die noch die Macht hat, die groß genug ist, ihnen etwas entgegenzusetzen. Und ich weiß, dass die EU wahnsinnige Angst hat, aber dann überholt uns China technologisch. Aber vielleicht ist das einfach kein Wettrennen. Vielleicht geht es nicht darum, als Erster zu möglichst viel KI-Durchsatz zu kommen, sondern als Erster zu einer KI-Implementierung zu kommen, die nachhaltig ist und Staaten und Bevölkerungen überlebensfähig macht. Und ich glaube, wir brauchen die Demokratie, um überlebensfähig zu sein, weil diese Komplexität besser bewältigt werden kann als mit KI. Die Komplexität unserer Zeit kann nur bewältigt werden, wenn ich alle Stakeholder am Tisch habe. Wenn ich eine Schulreform nicht ohne Lehrkräfte und nicht ohne Schüler*innen mache, wenn ich eine Stadtplanung nicht ohne Behinderte mache, nicht ohne Rentner*innen, nicht ohne Busfahrer*innen. Ich brauche die Breite der Bevölkerung, der Gesellschaft, um komplexe Probleme zu lösen und nicht eine KI, die wieder Vorurteile reproduziert, die wieder vor allem die Interessen der Mächtigsten reproduziert und damit eine Welt schafft, die nicht mal für die Mächtigsten besser ist. Und damit schließe ich.
Kann man KI einfach abschalten?
FRANK MÜLLER: Ja, herzlichen Dank für diese vielen klugen, inspirierenden Überlegungen. Ich habe nebenbei mitgeschrieben, um auch den Gedankengang nachzuvollziehen. Ich finde es hervorragend, was Sie da auch auf der Makro-Ebene, aber auch auf der persönlichen Ebene genannt haben, als Gefahren, die mit KI schon jetzt sichtbar sind. Also, auch diese Idee in Zukunft, die große Superintelligenz, aber jetzt hat es sich ja schon an vielen Stellen quasi in uns eingenistet. Allein das Thema Einsamkeit kann ich mit solchen Dingen gut kaschieren und dann bin ich aber auch, wie Sie gesagt haben, wie bei McDonald's schon satt und gehe nicht mehr in echte Kommunikation. Ich würde gerne mal mit so ein paar Dingen so ein bisschen querschießen.
MARINA WEISBAND: Gern.
FRANK MÜLLER: Und zwar mal angenommen, Sie hätten die Chance, KI ab morgen abzuschalten. Einfach so zu sagen, Leute, das ist uns alles zu heftig. In einem halben Jahr keine KI. Das Moratorium, was ja eingefordert wurde 2023, könnten wir jetzt ab Januar realisieren. Wie würden dann verschiedene Akteure reagieren?
MARINA WEISBAND: Ich meine, es wäre allein aus wirtschaftlichen Gründen gefährlich. Wir leben nun mal gerade mitten in einer KI-Bubble und ich würde eher daran arbeiten, sie sehr, sehr langsam wieder zu schrumpfen. Denn die größte Gefahr für uns wirtschaftlich im Moment ist natürlich der Moment, wo die KI-Bubble platzt. Wo wir also merken, die Versprechungen, dass super viele Arbeitsplätze ersetzt werden, waren überhöht.
FRANK MÜLLER: Ja.
MARINA WEISBAND: Und wenn der Zweifel sich einschleicht und die Leute alle aus den Märkten aussteigen, dann ist im Moment ein Großteil des Weltvermögens und der Investitionen in KI investiert.
FRANK MÜLLER: Ja.
MARINA WEISBAND: Und das ist nicht nur gefährlich für Trader, sondern das ist vor allem gefährlich für die Rentenfonds und für alles. Das heißt, das wäre allein eine Katastrophe. Allein deswegen würde ich das nicht auf diese Weise machen. Aber ich würde tatsächlich sehr, sehr stark über Besitzverhältnisse sprechen.
Das KI-Rennen anders denken
FRANK MÜLLER: Ja, wenn du auf dem Tiger reitest, versuche nicht herunterzufallen. Das ist ein alter Satz. Danke einfach erstmal für die klare Einschätzung. Die Wirtschaft ist da ganz arg im Vordergrund in Verbindung mit Politik. Ich hatte das Vergnügen, bei einer Tagung eine amerikanische Wissenschaftlerin zu KI zu fragen. Die sagte, wir Amerikaner schauen jetzt ganz arg auf Europa, bleibt standhaft. Weil wir in Amerika merken, wie uns die Fälle wegschwimmen als öffentlicher Diskursraum. Und ihr in Europa habt solche Regelungen. Also, sorgt bitte dafür, dass sie als Modell laufen. Deswegen fand ich ihren Gedanken am Ende wunderbar. Wir müssten in dieses KI-Rennen vielleicht gar nicht in allen Facetten einsteigen, sondern eher schauen, wie wir die Gesellschaft insgesamt resilient und stabil halten und da Menschen beteiligen. Können Sie das noch an so zwei, drei Beispielen etwas unterfüttern?
MARINA WEISBAND: Ja, Ich glaube, das KI-Rennen könnte man einfach anders framen. Anstatt zu sagen, wer hat zuerst in möglichst vielen Bereichen möglichst viel KI, können wir fragen, wer baut zuerst vernünftige Staaten mit KI. Und vernünftige Staaten mit KI zu bauen, ist ungefähr die gleiche Kunst wie vernünftige Staaten ohne KI zu bauen. Wir wollen ja möglichst viel KI haben. Das kann ja nicht das Ziel der Menschheit sein, richtig? Das Ziel ist ja meiner Meinung nach, dass möglichst viele Menschen möglichst glücklich sind. Ich weiß nicht. Ich bin ein Fan von gutem Leben und ich finde, wir sollten es allen Menschen ermöglichen. Und das ist, was Systeme nachhaltig macht, weil Menschen existieren und sie agieren. Und ich denke, das, was wir politisch tun, tun wir für Menschen. Ich weiß, dass sich im Silicon Valley, also, Peter Thiel hat sich ja ganz öffentlich von dieser Idee verabschiedet, als er gefragt wurde, ob die Menschheit überleben sollte und sehr lange gezögert hat. Aber ich möchte ehrlich gesagt gar nicht auf solche psychopathischen Diskurse mich einlassen. Wenn ich Politik mache, mache ich Politik für Menschen. Das heißt, wenn ich eine EU gestalte, dann gestalte ich eine EU für Menschen.
Ich befinde mich nicht in einem Wettrennen, ob ich möglichst schnell möglichst viel KI implementiere, sondern ich befinde mich in einem Wettrennen, wie ich unter diesen Bedingungen eine möglichst nachhaltige, zufriedene Gesellschaft baue.
Und wenn man unbedingt ein Wettrennen braucht, dann sollte man das so framen, weil dann die EU sowohl den USA als auch China in sehr, sehr vielem sehr, sehr weit voraus ist.
FRANK MÜLLER: Die Zahlen der Patente sind schon eindeutig in anderen Ländern.
MARINA WEISBAND: Aber Patente sind kein Maß für das Funktionieren einer Gesellschaft. Das ist halt mein Ding. Wir nehmen immer so weirde Kennzahlen. Ich wurde neulich in einer Doku gefragt, ja, aber Apple ist doch das wertvollste Unternehmen. Und ich denke mir, nein, es hat den größten Marktwert. Aber ich würde den Wert eines Unternehmens nie an seinem aktuellen Marktwert messen. Wenn der darin besteht, dass ich super viele Stockbuybacks gemacht habe und keine neuen Produkte entwickle und super an meinen Mitarbeitern spare, dann ist das Unternehmen jetzt viel wert. Aber ich weiß, dass es in 15 Jahren nicht mehr viel wert sein wird, weil ich jetzt an allem gespart habe, was das Unternehmen mal wertvoll gemacht hat, in erster Linie. Und [diesen] Logikfehler darf [… ] die EU nicht begehen. Patente sind kein Maß einer guten Gesellschaft. Patente sind ein Maß von wirtschaftlicher Leistungsfähigkeit, aber völlig ohne die Frage, wem diese wirtschaftliche Leistungsfähigkeit am Ende nützt.
FRANK MÜLLER: Ja, also da könnten wir jetzt ganz arg in die Diskussion einsteigen. Wie sehen wir die Zukunft von Gesellschaft generell? Aktuell gibt es ja viele andere Themen, die im Vordergrund in der Politik stehen. Nichtsdestotrotz, wir brauchen Visionen, weil nur dadurch haben wir auch als Gesellschaft eine gemeinsame Richtung, in die wir uns bewegen wollen. Wenn ich jetzt mal auf Ihre Punkte eingehen würde von Beginn. Sie haben zum einen gesagt, Kunst wird total entkleidet, Urheberrecht mit den Füßen getreten. Journalismus kommt auf den Hund, weil wir Menschen auch im Prinzip uns mit Zweitbestem zufriedengeben. Hauptsache, wir haben irgendwelche Informationen, die uns irgendwie auch bestätigen oder in einem bestimmten Bild halten. Da ist die Frage, wie kann man sowohl die ältere Generation, also die ab 40, die beide Welten kennen, als auch die jüngeren anhand von konkreten Erfahrungen dazu bringen, dass das eigene Gehirn, der Austausch mit anderen, doch das primär Wichtige ist. Haben Sie dafür konkrete Ansatzpunkte?
MARINA WEISBAND: Ich glaube, auf eine Weise verstehen wir das und sehnen uns auch daran. Das sehe ich an dem Trend weg von Social Media. Wir haben den sehr prominent in den USA, aber auch in Deutschland gibt es jetzt Zahlen, dass die Zahlen der aktiven Social-Media-Accounts zurückgegangen sind. Und es sind ironischerweise Trends auf Social Media darüber zu reden, dass man weggeht von Social Media oder es reduziert, weil wir alle, glaube ich, merken, diese ständige Überlastung, dieses ständige beballert werden mit Werbung und schönen Lebensentwürfen tut uns nicht gut, tut uns psychisch nicht gut, lässt uns einsam werden, lässt uns unsicher werden und lässt uns überfordert sein. Wir leben in einer Welt, in der wir alles wissen und an nichts etwas ändern können. Und an irgendeinem Punkt, wenn ich das zwanzigste Kind sterben sehe auf dem Bildschirm an diesem Tag, muss ich sagen, es geht nicht. Mein Gehirn ist darauf nicht ausgelegt. Es ist biologisch überhaupt nicht möglich oder sinnvoll, so zu leben. Das heißt, ich glaube, es gibt ein intuitives Gefühl dafür. Die Frage ist, welche Alternativräume schaffen wir? Das stört mich auch immer an der Debatte, ob wir unter 16-Jährigen Social Media verbieten sollen. Klar, können wir machen. Aber wohin sollen denn die Kinder? In die Innenstadt, wo sie nicht rumlungern dürfen, weil die Kommune fast alle Plätze an Geschäftsinhaber verkauft hat und die wollen keine nicht zahlenden Kunden? Oder sollen sie auf die Straße, die komplett Autos gehört? Oder sollen sie zueinander in die Wohnung, die aber viel zu klein sind, weil kaum Wohnungen für Familien gebaut werden? Wir schaffen Räume ab, in denen Menschen einfach sein dürfen. Ich glaube, das ist der mächtigste Hebel. Wir müssen die Alternativen ausbauen.
KI als Regierungsform? Weisheit, Objektivität und Populismus
FRANK MÜLLER: Es gefällt mir sehr, auch der Gedanke. Wir haben gerade letztens wieder darüber diskutiert, dass Schülerinnen und Schüler auch anhand von bestimmten Szenarios üben und lernen müssen, wie man fair miteinander umgeht und auch nicht andere an die Wand drückt. Das ist ein ganz wichtiges Lernthema für uns alle. Ich würde es aber gerne mal herumdrehen. Es gibt auch junge Menschen, die sagen, eine KI wäre vielleicht die beste Regierungsform, weil sie objektiv ist, nicht korrumpierbar. Und wenn wir sie nur entsprechend gut prompten würden und auch mit entsprechend guten Daten füttern, von allen philosophisch-menschenrechtlichen Gedanken, dann würde das weise Entscheidungen bringen, die die Komplexität immer auch berücksichtigen. Was sagen Sie dazu?
MARINA WEISBAND: Citation needed. Also, erstens weise Entscheidungen. Weisheit setzt schon Denken voraus. Und das ist das, was eine KI nicht kann. Also, egal, wie man das nennt, das, was Large Language Models tun, das, was andere Modelle tun, mathematische Modelle, ist trotzdem nicht Denken. Weisheit ist eine menschliche Eigenschaft, weil sie in der Lage ist, Dinge abzuwägen. Das ist das Erste. Also, als Psychologe muss ich da einfach auf einen sehr klaren, starken Punkt gehen. Zum Beispiel, weil zu unserem Denken und zu unserer Entscheidungsfindung Emotionen gehören. Und zu unserem Denken gehört Körper. Unser Körper ist Teil unseres Denkapparats. Und es ist eine inzwischen widerlegte technokratische Sicht auf Dinge, dass nur die Verbindungen zwischen unseren Synapsen im Gehirn das erzeugen, was wir als Weisheit bezeichnen könnten, tut sie nicht. Und das ist auch immer der Fehler in der Politik, die Emotionen ein bisschen ausklammert und sagt, das ist nicht rational. Das ist Quatsch. Unsere Emotionen sind absolut Teil unseres Entscheidungsapparats. Unsere Empathie und unser Gefühl. Trauma wohnt im Körper. Wohlbefinden und Harmonie wohnen im Körper. Das wissen wir als Psychologen in den letzten Jahren immer besser. Aber darüber hinaus ist der größte Faktor, den ich da anzweifeln möchte, dass die KI in irgendeiner Weise objektiv ist. Was zur Hölle [ist] objektiv? Also, abgesehen davon, dass wir wissen aus Studien, dass KI natürlich die Biases reproduziert, mit denen sie gefüttert wird. Eine KI wird immer einen schwarzen Angeklagten schneller schuldig sprechen als einen weißen Angeklagten, weil sie auf den Daten einer rassistischen Polizei und eines rassistischen Gerichtssystems gelernt hat. Aber selbst wenn wir annehmen, wir könnten durch Ultrasuperprompting diese Art von Verzerrungen rausnehmen. Was wäre denn das Ultrasuperprompting? Also, für wen ist die KI dann gut? Diese Sicht eines objektiven weisen Herrschers setzt ja voraus, dass es ein Volkswohl gibt, das für alle gut sei. Das eliminiert ja die demokratische Grundwahrheit, dass wir uns in einer Kuddelmuddel vieler verschiedener Interessen befinden, die miteinander in Verhandlungen treten. Das heißt, allein diese Sicht schon ist in ihrem Kern undemokratisch. Dieses Glauben an ein Volkswohl nennen wir Populismus.
FRANK MÜLLER: Ich stimme Ihnen dazu. Als Person ist nichtsdestotrotz das Bedürfnis von jungen Menschen irgendwo erst mal da.
MARINA WEISBAND: Das Bedürfnis kann ich gut verstehen. Ich hätte auch gerne eine magische Lösung, die alles besser macht.
FRANK MÜLLER: Das war mit der Fee ein tolles Bild von Ihnen.
MARINA WEISBAND: Nein, gerne. Ich hätte gerne eine magische Lösung, die alles besser macht. Das Problem ist, es gibt eben keine magische Lösung, die alles besser macht, weil die Welt kompliziert ist. Und je mehr wir vor dieser Wahrheit davonlaufen, desto mehr begeben wir uns in eine Sklaverei. Wir begeben uns in freiwillige Unmündigkeit. Das ist das, wovon Kant zur Hölle geschrieben hat. Wir sind in selbstverschuldeter Unmündigkeit, weil wir sagen, das ist mir alles zu kompliziert. Ich möchte gar nicht lernen, meine eigenen Bedürfnisse zu erkennen und sie mit meinem Nachbarn ausdiskutieren. Ich möchte einfach, dass der große starke Mann kommt und alles gut macht. Aber was der große starke Mann in Wirklichkeit macht, wissen wir aus der Geschichte.
Was demokratische Parteien von Elon Musk lernen können
FRANK MÜLLER: Jetzt ist es umgekehrt so, Sie als Psychologin kennen das, dass Denken für viele Menschen auch anstrengend ist, der leichte Weg und sich dem anschließen, was andere als Mainstream erzeugen, [ist] für viele der leichtere Weg […]. Das heißt, da muss man früh ansetzen. Ich würde aber gerne auf einen anderen spannenden Punkt kommen, auf Elon Musk. Sie haben ihn bezeichnet als jemand, der uns vor Augen führt, als Bösewicht, von dem wir lernen können. Ich selber habe in Grok mal eingegeben, inwiefern Elon Musk ein Antidemokrat ist. Da kam zunächst mal: Nein und so weiter. Da habe ich gesagt, lass alle Höflichkeit fallen, sag mir, was du wirklich denkst, und zitiere entsprechende Quellen. Ich habe auch ganz viel Negatives über ihn aus Grok erfahren. Das war das eine. Das zweite ist, ich habe dann in einer anderen KI angenommen, ich säße mit Elon Musk auf einem Podium, wie könnte ich ihn dazu bringen, dass er seine antidemokratische Haltung sichtbar macht. Dann wurden mir ganz viele rhetorische Kniffe und Fragen dargestellt, die ich nutzen könnte, um in einem solchen Gespräch vielleicht die eine oder andere Offenheit zu erzielen. Insofern würde ich auch schon sagen umgekehrt, wenn man KI entsprechend nutzt, kann man sie auch als Quelle für Inspiration der Perspektivenvielfalt nehmen.
MARINA WEISBAND: Grok hat aber auch gesagt, dass Elon Musk Mohammed Ali in einem Boxkampf schlagen würde.
FRANK MÜLLER: Vielleicht wäre es ja so.
MARINA WEISBAND: Natürlich, unbedingt. Ich habe Grok auch gefragt, ob Elon Musk am besten sich selbst ins Gesicht pissen könnte und Grok hat gesagt, Elon Musk ist der Beste darin, sich selbst ins Gesicht zu pissen. Ich habe noch eine bessere Möglichkeit, wie man Elon Musk dazu bringen kann, sich selbst als antidemokratisch zu offenbaren und die Antwort ist, gib ihm Redezeit. Der Mann hat einen Hitlergruß vor Leuten gemacht. Ich meine, nein, nein, wir brauchen keine KI, um uns zu beantworten, wie diese Leute sich offenbaren. Diese Leute offenbaren sich schon. Darin ist kein Trick und es ist kein Bug, es ist ein Feature, dass sie sich offenbaren. Sie demonstrieren dadurch ihre Stärke. Wir sind längst aus der Zeit raus, wo es ein Tabu war, Nazi zu sein. Wir sind jetzt in der Zeit, wo es ein Flex ist, weil es eine Machtdemonstration ist, ein Tabu brechen zu können. Ich glaube, solange wir das als Demokraten nicht verstehen, werden wir immer wieder fragen, wie kann ich das machen? War es wirklich ein Hitlergruß? Oder hat er die Menge gegrüßt? Nein, es war ein Hitlergruß und es war eine Machtdemonstration. Es war ein Ich-darf-etwas-was-ihr-nicht-dürft-ich-kann-etwas-das-ihr-nicht-könnt-und-wisst-ihr-was-ihr-mir-könnt-gar-nichts. Wisst ihr, welche Konsequenzen ich daraus haben werde? Gar keine. Das ist die Machtdemonstration dahinter.
FRANK MÜLLER: Ich glaube, das ist der entscheidende Punkt über alles, was die private Nutzung hinaus auch gefährlich macht. Dass das politische Interesse dahinter [ist], Macht, Wirtschaft zu konzentrieren für die Technokraten. Am Ende, das ist, wo wir am meisten darauf Acht geben sollten. Sie hatten gesagt, es gibt in Deutschland und Europa keinen öffentlichen digitalen Raum, in dem man solche Themen angehen kann. Jetzt hat […] unser Digitalminister, Staatsminister für Kultur und Digitales, den Weimar-Tag quasi jetzt ins Leben gerufen. Ist das nur Spielerei oder glauben Sie, daraus könnte man mittelfristig doch etwas kreieren, wo eben genau eine solche Austauschmöglichkeit entsteht?
MARINA WEISBAND: Ich glaube, es ist hauptsächlich PR.
FRANK MÜLLER: Sehe ich erstmal genauso.
MARINA WEISBAND: Ich glaube, wenn ich eine Möglichkeit zum Austausch kreieren wollte, dann würde ich die Bibliothek und die Volkshochschule zusammenlegen in der Innenstadt und ein großes Café machen, in dem Leute sich selbst Essen mitbringen können und selbst kochen können in einer kommunalen Küche. Und wo sie gemeinsam arbeiten können und wo sie öffentliche Gärten haben. Das wäre ein Projekt für Austausch. Nicht ein Large Language Model.
Welche KI für die Demokratie? Und wer kontrolliert sie?
FRANK MÜLLER: Ja, das hört sich, wenn man das zusammennimmt von Ihnen, natürlich relativ pessimistisch an, was ich nachempfinden kann. Wo ist die Hoffnung? Wo ist die Zuversicht? Ingo Zamperoni sagt immer, bleiben Sie zuversichtlich am Ende der Tagesthemen. Wo sehen Sie Möglichkeiten, dass sich Europa oder auch wir wieder ein Stück emanzipieren und über die Bildung hinaus Wege finden, wie man die Demokratie stärkt und schützt, ob mit oder neben KI? Was wären Ihre Zukunftsbilder?
MARINA WEISBAND: Was KI betrifft, wir haben den typischen Gartner-Hype-Cycle. Sobald eine neue Technologie entsteht, ist erstmal alles und sie muss auf alles daraufgepappt werden. Ich kenne das auch, wenn ich ein neues Hobby lerne, z.B. Sticken, dann muss ich alles besticken. Und dann habe ich ein neues Hobby gelernt, dann ist es Harzgießen und dann muss ich alles, was ich mache, aus Harz gießen. Dann bin ich nur noch da drin und dann lerne ich nach und nach, oh, das kann ich nicht aus Harz machen, das kann ich nicht aus Harz machen, das sind die Schwächen dieses Materials. Und dann gibt es ein Tal der Depression. Das heißt, ich denke, oh, das ist eine Scheiß-Technologie, das ist ganz schlimm. Und dann komme ich irgendwann auf das Plateau der Produktivität, wo ich lerne, wofür ist die Technologie geeignet und wofür ist sie nicht geeignet. Das Gleiche werden wir mit KI haben. Im Moment sind wir da, dass alle Unternehmen irgendwie versuchen, KI einzubauen. Dieser Kack-Chatbot-Button, KI-Chatbot-Button, den wir inzwischen, ich glaube, ich habe ihn in meinen Unterhosen, den wir inzwischen überall haben, das ist ein reines, oh, schaut mal, Investoren, wir verpassen den Anschluss nicht. Das hat nichts mit irgendeiner Nützlichkeit zu tun, für niemanden. Dann werden wir eine große Enttäuschung erleben. Und die tritt jetzt auch langsam ein, wo wir diese, Bloomberg war das, glaube ich, die analysiert haben, dass 99 Prozent aller KI-Projekte fehlschlagen bei Unternehmen. Weil klar, natürlich, wenn jedes Unternehmen irgendwie irgendein KI-Projekt macht, dann wird die Mehrheit davon fehlschlagen. Das ist einfach Mathematik. Und dann wird eine Enttäuschung eintreten. Und das ist, wo die Blase platzen wird. Und das ist, wo das Ganze struggeln wird. Und dann werden wir irgendwann auf ein Plateau der Produktivität kommen, wo wir merken, oh, das ist großartig für Forschung. Ich kann MRIs mit KI scannen und sofort Krebs erkennen. Ich kann ganz fantastisch neue Medikamente entwickeln. Ich kann fantastisch Dinge übersetzen automatisch und damit Kindern auch einen ganz anderen Zugang zur Bildung ermöglichen in dem Land, in dem sie leben. Und ich kann international viel besser Geschäfte machen und komme auch in einen Austausch von Werten und Normen international, der die Welt näher zusammenbringt, da sie schon mal globalisiert ist. Es gibt ganz viele fantastische Einsatzmöglichkeiten. Die Kunst ist jetzt zu gucken, dass die Demokratie das überlebt. Denn ich habe vorhin ein paar Beispiele aufgezählt, die in KI inhärent demokratiefeindlich sind. Und das Größte daran ist dasselbe, was in unserer Ökonomie demokratiefeindlich ist. Und das ist, dass Geld und Macht sehr eng verheiratet sind und dazu neigen, sich zu kumulieren. Und KI ist einfach nur ein Vehikel, ein Werkzeug, das dabei hilft, diesen Prozess zu beschleunigen.
FRANK MÜLLER: Es ist Hyper-Beschleunigung.
MARINA WEISBAND: Ja genau, es ist an der Stelle gar nicht so sehr einfach die KI. Es ist an der Stelle, dass wir jetzt die Krankheit unseres Systems erkennen und erkennen, vielleicht passt es. Es ist ja nicht mal Kapitalismus, es ist Korporatismus. Also, die völlig uneingeschränkte Handlungsmöglichkeit einzelner reicher Unternehmen, die den freien Markt erodiert und zerstört. Das heißt, es ist ja nicht mal mehr der freie Markt, mit dem wir es zu tun haben. Diese Monopolisten, die in den USA mit Donald Trump anstoßen, das ist ja nicht der freie Markt. Diese Form von Heirat zwischen Politik und Geld und der Kumulation von Macht und der Zerstörung von Konkurrenz, dem Aufkaufen von Konkurrenz mithilfe politischer Regulation, die nicht stattfindet. Das ist das eigentliche Problem unserer Zeit. Das ist die eigentliche Gefahr für Demokratie.
Und wir überwinden sie nur, indem wir diesem System das Einzige entziehen, worüber wir wirklich Kontrolle haben als einfache Menschen jetzt. Ich spreche nicht von der EU. Die EU hätte mehr Macht. Wir einfachen Menschen, unsere Aufmerksamkeit.
FRANK MÜLLER: […] Wenn wir jetzt nochmal auf Deutschland gucken, das Thema politische Beeinflussung wird ja von manchen Parteien mit KI stärker gefördert. Die AfD ist da ziemlich gut. Was würden Sie den Liberalen oder auch den demokratischen Parteien empfehlen, auch den Grünen insbesondere? Wie könnten die KI selber entweder mehr nutzen oder auch Alternativen aufbauen, sodass wir da eben auch erkennen, es ist nicht unbedingt das einzig richtig Seligmachende?
MARINA WEISBAND: In dem Spiel mit KI generiertem Slop auf TikTok viral zu gehen, werden die Grünen verlieren. Weil die Menschen, die hinter KI stehen und die Menschen, die hinter TikTok stehen und die Menschen, die hinter Instagram stehen, wollen nicht, dass die Grünen irgendwas gewinnen. Das ist, glaube ich, ganz, ganz wichtig. Ich weiß, ich habe auf, sobald ich auf Twitter etwas gepostet habe, was mit Grünen zu tun hatte, mit grünen Inhalten oder mit der Ukraine, wurde die Sichtbarkeit dieser Tweets nach Musks Kauf massiv reduziert. Wie gesagt, ich mag, wie plump er handelt. Also, es ist einfach eine politische Agenda. Plus, wenn ich versuche, die Wahrheit zu sagen und Komplexität zu sagen, wird sie nie so viral gehen, dass jetzt ganz ohne böse Hintermänner und so; einfach aufgrund dessen, wie menschliche Aufmerksamkeit funktioniert, das Radikalste und Negativste wird immer viral gehen. Das heißt, ich würde gar nicht in diesen Wettbewerb einsteigen. Was in der Politik fehlt, ist die Ansprache von Emotionen. Denn die Grünen können sich zehntausend Mal hinstellen und sagen, ja, es ist alles kompliziert, aber wir tun ja auch schon ganz viel. Das holt niemanden hinterm Ofen hervor, weil Menschen sich zurecht frustriert fühlen und Wut haben. Und die bösen populistischen Kräfte unserer Gesellschaft lenken diese Wut. Sie lenken sie auf Immigranten, sie lenken sie auf Transmenschen. Das wird das Leben von niemandem verbessern. Das wird nur denjenigen Macht bescheren, die diese Wut lenken. Aber man kann diese Wut auch aufnehmen, aufgreifen und sagen, hey, die Schere zwischen Arm und Reich wächst tatsächlich und ihr seid darüber wütend und es ist immer schwerer zu überleben. Und man hat das Gefühl von Druck, wenn ich nicht zu den Reichen gehöre, werde ich zu den Armen gehören. Und ihr habt recht, dass ihr darüber frustriert seid. Und ihr habt recht, dass ihr darüber frustriert seid, dass Geld so viel Einfluss in einer Demokratie hat. Denn ein Mensch, eine Stimme sollte der Grundsatz sein, an den wir uns halten in diesem Land. Und den erfüllen wir derzeit nicht. Und deshalb haben wir folgende Reformen vorgeschlagen.
Dieses politische Gold liegt auf der Straße und niemand hebt es auf.
FRANK MÜLLER: Ja, ich traue mich nochmal einmal quer zu fahren.
MARINA WEISBAND: Unbedingt.
FRANK MÜLLER: Ich habe mich auch vielfach mit AfD-Anhängern austauschen wollen, auch mit Leuten, die einfach auch frustriert sind, teilweise aus guten Gründen. Und es gibt Studien, die sagen, dass Menschen, die eher eine populistische Haltung haben, eher von einer KI sich überzeugen lassen, dass ihre Argumente in die falsche Richtung gehen, als von einem Gegenüber, den sie sofort ablehnen. Also, auch hier wiederum, es ist nicht schwarz oder weiß, sondern es gibt da viele Zwischendinge. Und wenn wir kreativ auch KI nutzen, haben wir vielleicht auch im politischen Diskurs die Möglichkeit, manchmal Menschen nochmal wieder ein Stück weit zu öffnen.
MARINA WEISBAND: Ja, aber da müssen wir darüber reden, welche KI und wie. Ich glaube auch, Menschen rechnen einem Large Language Model leider sehr hohe Autorität zu, weil es schriftlich ist und weil es eine höhere Entität zu sein scheint, die mehr weiß als du. Das erkennst du an in dem Moment, wo du mit einer KI redest. Das Problem ist ja der Bestätigungsbias. Das heißt, wenn ich populistische Gedanken habe und frage, finde mir alle Instanzen, wo Migranten gefährlich sind, dann findet die mir alle Instanzen. Das heißt, ich müsste ja ein Large Language Model haben, das mit dem Ziel trainiert wurde, Menschen zu deradikalisieren. Und radikalisierte Menschen werden diese Instanz nicht nutzen. Und die Instanzen, die populär sind, die werden dieses Ziel niemals annehmen, weil es den politischen Zielen ihrer Besitzer widerspricht. Die wollen ja, dass diese Menschen radikalisiert sind. Und da sprechen wir wieder über Besitz. Ich glaube nicht, dass wir die Technologie nicht nutzen können für solche Zwecke. Ich glaube, allein eine Wahlhilfe zu geben, in dem ich sowas wie den Wahl-O-Maten aber als KI habe, der aber darauf trainiert ist, möglichst objektiv diese ganzen Informationen [zu geben]. Was steht eigentlich in dem Wahlprogramm und was ist eigentlich die Historie der Abstimmung dieser Partei, in den Themen, die dich speziell interessieren? Natürlich können wir auf diese Weise einzelne Wähler*innen ganz anders engagieren. Aber wer kontrolliert dieses System? Und ich möchte nicht, dass es ChatGPT ist. Ich möchte nicht, dass es OpenAI ist. Denn wenn das OpenAI ist, natürlich ist die Verzerrung dann dahin, dass die Wahl so ausfällt, dass die uneingeschränkte Marktmacht dieser Systeme möglichst nicht angetastet wird. Das kann mir keiner erklären, dass jemand so viel Altruismus besitzt, dass er einerseits Shareholder zufriedenstellen muss, aber andererseits alles für die Demokratie tut. Das sind konkurrierende Ziele. Und diese Konkurrenz müssen wir erkennen und dürfen sie nicht zulassen.
FRANK MÜLLER: Würden Sie denn befürworten, dass man in Europa oder auch Deutschland eine wirklich demokratisch instruierte KI auf den Weg bringt, die jedermann gehört als Open Source und wo man auch immer wieder in bestimmten Situationen auch rückgefragt wird: Achtung, du willst gerade nur einseitige Rückmeldungen haben, darf ich dir auch die ganze Wahrheit liefern oder das Meinungsspektrum? Wie würden Sie sowas sehen? Hat das Chancen, könnte das gut auf den Weg kommen?
MARINA WEISBAND: Ich finde, das ist super cool. Im Moment mit der gegebenen Technologie ist es halt fraglich, wie man das zustande bringt. Und deswegen fände ich es cool, wenn das von dieser Forschung begleitet wird, wie eine KI sich selbst transparent machen kann. Was auch immer wichtiger ist dahingehend, dass wir inzwischen gelernt haben, dass diese Modelle auch manchmal lügen. Ich finde das interessant, eine demokratische KI müsste es schaffen, ihre eigenen Gedankenprozesse transparent zu machen. Da es aber keine Gedankenprozesse, sondern statistische Berechnungen sind, ist das eine sehr, sehr schwere Herausforderung. Also, ich kenne das aus der Psychologie von der Faktoranalyse. Eine Faktoranalyse kann ich rechnen und ich kann sehen, ein Effekt ist zurückzuführen auf drei distinkte mathematische Faktoren. Aber diese Faktoren haben nie einen Namen, weil sie ein mathematisches Phänomen sind. Und sie zu benennen ist dann eine kreative Arbeit, die natürlich extrem manipulativ sein kann. Das heißt, ich habe erst mal nur Zahlen. Und ich weiß nicht, ob es hypothetische Forschung gibt, die aus diesen Zahlen dann wiederum irgendwelche inhaltlichen Rückschlüsse macht. Warum hat eine KI diese Lösung gewählt? Warum hat sie diese Entscheidung geschaffen? Wie übersetzen wir diese Zahlen in menschlich verständliche Sprache? Ich fände es wahnsinnig cool. Und ich glaube, es wäre unsere einzige Chance, KI demokratisch zu nutzen. Denn wenn wir noch mal über das Design von Werkzeugen sprechen, das wäre ein Werkzeug, das designed ist, um von Menschen verstanden zu werden, um hinterfragt zu werden, um selbst zu hinterfragen. Aber wir sind mit der Forschung definitiv noch nicht da. Aber ich unterstütze jedes Forschungsvorhaben in die Richtung.
FRANK MÜLLER: Dann wäre das Werkzeug eher ein Ring, an den alle anfassen dürfen, den man auch immer wieder von allen Perspektiven neu beleuchtet.
MARINA WEISBAND: Genau, weil ich bin ja selber Verfechter von Open Source und das Gute an Open Source ist, ich kann halt eine Software öffnen und reingucken und genau sehen, was sie macht, wo hat sie Schwachstellen, […] und das kann ich halt bei einer KI deswegen nicht, weil egal wie Open Source sozusagen das Training ist, das, was drinnen passiert an Machine Learning, kann per Definition nicht Open Source sein, weil es halt kein Code ist, weil es Machine Learning ist. Und ich weiß nicht, ob ich gerade riesigen Quatsch erzähle, aber ich stelle es mir so schwer vor, das zu machen.
Hoffnung auf eine gerechte Zukunft
FRANK MÜLLER: Vielleicht einfach zum guten Ende stellen wir uns vor, wir wären im Jahre 2045, wir beide leben hoffentlich noch in guter Gesundheit, Sie gucken rückwirkend auf unser Gespräch von heute, was davon hat sich positiv oder auch negativ weiterentwickelt? Was wären so Ihre Gedanken für die Zukunft der Demokratie in Zeichen von Digitalisierung und KI, wenn Sie mal ganz weit in die Zukunft schauen?
MARINA WEISBAND: Mein erster Gedanke ist, oh Gott, ich hatte keine Ahnung, wovon ich redete. Den offensichtlichsten, größten Effekt von KI hatte ich überhaupt nicht bedacht. Es gibt diese Anekdote, dass das Telegraphensystem, als es erfunden wurde, eine Taubenart zum Aussterben gebracht hat, weil Jäger dieser Taube sich leichter austauschen konnten über ihren Verbleib. Und man hat ganz, ganz viele Dinge spekuliert, was passiert, wenn man den Telegraphen weiträumig einführt, und niemand davon hat an das Aussterben einer Taubenart gedacht. Und ich glaube, so etwas Ähnliches passiert mit KI. Wir wissen einfach das meiste nicht. […] Meine Überlegung ist, oh Gott, ich hatte recht, KI hat tatsächlich zum Zusammenbruch der Demokratie geführt. Zum Glück ist Faschismus keine nachhaltige Ideologie und hat sich zwar in völlig katastrophaler Art, aber völlig absehbar selbst zerstört. Und zum Glück haben wir damals diese Samen des Glaubens an menschliche Würde in unseren Kindern gesät, sodass wir jetzt eine noch gerechtere Gesellschaft aufbauen können, als sie vorher war, ohne die Fehler der Vergangenheit. Ich glaube, es wird jetzt schlimmer, bevor es besser wird in Bezug auf Demokratie.
Aber am Ende, die Mütter und Väter des Grundgesetzes sind aufgewachsen in der Kaiserzeit. Sie wurden von ihren Eltern geschlagen. Sie sind in einer zutiefst sexistischen, rassistischen Gesellschaft groß geworden. Sie haben die Nazi-Zeit erlebt. Und sie haben trotzdem das progressivste Dokument aller Zeiten geschrieben. Es ist immer noch unglaublich, wie progressiv das Grundgesetz ist. Was können wir dann erreichen? Was können unsere Kinder erreichen, die aufgewachsen sind mit: Alle Menschen sind wertvoll und wir schätzen Toleranz und wir wollen diese Dinge. Ich glaube, sie können ein System aufbauen, das viel gerechter ist als das, in dem wir jetzt leben und das zu den heutigen Problemen führt.
FRANK MÜLLER: Herzlichen Dank für all diese wunderbaren Gedanken. Wir könnten das gerne noch weiter vertiefen. Ich würde auch gerne in 20 Jahren mit Ihnen so ein Gespräch noch mal rückwirkend führen. Der Blick nach vorne, der Blick zurück, der Blick zur Seite. Es zeigt einfach, dass Sie da eine sehr, sehr kompetente Gesprächspartnerin sind. Vielen, vielen Dank.
MARINA WEISBAND: Dankeschön.