Künstliche Intelligenz ist längst da und sie ist nicht neutral. Sie berechnet, bevor wir fragen. Sie schlägt vor, bevor wir suchen. Sie entscheidet mit, ohne uns zu erklären, woran sie sich hält. Doch was bedeutet das für uns und unsere Gesellschaft? Sie beeinflusst, was wir lesen, wem wir glauben, wie wir einander begegnen. Sie bewegt uns, macht neugierig, löst Sorge oder Wut aus. Sie spiegelt, wer wir sind, und verfestigt rasant gesellschaftliche Strukturen.

Künstliche Intelligenz gleicht einer Black Box. Wie bei Schrödingers Katze1 bleibt ihr Innenleben verborgen. Wir sehen das Ergebnis, nicht den Weg dorthin. Wir erleben Wirkungen, ohne ihre Ursachen zu kennen. Die Systeme antworten, aber sie begründen nicht. Solange niemand die KIste öffnet, bleibt offen, ob ihre Entscheidungen Sinn ergeben. Was bedeutet es für uns als Gesellschaft, wenn wir die Entscheidungsprozesse der KI nicht verstehen?
Diese Intransparenz ist kein Zufall, sondern auch Ausdruck davon, wer heute über KI verfügt und wer nicht. Bisher dominieren große Tech-Konzerne die Entwicklung. Wer kontrolliert diese Black Box und welche Interessen werden vertreten? Wer über Daten verfügt, bestimmt, was zählbar ist. Viele Systeme greifen auf öffentliche oder persönliche Informationen zurück. Doch nur wenige wissen, was gesammelt wird oder wie. Die Kontrolle liegt nicht bei denen, die betroffen sind. Sie liegt bei denen, die KI bauen und trainieren. Zivilgesellschaftliche Stimmen und dezentrale Akteure fehlen oft. Aber genau sie braucht es. Denn wer nicht (mit)bewegt, wird bewegt. Wir müssen gemeinsam diskutieren: Welche KI wollen wir und wo sollten wir bewusst auf ihren Einsatz verzichten?
Diese Debatten sind nicht neu, viele digitale Entwicklungen haben ähnliche Fragen aufgeworfen und viele der Fehler wiederholen sich. Gerechte Teilhabe bleibt aus, während sich Macht und Infrastruktur erneut bei wenigen konzentrieren. Digitale Souveränität wird versprochen, aber nicht eingelöst.
Während demokratische Kontrolle fehlt, breiten sich die Schattenseiten der KI fast ungehindert aus. Hate Speech2 und Desinformation verbreiten sich schneller, unmittelbarer, radikaler. Was früher moderiert wurde, wird heute automatisiert beschleunigt. Damit geraten nicht nur Einzelne ins Visier, auch die Fundamente demokratischer Öffentlichkeit werden erschüttert.
Künstliche Intelligenz bildet Machtverhältnisse nicht nur ab, sie kann sie auch verschärfen. Sie beeinflusst, wer sichtbar wird, wer Zugang zu Leistungen erhält, und wer überwacht wird. In Asylverfahren, Sozialverwaltungen oder bei der Überwachung vertieft sie bestehende Diskriminierung und gefährdet Vertrauen. Auch im Arbeitsleben greift KI ein. Sie wählt aus, sortiert vor, entscheidet mit. Dabei bleibt oft unklar, welche Kriterien zählen. Wer sich bewirbt, wird bewertet, ohne zu wissen, wie.3
Doch KI kann auch anders bewegen. Sie kann Barrieren abbauen, gemeinsames Handeln erleichtern, früh auf Herausforderungen reagieren. KI-gestützte Sprach- und Bildverarbeitung ermöglicht Menschen mit Behinderungen den Zugang zu digitalen Räumen4, etwa durch Sprachsteuerung, Augen-Tracking oder automatische Gebärdensprachen-Übersetzung5. Echtzeitübersetzungen helfen dabei, Sprachbarrieren zu verringern. In Krisensituationen unterstützt KI das schnelle Handeln, zum Beispiel bei der Vorhersage von Überschwemmungen oder bei der Analyse von Waldbränden.6 Sie kann Beteiligung stärken, indem sie Rückmeldungen ordnet. Sie hilft bei der Früherkennung von Krankheiten, beim Messen von Emissionen und beim Optimieren von Energie.7 Gestalten wir KI bewusst, entstehen Freiräume für Engagement, Kreativität und Solidarität.
Große Sprachmodelle verändern, wie wir nach Wissen suchen. Sie liefern fertige Antworten anstelle nachvollziehbarer Quellen. Dabei bleibt verborgen, woher die Informationen stammen. Was bedeutet das für unser Denken, unser Ringen um Bedeutung und unsere digitale Öffentlichkeit?
Wie die Katze in der Kiste bleibt vieles ungewiss. Wir sehen das Ergebnis, nicht den Prozess. Und warum bezeichnen wir KI als intelligent, wenn sie lediglich statistische Wahrscheinlichkeiten berechnet? Was sagt das über uns und unsere Erwartungen an Technologie aus? KI bleibt ein System, das Entscheidungen produziert, deren Qualität zwischen Verlässlichkeit und Verzerrung schwankt, solange wir nicht hin(ein)schauen.
Wie stärken wir politische Bildung, Medienkompetenz und Erfahrungswissen, damit Menschen nicht nur reagieren, sondern selbst gestalten können? Welche Geschichten und Räume braucht es, damit KI nicht Black Box bleibt, sondern als gestaltbarer Teil unserer Gesellschaft verstanden wird?
Künstliche Intelligenz bringt Spannungen mit sich: gesellschaftlich, politisch, kulturell. Diese Spannungen wollen wir nicht verdrängen, sondern sichtbar machen und gemeinsam besprechen.
Was wäre, wenn KI nicht schneller, sondern gerechter funktioniert? Wie sähe ein System aus, das Solidarität ernst nimmt? Welche Technik entsteht, wenn wir nicht nur fragen, was möglich ist, sondern was gut tut?
Wir öffnen die KIste gemeinsam. Unser Projekt lädt dazu ein, Künstliche Intelligenz zu verstehen, kritisch zu reflektieren und aktiv mitzugestalten.
Dossier
Ein Einstieg in die Frage: Was ist eigentlich KI? Und was ist nur Automatisierung? Das Dossier versammelt Texte, Videos, ein Glossar und Werkzeuge für die Praxis. Es erklärt Begriffe, stellt Fragen und gibt Beispiele. Und es macht deutlich, dass Technik nicht neutral ist, sondern menschengemacht. Und damit veränderbar.
Online-Formate
In digitalen Workshops und kurzen Podcasts geht es um mehr als Technik. Es geht um Rechte, Sprache, Umwelt und Macht. In Impulsen, Beispielen und Gesprächen entwickeln wir Handlungsperspektiven.
Tagung | 29. November 2025 in Tübingen
Die Tagung bringt zusammen, was gedacht, gelernt, gefragt wurde. Ein Tag für Austausch und für Fragen ohne schnelle Antworten. Für Kritik, die nicht abwehrt, sondern öffnet. Für Ideen, die nicht perfekt sind, aber möglich.
Fußnoten
- 1
Schrödingers Katze ist ein Gedankenexperiment aus der Quantenphysik: Eine Katze in einer Kiste gilt als gleichzeitig lebendig und tot, solange niemand hineinschaut. Genauso bleiben KI-Entscheidungen zugleich potenziell fair und verzerrt, solange ihre inneren Abläufe für uns undurchsichtig sind.
- 2
https://hateaid.org/ki-rassismus/, zuletzt aufgerufen am 8.7.25
- 3
https://algorithmwatch.org/de/ki-arbeitswelt-erklaert/, zuletzt geöffnet am 8.7.25
- 4
https://www.bpb.de/lernen/digitale-bildung/werkstatt/520748/ki-als-katalysator-fuer-inklusion/, zuletzt aufgerufen am 8.7.25
https://www.bpb.de/lernen/digitale-bildung/werkstatt/544699/ki-und-inklusion-mit-berit-blanc/, zuletzt aufgerufen am 8.7.25
- 5
https://www.netz-barrierefrei.de/wordpress/gesellschaft/kuenstliche-intelligenz-und-barrierefreiheit/, zuletzt geöffnet am 8.7.25
- 6
https://www.kiwa-projekt.de/kiwa-ki-basierte-walduberwachung-waldbrande-in-deutschland-noch-besser-beherrschbar-machen?utm_source=chatgpt.com, zuletzt geöffnet am 8.7.25
https://www.rbb24.de/panorama/beitrag/2025/03/brandenburg-waldbrand-frueherkennung-ki-kameras-drohnen-forst-wald.html, zuletzt geöffnet am 8.7.25
https://www.kit.edu/kit/pi_2025_012_kuenstliche-intelligenz-besserer-schutz-vor-hochwasser.php?utm_source=chatgpt.com, zuletzt geöffnet am 8.7.25
- 7
https://www.intelligente-diagnostik.de/, zuletzt geöffnet am 8.7.25
https://ki-campus.org/themen/medizin, zuletzt geöffnet am 8.7.25