Glossar

Entstanden im Rahmen der KI-Dialoge mithilfe von ChatGPT

Die Seite ist im Aufbau.

Großbuchstaben A und Z mit einem Bindestrich dazwischen, stilisiert im Retro-Look, überlagert von binären Zahlen und digitalen Lichtstrahlen
Accuracy (Genauigkeit)

Ein Maß dafür, wie oft eine KI richtig liegt, z. B. bei Vorhersagen oder Klassifizierungen.

Beispiel: Ein KI-Modell erkennt in 95 von 100 Fällen richtig, ob ein Bild eine Katze oder einen Hund zeigt → Genauigkeit = 95 %.

Problem:

  • 95 % klingt gut, aber wenn die KI alle hellen Tiere als „Katze“ klassifiziert, ist sie voreingenommen (Bias)!
  • Besser: Weitere Metriken wie Precision (Wie viele der als „Katze“ klassifizierten Bilder sind wirklich Katzen?) oder Recall (Wie viele Katzen wurden richtig erkannt?).

Adversarial Learning

Adversarial Learning ist eine Methode, bei der man ein KI-Modell mit leicht veränderten Daten testet, um es zu täuschen. Diese Veränderungen sind so klein, dass Menschen sie kaum bemerken, aber sie können das Modell dazu bringen, falsche Entscheidungen zu treffen. Durch das Training mit solchen manipulierten Daten wird das Modell widerstandsfähiger gegen solche Täuschungsversuche.

Ein Beispiel könnte wie folgt aussehen:

  1. Originalbild: Ein Bild einer Katze, das das Modell korrekt als Katze klassifiziert.
  2. Adversarial Attack: Durch das Hinzufügen von sehr kleinen, für das menschliche Auge kaum wahrnehmbaren Störungen (z.B. leichtes Rauschen oder subtile Muster) wird das Bild so verändert, dass das Modell es fälschlicherweise als Hund klassifiziert.
  3. Zweck: Diese manipulierten Bilder helfen dabei, die Schwächen des Modells aufzudecken und es robuster zu machen. Durch das Training mit solchen adversarial examples kann das Modell lernen, auch manipulierte Eingaben korrekt zu klassifizieren und somit seine Robustheit gegenüber Angriffen zu erhöhen.

Algorithmische Voreingenommenheit

Auch bekannt als "Algorithmic Bias", bezieht sich auf die unbewusste Tendenz von KI-Systemen, bestimmte Gruppen von Menschen unfair zu behandeln. Diese Voreingenommenheit entsteht, wenn die Daten, mit denen die KI trainiert wird, nicht repräsentativ oder verzerrt sind.

Ein Beispiel für algorithmische Voreingenommenheit könnte in einem Bewerbungsprozess auftreten, bei dem ein KI-System verwendet wird, um Lebensläufe zu screenen und die besten Kandidaten auszuwählen. Wenn das System mit historischen Daten trainiert wurde, die überwiegend männliche Bewerber enthalten, könnte es lernen, männliche Bewerber zu bevorzugen. Dadurch könnten qualifizierte weibliche Bewerber benachteiligt werden, selbst wenn sie die gleichen oder bessere Qualifikationen haben. Dies zeigt, wie Verzerrungen in den Trainingsdaten zu unfairen Ergebnissen führen können.

Algorithmus

Ein Algorithmus ist eine Schritt-für-Schritt-Anleitung, die von einem Computer befolgt wird, um eine bestimmte Aufgabe zu erledigen. Diese Anleitung besteht aus einer Reihe von klar definierten Befehlen, die in einer bestimmten Reihenfolge ausgeführt werden, um ein Problem zu lösen oder eine Aufgabe zu bewältigen.

In der Informatik könnte ein Algorithmus zum Beispiel eine Anleitung sein, um eine Liste von Zahlen zu sortieren. Der Computer folgt den Schritten des Algorithmus, um die Zahlen in der richtigen Reihenfolge anzuordnen. Algorithmen sind grundlegend für die Funktionsweise von Computern und werden in vielen Anwendungen eingesetzt, von einfachen Aufgaben bis hin zu komplexen Berechnungen und Entscheidungsprozessen.

Applikation

Eine Applikation ist eine Software oder ein Programm, das entwickelt wurde, um bestimmte Aufgaben oder Funktionen auf Computern oder mobilen Geräten auszuführen. Diese Anwendungen sind darauf ausgelegt, Benutzer*innen spezifische Dienste oder Funktionen bereitzustellen, sei es zur Unterhaltung, zur Steigerung der Produktivität, zur Kommunikation oder zur Bildung.

Assistenzsystem

Assistenzsysteme sind Technologien, die entwickelt wurden, um Menschen bei verschiedenen Aufgaben zu unterstützen. Diese Systeme können Informationen bereitstellen oder bestimmte Aufgaben automatisch ausführen, um den Alltag zu erleichtern, die Effizienz zu steigern oder die Sicherheit zu erhöhen.

Assistenzsysteme finden sich in vielen Bereichen, von Haushaltsgeräten, die durch Sprachbefehle gesteuert werden können, bis hin zu komplexen Systemen in der Industrie, die Arbeiter bei der Durchführung von Aufgaben unterstützen. Sie sind darauf ausgelegt, den Benutzer*innen das Leben zu erleichtern und ihre Produktivität zu steigern.

Autonomes Fahren

Autonomes Fahren bezieht sich auf die Fähigkeit eines Fahrzeugs, ohne menschliche Kontrolle zu navigieren und zu fahren. Diese Technologie nutzt eine Kombination aus Sensoren (wie Kameras, Radar und Lidar), KI-Algorithmen und Echtzeit-Datenverarbeitung, um die Umgebung zu analysieren und Fahrentscheidungen zu treffen.

Backpropagation

Backpropagation ist ein Optimierungsalgorithmus, der in künstlichen neuronalen Netzwerken verwendet wird, um die Gewichtungen der Verbindungen zwischen Neuronen anzupassen. Dies geschieht durch die Berechnung des Gradienten des Fehlers (die Differenz zwischen der Vorhersage des Modells und dem tatsächlichen Ergebnis) und die Anpassung der Gewichte in umgekehrter Richtung durch das Netzwerk.

Beispiel: Wenn ein neuronales Netzwerk ein Bild fälschlicherweise als Hund statt als Katze klassifiziert, berechnet Backpropagation, wie stark jedes Neuron zum Fehler beigetragen hat. Die Gewichte werden dann so angepasst, dass der Fehler beim nächsten Mal kleiner wird.

Big Data

Big Data bezieht sich auf extrem große und komplexe Datenmengen, die mit herkömmlichen Datenverarbeitungstools nicht effizient analysiert werden können. Diese Daten stammen aus verschiedenen Quellen wie sozialen Medien, Sensoren, Transaktionen und mehr. Big Data-Technologien ermöglichen es, Muster, Trends und Zusammenhänge in diesen Daten zu erkennen.

Beispiel: Ein Einzelhändler analysiert Kaufhistorien, Website-Klicks und soziale Medien, um personalisierte Werbeangebote für seine Kunden zu erstellen.

KI-Infrastruktur

Black Box

Eine Black Box bezieht sich auf KI-Systeme, deren interne Funktionsweise und Entscheidungsprozesse für Menschen schwer nachvollziehbar sind. Obwohl diese Systeme oft hochgenaue Ergebnisse liefern, ist unklar, wie sie zu ihren Schlussfolgerungen kommen.

Beispiel: Ein KI-System, das Kreditwürdigkeit bewertet, könnte einen Antrag ablehnen, ohne dass klar ist, welche Faktoren genau zu dieser Entscheidung geführt haben.

Blinde Flecken in der KI

Blinde Flecken in der KI beziehen sich auf Aspekte oder Muster, die von KI-Systemen nicht erfasst oder erkannt werden, weil die Trainingsdaten unvollständig sind oder die Algorithmen bestimmte Szenarien nicht abdecken. Dies kann zu Fehlinterpretationen oder unvollständigen Ergebnissen führen.

Beispiel: Ein Gesichtserkennungssystem könnte Schwierigkeiten haben, Schwarze Menschen korrekt zu identifizieren, wenn es hauptsächlich mit Bildern von hellhäutigen Personen trainiert wurde.

Bot

Ein Bot ist ein Computerprogramm, das automatisierte Aufgaben ausführt, oft indem es menschliche Interaktionen imitiert. Bots können in verschiedenen Anwendungen eingesetzt werden, von Chatbots bis hin zu Web-Crawlern.

Beispiele:

  • Chatbots, die Kundenservice-Anfragen beantworten.
  • Social Media Bots, die automatisch Nachrichten verbreiten oder mit Nutzer*innen interagieren.

Click-Arbeit

Click-Arbeit, auch Mikroarbeit genannt, bezieht sich auf kleine, oft repetitive Aufgaben, die von Menschen online ausgeführt werden, meist gegen geringe Bezahlung. Diese Aufgaben umfassen z. B. das Labeln von Daten, das Überprüfen von Inhalten oder das Ausfüllen von Umfragen.

Beispiel: Arbeiter*innen auf Plattformen kategorisieren Bilder, um Trainingsdaten für KI-Systeme zu erstellen.

Clustering

Clustering ist eine Methode des unüberwachten Lernens, bei der Daten in Gruppen (Cluster) eingeteilt werden, die ähnliche Eigenschaften aufweisen. Dies hilft, Strukturen in den Daten zu erkennen, ohne dass vorher bekannte Kategorien vorgegeben sind.

Beispiel: Ein Einzelhändler nutzt Clustering, um Kund*innen based auf ihrem Kaufverhalten in verschiedene Gruppen einzuteilen, um gezielte Marketingkampagnen zu erstellen.

Computer Vision

Computer Vision ist ein Teilbereich der KI, der sich mit der automatischen Analyse und Interpretation von visuellen Informationen aus Bildern oder Videos befasst. Diese Technologie ermöglicht es Computern, Objekte zu erkennen, Szenen zu verstehen und Entscheidungen basierend auf visuellen Daten zu treffen.

Beispiele:

  • Gesichtserkennung in Sicherheitskameras.
  • Automatische Qualitätskontrolle in der Produktion, bei der KI defekte Produkte erkennt.

Data/AI Literacy

Data und AI Literacy bezieht sich auf die Fähigkeit, Daten zu verstehen, zu analysieren und zu interpretieren, sowie auf das Wissen darüber, wie künstliche Intelligenz funktioniert und eingesetzt wird. Es geht darum, Menschen zu befähigen, informierte Entscheidungen in einer datengetriebenen Welt zu treffen.

Data Mining

Data Mining ist der Prozess der Entdeckung von Mustern, Trends und Informationen in großen Datenmengen durch den Einsatz von Algorithmen und statistischen Methoden. Es wird verwendet, um wertvolle Erkenntnisse aus Rohdaten zu gewinnen.

Data Science

Data Science ist ein interdisziplinärer Ansatz, der statistische Methoden, Algorithmen und Fachwissen kombiniert, um Erkenntnisse aus Daten zu gewinnen. Data Scientists nutzen Techniken aus der Informatik, Mathematik und Domänenwissen, um komplexe Daten zu analysieren.

Datenanalyse

Datenanalyse ist der Prozess des Sammelns, Bereinigens, Transformierens und Interpretierens von Daten, um nützliche Informationen und Erkenntnisse zu gewinnen. Sie umfasst verschiedene Techniken, von einfachen statistischen Auswertungen bis hin zu komplexen KI-Modellen.

Deep Learning

Deep Learning ist eine Teildisziplin des maschinellen Lernens, die künstliche neuronale Netze mit vielen Schichten (daher "deep") nutzt, um komplexe Muster in großen Datenmengen zu erkennen. Es ist die Grundlage für viele moderne KI-Anwendungen wie Sprach- und Bildverarbeitung.

Deep Reinforcement Learning

Deep Reinforcement Learning ist eine Kombination aus Deep Learning und verstärkendem Lernen, bei der ein KI-Agent durch Interaktion mit einer Umgebung lernt, optimale Entscheidungen zu treffen, um Belohnungen zu maximieren.

Beispiel: Ein Roboter lernt, einen Ball zu fangen, indem er durch Versuch und Irrtum belohnt wird, wenn er erfolgreich ist.

Digital Literacy

Digital Literacy bezeichnet die Fähigkeit, digitale Technologien effektiv und verantwortungsvoll zu nutzen. Dazu gehören Skills wie die Nutzung von Software, das Verständnis von Online-Sicherheit und die kritische Bewertung digitaler Informationen.

Digital Markets Act (DMA)

Der Digital Markets Act (DMA) ist ein EU-Gesetz, das darauf abzielt, fairen Wettbewerb in digitalen Märkten zu gewährleisten, indem es die Macht großer Tech-Plattformen begrenzt und Missbrauch verhindert.

Digital Services Act (DSA)

Der Digital Services Act (DSA) ist ein EU-Gesetz, das die Verantwortung von Online-Plattformen für die Sicherheit und Transparenz ihrer Dienste regelt. Es zielt darauf ab, Nutzer*innen besser vor schädlichen Inhalten zu schützen.

Digitale Souveränität

Digitale Souveränität bezieht sich auf die Fähigkeit einer Nation oder Organisation, ihre digitale Infrastruktur und Daten unabhängig zu kontrollieren und nicht von ausländischen Technologien oder Plattformen abhängig zu sein.

Dynamic Pricing

Dynamic Pricing ist eine Preisstrategie, bei der die Preise für Produkte oder Dienstleistungen in Echtzeit angepasst werden, basierend auf Faktoren wie Nachfrage, Wettbewerb und Kundenverhalten. KI kann dabei helfen, optimale Preise zu berechnen.

Encoder

Ein Encoder ist ein Teil eines neuronalen Netzwerks, der Eingabedaten in eine kompakte, numerische Darstellung (z. B. Vektoren) umwandelt. Diese Darstellung kann dann für weitere Verarbeitungen genutzt werden.

Beispiel: In einem Sprachmodell wandelt der Encoder Sätze in Vektoren um, die ihre Bedeutung repräsentieren.

Energieverbrauch von KI

Der Energieverbrauch von KI bezieht sich auf die Menge an Strom und anderen Ressourcen (z. B. Wasser für Kühlung), die für das Training, die Inferenz (Anwendung) und den Betrieb von KI-Systemen benötigt werden. Besonders große Sprachmodelle (LLMs) wie GPT-4, neuronale Netze und Rechenzentren verbrauchen enorme Mengen an Energie. Der genaue Verbrauch ist jedoch schwer zu beziffern:

  1. Hersteller halten Daten zurück

  2. Berechnungsmethoden variieren: z. B. wird oft nur der Stromverbrauch der Hardware gemessen, nicht aber der gesamte Lebenszyklus inkl. Kühlung, Datenübertragung oder Herstellung der Chips).

  3. Heterogene Datenlagen existieren: Studien nutzen unterschiedliche Annahmen (z. B. zur Effizienz der Rechenzentren oder Energiequellen).

  4. Rebound-Effekte erschweren Prognosen: Effizienzgewinne (z. B. durch bessere Hardware) werden oft durch mehr Nutzung (z. B. größere Modelle, häufigere Abfragen) zunichtegemacht.


Umweltauswirkungen hängen stark von der Energiequelle ab:

  • Fossile Energien → Hohe CO₂-Emissionen

  • Erneuerbare Energien → Geringerer Fußabdruck

Lösungsansätze existieren, aber ihre Umsetzung ist langsam und ungleich:

  • Effizientere Hardware (TPUs, neuromorphe Chips).

  • Erneuerbare Energien (Google, Microsoft).

  • Abwärmenutzung (Stockholm, Frankfurt).

  • Regulierung (EU Energy Efficiency Directive).

Prognosen (z. B. der Internationalen Energieagentur) sind mit Unsicherheiten behaftet, da:

  • KI nur eine von vielen Arbeitslasten in Rechenzentren ist.

  • Die Nutzung wächst exponentiell (z. B. durch LLMs wie GPT-5)

Weiterlesen

 

Entscheidungsbäume

Entscheidungsbäume sind diagrammbasierte Modelle, die zur Klassifizierung oder Vorhersage verwendet werden. Sie teilen Daten in Zweige auf, die auf Entscheidungsregeln basieren.

Beispiel: Ein Entscheidungsbaum könnte vorhersagen, ob ein Kunde ein Produkt kauft, basierend auf Alter, Einkommen und früheren Käufen.

Erklärbare KI

Erklärbare KI (Explainable AI, XAI) bezieht sich auf KI-Systeme, deren Entscheidungen und Funktionsweise für Menschen nachvollziehbar und transparent sind. Dies ist besonders wichtig in Bereichen wie Medizin oder Justiz.

Beispiel: Ein KI-System, das Kreditanträge bewertet, erklärt, welche Faktoren (z. B. Einkommen, Kredithistorie) zu einer Ablehnung geführt haben

EU-AI-Act

Der EU AI Act ist der erste umfassende Rechtsrahmen der Europäischen Union für künstliche Intelligenz (KI), der Risiken minimieren und gleichzeitig Innovation fördern soll. Er klassifiziert KI-Systeme nach vier Risikostufen und legt spezifische Anforderungen für ihre Entwicklung, Nutzung und Überwachung fest. Ziel ist es, Grundrechte, Sicherheit und Demokratie zu schützen, während technologischer Fortschritt ermöglicht wird.

Die vier Risikostufen im EU AI Act

1. Unannehmbares Risiko

Definition: KI-Systeme, die grundlegende Rechte verletzen oder eine klare Gefahr für die Sicherheit, Demokratie oder individuelle Freiheiten darstellen. Diese Systeme sind in der EU grundsätzlich verboten, mit eng begrenzten Ausnahmen (z. B. nationale Sicherheit).
Beispiele:

  • Social Scoring durch Regierungen (Bewertung von Bürger*innen nach Verhalten, z. B. Kreditwürdigkeit oder soziales Ansehen).

  • Manipulation des menschlichen Verhaltens durch subliminale Techniken (z. B. gezielte Beeinflussung von Wahlen oder Konsumverhalten).

  • Echtzeit-Gesichtserkennung in öffentlichen Räumen (mit wenigen Ausnahmen, z. B. zur Fahndung nach schweren Straftäter*innen).

Absolutes Verbot in der EU. Nur in Ausnahmefällen erlaubt (z. B. für nationale Sicherheit), mit strenger Genehmigungspflicht durch unabhängige Behörden.

2. Hochrisiko-KI

Definition: KI-Systeme mit signifikanten Risiken für Sicherheit, Grundrechte oder Umwelt. Sie unterliegen strengen Auflagen, darunter Transparenz, Dokumentation, Risikobewertung und menschliche Aufsicht.
Beispiele:

  • Kritische Infrastruktur: KI in Energieversorgung, Verkehr (z. B. autonomes Fahren), oder Wassermanagement.

  • Bildung und Beruf: KI-Systeme für Bewerber*innen-Auswahl oder Prüfungsbewertung (z. B. automatisierte Lebenslauf-Analyse).

  • Rechtssysteme: KI, die richterliche Entscheidungen beeinflusst (z. B. Risikobewertung von Straftäter*innen).

  • Gesundheitswesen: KI für Diagnosen oder Therapieempfehlungen (z. B. Krebsfrüherkennung).

  • Biometrische Identifikation: Echtzeit-Gesichtserkennung in öffentlichen Räumen (nur mit Genehmigung).

Anforderungen

  • Risikobewertung vor Markteinführung.

  • Dokumentation der Trainingsdaten und Algorithmen.

  • Menschliche Aufsicht (z. B. Überprüfung durch Fachpersonal).

  • Transparenzpflichten (Nutzer*innen müssen informiert werden, wenn sie mit KI interagieren).

  • Regelmäßige Überprüfungen nach der Markteinführung durch unabhängige Stellen.

3. Begrenztes Risiko

Definition: KI-Systeme mit geringerem Risiko, bei denen Transparenzpflichten gelten. Nutzer*innen müssen informiert werden, wenn sie mit KI interagieren.
Beispiele:

  • Chatbots (müssen als KI gekennzeichnet sein, z. B. ChatGPT).

  • Deepfakes (müssen als manipuliert gekennzeichnet werden).

  • Emotionserkennungssysteme (z. B. in Kundenservice oder Werbung).

  • KI-generierte Inhalte (z. B. Texte, Bilder, Videos), die nicht offensichtlich als KI-erstellt erkennbar sind.

Anforderungen:

  • Kennzeichnungspflicht („Dieser Inhalt wurde mit KI generiert“).

  • Transparenz über die KI-Nutzung (z. B. in Werbung oder sozialen Medien).

  • Keine vorab-Prüfung, aber Nachweispflicht bei Beschwerden.

4. Minimales Risiko

Definition: KI-Systeme mit sehr geringem oder keinem Risiko. Hier gelten keine speziellen KI-Vorschriften, außer den allgemeinen Datenschutz- und Verbraucherrecht-Regeln.
Beispiele:

  • Spam-Filter (z. B. in E-Mail-Programmen).

  • Sprachassistenten (z. B. Siri, Alexa).

  • Empfehlungssysteme (z. B. Netflix, Spotify).

  • Spiele-KI (z. B. Gegner*innen in Computerspielen).

  • KI in Haushaltsgeräten (z. B. intelligente Thermostatsteuerung).

Anforderungen:

  • Allgemeine Datenschutzregeln (DSGVO).

  • Verbraucherrechtliche Vorschriften (z. B. Informationspflichten).

  • Keine KI-spezifischen Auflagen.

Weiterlesen: EU-AI-Act

Filterbubbles

Filterbubbles bezeichnen das Phänomen, dass Nutzer*innen in sozialen Medien oder Suchmaschinen hauptsächlich Inhalte sehen, die ihren bestehenden Überzeugungen und Interessen entsprechen. Dies führt zu einer eingeschränkten Perspektive und weniger Vielfalt.

Beispiel: Ein Social-Media-Algorithmus zeigt einem Nutzer nur Nachrichten, die seiner politischen Meinung entsprechen, und filtert abweichende Ansichten heraus.

Foundation Models

Foundation Models sind große, vortrainierte KI-Modelle, die als Grundlage für eine Vielzahl von Anwendungen dienen können. Sie werden auf großen Datenmengen trainiert und können durch Feinabstimmung an spezifische Aufgaben angepasst werden.

Beispiel: GPT-4 ist ein Foundation Model, das für Chatbots, Übersetzungen, Textzusammenfassungen und mehr verwendet werden kann.

GANs (Generative Adversarial Networks)

GANs sind eine Art von neuronalem Netzwerk, bei dem zwei Modelle – ein Generator und ein Diskriminator – gegeneinander antreten. Der Generator erstellt Daten (z. B. Bilder), während der Diskriminator versucht, echte von gefälschten Daten zu unterscheiden. Dieser Wettbewerb führt zu immer realistischeren Ergebnissen.

Beispiel: Ein GAN generiert realistische Gesichter, die nicht von echten Personen zu unterscheiden sind.

Garbage in, garbage out

Garbage in, garbage out ist ein Prinzip in der Datenverarbeitung, das besagt, dass die Qualität der Ausgabe eines Systems direkt von der Qualität der Eingabedaten abhängt. Schlechte oder verzerrte Daten führen zu schlechten Ergebnissen.

Beispiel: Wenn ein KI-Modell mit fehlerhaften oder voreingenommenen Daten trainiert wird, liefert es ungenaue oder diskriminierende Vorhersagen.

Generative KI

Generative KI bezieht sich auf KI-Systeme, die neue Inhalte wie Texte, Bilder, Musik oder Videos erstellen können. Diese Systeme lernen aus bestehenden Daten und generieren ähnliche, aber neue Inhalte.

Beispiel: Ein KI-Modell wie DALL·E erstellt Bilder basierend auf Textbeschreibungen, z. B. "ein blauer Hund auf einem Skateboard".

Gesichtserkennung

Gesichtserkennung ist eine KI-Technologie, die Gesichter in Bildern oder Videos identifiziert und vergleicht. Sie wird in Anwendungen wie Sicherheitssystemen, Entsperren von Smartphones oder Sozialen Medien eingesetzt.

Beispiel: Ein Smartphone erkennt das Gesicht seines Besitzers, um es zu entsperren.

Gradientenabstieg

Gradientenabstieg ist ein Optimierungsalgorithmus, der in maschinellem Lernen verwendet wird, um die Parameter eines Modells (z. B. die Gewichte in einem neuronalen Netz) so anzupassen, dass der Fehler zwischen Vorhersage und tatsächlichem Ergebnis minimiert wird.

Beispiel: Ein Modell passt seine Gewichte schrittweise an, um die Genauigkeit bei der Klassifizierung von Bildern zu verbessern.

Halluzinierung

Im Kontext von KI bezieht sich Halluzinierung auf die Fähigkeit von KI-Systemen, unechte oder irreführende Informationen zu generieren, die von echten Informationen kaum zu unterscheiden sind. Dies passiert, wenn das Modell nicht vorhandene Fakten erfindet, um Lücken in seinem Wissen zu füllen – oft, weil die Trainingsdaten unvollständig oder mehrdeutig sind.

Beispiel: Ein Nutzer fragt ein Sprachmodell wie ChatGPT: „Welche Studien belegen, dass Kaffee das Risiko für Alzheimer senkt?“ Das Modell könnte fiktive Studien oder Autoren nennen, die nicht existieren, weil es keine verlässlichen Quellen in seinen Trainingsdaten findet, aber trotzdem eine plausible Antwort generieren will.

Halluzinationen sind ein zentrales Problem von Generative AI, besonders bei Large Language Models (LLMs). Sie zeigen, dass KI kein echtes Verständnis hat, sondern nur statistische Muster repliziert.

Hochrisiko-KI-Systeme

Hochrisiko-KI-Systeme sind KI-Anwendungen mit signifikanten Risiken für Sicherheit, Grundrechte, Gesundheit oder Umwelt. Sie unterliegen im EU AI Act strengen Auflagen.

Home Assistant 

Ein Home Assistant  ist ein intelligentes Gerät oder eine Software, die den Alltag der Nutzer*innen erleichtert, indem es verschiedene Aufgaben und Funktionen im Haushalt automatisiert. Home Assistants kombinieren oft Sprachsteuerung, KI-gestützte Automatisierung und Vernetzung mit Smart-Home-Geräten.

Beispiele:

  • Sprachgesteuerte Musikwiedergabe
  • Automatische Lichtsteuerung
  • Terminerinnerungen und Einkaufslisten
  • Sicherheitsfunktionen

Technische Grundlage:

  • Natürliche Sprachverarbeitung (NLP) für Sprachbefehle.
  • Maschinelles Lernen für personalisierte Empfehlungen (z. B. Musikvorschläge).
  • IoT-Integration (Internet der Dinge) zur Steuerung von Geräten wie Thermostaten oder Rollläden.

Human Friendly Automation 

Human Friendly Automation (menschenfreundliche Automatisierung) beschreibt den Entwurfsansatz für automatisierte Systeme, die nicht den Menschen ersetzen, sondern seine Arbeit ergänzen und erleichtern. Ziel ist es, Technologie nutzerfreundlich, inklusiv und ethisch verantwortungsvoll zu gestalten, sodass sie die menschliche Autonomie respektiert und Stress reduziert.

Beispiele:

  • Kollaborative Roboter („Cobots“) in Fabriken, die Arbeiter*innen bei schweren oder repetitiven Aufgaben unterstützen.
  • KI-gestützte Schreibassistenten, die Texte verbessern, aber die kreative Kontrolle beim Menschen belassen.
  • Adaptive Lernplattformen, die sich an den Fortschritt von Schüler*innen anpassen, ohne sie zu überfordern.
  • Barrierefreie Technologien, z. B. Sprachassistenten für Menschen mit Sehbehinderung.

Prinzipien:

  • Benutzer*innen bleiben im Mittelpunkt (keine „Black Box“-Entscheidungen).
  • Transparenz über Automatisierungsprozesse.
  • Anpassungsfähigkeit an individuelle Bedürfnisse.
  • Ethische Gestaltung (z. B. Datenschutz, keine Manipulation)

Human in the Loop

Menschen und KI arbeiten zusammen, die KI macht Vorschläge, der Mensch überprüft und entscheidet.

  • KI ist schnell, aber nicht perfekt: Menschen erkennen Fehler oder Nuancen, die die KI übersehen würde.
  • Ethische Kontrolle: Verhindert, dass KI falsche oder diskriminierende Entscheidungen trifft.

Beispiele:

  • Medizin: Eine KI schlägt eine Krebsdiagnose vor, aber die Ärzt*in entscheidet endgültig.
  • Content-Moderation: Eine KI markiert hassvolle Kommentare, ein Mensch prüft, ob sie wirklich gelöscht werden müssen.
  • Autonomes Fahren: Die KI fährt, aber der*die Fahrer*in kann eingreifen, wenn etwas Unvorhergesehenes passiert.

Hybride KI

Hybride KI kombiniert verschiedene KI-Techniken und -Methoden, um komplexe Probleme effizienter zu lösen, als es mit einer einzelnen Methode möglich wäre. Dabei werden oft symbolische KI (regelbasiert) und subsymbolische KI (z. B. neuronale Netze) oder verschiedene maschinelle Lernverfahren (z. B. überwachtes + unüberwachtes Lernen) miteinander verknüpft.

Beispiele:

  • Medizinische Diagnosesysteme, die neuronale Netze für Bildanalyse (z. B. Röntgenbilder) mit regelbasierten Systemen für Risikobewertung kombinieren.
  • Autonome Fahrzeuge, die Deep Learning für Objekterkennung nutzen und gleichzeitig symbolische Logik für Verkehrsregeln anwenden.
  • Chatbots mit Wissensdatenbanken, die NLP für Sprachverarbeitung und regelbasierte Systeme für Faktenchecking verwenden.

Vorteile:

  • Robustheit: Hybride Systeme sind weniger anfällig für Fehler, da sie mehrere Ansätze kombinieren.
  • Erklärbarkeit: Symbolische KI kann Entscheidungen nachvollziehbarer machen (wichtig für Hochrisiko-Anwendungen).
  • Flexibilität: Verschiedene Methoden können Stärken ausspielen (z. B. neuronale Netze für Mustererkennung + Regeln für Logik).

Informationelle Selbstbestimmung

Informationelle Selbstbestimmung ist das Grundrecht einer Person, selbst über die Erhebung, Speicherung, Verwendung und Weitergabe ihrer persönlichen Daten zu entscheiden. Im Kontext von KI geht es darum, sicherzustellen, dass KI-Systeme dieses Recht respektieren – insbesondere, wenn sie personenbezogene Daten verarbeiten (z. B. für personalisierte Dienste oder Überwachung).

Rechtliche Grundlage:

  • Artikel 8 der EU-Grundrechtecharta (Schutz personenbezogener Daten).
  • DSGVO (Datenschutz-Grundverordnung): Regelt, wie Daten gesammelt, verarbeitet und gelöscht werden müssen.
  • EU AI Act: Verlangt Transparenz und Einwilligung, wenn KI personenbezogene Daten nutzt.

Beispiele für Konflikte mit KI:

  • Gesichtserkennung in öffentlichen Räumen: Verletzt das Recht auf Anonymität, wenn Menschen ohne Einwilligung erfasst werden.
  • KI-gestützte Personalauswahl: Bewerber*innen wissen oft nicht, welche Daten über sie gesammelt und wie sie bewertet werden.
  • Sprachassistenten (z. B. Alexa): Nutzer*innen sind sich häufig nicht bewusst, dass ihre Sprachdaten aufgezeichnet und analysiert werden.

Maßnahmen zum Schutz:

  • Opt-in-Prinzip: Nutzer*innen müssen explizit zustimmen, bevor ihre Daten verarbeitet werden.
  • Recht auf Auskunft: Betroffene können einsehen, welche Daten über sie gespeichert sind.
  • Recht auf Löschung („Recht auf Vergessenwerden“): Daten müssen auf Anfrage gelöscht werden.
  • Anonymisierung/Pseudonymisierung: Daten sollten nicht direkt einer Person zuordenbar sein.

Künstliche Intelligenz

Künstliche Intelligenz ist ein interdisziplinäres Forschungs- und Anwendungsfeld, das sich mit der Entwicklung von Systemen beschäftigt, die Aufgaben lösen können, die normalerweise menschliche Intelligenz erfordern. Die Definitionen von KI variieren je nach wissenschaftlicher Disziplin, institutionellem Kontext und Anwendungsbereich. 

Die Geschichte der Künstlichen Intelligenz ist eine Reise von visionären Ideen zu bahnbrechenden Technologien. Dieser Überblick zeigt die wichtigsten Meilensteine, von den theoretischen Grundlagen und ersten Experimenten bis zu den modernen Anwendungen, die heute unser Leben prägen. Dabei wird deutlich, wie sich das Verständnis von KI ständig weiterentwickelt hat: von der Nachahmung menschlicher Intelligenz bis hin zu leistungsfähigen Systemen, die komplexe Aufgaben lösen und kreative Prozesse unterstützen.

1950: Turing-Test: Alan Turing veröffentlicht „Computing Machinery and Intelligence“ und stellt die Frage: „Können Maschinen denken?“ Er ersetzt die philosophische Debatte durch ein praktisches Experiment:

  • Turing-Test: Wenn eine Maschine in einem Chat nicht von einem Menschen zu unterscheiden ist, gilt sie als intelligent.

1951: SNARC. Erstes künstliches neuronales Netz von Minsky & Edmonds, das wie eine Ratte durch Belohnung lernt. 

1952: Logic Theorist & General Problem Solver. Newell & Simon zeigen, dass Computer wie Menschen Probleme lösen können. 

1955: Erstmalige Verwendung und Definition des Begriffs  „Artificial Intelligence“ 

Der Begriff „Artificial Intelligence“ wurde 1955 von einem Team führender Wissenschaftler geprägt, darunter John McCarthy (Dartmouth College), Marvin Minsky (MIT), Nathaniel Rochester (IBM) und Claude Shannon (Bell Labs). Die offizielle Geburt der KI als wissenschaftliche Disziplin fand während der Dartmouth Conference (Dartmouth Summer Research Project on Artificial Intelligence) statt.

Im Antrag für die Konferenz formulierte McCarthy 1955 die zentrale These:

„The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ 

„Die Studie geht von der Annahme aus, dass jeder Aspekt des Lernens oder jede andere Eigenschaft der Intelligenz im Prinzip so präzise beschrieben werden kann, dass eine Maschine sie simulieren kann.“

 Ziel der Konferenz war es, zu erforschen, wie Maschinen menschliche Intelligenz, etwa Lernen, Sprachverarbeitung oder Problemlösen, nachahmen können. Der Begriff „Artificial Intelligence“ erschien erstmals im Konferenzantrag von 1955 und wurde 1956 offiziell etabliert.

1957: Perceptron, Frank Rosenblatt entwickelte das Perceptron, einen binären Klassifikator für Mustererkennung. Quelle: Rosenblatt, F. (1958). Psychological Review, 65(6), 386–408. DOI:10.1037/h0042519.

1958: Lisp, John McCarthy schuf die Programmiersprache Lisp, eine der wichtigsten Programiersprachen für die Entwicklung von KI. Quelle: McCarthy, J. (1960). Recursive Functions of Symbolic ExpressionsACM.

1966: ELIZA, Joseph Weizenbaum entwickelte ELIZA, den ersten Chatbot, der menschliche Konversation simulierte. Quelle:Weizenbaum, J. (1966). Communications of the ACM, 9(1), 36–45. DOI:10.1145/365153.365168.

1969: Backpropagation, Arthur Bryson & Yu-Chi Ho stellten den Backpropagation-Algorithmus vor. Dies ist eine Lernmethode für Maschinen, die es ermöglicht aus Fehlern zu lernen. Quelle: Bryson, A. E., & Ho, Y.-C. (1969). Applied Optimal ControlWiley.

1973: Lighthill-Report, Der Lighthill-Report kritisierte mangelnde Fortschritte und führte zu Kürzungen der KI-Förderung. Quelle: Lighthill, J. (1973). Artificial Intelligence: A General SurveyUK Parliament Archives.

1986: Backpropagation für neuronale Netze, die Systeme konnten komplexe Dinge lernen, beispielsweise Handschriften erkennen. Rumelhart, Hinton & Williams veröffentlichten „Learning Representations by Back-Propagating Errors“. Quelle:Rumelhart, D. E., et al. (1986). Nature, 323, 533–536. DOI:10.1038/323533a0.

1997: Deep Blue schlägt Kasparov, IBM Deep Blue besiegte Schachweltmeister Garry Kasparov. Quelle: Hsu, F.-h. (2002). Behind Deep BlueIBM Research.

1998: LSTM-Netzwerke, Sepp Hochreiter & Jürgen Schmidhuber stellten Long Short-Term Memory (LSTM) vor. Maschinen konnten sich lange nicht an Dinge erinnern (z. B. den Anfang eines Satzes, wenn sie am Ende waren). Quelle: Hochreiter, S., & Schmidhuber, J. (1997). Neural Computation, 9(8), 1735–1780. DOI:10.1162/neco.1997.9.8.1735.

2012: AlexNet. Deep-Learning-Durchbruch, AlexNet gewann die ImageNet-Challenge mit einer Fehlerquote von 16 %. Quelle: Krizhevsky, A., et al. (2012). ImageNet Classification with Deep Convolutional Neural NetworksNIPS.

2016: AlphaGo besiegte Lee Sedol, AlphaGo (DeepMind) schlug den Go-Weltmeister Lee Sedol 4:1. Go ist viel komplexer als Schach. Quelle: Silver, D., et al. (2016). Nature, 529, 484–489. DOI:10.1038/nature16961.

2020: GPT-3, OpenAI veröffentlichte GPT-3 mit 175 Milliarden Parametern. Quelle: Brown, T. B., et al. (2020). Language Models are Few-Shot LearnersarXiv:2005.14165.

2021: DALL-E generiert Bilder aus Textbeschreibungen. Quelle: Ramesh, A., et al. (2021). Zero-Shot Text-to-Image GenerationarXiv:2102.12092.

2024: Sora & Gemini 1.5, OpenAI Sora erzeugt Videos aus Text. Quelle: OpenAI Sora (2024). Google Gemini 1.5 verarbeitet Kontextlängen von bis zu 1 Million Token. Quelle: Google Blog (2024).


Neuronales Netzwerk

Eine Ansammlung miteinander verbundener künstlicher Neuronen, die Informationen verarbeiten.

NLP (Natural Language Processing / Natürliche Sprachverarbeitung)

Natürliche Sprachverarbeitung (Natural Language Processing, NLP) ist eine Art von künstlicher Intelligenz, die sich damit befasst, wie Computer und Menschen durch menschliche Sprache miteinander interagieren können.

Prompt

Eine Frage oder Anweisung, die du einer KI gibst, um eine Antwort zu bekommen – wie eine Eingabeaufforderung.

Prompt-Engineering

Die Kunst, Prompts so zu formulieren, dass die KI bessere, präzisere oder kreativere Antworten gibt.

Beispiel: Statt „Erzähl mir was über Paris“ schreibst du: „Schreibe einen Reiseführer-Eintrag über Paris für Backpacker: Top 5 Geheimtipps abseits der Touristenpfade, inkl. Budget-Tipps und lokaler Küche. Maximal 200 Wörter.“ → Die KI liefert einen zielgerichteten, nützlichen Text.

Rankingalgorithmus

Ein Algorithmus, der eine Liste von Elementen basierend auf bestimmten Kriterien ordnet oder priorisiert. Ranking-Algorithmen werden in Suchmaschinen, Empfehlungssystemen und anderen Anwendungen verwendet, um dem Benutzer relevante und interessante Inhalte zu präsentieren.

Schwache KI (Narrow AI)

KI-Systeme, die auf eine spezifische Aufgabe oder einen engen Anwendungsbereich spezialisiert sind. Diese Systeme simulieren keine allgemeine Intelligenz, sondern lösen nur vordefinierte Probleme innerhalb ihres Programmierkontexts. Sie besitzen kein Bewusstsein, kein Verständnis außerhalb ihrer Trainingsdaten und können nicht auf andere Aufgaben übertragen werden.

Merkmale:

  • Aufgabenspezifisch: Löst nur eine bestimmte Aufgabe (z. B. Sprachübersetzung, Bilderkennung).

  • Keine Allgemeinintelligenz: Kann nicht wie ein Mensch denken, lernen oder abstrakte Probleme lösen.

  • Datengetrieben: Basiert auf Algorithmen und Trainingsdaten; die Leistung hängt von der Qualität und Menge der Daten ab.

  • Kein Bewusstsein: "Versteht" nicht, was es tut, es erkennt Muster und generiert Outputs basierend auf statistischen Wahrscheinlichkeiten.

Social Scoring

Ein Bewertungssystem, das die soziale und finanzielle Verantwortung von Individuen oder Organisationen bewertet. Social Scoring kann auf verschiedenen Kriterien basieren, darunter finanzielle Geschichte, soziales Verhalten und mehr. In einigen Fällen wird Social Scoring von Regierungen oder Unternehmen verwendet, um Entscheidungen über Kredite, Versicherungen oder andere Dienstleistungen zu treffen.

Starke KI (Artificial General Intelligence, AGI)

Eine hypothetische KI, die menschliche kognitive Fähigkeiten in allen Bereichen besitzt. Sie könnte jedes intellektuelle Problem lösen, das auch ein Mensch lösen kann – inklusive Abstraktion, Lernen, Transfer von Wissen zwischen Domänen und Bewusstsein.

Merkmale:

  • Allgemeine Intelligenz: Kann wie ein Mensch denken, lernen und Probleme in unbekannten Kontexten lösen.

  • Bewusstsein und Selbstreflexion: Theoretisch fähig, ein Selbstbewusstsein zu entwickeln (umstritten, ob technisch möglich).

  • Autonomie: Keine Beschränkung auf vorprogrammierte Aufgaben; könnte eigene Ziele setzen und verfolgen.

  • Transferlernen: Wissen aus einem Bereich auf einen anderen übertragen (z. B. von Sprachverarbeitung zu medizinischer Diagnose).

  • Kreativität und Abstraktion: Fähig, neue Ideen zu entwickeln oder abstrakte Konzepte zu verstehen.

Support Vector Machine (SVM)

Eine Methode zur Mustererkennung, die Daten in verschiedene Klassen einteilt.

Text to Speech

KI, die geschriebenen Text in gesprochene Sprache umwandelt. Beispiel: Ein Vorleseprogrammliest einen Artikel für sehbehinderte Menschen vor.

Turing-Test

Ein Test, der prüft, ob eine Maschine so menschlich wirkt, dass man nicht erkennen kann, ob man mit einem Menschen oder einer KI spricht.

Beispiel: Ein Chatbot besteht den Test, wenn Nutzer*innen nicht merken, dass sie mit einer KI reden.

Transhumanismus

Die Idee, den Menschen durch Technologie zu verbessern, z. B. durch KI, Genetik oder Prothesen.

Beispiel: Hirn-Computer-Schnittstellen, die das Gedächtnis erweitern.

Überwachtes Lernen

Eine KI lernt aus Daten, die bereits beschriftet sind

Beispiel: Ein Modell lernt aus Bildern mit Labels, ob eine Katze oder ein Hund abgebildet ist.

Unüberwachtes Lernen

Eine KI findet selbst Muster in Daten, ohne dass jemand sagt, was richtig oder falsch ist.

Beispiel: Ein Algorithmus gruppiert Kund*innen nach Kaufverhalten, ohne vorgegebenen Kategorien.