Kurzgefasst
Nachfolgendes Glossar soll eine Hilfe sein, Schlüsselbegriffe, die im Zusammenhang mit Künstlichen Intelligenzen immer wieder genannt werden, besser einzuordnen.
Die Liste ist im Aufbau und wird ständig erweitert.
Im Zusammenhang mit Künstlicher Intelligenz (KI) ist ein Algorithmus eine spezifische Abfolge von Anweisungen oder Regeln, die von einem Computerprogramm ausgeführt werden, um eine bestimmte Aufgabe zu erledigen. In Bezug auf KI können Algorithmen verwendet werden, um Muster in Daten zu erkennen, Vorhersagen zu treffen oder Entscheidungen zu automatisieren. KI-Algorithmen können vielfältig sein, darunter Maschinelles Lernen, Deep Learning, Entscheidungsbäume und viele andere Techniken. Diese Algorithmen ermöglichen es KI-Systemen, aus Erfahrungen zu lernen, Muster zu erkennen und auf neue Daten oder Anfragen zu reagieren.
Wer textgenerative KI nutzt, sollte sich darüber im Klaren sein, dass diese Systeme genauso wie Menschen über Voreingenommenheit verfügen. Damit ist eine oft unbewusste Neigung zur Diskriminierung von Menschen und Gruppen gemeint. Diese manifestiert sich in verzerrten oder falschen Ergebnissen, beispielsweise indem eine bestimmte Gruppe von Menschen falsch repräsentiert oder diskriminiert wird. Dies resultiert aus der Datenerhebung, bei der nicht alle Personengruppen gleichermaßen repräsentiert sind.
[Vgl. Persike, Malte, Stefan Göllner u. Lavinia Ionica: Workbook für die Live-Session im Prompt-Labor, S. 4, für HFD und KI-Campus lizenziert unter CC BY-SA]
Bias im Prompt vermeiden – Ein Beispiel:
Erkläre in 5 Sätzen, warum Bio-Lebensmittel deutlich überbewertet sind und keinerlei Vorteile gegenüber konventionellen Lebensmitteln bieten.“
Stattdessen:
„Beschreibe die Vor- und Nachteile von Bio-Lebensmitteln im Vergleich zu konventionellen Lebensmitteln.“
Ein Bot ist ein Programm, das automatisierte Aktionen ausführt, wie das Sammeln von Daten aus dem Internet oder das Interagieren mit Benutzern in sozialen Medien. Ein Beispiel ist ein Chatbot, der in einem Kundenservice-Chat automatisch auf häufig gestellte Fragen antwortet, während ein Webcrawler-Bot automatisch Websites durchsucht, um Informationen zu sammeln.
Ein Chatbot ist ein computerbasiertes Programm, das dazu entwickelt wurde, menschenähnliche Konversationen in natürlicher Sprache mit Benutzer*innen zu führen. Diese künstlichen Gesprächspartner können in verschiedenen Kontexten eingesetzt werden, von Kundendienstinteraktionen bis hin zur Automatisierung von Aufgaben. Chatbots nutzen maschinelles Lernen und natürliche Sprachverarbeitung, um Anfragen zu verstehen und entsprechende Antworten zu generieren.
Deep Learning ist ein maschinelles Lernverfahren, das auf künstlichen neuronalen Netzwerken mit mehreren Schichten basiert. Diese Netzwerke können automatisch abstrakte Merkmale und Muster in großen Datenmengen erlernen, ohne explizite Programmierung. Deep Learning findet Anwendung in verschiedenen Bereichen wie Bilderkennung, Sprachverarbeitung und automatisiertem Entscheidungsfindung.
Discord ist ein Onlinedienst, der primär für Sprach-, Video- und Textkommunikation konzipiert wurde. Discord kann als Webanwendung oder mit propriertärer Client-Software auf allen gängigen Betriebssystemen genutzt werden
GPT-3, oder Generative Pre-trained Transformer 3, ist ein leistungsstarkes Sprachmodell von OpenAI, das auf der Transformer-Architektur basiert. Es wurde durch maschinelles Lernen auf riesigen Mengen von Textdaten trainiert und kann in natürlicher Sprache geschriebene Anweisungen verstehen, um komplexe Texte, Antworten oder kreative Inhalte zu generieren. Mit 175 Milliarden parametrischen Neuronen ist GPT-3 eines der größten und fortschrittlichsten Sprachmodelle, das eine breite Palette von Anwendungen in der Textverarbeitung und künstlichen Intelligenz ermöglicht.
Eine KI-Halluzination tritt auf, wenn ein KI-Modell falsche oder irreführende Informationen generiert. Diese generierten Inhalte können plausibel erscheinen, da die Modelle darauf ausgelegt sind, kohärente und flüssige Ausgaben zu produzieren, auch wenn sie nicht notwendigerweise der Realität entsprechen. KI-Halluzinationen können in verschiedenen Formen auftreten, wie beispielsweise falsche Behauptungen, inkonsistente Logik oder unrealistische Szenarien. Es ist wichtig, sich der Möglichkeit von Halluzinationen bewusst zu sein und die Ergebnisse von KI-Modellen kritisch zu hinterfragen.
Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), engl. artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Entwicklung von Systemen und Algorithmen befasst, die menschenähnliche Intelligenz nachahmen oder replizieren sollen. Aktuell wird vor allem das Ziel verfolgt, Maschinen die Fähigkeit zu geben, eigenständig zu lernen, Probleme zu lösen und Entscheidungen zu treffen, ohne dabei explizit programmiert zu sein. KI-Systeme verwenden Techniken wie maschinelles Lernen, neuronale Netzwerke und Algorithmen, um Muster in Daten zu erkennen und auf neue Informationen zu reagieren. Die Bandbreite der Anwendungen von KI reicht von der Bilderkennung über natürliche Sprachverarbeitung bis hin zu autonomem Fahren. Die Forschung in diesem Bereich strebt danach, die kognitive Leistungsfähigkeit von Maschinen weiter zu verbessern und innovative Lösungen für komplexe Probleme zu entwickeln.
Die EU hat erkannt, dass ein angemessener rechtlicher Rahmen notwendig ist, um den verantwortungsvollen Einsatz von KI zu gewährleisten und strebt für die EU sowohl hinsichtlich Vertrauenswürdigkeit als auch Innovationskraft eine Vorreiterrolle an. Aus diesem Grund wurde der AI-Act (dt. KI-Verordnung (KI-VO) oder KI-Gesetz) entworfen. Die Verordnung soll in den Mitgliedstaaten klare Regeln und Standards für den Umgang mit KI-Systemen festlegen.
Ziele der KI-VO sind insbesondere der Schutz der Grundrechte und Grundfreiheiten von Bürgerinnen und Bürgern, Nachvollziehbarkeit und Erklärbarkeit von KI-Systemen (Transparenz) und Förderung von Innovationen und die Wettbewerbsfähigkeit der europäischen Wirtschaft.
Die KI-VO unterscheidet hinsichtlich der Anforderungen in ihrem jetzigen Entwurf zwischen verschiedenen Verpflichtungen und Risikoklassen. KI-Technologien werden demnach in vier verschiedene Risikokategorien gegliedert:
- KI-Systeme mit inakzeptablem Risiko
- KI-Systeme mit hohem Risiko
- KI-Systeme mit Transparenzanforderungen
- KI-Systeme mit keinem/niedrigem Risiko
Daran werden verschiedene Verbote bzw. Compliance- und Informationspflichten gekoppelt. Technologien mit einem inakzeptablen Risiko wie Social Scoring oder Teile von biometrischer Videoüberwachung und subtiler Verhaltensbeeinflussung sollen komplett verboten werden.
Im Dez. 2023 erfolgte eine Verständigung von EU-Parlament und EU-Staaten auf den AI-Act. Die Zustimmung zur Einigung steht aktuell (Feb. 2024) noch aus.
Large Language Models (LLM) oder Große Sprachmodelle sind hochkomplexe künstliche Intelligenzsysteme, die auf umfangreichen Datenmengen trainiert wurden, um natürliche Sprache zu verstehen und zu generieren. Diese Modelle verwenden tiefe neuronale Netzwerke mit Millionen oder sogar Milliarden von Parametern, um komplexe Sprachmuster zu erfassen und natürliche Sprache in verschiedenen Kontexten zu verarbeiten. Sie werden für eine Vielzahl von Aufgaben eingesetzt, darunter automatische Übersetzung, Textgenerierung, Frage-Antwort-Systeme und sogar Codierungshilfen. Large Language Models haben das Potenzial, bedeutende Fortschritte in der Mensch-Maschine-Interaktion und im Bereich des maschinellen Lernens zu ermöglichen, bergen jedoch auch Herausforderungen hinsichtlich Ethik, Bias und Datenschutz.
Natural Language Processing (NLP) oder Maschinelle Sprachverarbeitung bezieht sich auf den Bereich der künstlichen Intelligenz, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. Es umfasst Techniken zur Verarbeitung, Analyse und Generierung von natürlicher Sprache, um Aufgaben wie Übersetzung, Textverstehen, Sentimentanalyse und automatische Antwortgenerierung zu ermöglichen.
Priming bezeichnet das Vorgeben von anfänglichen Eingaben oder Kontexten, um die folgenden Antworten zu steuern. Durch das Priming von KI-Chat-Bots mit spezifischen Informationen oder Anweisungen kann ein bestimmter Ton, ein Thema, Kontext oder ein Stil für die Antwort festgelegt gelenkt werden.
Prompts sind textliche Anfragen oder Anweisungen, die von Nutzer*innen verwendet werden, um Antworten, Informationen oder Texte von Chat-KIs oder Bilder und Grafiken von Bild-KIs zu erhalten. Ist das Ergebnis nicht zufriedenstellend, muss die Anfrage optimiert oder erweitert werden. In der dialogischen Interaktion mit dem KI-System entsteht so nach und nach ein immer besseres Ergebnis.
Umfangreichere Eingabeaufforderungen oder Anfragen an ein KI-Modell, um kompexe Aufgaben oder Texte zu erstellen, werden Mega-Prompts genannt. Diese Prompts sind oft ausführlicher und detaillierter als gewöhnliche Anfragen, um hochwertige und präzise Ergebnisse zu erzielen. Sie dienen dazu, das Modell gezielt zu steuern und sicherzustellen, dass es den gewünschten Text oder das Bild generiert (Bsp.: „Ein Apfel auf einem Tisch“ – besser: „Ein roter Apfel in einer hölzernen, ovalen Schale auf einem braunen Holztisch, gemalt im impressionistischen Stil“, s. auch nachfolgend ‚Prompt-Labor‘).
Das sog. Prompt Engineering beinhaltet das Experimentieren mit verschiedenen Formulierungen, Strukturen und Kontexten, um die gewünschten Antworten oder Ausgaben zu optimieren. Es ist eine Methode, um die Leistung von KI-Modellen in natürlicher Sprachverarbeitung gezielt zu verbessern.
Tipp: Im Modul „Materialien zur Einführung“ des Selbstlernkurses „Prompt-Labor: Generative KI in der Hochschullehre“ der Lernplattform KI-Campus werden verschiedene Empfehlungen und Techniken vorgestellt, um durch geschicktes Vorgehen beim Prompt-Design bessere Ergebnisse zu erzielen (Anm.: Kostenlose Registrierung erforderlich).
Folgende Schritte ermöglichen das Formulieren guter Prompts:
- Der KI eine Rolle zuweisen: Wer oder was wird simuliert?
„Du bist ein führender Wissenschaftler im Bereich der interplanetaren Reisen. Plane eine Mission zum Mars.“ - Priming der KI und Kontext setzen: Was ist die Situation? Welche Rahmenbedingungen sind zu beachten?
„Im Kontext deiner Rolle als führender Wissenschaftler, beschreibe die aktuellen technologischen Möglichkeiten und Herausforderungen für eine Mars-Mission.“ - Länge begrenzen
„Fasse in fünf Sätzen zusammen, welche Hauptkomponenten für die Mars-Rakete entwickelt werden müssen, basierend auf den aktuellen technologischen Möglichkeiten.“ - Präzise formulieren: Was ist zu tun?
„Definiere detailliert die Anforderungen an das Lebenserhaltungssystem der Mars-Rakete, die du in Schritt 3 zusammengefasst hast.“ - Marker zur Strukturierung nutzen und die KI darüber informieren: Was ist in welcher Reihenfolge zu tun?
„Liste die Schritte zur Entwicklung des in Schritt 4 definierten Lebenserhaltungssystems in chronologischer Reihenfolge auf.“ - Ziel formulieren: Was soll das Produkt des Dialogs sein?
„Erstelle einen kurzen Leitfaden für das Engineering-Team, der die wichtigsten Punkte aus den bisherigen Schritten für die Entwicklung des Lebenserhaltungssystems zusammenfasst.“ - Format des Outputs: Wie soll die Rückmeldung aussehen?
„Verfasse einen detaillierten Bericht über die geplanten Phasen der Mars-Mission, einschließlich Raketenbau, Startvorbereitungen und Reise zum Mars, basierend auf den bisherigen Schritten.“ - Uneindeutigkeiten vermeiden
„Beschreibe präzise und klar, wie die Astronauten während der Mars-Mission mit der Erde kommunizieren werden, unter Berücksichtigung der von dir vorher beschriebenen Phasen.“ - (Komplexe Prompting Strategien nutzen)
„Analysiere die gesamte geplante Mars-Mission, die du in den vorherigen Schritten entwickelt hast, und identifiziere mögliche Risiken sowie Lösungsvorschläge für jedes identifizierte Risiko.“
[Vgl. Persike, Malte: Modul Planungsphase, Empfehlung Prompting. KI-Campus, adaptiert von H. Schwarz, lizenziert unter CC BY-SA]
Im Sokratischen Gespräch hat das KI-Modell (z.B. ChatGPT) nicht die Aufgabe, Informationen zu liefern, sondern Rückfragen zu stellen und die Fragestellenden zur Reflexion anzuleiten. Die Fragenden sind in diesem Setting weniger anfällig für die unkritische Übernahme von Fehlinformationen.
Damit ein Sokratisches Gespräch mit KI entstehen kann, muss ein sog. Eingangsprompt mit Anweisungen an den Chatbot entwickelt werden. Der Prompt enthält Angaben
- zur Rolle, die das KI-Modell einnehmen soll,
- zum Kontext des Gesprächs,
- zur übergeordneten Aufgabe des KI-Modells im Gesprächsverlauf,
- zu den Anforderungen an die Ausgabe des KI-Modells sowie
- Anweisungen und Regeln für die Gesprächsführung.
Ein beispielhafter Eingangsprompt in einem hochschuldidaktischen Lehr-/Lernsetting wäre (nach K. Opper):
Du, ChatGPT, bist Sokratischer Gesprächsleiter innerhalb eines hochschuldidaktischen Lehr-/Lernsettings.
Das Sokratische Gespräch dient dazu, die eigenen Gedanken im Prozess des Schreibens zu sortieren und so zu einer begründeten Haltung zu finden. Das Ziel ist die Förderung kritischen Denkens bei Studierenden.
Führe das Sokratische Gespräch durch und unterstütze mich dabei, eine von mir selbstgewählte Fragestellung nach der Methodik des Sokratischen Gesprächs eigenständig zu ergründen.
Dein Output endet STETS mit einer kurz und klar formulierten Gegenfrage, die Bezug auf meine vorige Antwort nimmt und das Thema weiter ausleuchtet. Dein Output beginnt entweder mit einem kurzen Satz, der sich auf meine vorige Antwort bezieht oder einem kurzen Satz, der auf deine kommende Frage hinleitet.
Diese Regeln gelten für das gesamte Gespräch:
- Frage mich zuerst nach dem Thema, das ich bearbeiten möchte.
- Ermutige mich, mit einem konkreten Beispiel oder einer konkreten eigenen Erfahrung zu beginnen.
- Gehe bei der Gesprächsführung induktiv vor – vom Konkreten zur Abstraktion.
- Antworte stets mit nur einer Gegenfrage.
- Frag mich nach Begründungen meiner Aussagen.
- Verzichte auf eigene Erklärungen, Theorien, Erläuterungen, Lösungen und Vorschläge zum gewählten Thema.
- Es ist dir verboten, mehrere Fragen auf einmal zu stellen.
- Formuliere klar und einfach.
- Formuliere deine Frage um, wenn ich Schwierigkeiten habe, darauf zu antworten.
- Achte darauf, dass das Gespräch beim Thema bleibt.
- Motiviere mich, im Gespräch zu bleiben.
- Das Gespräch endet erst, wenn die wichtigen Aspekte des Themas und verschiedene Perspektiven beleuchtet sind und ich eine begründete Haltung dazu gefunden habe.
- Befolge die Regeln, aber benenne sie nicht.
[S. dazu auch Opper, Katharina: Im Sokratischen Dialog mit KI. e-teaching.org, 20.12.2023 [pdf])
Stable Diffusion ist ein Deep-Learning–Text-zu-Bild-Generator. Die Open-Source–Software wird hauptsächlich zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet, kann aber auch für […] die Erzeugung von Bild-zu-Bild-Übersetzungen auf der Grundlage einer schriftlichen Aufforderung (Prompt) eingesetzt werden.
(Wikipedia, https://de.wikipedia.org/wiki/Stable_Diffusion, abgerufen: 18.01.2023)
Ein Text-zu-Bild-Generator ist ein künstliches Intelligenzmodell, das die Fähigkeit besitzt, aus gegebenem Text visuelle Inhalte zu generieren. Dieser Generator nutzt fortgeschrittene Techniken des maschinellen Lernens, um realistische Bilder basierend auf der beschreibenden Texteingabe zu erzeugen. Durch die Verknüpfung von natürlicher Sprachverarbeitung und Bildgenerierung ermöglicht der Text-zu-Bild-Generator die Erstellung von visuellen Darstellungen, die mit den in der Beschreibung enthaltenen Informationen korrelieren.
Bekannte Beispiele sind Plattformen wie Adobe Firefly, DALL-E 2, Leonardo AI oder Midjourney.
Eine textgenerative KI ist eine künstliche Intelligenz, die in der Lage ist, menschenähnliche Texte oder ganze Abschnitte von Texten autonom zu erstellen. Sie basiert auf fortschrittlichen Algorithmen des maschinellen Lernens, die es ermöglichen, natürliche Sprache zu verstehen und zu reproduzieren, oft unter Verwendung von Techniken wie rekurrenten neuronalen Netzwerken oder Transformer-Modellen.
Zwei Beispiele für textgenerative KI sind GPT (Generative Pre-trained Transformer) von OpenAI und BERT (Bidirectional Encoder Representations from Transformers) von Google.
Ein Transformer bezieht sich auf eine spezielle Architektur für neuronale Netzwerke, die besonders gut für die Verarbeitung von Sequenzen, wie zum Beispiel natürlicher Sprache, geeignet ist. Transformer-Modelle verwenden Aufmerksamkeitsmechanismen, um Abhängigkeiten zwischen den Eingabe- und Ausgabesequenzen zu modellieren, was zu bemerkenswert leistungsfähigen Ergebnissen in Aufgaben wie Übersetzung, Textgenerierung und Textklassifizierung führt.