Dieses Glossar wurde in Zusammenarbeit mit den LARGE LANGUAGE MODELS ChatGPT und Bard verfasst und mit DeepL ins Deutsche übersetzt. Large Language Models werden zunehmend zur Erstellung von Texten in verschiedenen Bereichen verwendet. Das Glossar versteht sich als ein Versuch, einen Umgang mit diesen Technologien zu entwickeln, um zu faktischen, interessanten und überraschenden Ergebnissen zu gelangen. Da sich diese Technologien immer weiter verbreiten, gilt es zu lernen, wie sie effektiv eingesetzt werden können und dabei auch ihre Grenzen zu erkennen. Basierend auf einer Liste von Begriffen, die im Zusammenhang mit KÜNSTLICHER INTELLIGENZ auftauchen, wurden diese Modelle aufgefordert, kurze Definitionen zu erstellen, die ethische Überlegungen berücksichtigen sollten: „Kannst Du mir eine kurze Definition von [...] in einer ethischen und zugänglichen Weise geben?”. Die Antworten wurden vom Projektteam und Maya Indira Ganesh redaktionell überarbeitet und zu einem Eintrag pro Begriff zusammengeführt. Um diese Perspektive sichtbar zu machen, hebt die kursive Schrift die redaktionellen Überarbeitungen hervor. Dieses Glossar erhebt keinen Anspruch auf Vollständigkeit oder Allgemeingültigkeit und wird im Laufe von Ether’s Bloom: Ein Programm zu Künstlicher Intelligenz weiterentwickelt.
Ein Algorithmus ist eine Reihe von Anweisungen oder Regeln, die ein Computerprogramm Schritt für Schritt befolgt, um ein Problem zu lösen oder eine Aufgabe zu erfüllen. Er wird in den unterschiedlichsten Anwendungen eingesetzt, vom Sortieren einer Liste von Zahlen bis hin zu komplexen Aufgaben wie der individualisierten Werbung. Algorithmen können individuelle und kollektive Entscheidungen beeinflussen und somit erhebliche Auswirkungen auf die Gesellschaft haben, wenn z. B. durch die algorithmische Verbreitung von Falschinformationen Wahlen beeinflusst werden. Ein Algorithmus besteht jedoch aus vielen anderen Teilen, wie DATEN und statistischen Verfahren, und wird von Menschen geschaffen: Programmierer*innen stehen in ständiger Interaktion mit Algorithmen und gestalten sie so, dass sie je nach Kontexten unterschiedliche Zwecke erfüllen.
Automatisierung ist ein Prozess, bei dem mechanische, cyber-physische oder digitale Technologien eingesetzt werden, um eine Aufgabe so effizient zu gestalten, dass sie schneller und mit weniger Fehlern ausgeführt werden kann. Die Automatisierung erfordert in der Regel klare Anweisungen und die Kapazität, diese umzusetzen. Uns umgeben viele verschiedene Arten der Automatisierung – historisch gesehen stellt das Industriezeitalter einen großen Sprung in der Automatisierung dar, als Arbeiter*innen und Maschinen zusammenarbeiten mussten, um die Produktion zu steigern.
Ein Avatar ist eine virtuelle Repräsentation einer realen Person, eines Unternehmens oder Wesens in digitalen Umgebungen. Er kann verschiedene Formen annehmen, wie eine animierte Figur, eine Stimme oder ein dreidimensionales Modell. Avatare werden häufig in Online-Spielen, auf Social-Media-Plattformen und in der virtuellen Realität verwendet. Da sie losgelöst von einem Körper existieren, können Avatare ein wichtiges Tool für Kommunikation und Interaktion sein und als Stellvertreter*innen fungieren, um Identitäten zum Ausdruck zu bringen.
Computer Vision ist eine Reihe von Technologien, die es Computern ermöglichen, visuelle Informationen aus der Welt zu interpretieren und die visuelle Wahrnehmung des Menschen nachzuahmen. Dabei geht es darum, Computern beizubringen, Objekte, Menschen, Text und andere visuelle Elemente in Bildern und Videos sowie in der physischen Welt wahrzunehmen und zu erkennen. Computer Vision wird unter anderem bei selbstfahrenden Autos, Gesichtserkennung, medizinischer Bildgebung und Augmented Reality eingesetzt. Durch die Analyse von Bildern kann die Computer Vision verschiedene Aspekte des Lebens identifizieren und erkennen, was die Bewältigung alltäglicher Aufgaben erleichtern kann. Datenschutzprobleme und Verzerrungen in den Algorithmen können jedoch die schädlichen Auswirkungen der Anwendung solcher Technologien verstärken.
Daten können digitale und nicht-digitale Informationen sein, die durch jegliche Formen von Informationstechnologien – darunter auch Computer – gesammelt, gespeichert und verarbeitet werden. Daten können auf viele verschiedene Arten gesammelt werden, durch Umfragen, Experimente, Beobachtungen oder Tracking, also das Nachverfolgen digitaler Aktivitäten. Sie werden in Formaten wie Tabellen, Datenbanken oder Textdateien organisiert. Daten, die wiederum Informationen über andere Daten enthalten, werden als Metadaten bezeichnet. Sie können wichtige Aufschlüsse über die Art der Datensammlung geben. Daten bilden die Grundlage für KI.
DATEN, die MASCHINELLES LERNEN „füttern“, stammen aus vielen benutzerdefinierten und allgemeinen Quellen (beispielsweise den sozialen Medien); sie sind jedoch selten sofort einsatzbereit. Die Daten müssen aufbereitet werden. Bei der Datenbereinigung werden Fehler oder Unstimmigkeiten in Datensätzen identifiziert und korrigiert, um sicherzustellen, dass die Daten genau, zuverlässig und einsatzbereit sind. Einige Arten der Datenvorbereitung erfordern menschliche Arbeit, wie z. B. die Beschriftung und Kommentierung von Bildern für die maschinelle Bildverarbeitung. Die Datenbereinigung kann manuell oder mit Hilfe von Software durchgeführt werden. Die einzelnen Schritte hängen von der Art der Daten und den zu behebenden Problemen ab und umfassen Aufgaben wie das Entfernen von Duplikaten, das Ergänzen fehlender Werte und die Beseitigung von Ausreißern. Dieser Prozess hilft, Fehlinformationen, Verzerrungen oder Ungerechtigkeiten zu vermeiden, die durch fehlerhafte oder falsche Daten entstehen können. Ziel ist es, qualitativ hochwertige Daten zu erstellen, die für verschiedene Zwecke verwendet werden können.
Deep Learning ist ein Teilbereich des MASCHINELLEN LERNENS. Dabei werden komplexe Computersysteme trainiert, die auf einer ähnlichen Struktur wie der des menschlichen Gehirns basieren, um große Datenmengen zu verarbeiten und zu verstehen. Es ermöglicht Maschinen, Muster zu erkennen, Vorhersagen zu treffen und Aufgaben der Bild- und Spracherkennung zu erfüllen. Deep Learning ist eine leistungsfähige Technologie, aber da Deep-Learning-Modelle oftmals basierend auf VOREINGENOMMENEN DATEN trainiert werden, reproduzieren sie bestehende Vorurteile und Diskriminierungen.
Intelligenz meint unter anderem die Fähigkeit zu verstehen, zu lernen, zu denken und Lösungen zu finden. Sie umfasst die Fähigkeit, Informationen zu sammeln und zu verarbeiten, Wissen anzuwenden, sich an neue Situationen anzupassen und fundierte Entscheidungen zu treffen. Intelligenz ist jedoch weder starr noch universell und kann durch Zeit, Lernen, Empathie und Erfahrung weiterentwickelt werden und sich auch als emotionale oder soziale Intelligenz ausdrücken. Ein inklusives Verständnis des Begriffs geht über die auf den Menschen bezogenen Vorstellungen hinaus und erkennt an, dass verschiedene Menschen und Lebewesen über unterschiedliche Formen von Intelligenz verfügen.
Interspezies bezieht sich auf Interaktionen und Beziehungen zwischen Lebewesen verschiedener Arten. Der Begriff berücksichtigt, dass die Welt aus einer Vielzahl von Arten besteht, die in komplexen Verhältnissen zueinander auf dem Planeten Erde leben. Artenübergreifende Interaktionen können viele Formen annehmen, wie z. B. Zusammenarbeit, gegenseitiger Nutzen, Wettbewerb oder sogar Parasitismus. Um die Beziehungen zwischen den Arten zu verstehen und zu respektieren, müssen die Bedürfnisse und Rechte aller Arten über biologische Perspektiven hinaus anerkannt werden.
Unter Kinship lassen sich Formen der Verwandtschaft verstehen, die über biologische Verbindungen und den menschlichen oder lebendigen Bereich hinausgehen. Kinship erstreckt sich auf die kulturellen, emotionalen und sozialen Aspekte von Familie, Gemeinschaft und Zusammenleben. Kinship spielt eine entscheidende Rolle bei der Gestaltung unseres Zugehörigkeitsgefühls, der Unterstützung und der Verantwortung füreinander.
Künstliche Intelligenz (KI) ist ein sich schnell entwickelnder Bereich, für den es keine einheitliche Definition gibt. Die meisten Definitionen gehen jedoch davon aus, dass KI die Fähigkeit von Maschinen ist, Aufgaben auszuführen, die normalerweise mit menschlichen kognitiven Fähigkeiten assoziiert werden, wie Lernen, logisches und lösungsorientiertes Denken. KI umfasst eine Vielzahl technischer Infrastrukturen: Big Data, Modelle des MASCHINELLEN LERNENS, datenwissenschaftliche Techniken, COMPUTER VISION, natürliche Sprache, AUTOMATISIERUNG und andere. KI manifestiert sich in unterschiedlichen Arten von Technologien, die von verschiedenen Unternehmen über globale Lieferketten entwickelt werden. Sie macht sich spezifische, situierte Theorien über den Menschen und die Intelligenz zu eigen und baut auf bestimmten Vorstellungen von der Zukunft auf.
Large Language Models (LLM) nutzen Techniken des DEEP LEARNINGS und sehr große Datensätze, um menschen-ähnliche Texte zu generieren, analysieren und zusammenzufassen. Die DATEN in LLMs stammen aus frei verfügbaren Beiträgen in sozialen Medien, Online-Artikeln, Online-Kursen und Nachrichten. Typischerweise basieren LLMs nicht auf sorgfältig zusammengestellten Datensätzen. Während die zugrundeliegende Technologie, Transformer Models, seit mindestens fünf Jahren existiert, stehen brauchbare Anwendungen wie ChatGPT den Nutzer*innen erst seit kurzem zur Verfügung.
Maschinelles Lernen ermöglicht es Computern, Aufgaben zu erfüllen, ohne für diese explizit programmiert zu werden. Dies geschieht, indem ALGORITHMEN großen Datenmengen ausgesetzt werden, um darin Muster und Zusammenhänge zu bestimmen. Ausgehend von diesen Mustern können Vorhersagen getroffen werden, wenn das System auf unbekannte DATEN trifft. Maschinelles Lernen kommt z. B. bei der Spam-Filterung, der medizinischen Diagnose und bei selbstfahrenden Autos zum Einsatz.
Ein Netzwerk ist ein System von miteinander verbundenen Geräten, die miteinander kommunizieren können, um Informationen auszutauschen und Ressourcen gemeinsam zu nutzen. Nur wenn ein Netzwerk Zugänglichkeit in den Mittelpunkt stellt, besteht die Chance, dass Informationen und Ressourcen für viele Menschen verfügbar und nutzbar sind. Es ermöglicht Menschen den Zugang zu Diensten und Online-Communities und ist damit ein wesentlicher Bestandteil unserer vernetzten Welt – zu der sehr vielen der Zugang weiterhin verwehrt bleibt.
Die Fähigkeit von Pflanzen, ihre Umwelt wahrzunehmen und darauf zu reagieren. Obwohl der Begriff „Pflanzliche Intelligenz“ unter Wissenschaftler*innen umstritten ist, da er irreführend oder anthropozentrisch sein kann, gibt es immer mehr Beweise dafür, dass Pflanzen „intelligenter“ sind, als Biolog*innen bisher angenommen haben. Sie ist zwar nicht mit der menschlichen oder tierischen Intelligenz vergleichbar, umfasst aber Prozesse wie das Erkennen von Licht und Schwerkraft, die Kommunikation mit anderen Pflanzen und die Anpassung an sich verändernde Bedingungen. Damit stellt das Konzept die traditionellen Vorstellungen von Intelligenz in Frage und verdeutlicht die Komplexität der natürlichen Welt.
Ein Prompt ist ein kurzer Textabschnitt, eine Frage oder ein Befehl, der zur Einleitung eines Gesprächs oder zur Erteilung von Anweisungen verwendet wird. Im Gebrauch von LARGE MODELS für Text oder Bild wird ein Prompt von den Nutzer*innen eingegeben, um eine gewünschte Antwort zu erzeugen. Prompts dienen dazu, das Gespräch zu lenken, ein Bild zu erzeugen oder Informationen von einem KI-Modell anzufordern.
Spirituelle Intelligenz bezieht sich auf die Fähigkeit, das eigene Innere und darüber hinaus zu erforschen und zu verstehen, sich mit tieferen Bedeutungen und Werten im Leben zu verbinden und einen Sinn jenseits materieller Bestrebungen zu finden. Es handelt sich um ein komplexes und sich weiterentwickelndes Konzept, das auf eine Steigerung des Bewusstseins abzielt.
Voreingenommene Daten beziehen sich auf Informationen, die verzerrt sind und bestimmte Gruppen oder Merkmale in einem Datensatz unfair darstellen. Dies kann passieren, wenn der Datenerhebungsprozess oder die verwendeten Quellen nicht vielfältig oder umfassend genug sind, was zu ungenauen Schlussfolgerungen führt. Es gibt verschiedene Arten von Datenverzerrung, die sich in der Regel überschneiden: Selektionsverzerrung, bei der die Daten aus einer nicht repräsentativen Stichprobe der Bevölkerung erhoben werden, was sich aus der Unsichtbarkeit bestimmter Gemeinschaften oder begrenzten Ressourcen ergeben kann; Messverzerrung, bei der die Daten auf eine Weise erhoben werden, die zu Verzerrungen führt; und Verarbeitungsverzerrung, bei der die Daten auf eine Weise analysiert werden, die zu Verzerrungen führt. Alle diese Formen der Verzerrung können die Diskriminierung bestimmter Personengruppen reproduzieren. Durch Aufklärung, Abschwächung und Identifizierung können verzerrte Daten ausfindig gemacht und behandelt werden, um schädliche Ergebnisse zu vermeiden. Es ist jedoch wichtig zu erkennen, dass in der Forschung und in der Statistik alle Daten auf die eine oder andere Weise verzerrt sind. Ein Datensatz ist nur eine Stichprobe. „Voreingenommenheit“ ist nicht immer ein Werturteil, sondern liegt auch in der Natur der statistischen Stichprobenverfahren.