KI ist mit vielen Begriffen verbunden. Wir haben ein Glossar mit allem, was Sie wissen müssen

KI ist mit vielen Begriffen verbunden. Wir haben ein Glossar mit allem, was Sie wissen müssen

GPU? TPU? LLM? Alle wichtigen KI-Vokabular, das Sie kennen müssen

Für die Links auf dieser Seite können wir eine Provision verdienen.
Diaschau beginnen
Diaschau beginnen
Das OpenAI-Logo wird auf dem Mobile World Congress im spanischen Barcelona angezeigt.
Das OpenAI-Logo wird auf dem Mobile World Congress im spanischen Barcelona angezeigt.
Bild: Joan Cros/NurPhoto (Getty Images)

Wenn sich Menschen, die mit KI nicht vertraut sind, vorstellen künstliche Intelligenz, können sie sich Will Smiths Blockbuster vorstellen Ich, Roboter, der Science-Fiction-Thriller Ex Machina, oder der Disney-Film SmartHaus – alptraumhafte Szenarien, in denen intelligente Roboter die Macht übernehmen und ihre menschlichen Gegenstücke in den Untergang treiben.

Werbung

Die heutigen generativen KI-Technologien sind noch nicht allmächtig. Sicher, sie sind vielleicht in der Lage, Desinformation säen, um Wahlen zu manipulieren oder Geschäftsgeheimnisse teilen. Aber die Technologie steckt noch in der Frühphase und Chatbots machen immer noch große Fehler.

Dennoch bringt die Neuheit der Technologie auch neue Begriffe ins Spiel. Was macht überhaupt einen Halbleiter aus? Wie unterscheidet sich generative KI von allen anderen Arten künstlicher Intelligenz? Und sollten Sie die Nuancen zwischen einer GPU, einer CPU und einer TPU wirklich kennen?

Wenn Sie mit dem neuen Fachjargon, der in der Branche verwendet wird, Schritt halten möchten, hat Quartz einen Leitfaden zu den wichtigsten Begriffen.

Werbung
Vorherige Folie
Nächste Folie

2 / 16

Was ist generative KI?

Was ist generative KI?

Jensen Huang steht vor einem Display mit der Aufschrift Generative AI und der Zeichnung eines Diagramms
Nvidia-CEO Jensen Huang.
Foto: Justin Sullivan (Getty Images)

Beginnen wir zur Auffrischung mit den Grundlagen. Generative künstliche Intelligenz ist eine Kategorie der KI, die Daten verwendet, um originelle Inhalte zu erstellen. Im Gegensatz dazu klassische KI könnte nur Vorhersagen liefern basierend auf Dateneingaben, nicht auf brandneuen und einzigartigen Antworten durch maschinelles Lernen. Aber Generative KI verwendet “Deep Learning – Lernen mit Tiefgang„, eine Form des maschinellen Lernens, bei der künstliche neuronale Netzwerke (Softwareprogramme) verwendet werden, die dem menschlichen Gehirn ähneln, sodass Computer menschenähnliche Analysen durchführen können.

Werbung

Generative KI greift sich die Antworten allerdings nicht aus dem Nichts. Sie generiert Antworten auf der Grundlage von Daten, mit denen sie trainiert wurde. Dazu können Text, Video, Audio und Codezeilen gehören. Stellen Sie sich vor, Sie wachen mit verbundenen Augen aus dem Koma auf und können sich nur an 10 Wikipedia-Artikel erinnern. Alle Ihre Gespräche mit einer anderen Person über Ihr Wissen basieren auf diesen 10 Wikipedia-Artikeln. So ähnlich ist es – nur dass generative KI Millionen solcher Artikel und noch viel mehr verwendet.

Werbung
Vorherige Folie
Nächste Folie

3 / 16

Was ist ein Chatbot?

Was ist ein Chatbot?

Bild für Artikel mit dem Titel KI ist mit vielen Begriffen verbunden. Wir haben ein Glossar mit allem, was Sie wissen müssen
Bild: CFOTO/Future (Getty Images)

KI-Chatbots sind Computerprogramme, die Generieren Sie menschliche Gespräche mit Benutzernund geben einzigartige, originelle Antworten auf ihre Fragen. Chatbots wurden durch ChatGPT von OpenAI populär gemacht, und seitdem sind viele weitere hinzugekommen: Google Gemini, Microsoft CoPilot und Einstein von Salesforce sind unter anderem die Spitzenreiter.

Werbung

Chatbots generieren nicht nur Textantworten — sie können auch Websites erstellen, Datenvisualisierungen erstellen, beim Codieren helfen, Bilder erstellen und Dokumente analysieren. Sicher sind KI-Chatbots noch nicht narrensicher — Sie haben bereits viele Fehler gemacht. Aber mit der schnellen Entwicklung der KI-Technologie wird auch die Qualität dieser Chatbots verschlechtern.

Werbung
Vorherige Folie
Nächste Folie

4 / 16

Was ist ein Large Language Model (LLM)?

Was ist ein Large Language Model (LLM)?

Google Gemini.
Google Gemini.
Foto: NurPhoto/Contributor (Getty Images)

Large Language Models (LLMs) sind eine Art generativer künstlicher Intelligenz. Sie werden anhand großer Daten- und Textmengen trainiert, darunter aus Nachrichtenartikeln und E-Books, um Inhalte zu verstehen und zu generieren, einschließlich natürlicher Sprache Text. Im Grunde werden sie an einer Menge Text trainiert, damit sie vorhersagen können, welches Wort als nächstes kommt. Nehmen diese Erklärung von Google:

„Wenn Sie anfängen , den Satz „Mary kickte einen…“ einzugeben, könnte ein mit genügend Daten trainiertes Sprachmodell vorhersagen: „Mary kickte einen Ball.“ Ohne genügendes Training könnte es nur ein „rundes Objekt“ oder nur die Farbe „gelb“ liefern.“ — Googles Erklärer

Werbung

Beliebte Chatbots wie ChatGPT von OpenAI und Gemini von Google, die über Funktionen wie das Zusammenfassen und Übersetzen von Text verfügen, sind Beispiele für LLMs.

Werbung
Vorherige Folie
Nächste Folie

5 / 16

Was ist ein Halbleiter?

Was ist ein Halbleiter?

Nahaufnahme einer behandschuhten Hand, die einen Mikrochip hält
Ein Halbleiter wird auch Mikrochip genannt.
Foto: Wong Yu Liang (Getty Images)

Nein, es ist kein 18-Wheeler-Fahrer. Halbleiter, auch bekannt als KI-Chips, werden in elektrischen Schaltkreisen von Geräten wie Telefonen und Computern verwendet. Elektronische Geräte würden ohne Halbleiter nicht existieren, die aus reinen Elementen wie Silizium oder Verbindungen wie Galliumarsenid hergestellt sind, um Strom zu leiten. Der Name „Halbleiter“ kommt davon ab, dass das Material mehr Strom leiten kann als ein Isolator aber weniger Strom leitet als ein reiner Leiter wie Kupfer.

Werbung

Die weltgrößte Halbleitergießerei, Taiwan Semiconductor Manufacturing Company (TSMC), stellt einen schätzungsweise 90 % der modernen Chips der Welt und zählt die Top-Chipdesigner Nvidia und Advanced Micro Devices (AMD) zu seinen Kunden.

Obwohl Halbleiter wurden in den USA erfunden, produziert es mittlerweile etwa 10% der weltweiten Chips, ohne die fortgeschrittenen Chips die für größere KI-Modelle benötigt werden. Präsident Joe Biden unterzeichnete 2022 den CHIPS and Science Act die Chipherstellung zurück in die USA zu bringen, und die Biden-Regierung hat bereits Milliarden in Halbleiterunternehmen investiert, darunter Intel und TSMC Fabriken im ganzen Land zu bauen. Ein Teil dieser Bemühungen hat auch damit zu tun, Chinas Fortschritten bei der Chipherstellung und KI-Entwicklung entgegenzuwirken.

Werbung
Vorherige Folie
Nächste Folie

6 / 16

Was sind GPUs und CPUs?

Was sind GPUs und CPUs?

Abbildung einer CPU auf einem Computer-Motherboard mit anderen Schaltern
Core-Processing-Unit (CPU) im Motherboard.
Foto: Narumon Bowonkitwanchai (Getty Images)

Eine GPU ist eine Grafikverarbeitungseinheit, ein fortschrittlicher Chip (oder Halbleiter), der die großen Sprachmodelle hinter KI-Chatbots wie ChatGPT antreibt. wird traditionell zur Erstellung von Videospielen mit hochwertigerer Grafik verwendet.

Werbung

Dann ein ukrainisch-kanadischer Informatiker, Alex Krizhevsky, zeigte, wie mit einer GPU Deep-Learning-Modelle um alles schneller betrieben werden können als eine CPU — eine zentrale Verarbeitungseinheit oder die Haupthardware, die Computer antreibt.

CPUs sind das „Gehirn“ eines Computers, Ausführen von Anweisungen, damit der Computer funktioniert. Eine CPU ist ein Prozessor, welche liest und interpretiert Softwareanweisungen, um die Funktionen des Computers zu steuern. Eine GPU ist jedoch ein Beschleuniger, ein Stück Hardware, das entwickelt wurde um eine bestimmte Funktion eines Prozessors zu verbessern.

Nvidia ist der führende GPU-Designer, dessen H100- und H200-Chips in den Rechenzentren großer Technologieunternehmen zum Betrieb von KI-Software eingesetzt werden. Andere Unternehmen wollen mit den Beschleunigern von Nvidia konkurrieren, darunter Intel mit seinem Gaudi 3-Beschleuniger und Microsofts Azure Maia 100-GPU.

Werbung
Vorherige Folie
Nächste Folie

7 / 16

Was ist ein TPU?

Was ist ein TPU?

Ein Google-Video erläutert die Besonderheiten seines TPU.
Ein Google-Video erläutert die Besonderheiten seines TPU.
Bildschirmfoto: Google (Andere)

TPU steht für „Tensor Processing Unit“. Im Gegensatz zu denen von Microsoft und Nvidia handelt es sich bei den Chips von Google um TPUs – speziell entwickelte Chips, die speziell für das Training großer KI-Modelle entwickelt wurden (wohingegen GPUs ursprünglich für Spiele und nicht für KI entwickelt wurden).

Werbung

CPUs sind Allzweckprozessoren, GPUs sind zusätzliche Prozessoren, die High-End-Aufgaben ausführen. TPUs sind maßgeschneiderte Beschleuniger für die Ausführung von KI-Diensten —und macht sie umso leistungsfähiger.

Werbung
Vorherige Folie
Nächste Folie

8 / 16

Was ist eine Halluzination?

Was ist eine Halluzination?

Auf einem Laptop-Bildschirm wird die von OpenAI „ChatGPT“  generierte KI-Antwort auf die Frage „Was kann KI der Menschheit bieten?“ angezeigt.
ChatGPT von OpenAI
Illustration: Leon Neal (Getty Images)

Wie bereits erwähnt, sind KI-Chatbots zu vielen Aufgaben fähig, aber ihnen machen auch häufig Fehler. Wenn LLMs wie ChatGPT falsche oder unsinnige Informationen erfinden, das nennt eine Halluzination.

Werbung

Chatbots „halluzinieren“, wenn sie nicht über die notwendigen Trainingsdaten verfügen, um eine Frage zu beantworten, aber trotzdem eine Antwort generieren, die wie eine Tatsache aussieht. Halluzinationen können durch verschiedene Faktoren verursacht werden, wie ungenaue oder verzerrte Trainingsdaten und Overfitting, das dann zu einer Überanpassung führt . Algorithmus kann keine Vorhersagen oder Schlussfolgerungen machen aus anderen Daten als denen mit denen es trainiert wurde.

Halluzinationen sind derzeit eines der größten Probleme bei generativen KI-Modellen – und sie sind nicht ganz einfach zu lösen für. Da KI-Modelle an großen Datenmengen trainiert werden, kann es schwierig sein, spezifische Probleme in den Daten zu finden. Manchmal sind die zum Training von KI-Modellen verwendeten Daten ohnehin ungenau, weil sie kommt von Orten wie Reddit. Obwohl KI-Modelle darauf trainiert werden, keine Antwort auf Fragen zu beantworten, auf deren Antwort sie keine Antwort wissen, lehnen sie diese Fragen manchmal nicht ab, sondern generieren stattdessen ungenaue Antworten.

Werbung
Vorherige Folie
Nächste Folie

9 / 16

Was ist Training?

Was ist Training?

ein kleiner Roboter läuft auf einem kleinen Laufband auf einem Schreibtisch mit einem Laptop und einem Notebook
Illustration: Westend61 (Getty Images)

Beim Training wird einem KI-Modell beigebracht, wie es Vorhersagen treffen kann. In dieser Phase wird ein KI-Modell mit Daten gefüttert, damit es lernt, eine oder mehrere bestimmte Aufgaben auszuführen. Anschließend durchläuft es ein Versuch-und-Irrtum-Verfahren, bis es die gewünschten Ergebnisse liefert.

Werbung
Vorherige Folie
Nächste Folie

10 / 16

Was ist Inferenz?

Was ist Inferenz?

Illustration eines neonblauen Gehirns in einem Tunnel mit anderen blauen Lichtstreifen und Code
Bild: Yuichiro Chino (Getty Images)

Inferenz erfolgt nach dem Training und ist der Prozess, bei dem ein trainiertes KI-Modell Vorhersagen auf der Grundlage neuer Daten trifft. Beispielsweise kann ein selbstfahrendes Auto darauf trainiert werden, ein Stoppschild auf einer bestimmten Straße zu erkennen. Durch Inferenz wäre das selbstfahrende Auto in der Lage, erkennen Sie ein Stoppschild auf jeder Straße.

Werbung
Vorherige Folie
Nächste Folie

11 / 16

Was ist Retrieval-Augmented-Generation (RAG)?

Was ist Retrieval-Augmented-Generation (RAG)?

Illustration von Sternen die aus einem Gehirn schießen auf einem Laptop-Bildschirm vor einem mintgrünen Hintergrund
Illustration: Malte Mueller (Getty Images)

Retrieval-Augmented Generation (RAG) ist eine Technik der natürlichen Sprachverarbeitung (NLP), die zur Verbesserung der Genauigkeit generativer KI-Modelle verwendet wird. Bei RAG werden generative große Sprachmodelle mit Informationsabrufsystemen (wie Datenbanken und Webseiten) kombiniert, sodass die Modelle auf Wissen außerhalb ihrer ursprünglichen Trainingsdaten verweisen und daher aktuellere Antworten liefern können.

Werbung

Der Begriff wurde geprägt in einem 2020 -Papier von einer Gruppe von Forschern von Facebook, University College London und New York University.

Werbung
Vorherige Folie
Nächste Folie

12 / 16

Was sind Token?

Was sind Token?

Schwarze Buchstaben, die durcheinandergewürfelt sind und sich vor einem weißen Hintergrund abheben. Unter den Buchstaben befinden sich Streifen, die zeigen, dass sie sich nach oben bewegen.
Illustration: carloscastilla (Getty Images)

Textdaten werden in kleinere Einheiten, sogenannte Token, zerlegt, um von KI-Modellen verarbeitet zu werden. Token können von einem einzelnen Buchstaben bis hin zu einer ganzen Phrase reichen.

Werbung
Vorherige Folie
Nächste Folie

13 / 16

Was sind Parameter?

Was sind Parameter?

digitale Illustration eines weißen geometrischen Gehirns, umgeben von bunten Punkten und Linien, um Verbindungen darzustellen
Illustration: da-kuk (Getty Images)

Parameter sind die Variablen, die ein Modell aus Trainingsdaten lernt und die seine Fähigkeit, Vorhersagen zu treffen, steuern. Während des Trainingsprozesses passt ein Modell seine Parameter an, um die Lücke zwischen seiner Vorhersage und dem gewünschten Ergebnis zu schließen. Auf diese Weise lernt das Modell, wie es auf der Grundlage neuer Daten genaue Vorhersagen treffen kann.

Werbung
Vorherige Folie
Nächste Folie

14 / 16

Was ist ein KI-PC?

Was ist ein KI-PC?

Geschäftsmann tippt von oben aus dem Laptop mit Händen und einem KI-Gehirnhologramm und einem Chip mit digitaler Leiterplatte und Zahnrädern
Illustration: ismagilov (Getty Images)

Ein AI-PC ist ein Personal Computer, der KI- und maschinelle Lernaufgaben bewältigen kann. Sie sind mit einer CPU, GPU und NPU ausgestattet, die spezifische KI Fähigkeiten. Eine NPU oder Neural Processing Unit ist ein Chip, der darauf spezialisiert ist, KI- und Maschinenlern-basierte Aufgaben auf dem Computer auszuführen, ohne die zu verarbeitenden Daten in die Cloud senden zu müssen.

Werbung
Vorherige Folie
Nächste Folie

15 / 16

Was ist eine neuronale Verarbeitungseinheit (NPU)?

Was ist eine neuronale Verarbeitungseinheit (NPU)?

Abbildung einer elektronischen Leiterplatte mit einem großen grünen Chip in der Mitte mit der Aufschrift „AI“ in fuchsiafarbenen Buchstaben
Illustration: Jonathan Kitchen (Getty Images)

Eine Neural Processing Unit (NPU) kann Aufgaben der künstlichen Intelligenz und des maschinellen Lernens direkt auf einem Gerät wie etwa einem KI-PC ausführen, sodass die Daten zur Verarbeitung nicht an die Cloud gesendet werden müssen.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung