Skip to main content

Das Know-How.

Seminare, Schulungen, Ausbildungen und Trainings

GPT – Generative Pre-trained Transformer


GPT – Generative Pre-trained Transformer

Definition

GPT ist ein leistungsstarkes Sprachmodell der Künstlichen Intelligenz, das auf der sogenannten Transformer-Architektur basiert. Es wurde von OpenAI entwickelt und zählt zu den bekanntesten Beispielen generativer KI.

Das Modell wird in zwei Phasen trainiert: Zunächst lernt es durch das Lesen großer Mengen an Textdaten, wie menschliche Sprache aufgebaut ist und welche Bedeutungszusammenhänge in ihr stecken (Pre-Training). Danach kann es auf dieser Grundlage selbstständig neue Texte generieren – sei es in Form von Antworten, Zusammenfassungen, kreativen Geschichten, E-Mails oder Fachtexten.

GPT wird in vielen Anwendungen eingesetzt, zum Beispiel in:

  • ChatGPT (OpenAI)
  • Bing Chat (Microsoft)
  • Jasper (KI-Textgenerator für Marketing)
  • Notion AI (Textunterstützung für Bürosoftware)

Was bedeutet GPT?

Die Abkürzung GPT steht für:

  • Generative – Das Modell kann neue Inhalte erzeugen, z. B. Texte, Antworten oder Ideen.
  • Pre-trained – Es wurde vorab mit enormen Textmengen aus dem Internet, Büchern, Foren etc. trainiert, um Sprache, Kontext und Bedeutungen zu verstehen.
  • Transformer – Dies ist die technische Modellarchitektur, die besonders gut darin ist, Sprachzusammenhänge, Bedeutungsbeziehungen und den Kontext von Wörtern zu erkennen – selbst über lange Textpassagen hinweg.

REFA Online-Seminar - live & interaktiv