
Glossar.
GPT
GPT steht für „Generative Pre-trained Transformer“ und bezeichnet eine Familie von großen Sprachmodellen (LLMs), die auf der Transformer-Architektur basieren. Sie werden in einem ersten Schritt vortrainiert auf umfangreichen, unlabeleten Textkorpora, um Sprachmuster zu erlernen. Anschließend können sie eigenständig menschlich anmutende Texte generieren, Inhalte vervollständigen oder Fragen beantworten. GPT-Modelle wie GPT-3 bis GPT-5 werden vielseitig in generativer KI eingesetzt, etwa für Dialogsysteme, Textproduktion oder multimodale Anwendungen.
Sie denken darüber nach, sich beim Profiling Institut beraten zu lassen? Oder Sie möchten uns kennenlernen?