Generative Pre-trained Transformer (GPT)
Erklärung
Eine Architektur für KI-Sprachmodelle, die durch Vortraining auf großen Datenmengen in der Lage ist, kohärente und kontextbezogene Texte zu erzeugen.
Beispiel
GPT-4 kann verwendet werden, um natürliche und flüssige Antworten in Chatbots zu generieren.