Für wenn ist dieser Blog Artikel?
Dieser Artikel ist für Selbstständige, Unternehmer, Tech-Leads und Agenturen, die ChatGPT & Co. als produktives Werkzeug einsetzen wollen. Das Kernproblem: Ohne klar definierte Rollen liefern Large Language Models (LLMs) oft schwammige, inkonsistente Antworten. Am Ende dieses Artikels weißt du, wie du Rollen sauber definierst, als System- bzw. Master-Prompt dokumentierst und in Projekten (z. B. Custom GPTs) wiederverwendbar machst.
Was genau ist eine „Rolle“ in LLMs?
Große Sprachmodelle (Large language model, LLMs) wie ChatGPT, Claude oder Gemini sind generell erst mal „neutrale“ Textmaschinen, die auf Basis von Wahrscheinlichkeit die nächsten Tokens vorhersagen.
Eine Rolle ist nichts anderes als ein Profil, das du dem Modell gibst, bevor es loslegt. Sie definiert:
- Wer das Modell „sein“ soll (z. B. „Senior Laravel-Developer“, „CFO-Coach“, „Automation Architect“)
- Für wen es arbeitet (Zielgruppe, Kontext, Branche)
- Was das Ziel ist (z. B. Entscheidungen vorbereiten, Code reviewen, Prozesse designen)
- Wie es arbeiten soll (Stil, Tiefe, Struktur, Rückfragen, Schritt-für-Schritt-Denken)
- Was es nicht tun soll (z. B. keine Halluzinationen, keine rechtlichen Empfehlungen als „rechtssicher“ verkaufen usw.)
Technisch gesehen wird die Rolle typischerweise im sogenannten System Prompt bzw. in den Instructions (z. B. bei der OpenAI API oder in Custom GPTs) hinterlegt. Prompt Engineering – also das Schreiben solcher Anweisungen – ist inzwischen ein eigener, gut beschriebenener Bereich; eine praktische Übersicht findest du in der Prompt-Engineering-Dokumentation von OpenAI.
Warum Rollen die Qualität deiner Ergebnisse massiv beeinflussen
Viele Menschen tippen einfach eine Frage in ChatGPT und wundern sich, warum die Antworten generisch sind. Das ist ungefähr so, als würdest du sagen: „Erklär mir Marketing“, ohne Zielgruppe, Produkt oder Kanal zu nennen. Eine sauber definierte Rolle wirkt wie ein Filter und ein Styleguide in einem:
- Relevanz-Filter: Das Modell weiß, welche Informationen wichtig sind und welche Details es ignorieren kann.
- Konsistenter Stil: Antworten haben einen wiedererkennbaren Ton, Aufbau und Tiefenlevel – wichtig für Dokumentation, Mails, Blogposts.
- Bessere Entscheidungen: Rollen wie „Sparringspartner“ oder „CTO-Advisor“ sorgen dafür, dass das Modell Optionen vergleicht, Risiken benennt und nicht nur „Lösungen raushaut“.
- Weniger Halluzinationen: Wenn du explizit verlangst, dass das Modell bei Unsicherheit nachfragt oder klar „weiß ich nicht“ sagt, sinkt das Risiko von Fantasie-Fakten.
- Agentic AI / Automation: In agentischen Setups, bei denen ein LLM als „Agent“ plant, Tools nutzt und Schritte ausführt, ist ein klares Rollenprofil die Basis für verlässliches Verhalten.
Die Bausteine einer starken Rolle
Ich nutze in Projekten gerne fünf Kernfragen, um eine Rolle zu definieren. Du kannst sie im System Prompt oder Master Prompt, für deine Anforderungen, explizit formulieren:
- Wer bist du?
„Du bist ein Senior Webentwickler mit Schwerpunkt PHP/Laravel und JavaScript/Vue, spezialisiert auf AI-Integration.“ - Für wen arbeitest du?
„Du arbeitest für selbstständige Entwickler, Agenturen und KMU-Tech-Leads.“ - Was ist dein Ziel?
„Dein Ziel ist es, konkrete, umsetzbare Vorschläge zu machen, die Zeit sparen und Risiken minimieren.“ - Wie arbeitest du?
„Du denkst Schritt für Schritt, benennst Annahmen, machst Vorschläge mit Vor- und Nachteilen und fragst nach, wenn Informationen fehlen.“ - Was sind deine Grenzen?
„Du bist kein Anwalt oder Steuerberater; du markierst rechtliche und steuerliche Aussagen ausdrücklich als unverbindlich.“
System Prompt, Master Prompt, User Prompt & Custom GPTs – wie hängt das zusammen?
In der Praxis trennen sich die Begriffe oft nicht sauber, aber grob kannst du sie wie folgt einteilen:
- System Prompt: Baseline-Instruktion, die das Verhalten des Modells für die gesamte Session oder Anwendung vorgibt (z. B. in der API oder bei Custom GPTs).
- Master Prompt / Projekt-Prompt: Ein wiederverwendbarer Textbaustein für einen bestimmten Use Case (z. B. „Tech-Architektur-Reviewer“, „Content-Stratege für LinkedIn“).
- User Prompt: Die konkrete Aufgabe für diesen einen Durchlauf („Analysiere dieses Repository“, „Schreib diesen Entwurf um“).
In Custom GPTs (also eigenen ChatGPT-Konfigurationen) trägst du eine Rolle typischerweise im Bereich Instructions ein. OpenAI beschreibt das Schritt für Schritt in der Hilfe zu „Creating a GPT“.
Zusätzlich lohnt sich ein Blick in die offiziellen Best Practices für Prompt Engineering von OpenAI zu werfen, um zu verstehen, wie du Modelle mit Rollen, Beispielen und klaren Output-Formaten führst.
Fazit & Best Practices
Wenn du eins aus diesem Artikel mitnimmst, dann das: Der größte Hebel für bessere AI-Ergebnisse ist eine klar definierte Rolle in Verbindung mit einem gut strukturierten Prompt. Erst wenn ChatGPT & Co. wissen, wer sie sein sollen, für wen sie arbeiten und welches Ziel sie haben, werden die Antworten konsistent, vertrauenswürdig und im Alltag wirklich nutzbar.
Für dich als Selbstständiger, Unternehmer oder Tech-Lead heißt das: Behandle Rollen-Prompts wie kleine Bausteine deiner internen „AI-Toolbox“. Sie sind wiederverwendbar, können versioniert werden und machen deinen Einsatz von LLMs planbar statt zufällig.
Konkreter nächster Schritt: Statt beim nächsten Projekt wieder „einfach loszuchatten“, geh so vor:
- Wähle eine Rolle, die zu der Aufgabe passen (z. B. Architektur-Sparringspartner, Coding-Copilot, Automation Architect).
- Pack den Rollen-Prompt in dein Notizsystem oder direkt in einen Custom GPT.
- Nutze diese Rolle konsequent für alle passenden Aufgaben.
- Schau dir an, welche Antworten gut funktionieren, und schärfe die Rolle danach nach (Ziele, Arbeitsweise, Grenzen).
So baust du dir Schritt für Schritt ein Set an maßgeschneiderten AI-Helfern auf – nicht als Spielerei, sondern als festen Bestandteil deiner Entwicklungs- und Geschäftsprozesse. Damit du dich auf die Aufgaben konzentrieren kannst, die deinen Stärken entsprechen und dir den meisten Umsatz bringen.
Häufige Fragen
Warum sollte ich mir überhaupt die Mühe machen, Rollen zu definieren?
Weil du damit planbare erzeugen kannst. Mit klar definierten Rollen werden Antworten konsistenter, besser auf deine Zielgruppe zugeschnitten und fachlich belastbarer. Du sparst Zeit bei Rückfragen, Nachbesserungen und Missverständnissen – sowohl in der Entwicklung als auch im Business-Alltag.
Was ist der Unterschied zwischen System Prompt und normalem User Prompt?
Der System Prompt legt die Grundregeln und die Rolle fest: Wer das Modell „ist“, wie es arbeiten soll, welche Grenzen es hat. Der User Prompt beschreibt die konkrete Aufgabe: „Analysiere diesen Code“, „Schreib einen Entwurf für eine E-Mail“, „Skizziere einen Workflow“. Du kannst dir den System Prompt als „Jobbeschreibung“ und den User Prompt als „Ticket“ vorstellen.
Wie viele Rollen brauche ich in meinem Alltag wirklich?
In der Praxis reichen für den Start meist 2–4 gut definierte Rollen, zum Beispiel:
- Architektur-Sparringspartner
- Coding-Copilot
- Automation Architect (agentic AI)
- Content-Assistent für Blog/LinkedIn
Lieber wenige Rollen sauber definieren und konsequent nutzen, als zehn unausgereifte Rollen.
Kann ich eine Rolle für verschiedene Projekte wiederverwenden?
Ja, das ist sogar der Hauptvorteil. Du definierst die Rolle einmal als Master Prompt und baust variable Teile als Platzhalter ein (z. B. [ZIELGRUPPE], [TONALITÄT], [SPRACHE]). Diese Master-Prompt-Version speicherst du in deinem Notiztool oder als Custom GPT und passt pro Projekt nur noch die Platzhalter an.
Wie teste ich, ob ein Rollen-Prompt gut genug ist?
Nimm 3–5 typische Aufgaben aus deinem Alltag und füttere sie immer mit derselben Rolle. Achte auf:
- Versteht das Modell deinen Kontext ohne viel Nachfragen?
- Kommt der Stil der Antworten deiner Zielgruppe entgegen?
- Gibt es weniger Halluzinationen oder „Bullshit-Antworten“?
- Musst du deutlich weniger nachsteuern als ohne Rolle?
Wenn etwas nicht passt, passe Ziel, Arbeitsweise oder Grenzen im Rollen-Prompt an und teste erneut.
Wann sollte ich ein eigenes „Custom GPT“ erstellen?
Ein eigenes „Custom GPT“ lohnt sich, wenn:
- du denselben Rollen-Prompt immer wieder brauchst,
- auch andere im Team diese Rolle nutzen sollen,
- du zusätzlich eigene Wissensbasis, Dateien oder Tools einbinden willst.
Für einmalige Experimente reicht ein normaler Chat. Für wiederkehrende, geschäftsrelevante Workflows ist ein Custom GPT deutlich bequemer und konsistenter.
Wie passen Rollen in agentische Workflows (agentic AI)?
In agentischen Setups übernimmt das LLM typischerweise die Rolle eines „Agents“, der Pläne macht, Tools aufruft und Zwischenschritte ausführt. Eine saubere Rolle legt fest:
- Wie der Agent Entscheidungen vorbereitet (z. B. Alternativen, Risiken, Annahmen)
- Wann welcher Tool-Aufruf sinnvoll ist
- Wo menschlicher Review Pflicht ist (z. B. Verträge, Angebote, kritische E-Mails)
Ohne klare Rolle laufen agentische Systeme Gefahr, unvorhersehbar oder unnötig komplex zu werden.
Was mache ich, wenn das Modell trotz Rolle Quatsch erzählt?
Erstens: In den Rollen-Grenzen klar reinschreiben, dass das Modell bei Unsicherheit nachfragen oder „weiß ich nicht“ sagen soll. Zweitens: In der Situation direkt nachsteuern, z. B.:
- „Kennzeichne bitte ganz klar, was Annahmen und was gesicherte Informationen sind.“
- „Wenn du dir unsicher bist, sag es explizit und schlage Alternativen vor.“
Und drittens: Kritische Inhalte (Recht, Steuern, Security, Verträge) immer mit menschlichem Experten abgleichen. LLMs sind ein sehr guter Co-Pilot – aber kein Ersatz für Verantwortung.
