Zum Hauptinhalt springen
Omnifact unterstützt mehrere Modellfamilien von führenden Anbietern wie OpenAI, Anthropic, Google und Mistral. Das „beste“ Modell ist nicht immer das leistungsstärkste – es kommt auf Ihre spezifische Aufgabe, die Geschwindigkeitsanforderungen und Hosting-Präferenzen an. Sie können jederzeit direkt im Chat zwischen verschiedenen Modellen wechseln, um dasjenige zu finden, das für Ihre aktuellen Bedürfnisse am besten geeignet ist.

Modell wechseln

Sie können das KI-Modell auswählen, bevor Sie eine Nachricht senden, oder zu jedem beliebigen Zeitpunkt während einer Konversation über die Modellauswahl in der Chat-Kopfzeile. Weitere Details finden Sie unter Ein KI-Modell auswählen. Informationen darüber, welche Modelle für Ihr Team verfügbar sind, finden Sie unter Modell-Verwaltung.

Empfohlene Modelle nach Anwendungsfall

Wählen Sie Ihr Modell basierend auf dem, was Sie erreichen möchten.

Flagship (Spitzenklasse)

Am besten für: Komplexes Schreiben, differenzierte Analysen, Kreativität und Ergebnisse höchster Qualität.

GPT-5.2

OpenAIs leistungsfähigstes Modell für allgemeine Aufgaben.

Claude 4.6 Sonnet

Anthropics ausgewogenes Modell, exzellent für Schreiben und Programmieren.

Gemini 3 Pro

Googles Spitzenmodell mit starken Reasoning-Fähigkeiten.

Mistral Large

Mistrals Flaggschiff-Modell mit starker Leistung und EU-Hosting-Optionen.

Schnell & Effizient

Am besten für: Schnelle Fragen, Zusammenfassungen, einfache Aufgaben und Geschwindigkeit.

GPT-5 mini

Schnell und kosteneffizient für alltägliche Aufgaben.

Claude 4.5 Haiku

Extrem schnell und effizient, ideal für einfache Anfragen.

Gemini 2.5 Flash

Optimiert für hohe Geschwindigkeit und geringe Latenz.

GPT-4o mini

Ein fähiges kleines Modell für den allgemeinen Gebrauch.

Reasoning (Logik & Denken)

Am besten für: Mathematik, Logikrätsel, komplexe Programmierarchitekturen und mehrstufige Problemlösungen.

o3 / o3-mini

OpenAIs auf Reasoning fokussierte Modelle, die „nachdenken“, bevor sie antworten.

o4-mini

Effizientes Reasoning der nächsten Generation.

Gemini 3 Pro

Starke Reasoning-Fähigkeiten über verschiedene Modalitäten hinweg.

Bildgenerierung

Am besten für: Erstellen visueller Assets aus Textbeschreibungen.

GPT-Image-1

Am besten für Prompt-Treue, Textwiedergabe und polierte finale Assets.

Nano Banana Pro

Am besten für qualitativ hochwertigere künstlerische Ergebnisse und anspruchsvolle kreative Workflows.

Nano Banana

Am besten für Geschwindigkeit, schnelle Iterationen und verspielte, stilisierte Ergebnisse.
Einige ältere Modelle erscheinen möglicherweise noch in Ihrem Workspace aus Kompatibilitätsgründen. Für neue Arbeiten sollten Sie die neueren GPT-5, Claude 4, Gemini 2.5/3 und Mistral Modelle bevorzugen.

Strategie: Modelle kombinieren

Sie müssen nicht für eine gesamte Konversation bei einem Modell bleiben. Ein leistungsstarker Workflow kombiniert verschiedene Modelle:
  1. Entwurf mit Geschwindigkeit: Nutzen Sie ein „Schnell & Effizient“-Modell wie GPT-5 mini oder Claude 4.5 Haiku, um Gliederungen zu erstellen, Ideen zu sammeln oder erste Texte zu entwerfen. Das ist schnell und spart Kontingent.
  2. Verfeinerung mit Qualität: Wechseln Sie zu einem „Flagship“-Modell wie GPT-5.2 oder Claude 4.6 Sonnet, um die Arbeit umzuschreiben, zu polieren oder zu kritisieren.
  3. Lösen harter Probleme mit Reasoning: Wenn Sie auf eine logische Blockade stoßen, wechseln Sie zu o3 oder Gemini 3 Pro, um das spezifische Problem zu lösen, und wechseln Sie dann zurück.
Häufiger Fehler: Viele Nutzer bleiben für alles beim Standardmodell. Obwohl es fähig ist, nutzen Sie möglicherweise „Vorschlaghammer“-Modelle für einfache Aufgaben (was Kontingent/Geschwindigkeit verschwendet) oder haben Schwierigkeiten mit komplexen Aufgaben, die ein Reasoning-Modell leicht lösen könnte.

Modellnamen verstehen

Modellnamen folgen oft Mustern, die auf ihre Fähigkeiten und Geschwindigkeit hinweisen.
MusterBedeutungBeispiele
Mini / NanoSchneller, günstiger, leichterGPT-5 mini, GPT-5 nano
Flash / HaikuGeschwindigkeit und EffizienzGemini 2.5 Flash, Claude 4.5 Haiku
Pro / SonnetLeistungsfähige HauptmodelleGemini 2.5 Pro, Claude 4.6 Sonnet
OpusHöchste LeistungsstufeClaude 4.6 Opus
o3 / o4Auf Reasoning fokussierte Modelleo3, o3-mini, o4-mini
Während „4o“ in GPT-4o typischerweise auf ein Flagship-Omnichannel-Modell hinwies, können Namenskonventionen je nach Anbieter variieren. Prüfen Sie im Zweifel immer die Modellbeschreibung.

Modell-Hosting, Datenschutz und Compliance

Der Privacy Filter schützt Sie unabhängig vom Modell.Der Privacy Filter von Omnifact fügt jeder Interaktion eine Schutzschicht hinzu und maskiert sensible Daten, bevor sie ein Modell erreichen – unabhängig davon, wo dieses Modell gehostet wird.
Berücksichtigen Sie bei der Wahl eines Modells Ihre Anforderungen an die Datenhaltung (Data Residency):
  • Standardmäßig in der EU gehostet: Azure OpenAI, Mistral AI
  • In den USA gehostet: OpenAI, Anthropic, Google
  • Benutzerdefinierte Anbieter: Das Hosting hängt von Ihrer spezifischen Workspace-Konfiguration ab.
Achten Sie in der Modellauswahl auf die Flagge für die Hosting-Region, um zu bestätigen, wo ein Modell verarbeitet wird.

Einschränkungen bei der Bildgenerierung

Wenn der Privacy Filter aktiviert ist, kann die Bildgenerierung auf bestimmte Modelle oder Anbieter beschränkt sein, die den Datenschutzstandards Ihrer Organisation entsprechen (oft ist EU-Hosting erforderlich). Wenn Sie bestimmte Bildmodelle nicht auswählen können, ist diese Compliance-Einstellung wahrscheinlich aktiv.