Flexibel. Kosteneffizient. Kontrolliert.

Jedes KI-Modell.
Cloud oder lokal. Ihre Wahl.

Nicht an einen KI-Anbieter gebunden. Verbinden Sie OpenAI, Anthropic, Ollama oder Ihr Lieblings-LLM. Konfiguration dauert 3 Minuten. Sie zahlen direkt Ihrem LLM-Anbieter – transparent und nachverfolgbar.

Unterstützte KI-Anbieter

Alle großen Cloud-Anbieter + lokale Open-Source-Modelle

OpenAI

Modelle: GPT-4o, GPT-4o mini
Speed: Sehr schnell
Kosten: ~0,01€/Bericht
Setup: 2 Minuten
Datenschutz: Cloud (USA)

Zuverlässig, schnell, Best-in-Class-Qualität

Anthropic

Modelle: Claude 3.5 Sonnet, Claude 3 Haiku
Speed: Schnell
Kosten: ~0,02€/Bericht
Setup: 2 Minuten
Datenschutz: Cloud (USA)

Präzise, sicherheitsorientiert, längere Kontexte

Google

Modelle: Gemini Pro
Speed: Schnell
Kosten: Variabel
Setup: 2 Minuten
Datenschutz: Cloud (Google)

Multimodal, gut für Vision-Aufgaben

Ollama (lokal)

Modelle: Llama 2, Mistral, Neural Chat
Speed: Mittel
Kosten: Kostenlos
Setup: 10 Minuten
Datenschutz: 100% lokal

Komplett auf Ihrer Hardware, kein API-Zugriff

LM Studio (lokal)

Modelle: Beliebiges Hugging Face Modell
Speed: Variabel
Kosten: Kostenlos
Setup: 15 Minuten
Datenschutz: 100% lokal

GUI für lokale Modelle, einfach zu bedienen

Custom OpenAI-API

Modelle: Jeder OpenAI-kompatible Endpoint
Speed: Variabel
Kosten: Ihre Kosten
Setup: 5 Minuten
Datenschutz: Abhängig vom Anbieter

Für Custom-LLMs oder On-Premise-Lösungen

Warum BYO LLM?
Bring Your Own Model

Volle Kostenkontrolle

Sie zahlen direkt Ihrem LLM-Anbieter. Keine versteckten Gebühren, keine Markup-Gebühren, keine Abonnements durch Bygmind.

Kein Vendor Lock-in

Heute OpenAI, morgen Anthropic, übermorgen Ollama lokal. Wechseln Sie ohne Datenverlust oder Neueinrichtung.

Höchste Datensicherheit

Alle Daten können lokal verarbeitet werden. Ihre Dokumente verlassen Ihre Infrastruktur nicht. DSGVO und Datenschutz by Design.

Optimale Modellwahl

Wählen Sie das beste Modell für Ihren Use Case – nicht das, das Bygmind empfiehlt. Speed, Kosten, Qualität: Sie entscheiden.

Transparente Abrechnung

Sehen Sie exakt, was Ihre Berichte kosten. OpenAI-Pricing ist öffentlich. Ollama kostet 0€.

Kostenbeispiele pro Bericht

Bei durchschnittlichem Projekt (5 Fotos, 2 Min. Audio)

OpenAI (GPT-4o-mini)
~0,01€
Verarbeitung: 30 Sekunden
Best für: Budget-bewusst, gute Balance Speed/Kosten
Anthropic (Claude Haiku)
~0,015€
Verarbeitung: 45 Sekunden
Best für: Präzision gefordert, etwas höhere Qualität
Google Gemini
~0,001€
Verarbeitung: 60 Sekunden
Best für: Sehr kostengünstig, neu am Markt
Ollama (lokal auf M1 Mac)
0€
Verarbeitung: 3–5 Minuten
Best für: Kostenlos, maximale Datensicherheit, aber langsamerer als Cloud

3-Minuten Verbindungsanleitung

1

API-Schlüssel besorgen

OpenAI, Anthropic, Google – jeder Anbieter hat ein Dashboard mit API-Keys. Melden Sie sich an, erstellen Sie einen Key.

Zum OpenAI Dashboard →
2

Key in Bygmind eingeben

Öffnen Sie Bygmind Einstellungen → KI-Agent → Anbieter auswählen → API-Schlüssel einfügen. Speichern.

Screenshot anschauen →
3

Test-Bericht erstellen

Dokumentation hochladen, "Bericht erstellen" klicken, fertig. Alles funktioniert. Sie zahlen nur für tatsächliche Nutzung.

Videohandbuch starten →

Lokale KI-Modelle Setup

Ollama (macOS/Linux)

brew install ollama && ollama run mistral. Dann Endpoint (localhost:11434) in Bygmind eintragen. Fertig.

LM Studio (macOS/Windows)

GUI-basiert. Modell von Hugging Face downloaden, starten, Bygmind verbinden. Keine Terminal-Kenntnisse erforderlich.

Anforderungen für lokale Modelle

Mind. 8GB RAM empfohlen. Llama 2 (~13B) braucht ~10GB. Mistral ~7B ~6GB. Auf Apple Silicon: ~110x real-time Speed (wie Offline-Transkription).

🔗

Beliebige KI-Modelle verbinden

OpenAI, Anthropic, Google, Ollama – kein Lock-in, grenzenlose Flexibilität.

💰

Transparente Kosten

Sie zahlen direkt dem Anbieter. ~0,01€ pro Bericht mit OpenAI oder kostenlos mit Ollama.

Schnelle Integration

3 Minuten Setup. API-Schlüssel einfügen, fertig. Keine komplexe Konfiguration.

🛡️

Lokal oder Cloud – Ihre Wahl

Maximale Datensicherheit mit lokalem LLM oder bewährte Cloud-Qualität mit OpenAI.

🔀

Jederzeit wechselbar

Kein Vendor Lock-in. Heute OpenAI, morgen Ollama – alle Ihre Daten bleiben.

⚙️

Custom-Parameter

Passen Sie Temperature, Top-K und andere Parameter pro Modell an – volle Kontrolle.

Nein. Sie können mehrere API-Schlüssel in Bygmind konfigurieren und dann per Projekt auswählen. Ein Projekt kann auf OpenAI laufen, das nächste auf Anthropic – ohne dass Sie multiple Apps oder Logins brauchen.
Ihre API-Schlüssel werden lokal auf Ihrem Gerät verschlüsselt gespeichert. Sie werden nicht an Bygmind-Server übertragen. Bygmind sendet nur Ihre Dokumentation an den KI-Anbieter Ihrer Wahl – nicht an Bygmind.
OpenAI: schnell, zuverlässig, cloud-basiert (~0,01€/Bericht). Anthropic: präziser, kontextsensitiver, cloud-basiert (~0,02€/Bericht). Ollama lokal: kostenlos, 100% privat, aber langsamer (3–5 Min). Wählen Sie basierend auf Ihren Anforderungen: Speed, Kosten oder Datenschutz.
Ja. Sie können mehrere Ollama-Instanzen auf verschiedenen Servern oder Ports laufen lassen. Bygmind verbindet sich dann mit dem Endpoint Ihrer Wahl. Ideal für Load-Balancing oder failover.
Alle bereits erstellten Berichte bleiben unverändert. Neue Berichte werden mit dem neuen Modell erstellt. Keine Datenmigration erforderlich – einfach den Anbieter in den Einstellungen wechseln.
Ja, bei den meisten Anbietern. OpenAI und Anthropic bieten Spending Limits und Alerts. Sie können auch API-Schlüssel mit separaten Limits pro Projekt erstellen. Vollständige Kostenkontrolle.

Wählen Sie Ihr
perfektes KI-Modell.

Drei Minuten Setup, volle Kontrolle. Fangen Sie kostenlos an.

Jetzt verbinden

Kontaktieren Sie uns

Haben Sie Fragen zu Bygmind? Wir helfen Ihnen gerne weiter.

Ihre Daten sind sicher. DSGVO-konform. Wir antworten schnellstmöglich.