VibeWhisper
Funktionen Preise Über uns Blog FAQ

Anwendungsfälle

Sprache-zu-Text für Entwickler

VS Code iTerm2 Cursor Slack Xcode

Push-to-Talk-Diktat, das in Ihrer IDE, Terminal, Browser und jedem anderen Textfeld auf macOS funktioniert. Entwickelt für die Arbeitsweise von Entwicklern.

Entwickler-Workflows

Sprachdiktat fügt sich natürlich in die Arbeitsweise von Entwicklern ein. Hier sind die häufigsten Anwendungsfälle.

KI-Prompts diktieren

Beschreiben Sie Code-Änderungen, erklären Sie Bugs und schreiben Sie detaillierte Prompts für Claude, Copilot oder Cursor — alles per Sprache, direkt in Ihrer IDE.

KI-Prompts

„Füge eine Caching-Schicht zum User-Profile-Endpunkt hinzu, mit Redis, einer 5-Minuten-TTL und Cache-Invalidierung bei Profilaktualisierungen"

Dokumentation schreiben

Verfassen Sie READMEs, API-Dokumentation und Architekturnotizen, indem Sie Ihre Gedanken aussprechen. Erste Entwürfe in einem Bruchteil der Tippzeit.

Commit-Nachrichten

„Behebe Race Condition in der WebSocket-Reconnect-Logik durch Hinzufügen eines Mutex-Locks und Exponential Backoff mit Jitter"

Schnelle Nachrichten

Antworten Sie auf Slack-Nachrichten, schreiben Sie PR-Beschreibungen und verfassen Sie E-Mails, ohne Ihren Editor zu verlassen. Taste halten, sprechen, fertig.

Code-Kommentare

„Diese Funktion validiert den eingehenden Webhook-Payload gegen die Stripe-Signatur und lehnt Anfragen ab, die nicht übereinstimmen"

Notizen festhalten

Halten Sie Meeting-Notizen, Designentscheidungen und Ideen per Sprache in Obsidian, Apple Notizen oder jedem Textfeld fest.

Slack-Nachrichten

„Hey Team, das Deploy ist fertig. Ich habe den Auth-Bug gefixt und Rate-Limiting zur Login-Route hinzugefügt. Gebt Bescheid, wenn ihr etwas Seltsames im Staging seht"

Sprechen und Text erscheint — echte Beispiele

Wie es tatsächlich klingt, wenn Entwickler Sprachdiktat mit VibeWhisper nutzen.

Feature-Anfrage-Prompt

Erstelle einen REST-Endpunkt unter Schrägstrich API Schrägstrich Users, der Paginierung mit Cursor-basierter Navigation unterstützt und die Gesamtanzahl in den Response-Headern zurückgibt

Bug-Report für KI-Assistenten

Die Sidebar-Komponente rendert bei jedem Tastendruck in der Suchleiste neu, weil der Parent-State aktualisiert wird. Memoisiere die Sidebar und verschiebe den Such-State in einen lokalen Hook

Architekturnotiz

Wir sollten den Monolithen in drei Services aufteilen: Auth, Billing und Notifications. Auth besitzt die User-Tabelle, Billing kommuniziert mit Stripe, und Notifications verarbeitet E-Mail und Push über eine Message Queue

Pull-Request-Beschreibung

Dieser PR fügt Eingabevalidierung zu allen öffentlichen API-Routen mit Zod-Schemas hinzu. Er standardisiert auch Fehlerantworten gemäß dem RFC 7807 Problem-Details-Format

Basiert auf nativen macOS-APIs

Unter der Haube

Shortcut halten Ein globaler Tastatur-Shortcut wird über CGEvent Tap registriert. Wenn du die konfigurierte Taste drückst und hältst, aktiviert sich VibeWhisper — egal welche App fokussiert ist.
Audio aufnehmen AVAudioEngine öffnet einen latenzarmen Mikrofon-Stream. Audio wird im Speicher gepuffert, solange die Taste gehalten wird. Nichts wird auf die Festplatte geschrieben.
Mit Whisper transkribieren Beim Loslassen der Taste wird der Audio-Puffer direkt an die OpenAI Whisper API mit deinem eigenen API-Schlüssel gesendet. Die Transkription ist typischerweise in unter einer Sekunde fertig.
Text einfügen Der transkribierte Text wird an der Cursorposition im fokussierten Textfeld über die macOS Accessibility API eingefügt. Keine Zwischenablage beteiligt — deine Zwischenablage bleibt unberührt.
Weiter coden Der gesamte Zyklus dauert etwa eine Sekunde. Du bist sofort wieder im Flow-Coding — kein Kontextwechsel, keine Fensterverwaltung, keine App zum Schließen.
CGEvent Tap für globale Tastenkürzel-Registrierung
AVAudioEngine für latenzarme Mikrofonaufnahme
Accessibility API für direkte Textinjektion an der Cursorposition
Keychain Services für sichere API-Schlüssel-Speicherung

Funktioniert überall wo du tippst

VibeWhisper nutzt die macOS Accessibility API für Textinjektion. Wenn eine App ein Textfeld hat, kannst du per Sprache hinein diktieren.

IDEs & Editoren

VS CodeIntelliJ IDEAXcodeNeovimSublime Text

Terminals

TerminaliTerm2WarpAlacritty

Kommunikation

SlackDiscordMicrosoft TeamsTelegram

Notizen & Docs

NotionObsidianApple NotesConfluence

Entwicklertools

GitHubLinearJiraFigma

Sonstiges

Jede App mit einem Textfeld

Privacy-First-Architektur

VibeWhisper sieht deine Daten nie. Deine Stimme geht direkt von deinem Mac zu OpenAI — nichts dazwischen.

Dein API-Schlüssel

Dein OpenAI API-Schlüssel wird im macOS Keychain gespeichert — demselben sicheren Speicher, der für Passwörter und Zertifikate verwendet wird. Er verlässt nie deinen Rechner und wird nie an VibeWhisper-Server gesendet.

Direkt an OpenAI

Audio wird direkt an die OpenAI Whisper API gesendet. Es gibt keinen Zwischenserver, keinen Proxy und keine Datenspeicherung auf unserer Seite. Du kannst dies in deinem OpenAI-Nutzungs-Dashboard überprüfen.

Null Telemetrie

VibeWhisper erfasst keine Analysen deiner Diktate, keine Nutzungstelemetrie und keine Absturzberichte, die Sprachdaten enthalten. Was du sagst, bleibt zwischen dir und OpenAI.

Entwickler-FAQ

Funktioniert VibeWhisper in Terminal-Apps wie iTerm oder Warp?

Ja. VibeWhisper fügt Text über die macOS Accessibility API ein, die mit Terminal-Emulatoren funktioniert, einschließlich Terminal.app, iTerm2, Warp, Alacritty und Kitty.

Stört es meine IDE-Tastenkürzel?

Nein. VibeWhisper verwendet einen konfigurierbaren Push-to-Talk-Shortcut. Du wählst eine Taste oder Kombination, die nicht mit deinen bestehenden Belegungen kollidiert. Der Shortcut ist nur aktiv, solange er gehalten wird.

Wie geht es mit Code-spezifischem Vokabular um?

VibeWhisper nutzt OpenAI Whisper, das auf vielfältigen Daten einschließlich technischer Inhalte trainiert wurde. Es verarbeitet Begriffe wie API, JWT, WebSocket, PostgreSQL und ähnliches Entwicklervokabular korrekt.

Werden meine Diktate gespeichert oder protokolliert?

Nein. Audio wird direkt an OpenAI zur Transkription gesendet und der temporäre Puffer wird sofort verworfen. VibeWhisper speichert nichts — keine Audiodateien, keine Transkriptionsprotokolle, keine Telemetrie.

Wie ist die Latenz?

Die typische Ende-zu-Ende-Latenz liegt bei unter einer Sekunde vom Loslassen der Taste bis zum Erscheinen des Texts. Der Engpass ist der OpenAI-API-Roundtrip, der von deiner Internetverbindung und Audiolänge abhängt.

Sprache-zu-Text, gebaut für Entwickler

Push-to-Talk Sprachdiktat, das in deiner IDE, Terminal, Browser und jedem Textfeld auf macOS funktioniert. $19 einmalig.