Anwendungsfälle
Sprache-zu-Text für Entwickler
Push-to-Talk-Diktat, das in Ihrer IDE, Terminal, Browser und jedem anderen Textfeld auf macOS funktioniert. Entwickelt für die Arbeitsweise von Entwicklern.
Entwickler-Workflows
Sprachdiktat fügt sich natürlich in die Arbeitsweise von Entwicklern ein. Hier sind die häufigsten Anwendungsfälle.
KI-Prompts diktieren
Beschreiben Sie Code-Änderungen, erklären Sie Bugs und schreiben Sie detaillierte Prompts für Claude, Copilot oder Cursor — alles per Sprache, direkt in Ihrer IDE.
„Füge eine Caching-Schicht zum User-Profile-Endpunkt hinzu, mit Redis, einer 5-Minuten-TTL und Cache-Invalidierung bei Profilaktualisierungen"
Dokumentation schreiben
Verfassen Sie READMEs, API-Dokumentation und Architekturnotizen, indem Sie Ihre Gedanken aussprechen. Erste Entwürfe in einem Bruchteil der Tippzeit.
„Behebe Race Condition in der WebSocket-Reconnect-Logik durch Hinzufügen eines Mutex-Locks und Exponential Backoff mit Jitter"
Schnelle Nachrichten
Antworten Sie auf Slack-Nachrichten, schreiben Sie PR-Beschreibungen und verfassen Sie E-Mails, ohne Ihren Editor zu verlassen. Taste halten, sprechen, fertig.
„Diese Funktion validiert den eingehenden Webhook-Payload gegen die Stripe-Signatur und lehnt Anfragen ab, die nicht übereinstimmen"
Notizen festhalten
Halten Sie Meeting-Notizen, Designentscheidungen und Ideen per Sprache in Obsidian, Apple Notizen oder jedem Textfeld fest.
„Hey Team, das Deploy ist fertig. Ich habe den Auth-Bug gefixt und Rate-Limiting zur Login-Route hinzugefügt. Gebt Bescheid, wenn ihr etwas Seltsames im Staging seht"
Sprechen und Text erscheint — echte Beispiele
Wie es tatsächlich klingt, wenn Entwickler Sprachdiktat mit VibeWhisper nutzen.
Erstelle einen REST-Endpunkt unter Schrägstrich API Schrägstrich Users, der Paginierung mit Cursor-basierter Navigation unterstützt und die Gesamtanzahl in den Response-Headern zurückgibt
Die Sidebar-Komponente rendert bei jedem Tastendruck in der Suchleiste neu, weil der Parent-State aktualisiert wird. Memoisiere die Sidebar und verschiebe den Such-State in einen lokalen Hook
Wir sollten den Monolithen in drei Services aufteilen: Auth, Billing und Notifications. Auth besitzt die User-Tabelle, Billing kommuniziert mit Stripe, und Notifications verarbeitet E-Mail und Push über eine Message Queue
Dieser PR fügt Eingabevalidierung zu allen öffentlichen API-Routen mit Zod-Schemas hinzu. Er standardisiert auch Fehlerantworten gemäß dem RFC 7807 Problem-Details-Format
Basiert auf nativen macOS-APIs
Unter der Haube
Funktioniert überall wo du tippst
VibeWhisper nutzt die macOS Accessibility API für Textinjektion. Wenn eine App ein Textfeld hat, kannst du per Sprache hinein diktieren.
IDEs & Editoren
Terminals
Kommunikation
Notizen & Docs
Entwicklertools
Sonstiges
Jede App mit einem Textfeld
Privacy-First-Architektur
VibeWhisper sieht deine Daten nie. Deine Stimme geht direkt von deinem Mac zu OpenAI — nichts dazwischen.
Dein API-Schlüssel
Dein OpenAI API-Schlüssel wird im macOS Keychain gespeichert — demselben sicheren Speicher, der für Passwörter und Zertifikate verwendet wird. Er verlässt nie deinen Rechner und wird nie an VibeWhisper-Server gesendet.
Direkt an OpenAI
Audio wird direkt an die OpenAI Whisper API gesendet. Es gibt keinen Zwischenserver, keinen Proxy und keine Datenspeicherung auf unserer Seite. Du kannst dies in deinem OpenAI-Nutzungs-Dashboard überprüfen.
Null Telemetrie
VibeWhisper erfasst keine Analysen deiner Diktate, keine Nutzungstelemetrie und keine Absturzberichte, die Sprachdaten enthalten. Was du sagst, bleibt zwischen dir und OpenAI.
Entwickler-FAQ
Funktioniert VibeWhisper in Terminal-Apps wie iTerm oder Warp?
Ja. VibeWhisper fügt Text über die macOS Accessibility API ein, die mit Terminal-Emulatoren funktioniert, einschließlich Terminal.app, iTerm2, Warp, Alacritty und Kitty.
Stört es meine IDE-Tastenkürzel?
Nein. VibeWhisper verwendet einen konfigurierbaren Push-to-Talk-Shortcut. Du wählst eine Taste oder Kombination, die nicht mit deinen bestehenden Belegungen kollidiert. Der Shortcut ist nur aktiv, solange er gehalten wird.
Wie geht es mit Code-spezifischem Vokabular um?
VibeWhisper nutzt OpenAI Whisper, das auf vielfältigen Daten einschließlich technischer Inhalte trainiert wurde. Es verarbeitet Begriffe wie API, JWT, WebSocket, PostgreSQL und ähnliches Entwicklervokabular korrekt.
Werden meine Diktate gespeichert oder protokolliert?
Nein. Audio wird direkt an OpenAI zur Transkription gesendet und der temporäre Puffer wird sofort verworfen. VibeWhisper speichert nichts — keine Audiodateien, keine Transkriptionsprotokolle, keine Telemetrie.
Wie ist die Latenz?
Die typische Ende-zu-Ende-Latenz liegt bei unter einer Sekunde vom Loslassen der Taste bis zum Erscheinen des Texts. Der Engpass ist der OpenAI-API-Roundtrip, der von deiner Internetverbindung und Audiolänge abhängt.
Sprache-zu-Text, gebaut für Entwickler
Push-to-Talk Sprachdiktat, das in deiner IDE, Terminal, Browser und jedem Textfeld auf macOS funktioniert. $19 einmalig.