Whisper
Wandelt Sprache über einen Whisper-Server in Text um.
Domains zur Whitelist
github.com – Whisper-Server-Binärversionen (ggml-org/whisper.cpp) und ffmpeg (BtbN/FFmpeg-Builds)
objects.githubusercontent.com – GitHub-Release-Asset-CDN
huggingface.co – Whisper GGML-Modell-Downloads
DSGVO / DSGVO-Compliance
Alle Audiodaten werden lokal auf dem Server verarbeitet (nur über einen lokalen Server). Es liegen keine Daten vor an einen beliebigen Cloud-Dienst (Google, Microsoft, OpenAI usw.) übermittelt. Das macht es zum Ideal Lösung für Organisationen, die DSGVO-konforme Spracherkennung benötigen.
Plugin-Eigenschaften
| Eigenschaft | Typ | Standard | Beschreibung |
|---|---|---|---|
Active_AI | String | — | Muss „Whisper“ enthalten, um |
AI_Remove | — | — | Wenn „Whisper“ enthält, alle Whisper-Dateien bereinigen |
AI_Whisper_ModelUrl | URL | ggml-small | GGML-Modell-URL. Alternativen: ggml-base, ggml-medium, ggml-large-v3-turbo-q5_0 |
AI_Whisper_Port | Int | 8393 | Lokaler Port für Whisper-Server |
AI_Whisper_Release | String | v1.7.6 | whisper.cpp Release-Tag für Binär-Downloads |
AI_Whisper_ReleaseBaseUrl | URL | GitHub-Release | Basis-URL-Präfix, das zum Herunterladen von whisper.cpp-Release-Assets verwendet wird (Release-Tag wird automatisch angehängt). |
AI_Whisper_NoGpu | Bool | false | Setzen Sie „true“, um die GPU zu deaktivieren und nur die CPU zu erzwingen |
AI_Whisper_Threads | Int | physische Kerne | CPU-Threads für Whisper-Server |
AI_Whisper_MaxRAMPercent | Double | 101.0 | RAM-Nutzungsschwellenwert (%) – blockiert Anfragen, wenn sie überschritten werden |
AI_Whisper_MaxComputePercent | Double | 101.0 | Rechennutzungsschwellenwert (%) – Gates auf GPU % (CUDA) oder CPU % (Fallback). Blockiert Anfragen bei Überschreitung |
AI_Whisper_MaxCPUPercent | Double | — | Legacy-Alias für MaxComputePercent (als Fallback akzeptiert) |
AI_Whisper_ExternalUrl | URL | — | Basis-URL einer OpenAI-kompatiblen Speech-to-Text-API (z. B. „https://api.openai.com“). Wenn festgelegt, wird der lokale Whisper-Server NICHT gestartet. |
AI_Whisper_ExternalApiKey | String | — | Bearer-Token/API-Schlüssel für die externe API. |
AI_Whisper_ExternalModel | String | whisper-1 | Modellname, der im Feld „model“ der externen API-Anfrage gesendet werden soll. |
Functions
Initialisiert die KI-Komponenten durch Lesen von Konfigurationseigenschaften. Konkret erwirbt es die „msExpirationIDedImages“ aus der Plugin-Eigenschaft „AI_CachedImageExpiration“. Unterklassen sollten diese Methode zu Beginn ihrer eigenen „initialize“-Implementierung aufrufen.
Initiiert eine Aufgabe, die nicht verwendete, abgelaufene Bilder (msExpirationIDedImages) aus dem entfernt Cache (cacheIDedImages).
Lehnt die Installation auf Mandantenebene ab. CodBi muss als System-Plugin installiert werden, da es KI-Dienste (Whisper, LLAMA) binden lokale Server-Ports und verwalten schwergewichtige Prozesse würde zu Konflikten führen, wenn sie einmal pro Mandant instanziiert würden.