Whisper

class Whisper : AI

Wandelt Sprache über einen Whisper-Server in Text um.

Domains zur Whitelist

  • github.com – Whisper-Server-Binärversionen (ggml-org/whisper.cpp) und ffmpeg (BtbN/FFmpeg-Builds)

  • objects.githubusercontent.com – GitHub-Release-Asset-CDN

  • huggingface.co – Whisper GGML-Modell-Downloads

DSGVO / DSGVO-Compliance

Alle Audiodaten werden lokal auf dem Server verarbeitet (nur über einen lokalen Server). Es liegen keine Daten vor an einen beliebigen Cloud-Dienst (Google, Microsoft, OpenAI usw.) übermittelt. Das macht es zum Ideal Lösung für Organisationen, die DSGVO-konforme Spracherkennung benötigen.

Plugin-Eigenschaften

EigenschaftTypStandardBeschreibung
Active_AIStringMuss „Whisper“ enthalten, um
AI_RemoveWenn „Whisper“ enthält, alle Whisper-Dateien bereinigen
AI_Whisper_ModelUrlURLggml-smallGGML-Modell-URL. Alternativen: ggml-base, ggml-medium, ggml-large-v3-turbo-q5_0
AI_Whisper_PortInt8393Lokaler Port für Whisper-Server
AI_Whisper_ReleaseStringv1.7.6whisper.cpp Release-Tag für Binär-Downloads
AI_Whisper_ReleaseBaseUrlURLGitHub-ReleaseBasis-URL-Präfix, das zum Herunterladen von whisper.cpp-Release-Assets verwendet wird (Release-Tag wird automatisch angehängt).
AI_Whisper_NoGpuBoolfalseSetzen Sie „true“, um die GPU zu deaktivieren und nur die CPU zu erzwingen
AI_Whisper_ThreadsIntphysische KerneCPU-Threads für Whisper-Server
AI_Whisper_MaxRAMPercentDouble101.0RAM-Nutzungsschwellenwert (%) – blockiert Anfragen, wenn sie überschritten werden
AI_Whisper_MaxComputePercentDouble101.0Rechennutzungsschwellenwert (%) – Gates auf GPU % (CUDA) oder CPU % (Fallback). Blockiert Anfragen bei Überschreitung
AI_Whisper_MaxCPUPercentDoubleLegacy-Alias für MaxComputePercent (als Fallback akzeptiert)
AI_Whisper_ExternalUrlURLBasis-URL einer OpenAI-kompatiblen Speech-to-Text-API (z. B. „https://api.openai.com“). Wenn festgelegt, wird der lokale Whisper-Server NICHT gestartet.
AI_Whisper_ExternalApiKeyStringBearer-Token/API-Schlüssel für die externe API.
AI_Whisper_ExternalModelStringwhisper-1Modellname, der im Feld „model“ der externen API-Anfrage gesendet werden soll.

Constructors

Link copied to clipboard
constructor()

Types

Link copied to clipboard
object Companion

Functions

Link copied to clipboard
open override fun execute(params: IPluginServletActionParams): IPluginServletActionRetVal
Link copied to clipboard
Link copied to clipboard
open override fun getDisplayName(p0: Locale): String
Link copied to clipboard
open override fun getName(): String

Gibt den Namen dieser KI an.

Link copied to clipboard
open override fun initialize(configData: IPluginInitializeData)

Initialisiert die KI-Komponenten durch Lesen von Konfigurationseigenschaften. Konkret erwirbt es die „msExpirationIDedImages“ aus der Plugin-Eigenschaft „AI_CachedImageExpiration“. Unterklassen sollten diese Methode zu Beginn ihrer eigenen „initialize“-Implementierung aufrufen.

Link copied to clipboard
open fun initPlugin()
Link copied to clipboard
open fun install(p0: IPluginInstallData)
Link copied to clipboard
open override fun shutdown(shutdownData: IPluginShutdownData?)

Fährt das Whisper-Modul herunter – stoppt den Ressourcenmonitor, beendet den Whisper-Server-Prozess, und setzt den Bereitschaftszustand zurück.

open fun shutdown()
Link copied to clipboard

Initiiert eine Aufgabe, die nicht verwendete, abgelaufene Bilder (msExpirationIDedImages) aus dem entfernt Cache (cacheIDedImages).

Link copied to clipboard
open fun uninstall(p0: IPluginUninstallData)
Link copied to clipboard
open override fun validateConfigurationData(configData: IPluginValidationData): IPluginInitializeValidationResult?

Lehnt die Installation auf Mandantenebene ab. CodBi muss als System-Plugin installiert werden, da es KI-Dienste (Whisper, LLAMA) binden lokale Server-Ports und verwalten schwergewichtige Prozesse würde zu Konflikten führen, wenn sie einmal pro Mandant instanziiert würden.