Whisper
Trascrive il discorso in testo tramite un Whisper-Server.
Domini da autorizzare
github.com: versioni binarie del server sussurro (ggml-org/whisper.cpp) e ffmpeg (Build BtbN/FFmpeg)
objects.githubusercontent.com: CDN delle risorse di rilascio di GitHub
huggingface.co: download dei modelli Whisper GGML
Conformità DSGVO/GDPR
Tutti i dati audio vengono elaborati localmente sul server (utilizzando solo un server locale). Nessun dato lo è trasmessi a qualsiasi servizio cloud (Google, Microsoft, OpenAI, ecc.). Questo lo rende l'ideale soluzione per le organizzazioni che richiedono il riconoscimento vocale conforme al DSGVO.
Proprietà del plugin
|Proprietà |Tipo |Predefinito |Descrizione | |------------------------------|------|------|------------------------------------------------------------------------------------------------------------------------|| |Active_AI |String|— |Deve contenere "sussurro" per attivare | |AI_Remove |— |— |Se contiene sussurro, ripulisci tutti i file sussurro | |AI_Whisper_ModelUrl |URL |ggml-small |URL del modello GGML. Alternative: ggml-base, ggml-medium, ggml-large-v3-turbo-q5_0 | |AI_Whisper_Port |Int |8393 |Porta locale per server Whisper | |AI_Whisper_Release |String|v1.7.6 |tag di rilascio whisper.cpp per download binari | |AI_Whisper_ReleaseBaseUrl |URL |GitHub release|Prefisso URL di base utilizzato per scaricare le risorse di rilascio di Whisper.cpp (il tag di rilascio viene aggiunto automaticamente). | |AI_Whisper_NoGpu |Bool |false |Imposta "true" per disabilitare la GPU e forzare solo la CPU | |AI_Whisper_Threads |Int |core fisici|Thread CPU per server Whisper | |AI_Whisper_MaxRAMPercent |Double|101.0 |Soglia di utilizzo della RAM (%): blocca le richieste quando viene superata | |AI_Whisper_MaxComputePercent|Double|101.0 |Soglia di utilizzo del calcolo (%): gate su GPU% (CUDA) o CPU% (fallback). Blocca le richieste quando vengono superate | |AI_Whisper_MaxCPUPercent |Double|— |Alias legacy per MaxComputePercent (accettato come fallback) | |AI_Whisper_ExternalUrl |URL |— |URL di base di un'API di sintesi vocale compatibile con OpenAI (ad esempio https://api.openai.com). Quando impostato, il server Whisper locale NON viene avviato.| |AI_Whisper_ExternalApiKey |String|— |Token portatore/chiave API per l'API esterna. | |AI_Whisper_ExternalModel |String|whisper-1 |Nome del modello da inviare nel campo model della richiesta API esterna. |* |AI_Whisper_AutoDetectLanguage|Boolean|false|Se true, sussurro rileva sempre automaticamente la lingua parlata. L'impostazione predefinita ("false") utilizza la lingua "Accetta" del browser come suggerimento.|
Functions
Inizializza i componenti AI leggendo le proprietà di configurazione. Nello specifico, acquisisce il msExpirationIDedImages dalla proprietà del plugin "AI_CachedImageExpiration". Sottoclassi dovrebbero chiamare questo metodo all'inizio della propria implementazione "initialize".
Avvia un'attività che rimuove le immagini inutilizzate scadute (msExpirationIDedImages) dal cache (cacheIDedImages).
Rifiuta l'installazione a livello di tenant. CodBi deve essere installato come plugin di sistema perché è I servizi AI (Whisper, LLAMA) collegano le porte del server locale e gestiscono processi pesanti sarebbe in conflitto se istanziato una volta per tenant.