Standard

class Standard : LLAMA

Standard – Allgemeiner GGUF-Modellläufer über den lokalen LLAMA-Server-Prozess. Alle KI-Berechnungen finden statt im externen LLAMA-Server-Prozess. Wenn es OOMs gibt, bleibt die Tomcat-JVM am Leben – nur die LLAMA-Server stirbt.

Plugin-Eigenschaften

EigenschaftTypStandardBeschreibung
Active_AIStringMuss llama_std enthalten, um dieses Modell zu aktivieren
AI_LLAMA_STD_ModelUrlURLQwen3-VL-2B Q4_K_M HuggingFaceDownload-URL für die GGUF-Modelldatei
AI_LLAMA_STD_MmprojUrlURLQwen3-VL-2B mmproj (bei Verwendung des Standardmodells)Download-URL für die Vision-Projektordatei (mmproj). Bei Nur-Text-Modellen weglassen (Sichtfunktionen deaktiviert). Automatische Einstellung bei Verwendung des Standard-VL-Modells
AI_LLAMA_STD_MaxPixelsLong3211264Maximales Pixelbudget für die Bildverkleinerung (min. 3136)
AI_LLAMA_STD_MaxUploadBytesLong52428800Maximale Rohbildgröße in Bytes vor der Dekodierung (Standard 50 MB, min. 1 MB)
AI_LLAMA_STD_MaxTokensInt2048Maximal zu generierende Token pro Antwort
AI_LLAMA_STD_MaxRAMPercentDouble101.0RAM-Nutzungsschwellenwert (%) – blockiert Anfragen, wenn sie überschritten werden
AI_LLAMA_STD_MaxComputePercentDouble101.0Rechennutzungsschwellenwert (%) – Gates auf GPU % (CUDA) oder CPU % (Fallback). Blockiert Anfragen bei Überschreitung
AI_LLAMA_STD_MaxCPUPercentDoubleLegacy-Alias für MaxComputePercent (als Fallback akzeptiert)
AI_LLAMA_STD_LlamaReleaseStringb8175llama.cpp Release-Tag für Server-Binär-Download
AI_LLAMA_STD_ServerUrl_<Plattform>URL(automatisch vom Release-Tag)Plattformspezifische Überschreibung für die LLAMA-Server-Binär-URL
AI_LLAMA_STD_UpdateCheckHoursLong24Stunden zwischen GitHub-Release-Checks (0 = deaktiviert)
AI_LLAMA_STD_NotifyEmailStringE-Mail-Adresse für Update-Benachrichtigungen
AI_LLAMA_STD_ThinkingModelUrlURLDownload-URL für ein dediziertes Denkmodell GGUF (optional)
AI_LLAMA_STD_ThinkingMmprojUrlURLDownload-URL für die mmproj-Datei des Denkmodells (optional)
AI_LLAMA_STD_ExternalUrlURLBasis-URL einer externen OpenAI-kompatiblen API; überschreibt lokales Modell
AI_LLAMA_STD_ExternalApiKeyStringAPI-Schlüssel für die externe AI (als Bearer-Token gesendet)
AI_LLAMA_STD_ExternalModelStringModellname für die externe API (z. B. gpt-4o, claude-3-opus)
AI_LLAMA_STD_ExternalNoPromptBooleanfalseWenn „true“, überspringt alle integrierten Systemaufforderungsabschnitte (§1–§6) für die externe KI – sendet nur die Benutzernachricht und den Chatverlauf.
AI_LLAMA_STD_PromptIdentityString(integriert)Überschreiben Sie den Identitäts-/Rollensatz („Sie sind ein hilfreicher Assistent ...“). Verwenden Sie „{date}“ für das heutige Datum, „{time}“ für die aktuelle Uhrzeit.
AI_LLAMA_STD_PromptLocationString(integriert)Überschreiben Sie die Standortkontextanweisung. Verwenden Sie „{location}“ als Platzhalter.
AI_LLAMA_STD_PromptSearchString(eingebaut)Überschreiben Sie den CALL:search-Anweisungsblock (vor den Beispielen).
AI_LLAMA_STD_PromptThinkingString(integriert)Überschreiben Sie die Denkmodus-Anweisung. Verwenden Sie „{Sprache}“ als Platzhalter.
AI_LLAMA_STD_PromptNoInternetString(integriert)Überschreiben Sie die Warnung „Kein Internetzugang“.
AI_LLAMA_STD_PromptRulesString(integriert)Überschreiben Sie die allgemeinen Regeln (Sprache, Maße, Unabhängigkeit).
AI_LLAMA_STD_FallbackLocationStringFallback-Standort-String, der verwendet wird, wenn die Geolokalisierung fehlschlägt (z. B. „Ansbach, Nürnberger Straße 32, Bayern, Deutschland“)
AI_LLAMA_STD_NominatimDomainStringnominatim.openstreetmap.orgDomäne für Reverse-Geokodierungsanfragen (ohne Pfad).
AI_LLAMA_STD_IpGeolocationDomainStringipwho.isDomäne für IP-Geolocation-Anfragen (ohne Pfad).
AI_BraveSearch_ApiKeyStringBrave Search API-Schlüssel – aktiviert das Websuchtool für das Modell
AI_BraveSearch_MaxResultsInt5Maximale Anzahl von Brave Search-Ergebnissen pro Abfrage (1–20).
AI_LLAMA_STD_LanguageStringZweibuchstabiger ISO 639-1-Code (z. B. „de“, „fr“) – zwingt die KI, in dieser Sprache zu antworten und überspringt die automatische Erkennung. Überschrieben durch die funktionsspezifische Antwortsprache toLoad.
AI_LLAMA_STD_SPECIALIST_XXXURLDownload-URL für ein spezielles GGUF-Modell namens „XXX“. Der Name wird vom Administrator ausgewählt und von der „specialist“-toLoad-Eigenschaft ohne Berücksichtigung der Groß-/Kleinschreibung abgeglichen.
AI_LLAMA_STD_SPECIALIST_MMProj_XXXURLDownload-URL für den multimodalen Projektor (mmproj) des Spezialisten „XXX“. Optional – weglassen, wenn das Spezialistenmodell keine Sichtfähigkeit hat.
AI_LLAMA_STD_EXT_SPECIALIST_XXXURLBasis-URL einer externen OpenAI-kompatiblen API für einen Spezialisten namens „XXX“. Wird von der toLoad-Eigenschaft „specialist“ ohne Berücksichtigung der Groß- und Kleinschreibung abgeglichen.
AI_LLAMA_STD_EXT_SPECIALIST_Key_XXXStringAPI-Schlüssel für den externen Spezialisten „XXX“ (als Bearer-Token gesendet). Optional.
AI_LLAMA_STD_EXT_SPECIALIST_Model_XXXStringModellname für den externen Spezialisten „XXX“ (z. B. „gpt-4o“). Optional – weglassen, um den API-Standard zu verwenden.
AI_LLAMA_STD_ExtraParamsJSONZusätzliche Parameter, die an jeden Vervollständigungsanforderungstext angehängt werden (z. B. {"top_p":0.9,"seed":42}). Die Schlüssel „messages“, „stream“, „model“, „id_slot“ und „logprobs“ werden stillschweigend ignoriert.

Domains zur Whitelist

  • github.com – LLAMA-Server-Binärversionen und Release-Check-API

  • api.github.com – Überprüfung der neuesten Version

  • objects.githubusercontent.com – GitHub-Release-Asset-CDN

  • huggingface.co – GGUF-Modell und mmproj-Downloads

  • nominatim.openstreetmap.org – umgekehrte Geokodierung für den Standortkontext

  • ipwho.is – IP-basierter Geolocation-Fallback

  • api.search.brave.com – Brave-Websuche (nur wenn „AI_BraveSearch_ApiKey“ konfiguriert ist)

Constructors

Link copied to clipboard
constructor()

Types

Link copied to clipboard
object Companion

Companion for static members.

Functions

Link copied to clipboard
open override fun execute(params: IPluginServletActionParams): IPluginServletActionRetVal

Leitet eingehende Anfragen an einen von drei Handlern weiter:

Link copied to clipboard
Link copied to clipboard
open override fun getDisplayName(p0: Locale): String
Link copied to clipboard
open override fun getName(): String
Link copied to clipboard
open override fun initialize(configData: IPluginInitializeData)

Liest alle Plugin-Eigenschaften, lädt bei Bedarf Modelldateien herunter und startet den LLAMA-Server -Prozess und startet den Ressourcenmonitor und den Versionsprüfungs-Daemon.

Link copied to clipboard
open fun initPlugin()
Link copied to clipboard
open fun install(p0: IPluginInstallData)
Link copied to clipboard
open override fun shutdown(shutdownData: IPluginShutdownData?)

Zerstört alle Hintergrundressourcen: Update-Checker, Ressourcenmonitor, Streaming-Sitzungen, denkender Server und der Basisklassen-Serverprozess.

open fun shutdown()
Link copied to clipboard

Initiiert eine Aufgabe, die nicht verwendete, abgelaufene Bilder (msExpirationIDedImages) aus dem entfernt Cache (cacheIDedImages).

Link copied to clipboard
open fun uninstall(p0: IPluginUninstallData)
Link copied to clipboard
open override fun validateConfigurationData(configData: IPluginValidationData): IPluginInitializeValidationResult?

Lehnt die Installation auf Mandantenebene ab. CodBi muss als System-Plugin installiert werden, da es KI-Dienste (Whisper, LLAMA) binden lokale Server-Ports und verwalten schwergewichtige Prozesse würde zu Konflikten führen, wenn sie einmal pro Mandant instanziiert würden.