LLAMA

abstract class LLAMA : AI

Basisklasse für KI-Modelle, die über einen lokalen LLAMA-Serverprozess bereitgestellt werden.

Phasen

  1. Intelligenz – Betriebssystem (os.name) und Architektur (os.arch) erkennen

  2. Abrufen – Laden Sie das richtige LLAMA-Server-Binär- und GGUF-Modell herunter (mit Lebenslaufunterstützung).

  3. Initiierung – Starten Sie den Server über ProcessBuilder an einem lokalen Port

  4. Anfrage – Alle Rückschlüsse erfolgen über „http://127.0.0.1:{port}/v1/chat/completions“.

Crash-Isolierung

Da die KI in einem separaten Betriebssystemprozess ausgeführt wird, bricht das Betriebssystem ab, wenn dem Modell der RAM ausgeht LLAMA-Server-Prozess, aber die Formcycle Tomcat JVM spürt nicht einmal einen Stoß.

Plugin-Eigenschaften

EigenschaftStandardBeschreibung
Active_AIMuss llama_engine enthalten
AI_RemoveWenn llama_engine enthalten ist, alles bereinigen
AI_LLAMA_ENGINE_Port8392Lokaler Port für LLAMA-Server
AI_LLAMA_ENGINE_Threadsphysische KerneAnzahl der CPU-Threads
AI_LLAMA_ENGINE_CtxSize32768Kontextfenstergröße (gemeinsam über parallele Slots hinweg)
AI_LLAMA_ENGINE_GpuLayersautomatische ErkennungAuf die GPU ausgelagerte Ebenen (-1 = automatisch)
AI_LLAMA_ENGINE_Releaseb8175llama.cpp Release-Tag für Downloads
AI_LLAMA_ENGINE_ServerArgsZusätzliche CLI-Argumente für LLAMA-Server
AI_LLAMA_ENGINE_MaxConcurrent2Maximal zulässige gleichzeitige Rückschlüsse auf allen lokalen Servern
AI_LLAMA_ENGINE_Parallel4VERALTET Anzahl paralleler Inferenzslots pro Server (stattdessen MaxConcurrent verwenden)

Domains zur Whitelist

  • github.com – Binärversionen des Lama-Servers

  • objects.githubusercontent.com – GitHub-Release-Asset-CDN

DSGVO / EU-KI-Gesetz

  • Alle Daten bleiben auf dem lokalen Computer.

  • Keine externen API-Aufrufe.

  • Gleiche Compliance-Vorteile wie alle anderen CodBi AI-Implementierungen.

Inheritors

Constructors

Link copied to clipboard
constructor()

Types

Link copied to clipboard
object Companion

The companion for static members.

Functions

Link copied to clipboard
abstract fun execute(p0: IPluginServletActionParams): IPluginServletActionRetVal
Link copied to clipboard
Link copied to clipboard
open override fun getDisplayName(p0: Locale): String
Link copied to clipboard
abstract override fun getName(): String
Link copied to clipboard
open override fun initialize(configData: IPluginInitializeData)

Initialisiert die LLAMA-Infrastruktur: erstellt Verzeichnisse, liest Plugin-Eigenschaften. Unterklassen sollte „super.initialize(configData)“ aufrufen und dann mit dem Herunterladen und Starten von fortfahren Server.

Link copied to clipboard
open fun initPlugin()
Link copied to clipboard
open fun install(p0: IPluginInstallData)
Link copied to clipboard
open override fun shutdown(shutdownData: IPluginShutdownData?)

Fährt den LLAMA-Server-Prozess herunter und gibt Ressourcen frei.

open fun shutdown()
Link copied to clipboard

Initiiert eine Aufgabe, die nicht verwendete, abgelaufene Bilder (msExpirationIDedImages) aus dem entfernt Cache (cacheIDedImages).

Link copied to clipboard
open fun uninstall(p0: IPluginUninstallData)
Link copied to clipboard
open override fun validateConfigurationData(configData: IPluginValidationData): IPluginInitializeValidationResult?

Lehnt die Installation auf Mandantenebene ab. CodBi muss als System-Plugin installiert werden, da es KI-Dienste (Whisper, LLAMA) binden lokale Server-Ports und verwalten schwergewichtige Prozesse würde zu Konflikten führen, wenn sie einmal pro Mandant instanziiert würden.