LLAMA

abstract class LLAMA : AI

Classe base per modelli AI serviti tramite un processo server LLAMA locale.

Fasi

  1. Intelligenza: rileva il sistema operativo (os.name) e l'architettura (os.arch)

  2. Recupera: scarica il modello binario LLAMA-Server + GGUF corretto (con supporto per il curriculum)

  3. Ignition: avvia il server tramite ProcessBuilder su una porta locale

  4. Richiesta — Tutte le inferenze passano attraverso http://127.0.0.1:{port}/v1/chat/completions.

Isolamento in caso di incidente

Poiché l'intelligenza artificiale viene eseguita in un processo del sistema operativo separato, se il modello esaurisce la RAM, il sistema operativo interrompe il Processo LLAMA-Server ma la JVM Formcycle Tomcat non avverte nemmeno un urto.

Proprietà del plugin

ProprietàPredefinitoDescrizione
Active_AIDeve contenere llama_engine
AI_RemoveSe contiene llama_engine, ripulisci tutto
AI_LLAMA_ENGINE_Port8392Porta locale per server LLAMA
AI_LLAMA_ENGINE_Threadscore fisiciNumero di thread della CPU
AI_LLAMA_ENGINE_CtxSize32768Dimensione della finestra di contesto (condivisa tra slot paralleli)
AI_LLAMA_ENGINE_GpuLayersrilevamento automaticoLivelli scaricati sulla GPU (-1 = automatico)
AI_LLAMA_ENGINE_Releaseb8175Tag di rilascio llama.cpp per i download
AI_LLAMA_ENGINE_ServerArgsArgomenti CLI aggiuntivi per LLAMA-Server
AI_LLAMA_ENGINE_MaxConcurrent2Numero massimo di inferenze simultanee consentite su tutti i server locali
AI_LLAMA_ENGINE_Parallel4DEPRECATED Numero di slot di inferenza parallela per server (utilizza invece MaxConcurrent)

Domini da autorizzare

  • github.com: versioni binarie del server lama

  • objects.githubusercontent.com: CDN delle risorse di rilascio di GitHub

DSGVO / Legge UE-AI

  • Tutti i dati rimangono sul computer locale.

  • Nessuna chiamata API esterna.

  • Stessi vantaggi di conformità di tutte le altre implementazioni AI di CodBi.

Inheritors

Constructors

Link copied to clipboard
constructor()

Types

Link copied to clipboard
object Companion

The companion for static members.

Functions

Link copied to clipboard
abstract fun execute(p0: IPluginServletActionParams): IPluginServletActionRetVal
Link copied to clipboard
Link copied to clipboard
open override fun getDisplayName(p0: Locale): String
Link copied to clipboard
abstract override fun getName(): String
Link copied to clipboard
open override fun initialize(configData: IPluginInitializeData)

Inizializza l'infrastruttura LLAMA: crea directory, legge le proprietà del plugin. Sottoclassi dovrebbe chiamare super.initialize(configData) quindi procedere con il download e l'avvio del file server.

Link copied to clipboard
open fun initPlugin()
Link copied to clipboard
open fun install(p0: IPluginInstallData)
Link copied to clipboard
open override fun shutdown(shutdownData: IPluginShutdownData?)

Arresta il processo LLAMA-Server e rilascia risorse.

open fun shutdown()
Link copied to clipboard

Avvia un'attività che rimuove le immagini inutilizzate scadute (msExpirationIDedImages) dal cache (cacheIDedImages).

Link copied to clipboard
open fun uninstall(p0: IPluginUninstallData)
Link copied to clipboard
open override fun validateConfigurationData(configData: IPluginValidationData): IPluginInitializeValidationResult?

Rifiuta l'installazione a livello di tenant. CodBi deve essere installato come plugin di sistema perché è I servizi AI (Whisper, LLAMA) collegano le porte del server locale e gestiscono processi pesanti sarebbe in conflitto se istanziato una volta per tenant.