detect Gpu
Erkennt das beste verfügbare GPU-Backend auf dem aktuellen System.
Erkennungsreihenfolge:
NVIDIA CUDA – Führt „nvidia-smi“ aus und sucht nach einem gültigen GPU-Namen.
Vulkan – Führt „vulkaninfo --summary“ aus und sucht nach einem GPU-Gerät.
NONE – Wenn keines von beiden verfügbar ist, wird auf „Nur CPU“ zurückgegriffen.
MacOS ist ausgeschlossen, da llama.cpp Metal nativ verwendet (bereits die Standard-MacOS-Binärdatei). beinhaltet Metal/GPU-Unterstützung, es ist kein separater Build erforderlich).
Return
Das erkannte GpuBackend.
Parameters
log
Log function for diagnostic output.