detectGpu

Erkennt das beste verfügbare GPU-Backend auf dem aktuellen System.

Erkennungsreihenfolge:

  1. NVIDIA CUDA – Führt „nvidia-smi“ aus und sucht nach einem gültigen GPU-Namen.

  2. Vulkan – Führt „vulkaninfo --summary“ aus und sucht nach einem GPU-Gerät.

  3. NONE – Wenn keines von beiden verfügbar ist, wird auf „Nur CPU“ zurückgegriffen.

MacOS ist ausgeschlossen, da llama.cpp Metal nativ verwendet (bereits die Standard-MacOS-Binärdatei). beinhaltet Metal/GPU-Unterstützung, es ist kein separater Build erforderlich).

Return

Das erkannte GpuBackend.

Parameters

log

Log function for diagnostic output.