detectGpu

Rileva il miglior backend GPU disponibile sul sistema attuale.

Ordine di rilevamento:

  1. NVIDIA CUDA: esegue nvidia-smi e controlla un nome GPU valido.

  2. Vulkan: esegue vulkaninfo --summary e verifica la presenza di un dispositivo GPU.

  3. NONE — Se nessuno dei due è disponibile, torna a Solo CPU.

MacOS è escluso perché llama.cpp utilizza Metal in modo nativo (già il binario standard di macOS include il supporto Metal/GPU, non è necessaria alcuna build separata).

Return

Il GpuBackend rilevato.

Parameters

log

Log function for diagnostic output.