PROBLEMA Caricare Mistral 3.1 su runpods , su macchina con GPU A100 SXM con 80 GB di VRAM

Pubblicità

Birkhoff92

Utente Attivo
Messaggi
300
Reazioni
27
Punteggio
49
Buongiorno ,
sto smanettando da stamattina per scaricare il modello di mistral da hugginface e far partire questa macchina hostata su https://www.runpod.io/ . Il modello l'ho caricato correttamente ( previo inserimento di HF_Token creata su HugginFace) . Il problema che quando provo a lanciare il comando curl per vedere se tutto funzioni anche dall esterno ( settata la porta 8000 su runpod ) :

curl.exe -X POST "https://bhr772tkmp63o-8000.proxy.runpod.net/v1/chat/completions" -H "Content-Type: application/json" -d '{\"model\": \"mistralai/Mistral-Small-3.1-24B-Instruct-2503\", \"messages\": [{\"role\": \"user\", \"content\": \"Qual è la capitale dell’Italia?\"}], \"temperature\": 0.15, \"max_tokens\": 100}'

non ricevo la risposta sperata ma un error not found 404 . Il server è correttamente su INFO 03-31 03:46:21 [api_server.py:981] vLLM API server version 0.8.2 ....

Come potrei risolvere ? Le altro info su runpod sono :


Grazie in anticipo
 
Pubblicità
Pubblicità
Indietro
Top