Se scrivi il tuo codice di addestramento anziché utilizzare AutoML, esistono diversi modi per eseguire l'addestramento personalizzato da prendere in considerazione. Questo documento fornisce una breve panoramica e un confronto dei diversi modi in cui puoi eseguire l'addestramento personalizzato.
Risorse di addestramento personalizzato su Vertex AI
Esistono tre tipi di risorse Vertex AI che puoi creare per addestrare modelli personalizzati su Vertex AI:
Quando crei un job personalizzato, devi specificare le impostazioni di cui ha bisogno Vertex AI per eseguire il codice di addestramento, tra cui:
- Un pool di worker
per l'addestramento con un nodo singolo (
WorkerPoolSpec
) oppure più pool di worker per l'addestramento distribuito - Impostazioni facoltative per la configurazione della pianificazione dei job (
Scheduling
), impostazione di determinate variabili di ambiente per il codice di addestramento, utilizzo di un account di servizio personalizzato e utilizzo del peering di reti VPC
All'interno dei pool di worker, puoi specificare le seguenti impostazioni:
- Tipi di macchine e acceleratori
- Configurazione del tipo di codice di addestramento eseguito dal pool di worker: un'applicazione di addestramento Python (
PythonPackageSpec
) o un container personalizzato (ContainerSpec
)
I job di ottimizzazione degli iperparametri hanno impostazioni aggiuntive da configurare, ad esempio la metrica. Scopri di più sull'ottimizzazione degli iperparametri.
Una pipeline di addestramento orchestra i job di addestramento personalizzato o di ottimizzazione degli iperparametri con passaggi aggiuntivi, come il caricamento di un set di dati o il caricamento del modello su Vertex AI dopo il completamento del job di addestramento.
Risorse di addestramento personalizzate
Per visualizzare le pipeline di addestramento esistenti nel tuo progetto, vai alla pagina Pipeline di addestramento nella sezione Vertex AI della consoleGoogle Cloud .
Vai alle pipeline di addestramento
Per visualizzare i job personalizzati esistenti nel tuo progetto, vai alla pagina Job personalizzati.
Per visualizzare i job di ottimizzazione degli iperparametri esistenti nel tuo progetto, vai alla pagina Ottimizzazione iperparametri.
Vai a Ottimizzazione degli iperparametri
Container predefiniti e personalizzati
Prima di inviare un job di addestramento personalizzato, un job di ottimizzazione degli iperparametri o una pipeline di addestramento a Vertex AI, devi creare un'applicazione di addestramento Python o un container personalizzato per definire il codice di addestramento e le dipendenze che vuoi eseguire su Vertex AI. Se crei un'applicazione di addestramento Python utilizzando TensorFlow, PyTorch, scikit-learn o XGBoost, puoi utilizzare i nostri container predefiniti per eseguire il codice. Se non sai quale di queste opzioni scegliere, consulta i requisiti del codice di addestramento per saperne di più.
Addestramento distribuito
Puoi configurare un job di addestramento personalizzato, un job di ottimizzazione degli iperparametri o una pipeline di addestramento per l'addestramento distribuito specificando più pool di worker:
- Utilizza il primo worker pool per configurare la replica principale e imposta il numero di repliche su 1.
- Aggiungi altri worker pool per configurare le repliche dei worker, le repliche del server dei parametri o le repliche del valutatore, se il tuo framework di machine learning supporta queste attività di cluster aggiuntive per l'addestramento distribuito.
Scopri di più sull'utilizzo dell'addestramento distribuito.
Passaggi successivi
- Scopri come creare una risorsa permanente per eseguire job di addestramento personalizzati.
- Consulta Creare job di addestramento personalizzato per scoprire come creare job di addestramento personalizzato per eseguire le tue applicazioni di addestramento personalizzato su Vertex AI.
- Consulta Creare pipeline di addestramento per scoprire come creare pipeline di addestramento per eseguire applicazioni di addestramento personalizzato su Vertex AI.
- Consulta Utilizzo dell'ottimizzazione degli iperparametri per scoprire di più sulle ricerche di ottimizzazione degli iperparametri.