Panoramica dell'inferenza del modello
Questo documento descrive i tipi di inferenza batch che BigQuery ML che includono:
L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output come punteggio. Questa procedura è nota anche come "implementazione di un modello di machine learning" o "messa in produzione di un modello di machine learning".
Previsione batch
Le seguenti sezioni descrivono i modi disponibili per eseguire le previsioni in in BigQuery ML.
Inferenza mediante modelli addestrati di BigQuery ML
La previsione in BigQuery ML viene utilizzata non solo per i modelli di apprendimento supervisionato, ma e modelli di apprendimento non supervisionato.
BigQuery ML supporta le funzionalità di previsione tramite
Funzione ML.PREDICT
,
con i seguenti modelli:
Categoria di modello | Tipi di modello | Che cosa fa ML.PREDICT |
---|---|---|
Apprendimento supervisionato |
Lineare e regressione logistica Alberi potenziati Foresta casuale Reti neurali profonde Grande e profondo AutoML Tables |
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione. |
Apprendimento non supervisionato | K-means | Assegna il cluster all'entità. |
PCA | Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori. | |
Codificatore automatico | Trasforma l'entità nello spazio incorporato. |
Inferenza mediante modelli importati
Con questo approccio, crei e addestri un modello al di fuori
BigQuery, importalo utilizzando
CREATE MODEL
,
ed eseguire l'inferenza su quest'ultima utilizzando
Funzione ML.PREDICT
.
L'elaborazione di tutte le inferenze avviene in BigQuery, utilizzando i dati provenienti
in BigQuery. I modelli importati possono eseguire attività
supervisionato e non supervisionato.
BigQuery ML supporta le seguenti tipi di modelli importati:
- Open Neural Network Exchange (ONNX) per modelli addestrati in PyTorch, scikit-learn e altri framework ML molto diffusi.
- TensorFlow
- TensorFlow Lite
- XGBoost
Utilizza questo approccio per fare uso di modelli personalizzati sviluppati con una gamma di framework ML sfruttando al contempo le funzionalità velocità di inferenza e colocation con i dati.
Per saperne di più, prova uno dei seguenti tutorial:
- Effettuare previsioni con modelli TensorFlow importati
- Fai previsioni con i modelli scikit-learn in formato ONNX
- Eseguire previsioni con modelli PyTorch in formato ONNX
Inferenza mediante modelli remoti
Con questo approccio, puoi creare un riferimento a un modello
ospitata in Vertex AI Prediction
utilizzando
CREATE MODEL
,
ed eseguire l'inferenza su quest'ultima utilizzando
Funzione ML.PREDICT
.
L'elaborazione dell'inferenza avviene in Vertex AI, utilizzando i dati provenienti
in BigQuery. I modelli remoti possono eseguire
supervisionato e non supervisionato.
Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono la GPU il supporto hardware fornito da Vertex AI. Se la maggior parte dei tuoi che i modelli sono ospitati da Vertex AI, questo ti consente anche di eseguire l'inferenza rispetto a questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e generare previsioni a BigQuery.
Per istruzioni passo passo, vedi Fai previsioni con modelli remoti su Vertex AI.
Interruzione batch con i modelli BigQuery in Vertex AI
BigQuery ML dispone di supporto integrato per la previsione batch, senza
non serve usare Vertex AI. È anche possibile registrare un
da BigQuery ML a Model Registry per
eseguire una previsione batch in Vertex AI utilizzando
Tabella BigQuery come input. Tuttavia, questo può essere fatto solo utilizzando l'API Vertex AI e impostando InstanceConfig.instanceType
su object
.
Previsione online
La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per i casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML fornisce risultati di inferenza a bassa latenza quando si gestiscono piccoli dati di input, è possibile ottenere previsioni online più veloci attraverso un'integrazione perfetta con Vertex AI.
Puoi gestire i modelli BigQuery ML nell'ambiente Vertex AI, eliminando così la necessità di esportare i modelli da BigQuery ML prima eseguendone poi il deployment come endpoint Vertex AI. Gestire i modelli in Vertex AI ti consente di accedere a tutte le funzionalità di MLOps di Vertex AI, nonché a funzionalità come Vertex AI Feature Store.
Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.
Passaggi successivi
- Per ulteriori informazioni sull'uso dei modelli Vertex AI per generare testo e incorporamenti, vedere Panoramica dell'IA generativa.
- Per ulteriori informazioni sull'utilizzo delle API Cloud AI per eseguire attività di IA, consulta Panoramica dell'applicazione dell'IA.
- Per informazioni sui tipi di modelli e sulle funzioni SQL supportati per ciascun tipo di inferenza, vedi Percorso dell'utente end-to-end per ogni modello.