En esta página, se describe cómo obtener predicciones por lotes con BigQuery.
1. Prepara tus entradas
Entrada de almacenamiento de BigQuery
- Tu cuenta de servicio debe tener los permisos de BigQuery adecuados. Para otorgar a la cuenta de servicio el rol de Usuario de BigQuery, usa el comando
gcloud iam service-accounts add-iam-policy-binding
de la siguiente manera:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID@PROJECT_ID.iam.gserviceaccount.com" \ --role="roles/bigquery.user"
Reemplaza los siguientes valores:
* <var>PROJECT_ID</var>: The project that your service account was
created in.
* <var>SERVICE_ACCOUNT_ID</var>: The ID for the service account.
- Se requiere una columna
request
, que debe ser un JSON válido. Estos datos en formato JSON representan la entrada para el modelo. - El contenido de la columna
request
debe coincidir con la estructura de unGenerateContentRequest
. + Tu tabla de entrada puede tener tipos de datos de columna distintos derequest
. Estas columnas pueden tener tipos de datos de BigQuery, excepto los siguientes: array, struct, range, datetime y geography. Estas columnas se ignoran para la generación de contenido, pero se incluyen en la tabla de resultados.
Ejemplo de entrada (JSON) |
---|
|
2. Envía un trabajo por lotes
Puedes crear un trabajo por lotes a través de la Google Cloud consola, el SDK de Gen AI de Google o la API de REST.
El trabajo y la tabla deben estar en la misma región.
Console
- En la sección Vertex AI de la Google Cloud consola, ve a la página Inferencia por lotes.
- Haz clic en Crear.
REST
Para crear un trabajo de predicción por lotes, usa el método projects.locations.batchPredictionJobs.create
.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es una región que admite modelos de Gemini.
- PROJECT_ID: El ID del proyecto.
- MODEL_PATH: Es el nombre del modelo de publicador, por ejemplo,
publishers/google/models/gemini-2.0-flash-001
, o el nombre del extremo ajustado, por ejemplo,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID
, donde MODEL_ID es el ID del modelo ajustado. - INPUT_URI: La tabla de BigQuery en la que se encuentra la entrada de predicción por lotes, como
bq://myproject.mydataset.input_table
. El conjunto de datos debe estar ubicado en la misma región que el trabajo de predicción por lotes. No se admiten los conjuntos de datos multirregionales. - OUTPUT_FORMAT: Para generar datos en una tabla de BigQuery, especifica
bigquery
. Para generar el resultado en un bucket de Cloud Storage, especificajsonl
. - DESTINATION: Para BigQuery, especifica
bigqueryDestination
. En Cloud Storage, especificagcsDestination
. - OUTPUT_URI_FIELD_NAME:
Para BigQuery, especifica
outputUri
. En el caso de Cloud Storage, especificaoutputUriPrefix
. - OUTPUT_URI: En el caso de BigQuery, especifica la ubicación de la tabla, como
bq://myproject.mydataset.output_result
. La región del conjunto de datos de salida de BigQuery debe ser la misma que la del trabajo de predicción por lotes de Vertex AI. En Cloud Storage, especifica la ubicación del bucket y el directorio, comogs://mybucket/path/to/output
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs
Cuerpo JSON de la solicitud:
{ "displayName": "my-bigquery-batch-prediction-job", "model": "MODEL_PATH", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource":{ "inputUri" : "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "OUTPUT_FORMAT", "DESTINATION": { "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI" } } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
La respuesta incluye un identificador único para el trabajo por lotes. Puedes consultar el estado del trabajo por lotes con BATCH_JOB_ID. Para obtener más información, consulta Cómo supervisar el estado del trabajo. Nota: No se admiten los informes personalizados de cuenta de servicio, progreso en vivo, CMEK ni VPCSC.Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
3. Supervisa el estado y el progreso del trabajo
Después de enviar el trabajo, puedes verificar su estado con la API, el SDK y la consola de Cloud.
Console
- Ve a la página Batch Inference.
- Selecciona tu trabajo por lotes para supervisar su progreso.
REST
Para supervisar un trabajo de predicción por lotes, usa el método projects.locations.batchPredictionJobs.get
y consulta el campo CompletionStats
en la respuesta.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- LOCATION: Es una región que admite modelos de Gemini.
- PROJECT_ID: .
- BATCH_JOB_ID: Es el ID de tu trabajo por lotes.
Método HTTP y URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el siguiente comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID"
PowerShell
Ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
El estado de un trabajo por lotes determinado puede ser cualquiera de los siguientes:
JOB_STATE_PENDING
: Poner en cola la capacidad. El trabajo puede estar en estadoqueue
hasta 72 horas antes de entrar en el estadorunning
.JOB_STATE_RUNNING
: El archivo de entrada se validó correctamente y el lote se está ejecutando.JOB_STATE_SUCCEEDED
: El lote se completó y los resultados están listos.JOB_STATE_FAILED
: El archivo de entrada no superó el proceso de validación o no se pudo completar dentro del período de 24 horas después de ingresar al estadoRUNNING
.JOB_STATE_CANCELLING
: Se está cancelando el lote.JOB_STATE_CANCELLED
: Se canceló el lote.
4. Recuperar los resultados por lotes
Cuando se completa una tarea de predicción por lotes, el resultado se almacena en la tabla de BigQuery que especificaste en la solicitud.
En el caso de las filas correctas, las respuestas del modelo se almacenan en la columna response
.
De lo contrario, los detalles del error se almacenan en la columna status
para su posterior inspección.
Ejemplo de resultado
Ejemplo sin errores
{
"candidates": [
{
"content": {
"role": "model",
"parts": [
{
"text": "In a medium bowl, whisk together the flour, baking soda, baking powder."
}
]
},
"finishReason": "STOP",
"safetyRatings": [
{
"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
"probability": "NEGLIGIBLE",
"probabilityScore": 0.14057204,
"severity": "HARM_SEVERITY_NEGLIGIBLE",
"severityScore": 0.14270912
}
]
}
],
"usageMetadata": {
"promptTokenCount": 8,
"candidatesTokenCount": 396,
"totalTokenCount": 404
}
}
Ejemplo con errores
Solicitud
{"contents":[{"parts":{"text":"Explain how AI works in a few words."},"role":"tester"}]}
Respuesta
Bad Request: {"error": {"code": 400, "message": "Please use a valid role: user, model.", "status": "INVALID_ARGUMENT"}}