updateJobExecuteConfig

Prev Next

VPC環境で利用できます。

ジョブ実行オプションを更新します。

リクエスト

リクエスト形式を説明します。リクエスト形式は次の通りです。

メソッド URI
PUT /api/v1/jobs/{jobId}/executions

リクエストヘッダ

Data Flow APIで共通して使用されるヘッダの詳細は、Data Flowのリクエストヘッダをご参照ください。

リクエストパスパラメータ

リクエストパスパラメータの説明は次の通りです。

フィールド タイプ 必須の有無 説明
jobId String Required ジョブ ID

リクエストボディ

リクエストボディの説明は次の通りです。

フィールド タイプ 必須の有無 説明
jobCondition Object Required ジョブ実行オプション情報
jobCondition.workerType String Optional ワーカータイプ
  • DATAFLOW(デフォルト)
jobCondition.numWorker Integer Optional ワーカー数
  • 2 (デフォルト)
jobCondition.timeout Integer Optional 実行タイムアウト(分)
  • ジョブを1回実行するにあたって結果を待つ時間
  • 0~1440 (デフォルト: 360)
jobCondition.nrn String Required ジョブに対する NAVERクラウドプラットフォームリソースの識別値
jobCondition.scriptPath String Required ジョブ実行スクリプトの保存パス
jobCondition.logPath String Required ジョブの実行履歴の保存パス

リクエスト例

リクエストのサンプルコードは次の通りです。

curl --location --request PUT 'https://dataflow.apigw.ntruss.com/api/v1/jobs/gqigvH******/executions' \
--header 'x-ncp-apigw-timestamp: {Timestamp}' \
--header 'x-ncp-iam-access-key: {Access Key}' \
--header 'x-ncp-apigw-signature-v2: {API Gateway Signature}' \
--data '{
    "jobCondition": {
        "workerType": "DEFAULT",
        "numWorker": 2,
        "timeout": 360,
        "nrn": "nrn:PUB:IAM::*******:Role/********-0496-11f0-baf6-246e96591a38",
        "scriptPath": "dataflow-2706412-****/scripts/",
        "logPath": "dataflow-2706412-****/sparkHistoryLogs/"
    }
}'

レスポンス

レスポンス形式を説明します。

レスポンスボディ

レスポンスボディの説明は次の通りです。

フィールド タイプ 必須の有無 説明
jobId String - ジョブ ID
name String - ジョブ名
description String - ジョブに関する説明
type String - ジョブのタイプ
  • DATAFLOW (デフォルト)
status String - ジョブの状態
  • RUNNABLE | RUNNING | DELETED | UNKNOWN | DRAFT | STOPPED | EDITING
    • RUNNABLE: ジョブ実行可能
    • RUNNING: ジョブ実行中
    • DELETED: ジョブを削除中または削除完了
    • UNKNOWN: その他
    • DRAFT: ジョブの編集が完了していない
    • STOPPED: ジョブを停止中
    • EDITING: ジョブを編集中(有効性検証が必要)
nodes Array - ジョブのノード情報
runCondition Object - ジョブ実行オプション
runCondition.workerType String - ワーカータイプ
  • DEFAULT (デフォルト)
runCondition.numWorker Integer - ワーカー数
  • 2 (デフォルト)
runCondition.timeout Integer - 実行タイムアウト(分)
  • ジョブを1回実行するにあたって結果を待つ時間
  • 0~1440 (デフォルト: 360)
runCondition.nrn String - ジョブに対する NAVERクラウドプラットフォームリソースの識別値
runCondition.scriptPath String - ジョブ実行スクリプトの保存パス
runCondition.logPath String - ジョブの実行履歴の保存パス
createdDate String - ジョブの作成日時
  • ISO 8601形式(UTC+9を含む)
updatedDate String - ジョブの更新日時
  • ISO 8601形式(UTC+9を含む)

レスポンスステータスコード

Data Flow APIで共通して使用されるレスポンスステータスコードの詳細は、Data Flow APIのレスポンスステータスコードをご参照ください。

レスポンス例

レスポンスのサンプルコードは次の通りです。

{
    "jobId": "gqigvH******",
    "name": "job001",
    "description": "",
    "type": "DATAFLOW",
    "status": "RUNNABLE",
    "nodes": [
        {
            "type": "SOURCE_OBS",
            "id": 169777*******,
            "name": "Object Storage",
            "parentNodeIds": [],
            "regionNo": "1",
            "bucketName": "aitems",
            "prefix": "dataflow1",
            "dataType": "CSV",
            "fieldList": [
                {
                    "name": "id",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "name",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "description",
                    "type": "string",
                    "properties": []
                }
            ]
        },
        {
            "type": "TRANSFORM_FILTER",
            "id": 169777*******,
            "name": "フィルタ",
            "parentNodeIds": [
                169777*******6
            ],
            "filterType": "AND",
            "filterConditionList": [
                {
                    "name": "name",
                    "operator": "EQ",
                    "value": "A"
                }
            ]
        },
        {
            "type": "TARGET_OBS",
            "id": 169777*******,
            "name": "Object Storage",
            "parentNodeIds": [
                169777*******
            ],
            "regionNo": "1",
            "bucketName": "aitems",
            "prefix": "dataflow1",
            "dataType": "CSV",
            "updateType": "OVERWRITE",
            "fieldList": [
                {
                    "name": "id",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "name",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "description",
                    "type": "string",
                    "properties": []
                }
            ]
        }
    ],
    "runCondition": {
        "workerType": "DEFAULT",
        "numWorker": 2,
        "timeout": 2880,
        "nrn": "",
        "scriptPath": "dataflow-****/scripts/",
        "logPath": "dataflow-****/sparkHistoryLogs/"
    },
    "createdDate": "2025-03-19T15:03:42+09:00",
    "updatedDate": "2025-03-20T13:07:34+09:00"
}