getJobById

Prev Next

VPC環境で利用できます。

ジョブの詳細情報を照会します。

リクエスト

リクエスト形式を説明します。リクエスト形式は次の通りです。

メソッド URI
GET /api/v1/jobs/{jobId}

リクエストヘッダ

Data Flow APIで共通して使用されるヘッダの詳細は、Data Flowのリクエストヘッダをご参照ください。

リクエストパスパラメータ

リクエストパスパラメータの説明は次の通りです。

フィールド タイプ 必須の有無 説明
jobId String Required ジョブ ID

リクエスト例

リクエストのサンプルコードは次の通りです。

curl --location --request GET 'https://dataflow.apigw.ntruss.com/api/v1/jobs/gqigvH******' \
--header 'x-ncp-apigw-timestamp: {Timestamp}' \
--header 'x-ncp-iam-access-key: {Access Key}' \
--header 'x-ncp-apigw-signature-v2: {API Gateway Signature}'

レスポンス

レスポンス形式を説明します。

レスポンスボディ

レスポンスボディの説明は次の通りです。

フィールド タイプ 必須の有無 説明
jobId String - ジョブ ID
name String - ジョブ名
description String - ジョブに関する説明
type String - ジョブのタイプ
  • DATAFLOW (デフォルト)
status String - ジョブの状態
  • RUNNABLE | RUNNING | DELETED | UNKNOWN | DRAFT | STOPPED | EDITING
    • RUNNABLE: ジョブ実行可能
    • RUNNING: ジョブ実行中
    • DELETED: ジョブを削除中または削除完了
    • UNKNOWN: その他
    • DRAFT: ジョブの編集が完了していない
    • STOPPED: ジョブを停止中
    • EDITING: ジョブを編集中(有効性検証が必要)
lastExecutionStatus String - ジョブの最終実行状態
  • READY | RUNNING | COMPLETED | FAILED | CANCELED
    • READY: 待機中
    • RUNNING: 実行中
    • COMPLETED: 完了
    • FAILED: 失敗
    • CANCELED: キャンセル
nodes Array - ジョブのノード情報
runCondition Object - ジョブ実行オプション
runCondition.workerType String - ワーカータイプ
  • DEFAULT (デフォルト)
runCondition.numWorker Integer - ワーカー数
  • 2 (デフォルト)
runCondition.timeout Integer - 実行タイムアウト(分)
  • ジョブを1回実行するにあたって結果を待つ時間
  • 0~1440 (デフォルト: 360)
runCondition.nrn String - ジョブに対する NAVERクラウドプラットフォームリソースの識別値
runCondition.scriptPath String - ジョブ実行スクリプトの保存パス
runCondition.logPath String - ジョブの実行履歴の保存パス
createdDate String - ジョブの作成日時
  • ISO 8601形式(UTC+9を含む)
updatedDate String - ジョブの更新日時
  • ISO 8601形式(UTC+9を含む)
lastExecutionDate String - ジョブの最終実行日時
  • ISO 8601形式(UTC+9を含む)

レスポンスステータスコード

Data Flow APIで共通して使用されるレスポンスステータスコードの詳細は、Data Flow APIのレスポンスステータスコードをご参照ください。

レスポンス例

レスポンスのサンプルコードは次の通りです。

{
      "jobId": "gqigvH******",
      "name": "job001",
      "description": "",
      "type": "DATAFLOW",
      "status": "RUNNABLE",
      "nodes": [
        {
          "type": "SOURCE_OBS",
          "id": 169777*******,
          "name": "Object Storage",
          "parentNodeIds": [],
          "regionNo": "1",
          "bucketName": "aitems",
          "prefix": "dataflow1",
          "dataType": "CSV",
          "fieldList": [
            {
              "name": "id",
              "type": "string",
              "properties": []
            },
            {
              "name": "name",
              "type": "string",
              "properties": []
            },
            {
              "name": "description",
              "type": "string",
              "properties": []
            }
          ]
        },
        {
          "type": "TRANSFORM_FILTER",
          "id": 169777*******,
          "name": "フィルタ",
          "parentNodeIds": [
            169777*******
          ],
          "filterType": "AND",
          "filterConditionList": [
            {
              "name": "name",
              "operator": "EQ",
              "value": "A"
            }
          ]
        },
        {
          "type": "TARGET_OBS",
          "id": 169777*******,
          "name": "Object Storage",
          "parentNodeIds": [
            169777*******
          ],
          "regionNo": "1",
          "bucketName": "aitems",
          "prefix": "dataflow1",
          "dataType": "CSV",
          "updateType" : "OVERWRITE",
          "fieldList": [
            {
              "name": "id",
              "type": "string",
              "properties": []
            },
            {
              "name": "name",
              "type": "string",
              "properties": []
            },
            {
              "name": "description",
              "type": "string",
              "properties": []
            }
          ]
        }
      ],
      "runCondition": {
        "workerType": "DEFAULT",
        "numWorker": 2,
        "timeout": 2880,
        "nrn": "",
        "scriptPath": "dataflow-****/scripts/",
        "logPath": "dataflow-****/sparkHistoryLogs/"
      },
      "createdDate": "2025-03-19T15:03:42+09:00",
      "updatedDate": "2025-03-20T13:07:34+09:00",
      "lastExecutionDate": "2025-03-20T13:06:05+09:00"
    }