updateJobExecuteConfig

Prev Next

VPC 환경에서 이용 가능합니다.

작업 실행 옵션을 수정합니다.

요청

요청 형식을 설명합니다. 요청 형식은 다음과 같습니다.

메서드 URI
PUT /api/v1/jobs/{jobId}/executions

요청 헤더

Data Flow API에서 공통으로 사용하는 헤더에 대한 정보는 Data Flow 요청 헤더를 참조해 주십시오.

요청 경로 파라미터

요청 경로 파라미터에 대한 설명은 다음과 같습니다.

필드 타입 필수 여부 설명
jobId String Required 작업 아이디

요청 바디

요청 바디에 대한 설명은 다음과 같습니다.

필드 타입 필수 여부 설명
jobCondition Object Required 작업 실행 옵션 정보
jobCondition.workerType String Optional 워커 타입 유형
  • DATAFLOW (기본값)
jobCondition.numWorker Integer Optional 워커 수
  • 2 (기본값)
jobCondition.timeout Integer Optional 실행 타임아웃(분)
  • 작업을 한 번 실행할 때 작업 결과를 기다리는 시간
  • 0~1440 (기본값: 360)
jobCondition.nrn String Required 작업에 대한 네이버 클라우드 플랫폼 리소스 식별 값
jobCondition.scriptPath String Required 작업 실행 스크립트 저장 경로
jobCondition.logPath String Required 작업 실행 이력 저장 경로

요청 예시

요청 예시는 다음과 같습니다.

curl --location --request PUT 'https://dataflow.apigw.ntruss.com/api/v1/jobs/gqigvH******/executions' \
--header 'x-ncp-apigw-timestamp: {Timestamp}' \
--header 'x-ncp-iam-access-key: {Access Key}' \
--header 'x-ncp-apigw-signature-v2: {API Gateway Signature}' \
--data '{
    "jobCondition": {
        "workerType": "DEFAULT",
        "numWorker": 2,
        "timeout": 360,
        "nrn": "nrn:PUB:IAM::*******:Role/********-0496-11f0-baf6-246e96591a38",
        "scriptPath": "dataflow-2706412-****/scripts/",
        "logPath": "dataflow-2706412-****/sparkHistoryLogs/"
    }
}'

응답

응답 형식을 설명합니다.

응답 바디

응답 바디에 대한 설명은 다음과 같습니다.

필드 타입 필수 여부 설명
jobId String - 작업 아이디
name String - 작업 이름
description String - 작업에 대한 설명
type String - 작업 유형
  • DATAFLOW (기본값)
status String - 작업 상태
  • RUNNABLE | RUNNING | DELETED | UNKNOWN | DRAFT | STOPPED | EDITING
    • RUNNABLE: 작업 실행 가능
    • RUNNING: 작업 실행 중
    • DELETED: 작업 삭제 중 또는 삭제 완료
    • UNKNOWN: 기타
    • DRAFT: 작업 편집 미완료
    • STOPPED: 작업 정지 중
    • EDITING: 작업 수정 중(유효성 검증 필요)
nodes Array - 작업 노드 정보
runCondition Object - 작업 실행 옵션
runCondition.workerType String - 워커 타입
  • DEFAULT (기본값)
runCondition.numWorker Integer - 워커 수
  • 2 (기본값)
runCondition.timeout Integer - 실행 타임아웃(분)
  • 작업을 한 번 실행할 때 작업 결과를 기다리는 시간
  • 0~1440 (기본값: 360)
runCondition.nrn String - 작업에 대한 네이버 클라우드 플랫폼 리소스 식별 값
runCondition.scriptPath String - 작업 실행 스크립트 저장 경로
runCondition.logPath String - 작업 실행 이력 저장 경로
createdDate String - 작업 생성 일시
  • ISO 8601 형식(UTC+9 포함)
updatedDate String - 작업 수정 일시
  • ISO 8601 형식(UTC+9 포함)

응답 상태 코드

Data Flow API에서 공통으로 사용하는 응답 상태 코드에 대한 정보는 Data Flow API 응답 상태 코드를 참조해 주십시오.

응답 예시

응답 예시는 다음과 같습니다.

{
    "jobId": "gqigvH******",
    "name": "job001",
    "description": "",
    "type": "DATAFLOW",
    "status": "RUNNABLE",
    "nodes": [
        {
            "type": "SOURCE_OBS",
            "id": 169777*******,
            "name": "Object Storage",
            "parentNodeIds": [],
            "regionNo": "1",
            "bucketName": "aitems",
            "prefix": "dataflow1",
            "dataType": "CSV",
            "fieldList": [
                {
                    "name": "id",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "name",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "description",
                    "type": "string",
                    "properties": []
                }
            ]
        },
        {
            "type": "TRANSFORM_FILTER",
            "id": 169777*******,
            "name": "필터",
            "parentNodeIds": [
                169777*******6
            ],
            "filterType": "AND",
            "filterConditionList": [
                {
                    "name": "name",
                    "operator": "EQ",
                    "value": "A"
                }
            ]
        },
        {
            "type": "TARGET_OBS",
            "id": 169777*******,
            "name": "Object Storage",
            "parentNodeIds": [
                169777*******
            ],
            "regionNo": "1",
            "bucketName": "aitems",
            "prefix": "dataflow1",
            "dataType": "CSV",
            "updateType": "OVERWRITE",
            "fieldList": [
                {
                    "name": "id",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "name",
                    "type": "string",
                    "properties": []
                },
                {
                    "name": "description",
                    "type": "string",
                    "properties": []
                }
            ]
        }
    ],
    "runCondition": {
        "workerType": "DEFAULT",
        "numWorker": 2,
        "timeout": 2880,
        "nrn": "",
        "scriptPath": "dataflow-****/scripts/",
        "logPath": "dataflow-****/sparkHistoryLogs/"
    },
    "createdDate": "2025-03-19T15:03:42+09:00",
    "updatedDate": "2025-03-20T13:07:34+09:00"
}