VPC 환경에서 이용 가능합니다.
작업의 상세 정보를 조회합니다.
요청
요청 형식을 설명합니다. 요청 형식은 다음과 같습니다.
메서드 | URI |
---|---|
GET | /api/v1/jobs/{jobId} |
요청 헤더
Data Flow API에서 공통으로 사용하는 헤더에 대한 정보는 Data Flow 요청 헤더를 참조해 주십시오.
요청 경로 파라미터
요청 경로 파라미터에 대한 설명은 다음과 같습니다.
필드 | 타입 | 필수 여부 | 설명 |
---|---|---|---|
jobId |
String | Required | 작업 아이디
|
요청 예시
요청 예시는 다음과 같습니다.
curl --location --request GET 'https://dataflow.apigw.ntruss.com/api/v1/jobs/gqigvH******' \
--header 'x-ncp-apigw-timestamp: {Timestamp}' \
--header 'x-ncp-iam-access-key: {Access Key}' \
--header 'x-ncp-apigw-signature-v2: {API Gateway Signature}'
응답
응답 형식을 설명합니다.
응답 바디
응답 바디에 대한 설명은 다음과 같습니다.
필드 | 타입 | 필수 여부 | 설명 |
---|---|---|---|
jobId |
String | - | 작업 아이디 |
name |
String | - | 작업 이름 |
description |
String | - | 작업에 대한 설명 |
type |
String | - | 작업 유형
|
status |
String | - | 작업 상태
|
lastExecutionStatus |
String | - | 마지막 작업 실행 상태
|
nodes |
Array | - | 작업 노드 정보
|
runCondition |
Object | - | 작업 실행 옵션 |
runCondition.workerType |
String | - | 워커 타입
|
runCondition.numWorker |
Integer | - | 워커 수
|
runCondition.timeout |
Integer | - | 실행 타임아웃(분)
|
runCondition.nrn |
String | - | 작업에 대한 네이버 클라우드 플랫폼 리소스 식별 값 |
runCondition.scriptPath |
String | - | 작업 실행 스크립트 저장 경로 |
runCondition.logPath |
String | - | 작업 실행 이력 저장 경로 |
createdDate |
String | - | 작업 생성 일시
|
updatedDate |
String | - | 작업 수정 일시
|
lastExecutionDate |
String | - | 마지막 작업 실행 일시
|
응답 상태 코드
Data Flow API에서 공통으로 사용하는 응답 상태 코드에 대한 정보는 Data Flow API 응답 상태 코드를 참조해 주십시오.
응답 예시
응답 예시는 다음과 같습니다.
{
"jobId": "gqigvH******",
"name": "job001",
"description": "",
"type": "DATAFLOW",
"status": "RUNNABLE",
"nodes": [
{
"type": "SOURCE_OBS",
"id": 169777*******,
"name": "Object Storage",
"parentNodeIds": [],
"regionNo": "1",
"bucketName": "aitems",
"prefix": "dataflow1",
"dataType": "CSV",
"fieldList": [
{
"name": "id",
"type": "string",
"properties": []
},
{
"name": "name",
"type": "string",
"properties": []
},
{
"name": "description",
"type": "string",
"properties": []
}
]
},
{
"type": "TRANSFORM_FILTER",
"id": 169777*******,
"name": "필터",
"parentNodeIds": [
169777*******
],
"filterType": "AND",
"filterConditionList": [
{
"name": "name",
"operator": "EQ",
"value": "A"
}
]
},
{
"type": "TARGET_OBS",
"id": 169777*******,
"name": "Object Storage",
"parentNodeIds": [
169777*******
],
"regionNo": "1",
"bucketName": "aitems",
"prefix": "dataflow1",
"dataType": "CSV",
"updateType" : "OVERWRITE",
"fieldList": [
{
"name": "id",
"type": "string",
"properties": []
},
{
"name": "name",
"type": "string",
"properties": []
},
{
"name": "description",
"type": "string",
"properties": []
}
]
}
],
"runCondition": {
"workerType": "DEFAULT",
"numWorker": 2,
"timeout": 2880,
"nrn": "",
"scriptPath": "dataflow-****/scripts/",
"logPath": "dataflow-****/sparkHistoryLogs/"
},
"createdDate": "2025-03-19T15:03:42+09:00",
"updatedDate": "2025-03-20T13:07:34+09:00",
"lastExecutionDate": "2025-03-20T13:06:05+09:00"
}