코드 생성용 Codey(code-bison
)는 코드 생성을 지원하는 모델의 이름입니다. 자연어 설명을 기반으로 코드를 생성하는 파운데이션 모델입니다.
코드 생성용 Codey에서 만들 수 있는 콘텐츠 유형에는 함수, 웹페이지, 단위 테스트가 포함됩니다. 코드 생성용 Codey는 코드 생성 Codey API에서 지원됩니다.
Codey API는 PaLM API 제품군에 포함됩니다.
콘솔에서 이 모델을 살펴보려면 Model Garden에서 코드 생성용 Codey 모델 카드를 참조하세요.
Model Garden으로 이동
사용 사례
코드 생성에 대한 몇 가지 일반적인 사용 사례는 다음과 같습니다.
단위 테스트: 프롬프트를 사용하여 함수의 단위 테스트를 요청합니다.
함수 작성: 문제를 모델에 전달하여 해당 문제를 해결하는 함수를 가져옵니다.
클래스 만들기: 프롬프트를 사용하여 클래스 목적을 설명하고 반환된 클래스를 정의하는 코드를 사용합니다.
HTTP 요청
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
모델 버전
최신 모델 버전을 사용하려면 버전 번호 없이 모델 이름을 지정합니다(예: code-bison
).
안정화 모델 버전을 사용하려면 모델 버전 번호를 지정합니다(예: code-bison@002
).
각 안정화 버전은 후속 안정화 버전의 출시 날짜로부터 6개월 동안 사용 가능합니다.
다음 표에는 사용 가능한 안정화 모델 버전이 포함되어 있습니다.
code-bison 모델 | 출시일 | 지원 중단 날짜 |
---|---|---|
code-bison@002 | 2023년 12월 6일 | 2025년 4월 9일 |
자세한 내용은 모델 버전 및 수명 주기를 참조하세요.
요청 본문
{
"instances": [
{ "prefix": string }
],
"parameters": {
"temperature": number,
"maxOutputTokens": integer,
"candidateCount": integer,
"stopSequences": [ string ]
"logprobs": integer,
"presencePenalty": float,
"frequencyPenalty": float,
"echo": boolean,
"seed": integer
}
}
다음은 code-bison
이라는 코드 생성 모델의 매개변수입니다.
code-bison
모델은 Codey 모델 중 하나입니다. 이러한 매개변수를 사용하여 코드 완성 프롬프트를 최적화할 수 있습니다. 자세한 내용은 코드 모델 개요 및 코드 완성 프롬프트 만들기를 참조하세요.
매개변수 | 설명 | 사용 가능한 값 |
---|---|---|
(필수) |
코드 모델에서 prefix 는 생성할 코드를 설명하는 의미 있는 프로그래밍 코드 조각 또는 자연어 프롬프트의 시작 부분을 나타냅니다.
|
유효한 텍스트 문자열 |
|
강도는 응답 생성 중 샘플링에 사용됩니다. 강도는 토큰 선택의 무작위성 수준을 제어합니다. 강도가 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 응답이 필요한 프롬프트에 적합하고, 강도가 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. 강도가 0 이면 확률이 가장 높은 토큰이 항상 선택됩니다. 이 경우 특정 프롬프트에 대한 응답은 대부분 확정적이지만 여전히 약간의 변형이 가능합니다.
|
|
|
응답에서 생성될 수 있는 토큰의 최대 개수입니다. 토큰은 약 4자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.
응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다. |
|
(선택사항) |
반환할 응답 변형의 개수입니다. 각 요청에 대해 모든 후보의 출력 토큰이 청구되지만 입력 토큰은 한 번만 청구됩니다.
여러 후보 지정은
|
|
(선택사항) |
문자열 중 하나가 응답에서 발견되면 모델에 텍스트 생성을 중지하도록 지시하는 문자열 목록을 지정합니다. 문자열이 응답에 여러 번 표시되면 처음 발견된 위치에서 응답이 잘립니다.
문자열은 대소문자를 구분합니다.
예를 들어 stopSequences 가 지정되지 않았을 때 다음이 반환되면:
public
static string reverse(string myString)
이 때 stopSequences 가 ["Str",
"reverse"] 로 설정된 응답이 다음과 같이 반환됩니다.
public static string
|
문자열 목록입니다. |
(선택사항) |
각 생성 단계에서 상위 후보 토큰의 로그 확률을 반환합니다. 모델에서 선택한 토큰은 각 단계에서 상위 후보 토큰과 다를 수 있습니다. 1 ~5 범위의 정수 값을 사용하여 반환할 후보 수를 지정합니다.
|
|
(선택사항) |
양수 값은 생성된 텍스트에 반복적으로 표시되는 토큰에 페널티를 적용하여 콘텐츠가 반복될 가능성을 줄입니다. 최솟값은 -2.0 입니다. 최댓값은 2.0 미만입니다.
|
|
(선택사항) |
양수 값은 생성된 텍스트에 이미 표시된 토큰에 페널티를 적용하여 다양한 콘텐츠가 생성될 가능성을 높입니다. 최솟값은 -2.0 입니다. 최댓값은 2.0 미만입니다.
|
|
(선택사항) |
true인 경우 생성된 텍스트에 프롬프트가 echo 처리됩니다. |
|
|
시드가 특정 값으로 고정되면 모델은 반복된 요청에 같은 응답을 제공하기 위해 최선을 다합니다. 결정론적 출력은 보장되지 않습니다.
또한 온도와 같은 모델 또는 매개변수 설정을 변경하면 같은 시드 값을 사용하더라도 응답이 달라질 수 있습니다. 기본적으로 무작위 시드 값이 사용됩니다.
이 기능은 미리보기 기능입니다. |
|
샘플 요청
REST
Vertex AI API를 사용하여 텍스트 프롬프트를 테스트하려면 POST 요청을 게시자 모델 엔드포인트로 전송합니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID 다른 필드에 대해서는 요청 본문 테이블을 참조하세요.
HTTP 메서드 및 URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
JSON 요청 본문:
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
샘플 응답과 비슷한 JSON 응답이 표시됩니다.
Python
Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.
Node.js
이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Vertex AI Node.js API 참고 문서를 참조하세요.
Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
Java
이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용의 Java 설정 안내를 따르세요. 자세한 내용은 Vertex AI Java API 참고 문서를 참조하세요.
Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
응답 본문
{
"predictions": [
{
"content": string,
"citationMetadata": {
"citations": [
{
"startIndex": integer,
"endIndex": integer,
"url": string,
"title": string,
"license": string,
"publicationDate": string
}
]
},
"logprobs": {
"tokenLogProbs": [ float ],
"tokens": [ string ],
"topLogProbs": [ { map<string, float> } ]
},
"safetyAttributes": {
"categories": [ string ],
"blocked": false,
"scores": [ float ],
"errors": [ int ]
},
"score": float
}
]
}
응답 요소 | 설명 |
---|---|
blocked |
모델의 입력이나 출력이 차단되었는지 여부를 나타내는 안전 속성과 연결된 boolean 플래그입니다. blocked 가 true 이면 응답의 errors 필드에 오류 코드가 하나 이상 포함됩니다. blocked 가 false 이면 응답에 errors 필드가 포함되지 않습니다.
|
categories |
생성된 콘텐츠와 연결된 안전 속성 카테고리 이름의 목록입니다. scores 매개변수의 점수 순서는 카테고리 순서와 일치합니다. 예를 들어 scores 매개변수의 첫 번째 점수는 응답이 categories 목록의 첫 번째 카테고리를 위반할 가능성을 나타냅니다.
|
citationMetadata |
인용 배열을 포함하는 요소입니다. |
citations |
인용의 배열입니다. 각 인용에 해당 메타데이터가 포함됩니다. |
content |
입력 텍스트를 사용해서 모델에서 생성된 결과입니다. |
endIndex |
content 에서 인용이 끝나는 위치를 지정하는 정수입니다.
|
errors |
오류 코드 배열입니다. errors 응답 필드는 응답의 blocked 필드가 true 인 경우에만 응답에 포함됩니다. 오류 코드를 이해하는 방법에 대한 자세한 내용은 안전 오류를 참조하세요.
|
license |
인용과 연결된 라이선스입니다. |
publicationDate |
인용이 게시된 날짜입니다. 유효한 형식은 YYYY , YYYY-MM , YYYY-MM-DD 입니다.
|
safetyAttributes |
안전 속성 배열입니다. 배열에는 각 응답 후보에 대한 안전 속성 하나가 포함됩니다. |
score |
0보다 작은 float 값입니다. score 값이 클수록 모델 응답의 신뢰도가 커집니다.
|
startIndex |
content 에서 인용이 시작되는 위치를 지정하는 정수입니다. |
title |
인용 출처의 제목입니다. 소스 제목의 예시에는 뉴스 기사 또는 도서가 있습니다. |
url |
인용 출처의 URL입니다. URL 소스의 예시에는 뉴스 웹사이트 또는 GitHub 저장소가 있습니다. |
tokens |
샘플링된 토큰입니다. |
tokenLogProbs |
샘플링된 토큰의 로그 확률입니다. |
topLogProbs |
각 단계에서 확률이 가장 높은 후보 토큰과 해당하는 로그 확률입니다. |
logprobs |
`logprobs` 매개변수 결과입니다. `candidates`에 1:1 매핑됩니다. |
샘플 응답
{
"predictions":[
{
"citationMetadata": {
"citations": [ ]
},
"safetyAttributes": {
"scores": [ ],
"categories": [ ],
"blocked": false
},
"content": "CONTENT",
"score": -1.1161688566207886
}
]
}
생성형 AI 모델에서 응답 스트리밍
매개변수는 API에 대한 스트리밍 요청 또는 비스트리밍 요청에 대해 모두 동일합니다.
REST API를 사용하여 샘플 코드 요청 및 응답을 보려면 스트리밍 REST API 사용 예시를 참조하세요.
Vertex AI SDK for Python을 사용하여 샘플 코드 요청 및 응답을 보려면 스트리밍을 위한 Vertex AI SDK for Python 사용 예시를 참조하세요.