임베딩
embeddings 모듈은 텍스트 및 코드의 임베딩을 생성하고 비교하는 기능을 제공합니다. 임베딩은 의미적 의미를 포착하는 벡터 표현으로, 효율적인 유사성 비교를 가능하게 합니다.
개요
이 모듈은 두 가지 주요 구성 요소로 구성됩니다:
- embeddings-base: 임베딩을 위한 핵심 인터페이스 및 데이터 구조.
- embeddings-llm: 로컬 임베딩 생성을 위한 Ollama를 사용한 구현.
시작하기
다음 섹션에는 임베딩을 사용하는 방법에 대한 기본 예시가 포함되어 있습니다:
- Ollama를 통한 로컬 임베딩 모델 사용
- OpenAI 임베딩 모델 사용
로컬 임베딩
로컬 모델로 임베딩 기능을 사용하려면 시스템에 Ollama가 설치되어 실행 중이어야 합니다. 설치 및 실행 지침은 Ollama 공식 GitHub 저장소를 참조하세요.
fun main() {
runBlocking {
// Create an OllamaClient instance
val client = OllamaClient()
// Create an embedder
val embedder = LLMEmbedder(client, OllamaEmbeddingModels.NOMIC_EMBED_TEXT)
// Create embeddings
val embedding = embedder.embed("This is the text to embed")
// Print embeddings to the output
println(embedding)
}
}Ollama 임베딩 모델을 사용하려면 다음 전제 조건을 확인하세요:
- Ollama가 설치되어 실행 중이어야 합니다.
- 다음 명령어를 사용하여 임베딩 모델을 로컬 머신에 다운로드하세요:bash
ollama pull <ollama-model-id><ollama-model-id>를 특정 모델의 Ollama 식별자로 교체하세요. 사용 가능한 임베딩 모델 및 해당 식별자에 대한 자세한 내용은 Ollama 모델 개요를 참조하세요.
Ollama 모델 개요
다음 표는 사용 가능한 Ollama 임베딩 모델에 대한 개요를 제공합니다.
| 모델 ID | Ollama ID | 파라미터 | 차원 | 컨텍스트 길이 | 성능 | 장단점 |
|---|---|---|---|---|---|---|
| NOMIC_EMBED_TEXT | nomic-embed-text | 137M | 768 | 8192 | 의미 검색 및 텍스트 유사성 작업에 대한 고품질 임베딩 | 품질과 효율성 사이의 균형 |
| ALL_MINILM | all-minilm | 33M | 384 | 512 | 일반 텍스트 임베딩에 대해 빠른 추론 및 양호한 품질 | 컨텍스트 길이가 줄어든 더 작은 모델 크기이지만 매우 효율적 |
| MULTILINGUAL_E5 | zylonai/multilingual-e5-large | 300M | 768 | 512 | 100개 이상의 언어에서 강력한 성능 | 더 큰 모델 크기이지만 뛰어난 다국어 기능 제공 |
| BGE_LARGE | bge-large | 335M | 1024 | 512 | 영어 텍스트 검색 및 의미 검색에 탁월 | 더 큰 모델 크기이지만 고품질 임베딩 제공 |
| MXBAI_EMBED_LARGE | mxbai-embed-large | - | - | - | 텍스트 데이터의 고차원 임베딩 | 고차원 임베딩 생성을 위해 설계됨 |
이러한 모델에 대한 자세한 내용은 Ollama의 임베딩 모델 블로그 게시물을 참조하세요.
모델 선택
다음은 요구 사항에 따라 선택할 Ollama 임베딩 모델에 대한 일반적인 팁입니다:
- 일반 텍스트 임베딩에는
NOMIC_EMBED_TEXT를 사용하세요. - 다국어 지원에는
MULTILINGUAL_E5를 사용하세요. - 최대 품질(성능 저하 감수)에는
BGE_LARGE를 사용하세요. - 최대 효율성(일부 품질 저하 감수)에는
ALL_MINILM을 사용하세요. - 고차원 임베딩에는
MXBAI_EMBED_LARGE를 사용하세요.
OpenAI 임베딩
OpenAI 임베딩 모델을 사용하여 임베딩을 생성하려면 아래 예시와 같이 OpenAILLMClient 인스턴스의 embed 메서드를 사용하세요.
suspend fun openAIEmbed(text: String) {
// Get the OpenAI API token from the OPENAI_KEY environment variable
val token = System.getenv("OPENAI_KEY") ?: error("Environment variable OPENAI_KEY is not set")
// Create an OpenAILLMClient instance
val client = OpenAILLMClient(token)
// Create an embedder
val embedder = LLMEmbedder(client, OpenAIModels.Embeddings.TextEmbeddingAda002)
// Create embeddings
val embedding = embedder.embed(text)
// Print embeddings to the output
println(embedding)
}AWS Bedrock 임베딩
AWS Bedrock 임베딩 모델을 사용하여 임베딩을 생성하려면 BedrockLLMClient 인스턴스와 선택한 모델의 embed 메서드를 사용하세요. 예시:
suspend fun bedrockEmbed(text: String) {
// Get AWS credentials from environment/configuration
val awsAccessKeyId = System.getenv("AWS_ACCESS_KEY_ID") ?: error("AWS_ACCESS_KEY_ID not set")
val awsSecretAccessKey = System.getenv("AWS_SECRET_ACCESS_KEY") ?: error("AWS_SECRET_ACCESS_KEY not set")
// (Optional) AWS_SESSION_TOKEN for temporary credentials
val awsSessionToken = System.getenv("AWS_SESSION_TOKEN")
// Create a BedrockLLMClient instance
val client = BedrockLLMClient(
identityProvider = StaticCredentialsProvider {
this.accessKeyId = awsAccessKeyId
this.secretAccessKey = awsSecretAccessKey
awsSessionToken?.let { this.sessionToken = it }
},
settings = BedrockClientSettings()
)
// Create an embedder
val embedder = LLMEmbedder(client, BedrockModels.Embeddings.AmazonTitanEmbedText)
// Create embeddings
val embedding = embedder.embed(text)
// Print embeddings to the output
println(embedding)
}지원되는 AWS Bedrock 임베딩 모델
| 제공자 | 모델 이름 | 모델 ID | 입력 | 출력 | 차원 | 컨텍스트 길이 | 참고 |
|---|---|---|---|---|---|---|---|
| Amazon | Titan Embeddings G1 - Text | amazon.titan-embed-text-v1 | Text | Embedding | 1,536 | 8192 | 25개 이상의 언어, 검색, 의미론적 유사성, 클러스터링에 최적화; 긴 문서를 검색을 위해 분할. |
| Amazon | Titan Text Embeddings V2 | amazon.titan-embed-text-v2:0 | Text | Embedding | 1,024 | 8192 | 고정확도, 유연한 차원, 다국어(100개 이상); 더 작은 차원은 저장 공간 절약, 정규화된 출력. |
| Cohere | Cohere Embed English v3 | cohere.embed-english-v3 | Text | Embedding | 1,024 | 8192 | 검색, 검색 및 텍스트 뉘앙스 이해를 위한 SOTA 영어 텍스트 임베딩. |
| Cohere | Cohere Embed Multilingual v3 | cohere.embed-multilingual-v3 | Text | Embedding | 1,024 | 8192 | 다국어 임베딩, 언어 전반의 검색 및 의미론적 이해를 위한 SOTA. |
가장 최신 모델 지원에 대해서는 AWS Bedrock 지원 모델 문서를 참조하세요.
예시
다음 예시들은 임베딩을 사용하여 코드를 텍스트 또는 다른 코드 스니펫과 비교하는 방법을 보여줍니다.
코드-텍스트 비교
코드 스니펫을 자연어 설명과 비교하여 의미론적 일치를 찾으세요:
suspend fun compareCodeToText(embedder: Embedder) { // Embedder type
// 코드 스니펫
val code = """
fun factorial(n: Int): Int {
return if (n <= 1) 1 else n * factorial(n - 1)
}
""".trimIndent()
// 텍스트 설명
val description1 = "A recursive function that calculates the factorial of a number"
val description2 = "A function that sorts an array of integers"
// 임베딩 생성
val codeEmbedding = embedder.embed(code)
val desc1Embedding = embedder.embed(description1)
val desc2Embedding = embedder.embed(description2)
// 차이 계산 (값이 낮을수록 유사성 높음)
val diff1 = embedder.diff(codeEmbedding, desc1Embedding)
val diff2 = embedder.diff(codeEmbedding, desc2Embedding)
println("Difference between code and description 1: $diff1")
println("Difference between code and description 2: $diff2")
// 코드는 description2보다 description1과 더 유사해야 합니다.
if (diff1 < diff2) {
println("The code is more similar to: '$description1'")
} else {
println("The code is more similar to: '$description2'")
}
}코드-코드 비교
구문 차이에 관계없이 코드 스니펫을 비교하여 의미론적 유사성을 찾으세요:
suspend fun compareCodeToCode(embedder: Embedder) { // Embedder type
// 다른 언어로 구현된 동일한 알고리즘의 두 가지 구현
val kotlinCode = """
fun fibonacci(n: Int): Int {
return if (n <= 1) n else fibonacci(n - 1) + fibonacci(n - 2)
}
""".trimIndent()
val pythonCode = """
def fibonacci(n):
if n <= 1:
return n
else:
return fibonacci(n-1) + fibonacci(n-2)
""".trimIndent()
val javaCode = """
public static int bubbleSort(int[] arr) {
int n = arr.length;
for (int i = 0; i < n-1; i++) {
for (int j = 0; j < n-i-1; j++) {
if (arr[j] > arr[j+1]) {
int temp = arr[j];
arr[j] = arr[j+1];
arr[j+1] = temp;
}
}
}
return arr;
}
""".trimIndent()
// 임베딩 생성
val kotlinEmbedding = embedder.embed(kotlinCode)
val pythonEmbedding = embedder.embed(pythonCode)
val javaEmbedding = embedder.embed(javaCode)
// 차이 계산
val diffKotlinPython = embedder.diff(kotlinEmbedding, pythonEmbedding)
val diffKotlinJava = embedder.diff(kotlinEmbedding, javaEmbedding)
println("Difference between Kotlin and Python implementations: $diffKotlinPython")
println("Difference between Kotlin and Java implementations: $diffKotlinJava")
// Kotlin 및 Python 구현이 더 유사해야 합니다.
if (diffKotlinPython < diffKotlinJava) {
println("The Kotlin code is more similar to the Python code")
} else {
println("The Kotlin code is more similar to the Java code")
}
}API 문서
임베딩과 관련된 전체 API 참조는 다음 모듈의 참조 문서를 확인하세요:
- embeddings-base: 텍스트 및 코드 임베딩을 표현하고 비교하기 위한 핵심 인터페이스 및 데이터 구조를 제공합니다.
- embeddings-llm: 로컬 임베딩 모델 작업용 구현을 포함합니다.
