java

关注公众号 jb51net

关闭
首页 > 软件编程 > java > Java RAG集成

Java RAG集成实战指南(含代码)

作者:是小果儿呀

在这个背景下,大模型JavaAPI和RAG技术逐渐崭露头角,成为软件开发者们关注的焦点,下面这篇文章主要介绍了Java RAG集成的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考下

一、RAG 技术选型与架构设计

1. 技术栈选型

组件选型建议理由
应用框架Spring AI 或 LangChain4jSpring AI 集成度高,Spring 官方出品;LangChain4j 功能更丰富,贴近 Python LangChain 设计
向量数据库Milvus、Qdrant 或 PostgreSQL + pgvectorMilvus 云原生,适合大规模数据;Qdrant 性能极佳;pgvector 适合已有 PostgreSQL 生态的项目
模型层OpenAI API 或本地 Embedding 模型可选择云端 API 或本地部署的小型模型

2. 系统架构设计

一个成熟的 Java RAG 系统包含三个主要阶段:

  1. 数据处理(ETL):文档加载、分块、向量化、存储
  2. 检索(Retrieval):向量检索、混合检索、重排序
  3. 生成(Generation):组装 Prompt、调用大模型

二、Spring AI 实现 RAG

1. 依赖配置

<dependencies>
    <!-- Spring AI 核心 -->
    <dependency>
        <groupId>org.springframework.ai</groupId>
        <artifactId>spring-ai-openai-spring-boot-starter</artifactId>
    </dependency>
    <!-- 向量数据库集成 -->
    <dependency>
        <groupId>org.springframework.ai</groupId>
        <artifactId>spring-ai-milvus-store-spring-boot-starter</artifactId>
    </dependency>
    <!-- Web API -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
</dependencies>

2. 配置文件

# OpenAI 配置
spring.ai.openai.api-key=YOUR_OPENAI_API_KEY
spring.ai.openai.embedding.model=text-embedding-ada-002
spring.ai.openai.chat.model=gpt-3.5-turbo
# Milvus 配置
spring.ai.vectorstore.milvus.uri=http://localhost:19530
spring.ai.vectorstore.milvus.collection-name=my_knowledge_base
spring.ai.vectorstore.milvus.embedding-dimension=1536

3. 核心代码实现

文档向量化与存储

@Service
public class DocumentService {
    @Autowired
    private VectorStore vectorStore;
    @Autowired
    private EmbeddingClient embeddingClient;
    public void addDocument(String content) {
        Document document = new Document(content);
        vectorStore.add(List.of(document));
    }
}

RAG 查询服务

@Service
public class RagService {
    @Autowired
    private ChatClient chatClient;
    @Autowired
    private VectorStore vectorStore;
    public String answer(String question) {
        // 检索相关文档
        List<Document> relevantDocuments = vectorStore.similaritySearch(question);
        // 构建上下文
        String context = relevantDocuments.stream()
                .map(Document::getContent)
                .collect(Collectors.joining("\n\n"));
        // 组装 Prompt
        String prompt = """
                Answer the question using ONLY the context below.
                Context:
                %s
                Question:
                %s
                """.formatted(context, question);
        // 调用大模型
        return chatClient.call(prompt);
    }
}

三、LangChain4j 实现 RAG

1. 依赖配置

<dependencies>
    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-core</artifactId>
        <version>0.30.0</version>
    </dependency>
    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-open-ai</artifactId>
        <version>0.30.0</version>
    </dependency>
    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-milvus</artifactId>
        <version>0.30.0</version>
    </dependency>
</dependencies>

2. 核心代码实现

初始化配置

@Configuration
public class LangChain4jConfig {
    @Bean
    public OpenAiChatModel chatModel() {
        return OpenAiChatModel.builder()
                .apiKey("YOUR_OPENAI_API_KEY")
                .modelName("gpt-3.5-turbo")
                .build();
    }
    @Bean
    public OpenAiEmbeddingModel embeddingModel() {
        return OpenAiEmbeddingModel.builder()
                .apiKey("YOUR_OPENAI_API_KEY")
                .modelName("text-embedding-ada-002")
                .build();
    }
    @Bean
    public MilvusEmbeddingStore embeddingStore() {
        return MilvusEmbeddingStore.builder()
                .host("localhost")
                .port(19530)
                .collectionName("my_knowledge_base")
                .dimension(1536)
                .build();
    }
}

文档处理与检索

@Service
public class RagService {
    @Autowired
    private OpenAiChatModel chatModel;
    @Autowired
    private OpenAiEmbeddingModel embeddingModel;
    @Autowired
    private MilvusEmbeddingStore embeddingStore;
    public void addDocument(String content) {
        TextSegment segment = TextSegment.from(content);
        embeddingStore.add(segment, embeddingModel.embed(segment));
    }
    public String answer(String question) {
        // 检索相关文档
        List<TextSegment> relevantSegments = embeddingStore.similaritySearch(question, embeddingModel);
        // 构建上下文
        String context = relevantSegments.stream()
                .map(TextSegment::text)
                .collect(Collectors.joining("\n\n"));
        // 组装 Prompt
        String prompt = """
                Answer the question using ONLY the context below.
                Context:
                %s
                Question:
                %s
                """.formatted(context, question);
        // 调用大模型
        return chatModel.generate(prompt);
    }
}

四、关键优化策略

1. 文档分块策略

2. 检索优化

3. 性能优化

五、部署与运维

1. 向量数据库部署

使用 Docker 快速启动 Milvus:

# 下载 docker-compose.yml
wget https://github.com/milvus-io/milvus/releases/download/v2.3.0/milvus-standalone-docker-compose.yml -O docker-compose.yml
# 启动
docker-compose up -d

2. 应用部署

六、总结

Java RAG 集成方案已经非常成熟,开发者可以根据项目需求选择 Spring AI 或 LangChain4j 框架。Spring AI 集成度高,适合快速上手;LangChain4j 功能更丰富,适合复杂场景。

到此这篇关于Java RAG集成实战指南的文章就介绍到这了,更多相关Java RAG集成内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
阅读全文