江西省建设三类人员系统网站商丘做网站sqlongliqi
江西省建设三类人员系统网站,商丘做网站sqlongliqi,免费的网站推广 外贸,大美工网站本文介绍LlamaIndex的Adapter适配器技术#xff0c;实现高效嵌入模型微调。通过冻结原始模型参数#xff0c;只训练轻量级适配器层#xff0c;普通电脑即可完成微调#xff0c;显存需求降低90%#xff0c;训练速度提升10倍以上#xff0c;效果接近全量微调。文章详细讲解…本文介绍LlamaIndex的Adapter适配器技术实现高效嵌入模型微调。通过冻结原始模型参数只训练轻量级适配器层普通电脑即可完成微调显存需求降低90%训练速度提升10倍以上效果接近全量微调。文章详细讲解环境准备、数据集生成、模型微调、效果评估等全流程并提供代码示例和最佳实践助您轻松实现专业领域模型适配。还在为微调嵌入模型需要大量GPU资源而发愁今天教你用LlamaIndex的Adapter适配器技术无论是BGE、OpenAI还是其他任何Embedding模型都能轻松微调用普通电脑就能让通用模型适配你的专业领域引言为什么需要微调嵌入模型在RAG检索增强生成系统中嵌入模型的质量直接决定了检索的准确性。虽然像BGE、OpenAI这样的通用嵌入模型已经很强大但在特定领域如医疗、法律、金融中它们往往表现不佳。传统的全量微调需要• 大量GPU显存通常需要16GB• 长时间训练可能需要数天• 存储完整模型副本而Adapter适配器微调只需要• 普通GPU或CPU即可显存需求降低90%• 训练时间大幅缩短• 只保存几MB的适配器参数什么是Adapter适配器微调Adapter适配器微调是一种参数高效的微调方法。它的核心思想是在预训练模型上添加一个轻量级的适配器层只训练这个适配器而冻结原始模型参数。原始嵌入 → [冻结的基础模型] → [可训练的Adapter层] → 微调后的嵌入这样做的好处参数少Adapter层通常只有几MB而全量微调需要保存整个模型几百MB到几GB训练快只更新少量参数训练速度提升10倍以上效果好在特定任务上Adapter微调的效果往往接近全量微调实战用LlamaIndex实现Adapter微调环境准备首先我们需要安装必要的依赖# pyproject.toml[project]dependencies [datasets4.4.1,llama-index-core0.14.8,llama-index-embeddings-adapter0.4.1,llama-index-embeddings-huggingface0.6.1,llama-index-embeddings-openai0.5.1,llama-index-embeddings-openai-like0.2.2,llama-index-finetuning0.4.1,llama-index-llms-openai-like0.5.3,llama-index-readers-file0.5.4,python-dotenv1.2.1,transformers[torch]4.57.1,]第一步准备训练数据集从PDF/Markdown等文档中提取文本使用大语言模型自动生成问答对作为训练数据。需准备两份语料一份为训练的语料一份为验证的语料。为了测试方便这里我们使用一份语料分别作训练和验证用。下载地址如下下载好放data目录。https://www.modelscope.cn/datasets/muxueai/ai_ai_yu_llm_study_lib/resolve/master/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E8%AF%81%E5%88%B8%E6%B3%95(2019%E4%BF%AE%E8%AE%A2).pdf项目的.env配置内容OPENAI_API_KEYsk-xxxOPENAI_API_BASEhttps://api.siliconflow.cn/v1LLM_MODELdeepseek-ai/DeepSeek-V3EMBEDDING_MODELQwen/Qwen3-Embedding-8B使用LlamaIndex的generate_qa_embedding_pairs函数自动调用大语言模型生成高质量的问答对。# # 1-gen_train_dataset.pyimport json from llama_index.core import SimpleDirectoryReader from llama_index.core.node_parser import SentenceSplitter import os from llama_index.finetuning import generate_qa_embedding_pairs from llama_index.llms.openai_like import OpenAILike from dotenv import load_dotenv load_dotenv() BASE_DIR rD:\Test\embedding_ft\data # 训练集和验证集文件路径 TRAIN_FILES [os.path.join(BASE_DIR, 中华人民共和国证券法(2019修订).pdf)] VAL_FILES [os.path.join(BASE_DIR, 中华人民共和国证券法(2019修订).pdf)] # 训练集和验证集语料库文件路径 TRAIN_CORPUS_FPATH os.path.join(BASE_DIR, train_corpus.json) VAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json) def load_corpus(files, verboseFalse): if verbose: print(fLoading files {files}) reader SimpleDirectoryReader(input_filesfiles) docs reader.load_data() if verbose: print(fLoaded {len(docs)} docs) parser SentenceSplitter() nodes parser.get_nodes_from_documents(docs, show_progressverbose) if verbose: print(fParsed {len(nodes)} nodes) return nodes def mk_dataset(): train_nodes load_corpus(TRAIN_FILES, verboseTrue) val_nodes load_corpus(VAL_FILES, verboseTrue) # openai-like兼容大模型 llm OpenAILike( modelos.getenv(LLM_MODEL), api_baseos.getenv(OPENAI_API_BASE), api_keyos.getenv(OPENAI_API_KEY), temperature0.7, ) train_dataset generate_qa_embedding_pairs(llmllm, nodestrain_nodes) val_dataset generate_qa_embedding_pairs(llmllm, nodesval_nodes) train_dataset.save_json(TRAIN_CORPUS_FPATH) val_dataset.save_json(VAL_CORPUS_FPATH) mk_dataset()关键点•SimpleDirectoryReader自动读取PDF文档•SentenceSplitter将文档切分为合适的文本块•generate_qa_embedding_pairs使用LLM自动生成问答对无需人工标注• data目录下一共生成2个json,分别为微调所使用的训练集和 验证集。• 可以使用任意平台的大模型,为了生成高质量的数据集尽量选择能力强的大模型这里使用硅基平台的。第二步开始微调使用LlamaIndex的EmbeddingAdapterFinetuneEngine几行代码就能开始微调# 6-adapter-online-embedding.pyfrom llama_index.core.evaluation import EmbeddingQAFinetuneDataset from llama_index.finetuning import EmbeddingAdapterFinetuneEngine from llama_index.core.embeddings import resolve_embed_model import os from dotenv import load_dotenv load_dotenv() BASE_DIR rD:\Test\embedding_ft\data TRAIN_CORPUS_FPATH os.path.join(BASE_DIR, train_corpus.json) VAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json) train_dataset EmbeddingQAFinetuneDataset.from_json(TRAIN_CORPUS_FPATH) val_dataset EmbeddingQAFinetuneDataset.from_json(VAL_CORPUS_FPATH) base_embed_model resolve_embed_model( rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5 ) finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, base_embed_model, model_output_pathadapter_model_output, # biasTrue, epochs10, verboseTrue, # optimizer_classtorch.optim.SGD, # optimizer_params{lr: 0.01} ) finetune_engine.finetune() embed_model finetune_engine.get_finetuned_model() print(embed_model)关键参数说明• 使用bge-small-en-v1.5作为基础模型你也可以选择其他模型从魔塔社区或者Hugging face上下载模型文件保存到项目的model目录下。•model_output_path: 适配器模型保存路径只有几MB•epochs: 训练轮数通常4-10轮就足够•bias: 是否在Adapter层使用偏置可选•optimizer_class和optimizer_params: 自定义优化器可选第三步评估模型效果微调完成后我们需要评估模型在验证集上的表现。通常使用两个指标•Hit Rate命中率检索到的Top-K结果中是否包含正确答案•MRR平均倒数排名正确答案在检索结果中的平均排名倒数# 5-eval-mrr.pyfrom llama_index.embeddings.openai_like import OpenAILikeEmbeddingfrom llama_index.core.evaluation import EmbeddingQAFinetuneDatasetfrom eval_utils import evaluate, display_resultsfrom sentence_transformers import SentenceTransformerfrom llama_index.core.embeddings import resolve_embed_modelfrom llama_index.embeddings.adapter import LinearAdapterEmbeddingModelimport osfrom dotenv import load_dotenvload_dotenv()BASE_DIR rD:\Test\embedding_ft\dataVAL_CORPUS_FPATH os.path.join(BASE_DIR, val_corpus.json)val_dataset EmbeddingQAFinetuneDataset.from_json(VAL_CORPUS_FPATH)# 评估在线的Embedding模型qwen3_embedding OpenAILikeEmbedding( model_nameos.getenv(EMBEDDING_MODEL), api_baseos.getenv(OPENAI_API_BASE), api_keyos.getenv(OPENAI_API_KEY), embed_batch_size10,)qwen3_embedding_val_results evaluate(val_dataset, qwen3_embedding)print(display_results([qwen3_embedding], [qwen3_embedding_val_results]))# 评估原始的Embedding模型orgin_embedding_val_results evaluate(val_dataset, rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)print(display_results([orgin_embedding], [orgin_embedding_val_results]))# 评估本地微调过的Embedding模型,路径前要加上local:ft_embedding_val_results evaluate(val_dataset, rlocal:D:\Test\embedding_ft\exp_finetune)print(display_results([ft_embedding], [ft_embedding_val_results]))# 评估Adapter微调过的Embedding模型 base_embed_model resolve_embed_model(rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)adapt_embed_model LinearAdapterEmbeddingModel(base_embed_model, model_output_test)apapt_val_results evaluate(val_dataset, adapt_embed_model)display_results([adapt_embedding], [apapt_val_results])评估结果示例模型类型Hit RateMRRqwen3模型0.2580.197原始bge模型0.0890.04Adapter微调0.1230.063全量微调0.2350.128可以看到Adapter微调在只训练少量参数的情况下效果已非常明显进阶使用两层神经网络Adapter如果单层线性Adapter效果不够好可以尝试两层神经网络Adapterfrom llama_index.core.embeddings.adapter_utils import TwoLayerNNfrom llama_index.finetuning import EmbeddingAdapterFinetuneEnginefrom llama_index.embeddings.adapter import AdapterEmbeddingModel# 创建两层神经网络适配器adapter_model TwoLayerNN(384, # 输入维度BGE-small的输出维度1024, # 隐藏层维度384, # 输出维度 biasTrue, add_residualTrue, # 添加残差连接)finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, base_embed_model, model_output_pathmodel_2layer_output, model_checkpoint_pathmodel_2layer_ck, # 保存检查点 adapter_modeladapter_model, epochs25, # 两层网络需要更多轮次 verboseTrue,)finetune_engine.finetune()# 加载微调后的模型embed_model_2layer finetune_engine.get_finetuned_model( adapter_clsTwoLayerNN)使用微调后的模型微调完成后可以像使用普通嵌入模型一样使用它from llama_index.embeddings.adapter import LinearAdapterEmbeddingModelfrom llama_index.core.embeddings import resolve_embed_model# 加载基础模型base_embed_model resolve_embed_model(rlocal:D:\Test\embedding_ft\model\BAAI\bge-small-en-v1___5)# 加载适配器embed_model LinearAdapterEmbeddingModel( base_embed_model, model_output_test)# 在RAG系统中使用from llama_index.core import VectorStoreIndex, Documentdocuments [Document(text你的文档内容)]index VectorStoreIndex.from_documents( documents, embed_modelembed_model)query_engine index.as_query_engine()response query_engine.query(你的问题)最佳实践与技巧1. 数据准备•数据量通常1000-10000个问答对就足够•数据质量确保查询和文档的相关性标注准确•数据平衡尽量覆盖领域内的各种查询类型2. 训练参数调优•学习率默认学习率通常效果不错如需调整建议在0.0001-0.001之间•训练轮数单层Adapter通常4-10轮两层网络需要15-25轮•批次大小根据显存调整通常16-32效果较好3. 模型选择•基础模型选择与你的领域相近的预训练模型•Adapter类型先尝试单层线性Adapter效果不够再试两层网络4. 效果评估• 在验证集上评估避免过拟合• 对比多个模型原始模型、Adapter微调、全量微调• 关注实际业务指标而不仅仅是Hit Rate和MRR5、对闭源模版的微调该方法同样适用于网上闭源的Embedding模型的微调比如对openai的text-embedding-ada-002微调代码如下from llama_index.finetuning import EmbeddingAdapterFinetuneEngine, generate_qa_embedding_pairsfrom llama_index.embeddings.openai import OpenAIEmbedding# 步骤1准备数据集train_dataset generate_qa_embedding_pairs(train_nodes)val_dataset generate_qa_embedding_pairs(val_nodes)# 步骤2创建在线 embedding 实例embed_model OpenAIEmbedding(model_nametext-embedding-ada-002, api_keysk-...)# 步骤3初始化微调引擎finetune_engine EmbeddingAdapterFinetuneEngine( train_dataset, embed_model, model_output_pathadapter_output, epochs4, verboseTrue,)# 步骤4开始微调finetune_engine.finetune()步骤概述准备训练数据集如 EmbeddingQAFinetuneDataset。用 resolve_embed_model 或 OpenAIEmbedding/HuggingFaceEmbedding 创建在线 embedding 实例。初始化 EmbeddingAdapterFinetuneEngine传入数据集和 embedding 实例指定输出路径等参数。调用 finetune() 开始训练微调的适配器会自动保存。6、EmbeddingAdapterFinetuneEngine和SentenceTransformersFinetuneEngine对比• EmbeddingAdapterFinetuneEngine 用于在任意黑盒嵌入模型如 OpenAI、sentence-transformers、本地模型等输出的向量上微调一个轻量级的适配器如线性层不改变原始大模型参数适合模型不可训练或只想快速适配场景。• SentenceTransformersFinetuneEngine 则直接对 sentence-transformers 兼容的大模型参数进行全量微调适合你有完整训练权限和资源时使用。两者都能提升检索效果但微调对象和适用场景不同。7、eval_utils.py 代码code-snippet__js from llama_index.core.schema import TextNode from llama_index.core import Settings from llama_index.core import VectorStoreIndex import pandas as pd from tqdm import tqdm def evaluate( dataset, embed_model, top_k5, verboseFalse, ): corpus dataset.corpus queries dataset.queries relevant_docs dataset.relevant_docs embed_model embed_model or Settings.embed_model nodes [TextNode(id_id_, texttext) for id_, text in corpus.items()] index VectorStoreIndex( nodes, embed_modelembed_model, show_progressTrue ) retriever index.as_retriever(similarity_top_ktop_k) eval_results [] for query_id, query in tqdm(queries.items()): retrieved_nodes retriever.retrieve(query) retrieved_ids [node.node.node_id for node in retrieved_nodes] expected_id relevant_docs[query_id][0] rank None for idx, id in enumerate(retrieved_ids): if id expected_id: rank idx 1 break is_hit rank is not None # assume 1 relevant doc mrr 0 if rank is None else 1 / rank eval_result { is_hit: is_hit, mrr: mrr, retrieved: retrieved_ids, expected: expected_id, query: query_id, } eval_results.append(eval_result) return eval_results def display_results(names, results_arr): Display results from evaluate. hit_rates [] mrrs [] for name, results in zip(names, results_arr): results_df pd.DataFrame(results) hit_rate results_df[is_hit].mean() mrr results_df[mrr].mean() hit_rates.append(hit_rate) mrrs.append(mrr) final_df pd.DataFrame( {retrievers: names, hit_rate: hit_rates, mrr: mrrs} ) print(final_df)总结Adapter微调是一种参数高效、成本低廉、效果显著的嵌入模型微调方法。通过本文的实战教程你可以✅ 用普通电脑微调嵌入模型✅ 在特定领域提升检索效果20%✅ 只保存几MB的适配器参数✅ 快速迭代和实验不同的适配器架构适用场景• 垂直领域的RAG系统• 多语言检索优化• 特定文档类型的检索• 资源受限的环境不适合的场景• 需要大幅改变模型架构• 训练数据与预训练数据分布差异极大• 需要同时微调多个任务希望这篇文章能帮助你在RAG系统中获得更好的检索效果如果你在实际应用中遇到问题欢迎在评论区交流讨论。如何学习AI大模型 “最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】CSDN粉丝独家福利这份完整版的 AI 大模型学习资料已经上传CSDN朋友们如果需要可以扫描下方二维码点击下方CSDN官方认证链接免费领取【保证100%免费】读者福利CSDN大礼包《最新AI大模型学习资源包》免费分享 安全链接放心点击对于0基础小白入门如果你是零基础小白想快速入门大模型是可以考虑的。一方面是学习时间相对较短学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。1.大模型入门学习思维导图要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。对于从来没有接触过AI大模型的同学我们帮你准备了详细的学习成长路线图学习规划。可以说是最科学最系统的学习路线大家跟着这个大的方向学习准没问题。全套教程文末领取哈2.AGI大模型配套视频很多朋友都不喜欢晦涩的文字我也为大家准备了视频教程每个章节都是当前板块的精华浓缩。3.大模型实际应用报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。全套教程文末领取哈4.大模型实战项目项目源码光学理论是没用的要学会跟着一起做要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战项目来学习。全套教程文末领取哈5.大模型经典学习电子书随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。全套教程文末领取哈6.大模型面试题答案截至目前大模型已经超过200个在大模型纵横的时代不仅大模型技术越来越卷就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道我总结了大模型常考的面试题。全套教程文末领取哈为什么分享这些资料?只要你是真心想学AI大模型我这份资料就可以无偿分享给你学习我国在这方面的相关人才比较紧缺大模型行业确实也需要更多的有志之士加入进来我也真心希望帮助大家学好这门技术如果日后有什么学习上的问题欢迎找我交流有技术上面的问题我是很愿意去帮助大家的这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。CSDN粉丝独家福利这份完整版的 AI 大模型学习资料已经上传CSDN朋友们如果需要可以扫描下方二维码点击下方CSDN官方认证链接免费领取【保证100%免费】读者福利CSDN大礼包《最新AI大模型学习资源包》免费分享 安全链接放心点击