职位描述
岗位职责
1. 负责大语言模型(LLM)相关算法的研发与优化,包括但不限于:模型微调、推理加速等
2. 开发检索增强生成(RAG)系统,优化检索与生成的协同机制
3. 设计并实现智能体(Agent)系统,包括任务规划、工具调用、记忆机制等
4. 探索大模型在垂直领域的应用落地,解决实际业务问题
5. 跟踪LLM领域最新进展,持续优化模型性能和效果
技术要求
1. 深度学习框架
熟悉掌握Pytorch , DeepSpeed, vLLM等框架
2. 核心技能
-深入理解Transformer架构及各类LLM模型(如GPT、LLaMA、DeepSeek等
-熟悉Prompt Engineering、LoRA/P-tuning等高效微调方法
-具备RAG系统开发经验,熟悉向量检索(FAISS/Milvus等)和文档处理
-开发框架(如LangChain、LangGraph, LlamaIndex, AutoGPT、ReAct,Dify等)
3. 工程能力
-熟悉模型量化、剪枝、蒸馏等优化技术
-了解大模型部署优化(TensorRT-LLM等)
-有LLM预训练或微调经验
-有分布式训练(Megatron-LM、ColossalAI等)经验
-有大规模(10B 参数)模型训练/微调经验优先
-熟悉大模型安全对齐(RLHF、DPO等)技术优先
-具备完整的大模型产品落地经验优先
任职要求
1. 硕士及以上学历,计算机、人工智能等相关专业。
2. 3年以上NLP/LLM相关研发经验(优秀应届生可放宽)。
3. 扎实的算法基础和工程实现