邮箱: mayokaze@me.com
实习
算法实习生(大语言模型/多模态方向)
工作职责
LLM/VLM 相关科研与论文发表(可带课题)
协助 MoE 预训练/后训练实验。
参与 VRRL/RLHF 对齐。
参与 VLM 多模态联合训练实验,协助数据准备与结果分析。
协助 mentor 推进以下业务工作(之一):
– 细粒度视频对象检测/跟踪原型;
– 情感陪伴/智能客服对话小样;
– 视频多语种字幕自动翻译链路;
– 基于大模型 Embedding 的搜索召回实验。
任职要求
硕士/本科,计算机/AI/数学等相关专业。
熟练使用 Python ,了解 PyTorch ;能在 Linux 下完成基本实验。
有 LLM 或传统 DL/ML 相关经验。
每周到岗 ≥4 天,连续 ≥3 个月。
加分项同校招:ACM/NOI 、顶会/开源、B 站文化认同。
————————————
研发实习生(大模型推训)
工作职责
业务模型的部署和维护
GPU/NPU 上分布式训练任务的开发和调优
参与推理服务框架的模块开发:量化、Continous Batching 、EPKV-Cache 、PD 分离等等。
编写训练-推理监控脚本,整理故障排查笔记。
任职要求
本科/硕士,计算机/电子等相关专业。
熟练使用 Python/C++,掌握 Linux 基本命令。
满足以下任一即可:
– 跑过分布式训练;
– 写过简单 CUDA Kernel 或用过国产 NPU SDK ;
– vLLM/TensorRT 等部署经验
每周到岗 ≥4 天,连续 ≥3 个月。
加分项同校招:ACM/NOI 、开源贡献、B 站深度用户。
校招
**算法工程师(大语言模型/多模态方向) [ 2026 届] **
工作职责
大规模模型基础架构建设:
参与大规模稀疏专家模型( MoE )的预训练框架研发、实验设计与性能优化,挑战超高参数量级下的效率与稳定性。
研究并实践通用价值对齐后训练( VRRL )策略,提升大模型的安全性、可靠性、有用性与价值观。
参与视觉语言多模态大模型( VLMs )的联合训练与优化,探索跨模态融合与表示学习的新技术。
垂直场景应用研发与赋能:
内容理解方向: 将大模型能力应用于细粒度视频对象检测、识别与追踪任务,提升视频内容的结构化理解水平。
对话交互方向: 研发情感陪伴型对话机器人与智能客服系统,打造更有温度、更智能的用户交互体验。
多语言翻译方向: 利用大模型优化视频多语种字幕自动翻译与社区用户文本翻译的质量与效率。
搜索推荐协作方向: 与搜推团队紧密合作,探索基于大模型 Embedding 表示的召回策略,开发搜索问答系统,提升内容分发与用户获取信息的精准性。
前沿探索与研究:
跟踪 NLP 、CV 、多模态学习与大模型领域最前沿的学术进展,将工程成果沉淀成学术论文或开源项目,探索技术创新的潜在方向。
参与或主导技术原型验证,为团队储备未来技术能力。
**研发工程师(大模型推训/业务工程) [ 2026 届] **
工作职责
异构算力训练支持
部署与监控 LLM/多模态模型在 GPU/NPU 等异构硬件 上的分布式训练任务
优化跨平台资源调度策略,保障训练任务在混合算力环境中的稳定性
训练性能优化
分析计算/通信瓶颈,实施算子级优化(如 Kernel 重写、通信压缩)
开发硬件适配层,提升 NPU 等国产芯片训练效率
推理引擎建设
研发高吞吐、低延迟的推理服务框架,支持视频理解/对话翻译等实时场景
探索模型量化、动态批处理( Dynamic Batching ),EP,PD 分离,分布式 KV-cache 等技术在业务部署中的落地
全链路问题诊断
定位训练/推理过程中的硬件兼容性、收敛异常、性能衰减等问题
构建端到端监控工具链(训练指标追踪→推理服务质量分析)
技术能力沉淀
编写异构硬件适配指南与推理部署规范
参与内部训推一体化平台核心模块开发
社招
资深算法工程师 - 大语言模型翻译
核心职责
主导研发基于大语言模型( LLM )的多语种翻译系统
优化 视频字幕/社区文本 的翻译质量,重点解决 文化专有名词、网络用语 等场景化挑战
领域自适应技术攻关
设计针对 ACG 内容、弹幕梗、用户评论 的垂直领域自适应方案,提升 B 站内容翻译准确率
研发 低资源语种增强技术(数据挖掘/迁移学习)
构建 翻译质量自动化评估体系,融合人工反馈闭环
技术决策与跨团队协同
制定翻译技术路线,指导初级工程师
与产品/内容团队紧密协作,将技术方案转化为用户可感知的体验提升
任职要求
5 年以上 NLP/机器翻译经验
熟悉 LLM 预训练/后训练相关技术栈
优先条件
有 视频/社区产品翻译项目经验(如字幕时间轴对齐、口语化文本处理)
熟悉 B 站社区文化
掌握一种或多种小语种