公司简介
上海人工智能实验室安全可信团队以Make Safe AI 为核心技术愿景,致力于大模型、具身、智能体及多智能体系统的安全与可信研究,关注模型推理能力与对齐机制的深入理解与优化。我们推动前沿技术在可信推理、对齐方法、攻击与防御、评测体系等方向的创新落地,成果多次发表于顶级学术会议,包括ACL杰出论文、ICLR Oral等。如果你对大模型安全、可信对齐及未来AI能力的潜在风险怀有热情,欢迎加入我们,共同推动从“让AI 变得安全”向“打造安全的AI 转变”,支持人工智能朝着有益、安全、公平方向健康有序发展。
岗位职责(满足以下任一方向):
大模型安全攻防技术研究:研究大语言模型、多模态模型的潜在安全风险;开发针对模型推理、训练阶段的攻击技术;可解释性分析并设计新型防御方案;
推理可信:分析并提升模型的推理能力及安全能力,包括但不限于RLHF、GRPO等强化学习技术;
参与智能体全生命周期的安全可信评测与数据集构建,发现漏洞,优化终端及云端智能体系统的防护策略。"
岗位要求
"任职要求:
计算机/人工智能/自动化等相关专业;本科及以上学历;博士学历优先;
具备大模型领域经验,精通大模型架构,具备多模态模型实战经验;
扎实的机器学习与深度学习理论基础,熟悉大模型设计与训练流程;
理解并实践过主流强化学习或post-training训练算法;
加分项:
信息学奥赛、ACM 编程竞赛获奖者;
良好的数学功底;
有相关领域如NeurIPS/CVPR/CCS高水平论文发表记录;
参与大型开源项目。
理工科专业优先