参与大语言模型安全可信方面的研究工作,协助研究员探索和开发提升模型安全性和可靠性的数据、算法和方法,提升模型推理的准确性、公平性和可解释性;
1. 参与研究如何将人类价值融入大模型的推理过程以及如何识别和纠正模型的潜在价值偏差;
2. 协助收集和处理大规模数据集,参与模型训练、评估和分析;
3. 协助实现安全算法,并进行实验验证和分析;
4. 协助文献调研,跟踪最新的安全可信算法研究进展,并撰写总结报告。
任职要求:
1. 本科在读及以上,计算机科学、软件工程、统计学或相关专业优先;
2. 具备扎实的机器学习和深度学习基础知识,熟悉常用的机器学习框架,如 TensorFlow、PyTorch 等,熟悉 Python 编程语言,具备良好的数据处理和分析能力;
3. 具备大语言模型API调用、部署和评测的相关经验,熟悉常见的 NLP 技术,对大模型安全可信领域有浓厚兴趣,具备良好的学习能力和钻研精神;
4. 具备大语言模型、多模态大模型微调训练的相关经验,了解 Deepspeed 等相关框架;
5. 具备良好的沟通能力和团队合作精神,学习能力强,工作积极主动。