直面AGI雏形阶段的未知风险挑战
构建人类可控的AI发展边界体系
塑造负责任的AI进化范式
岗位职责(任一):
构建面向AI自我进化风险的动态框架:如开发"自我意识"监测指标(如意图偏移检测、目标函数异常分析);设计"自我提升"风险量化模型(资源抢占、代码自修改行为识别);建立"自我欺骗"对抗验证环境(多智能体博弈模拟测试床)
设计自主行为约束机制:实现模型能力边界动态限制(技能树白名单控制);开发认知层级监控系统(思维链可解释性增强); 构建资源访问沙盒环境(计算/网络/存储隔离)
任职要求
风险建模经验
发表过AI自主行为相关顶会论文(NeurIPS/AAAI AI Safety专题)
具有多智能体社会模拟项目经验(如Meta AI Habitat挑战赛)
熟悉国际AI安全治理动态(中美欧AI安全标准差异分析)