随着大模型技术的飞速发展,人工智能正以前所未有的速度改变着各行各业。从自然语言处理到计算机视觉,从生成式AI到多模态融合,大模型展现出强大的能力,同时也带来了诸多安全挑战。数据隐私泄露、模型对抗攻击、内容生成滥用、算法偏见与歧视等问题日益突出,成为制约AI技术可持续发展的关键瓶颈。在此背景下,如何构建安全可信的人工智能系统,已成为学术界、产业界和监管机构共同关注的核心议题。
本次技术论坛以“大模型时代的AI安全:从理论到实践”为主题,旨在汇聚来自学术界、工业界及政策制定领域的专家学者,围绕AI安全的核心挑战展开深入探讨。论坛将聚焦于大模型在实际应用中的安全风险识别、评估与治理,分享最新的研究成果与工程实践经验,推动建立科学合理的AI安全标准与治理体系。通过理论与实践的结合,促进跨学科交流与合作,助力打造更加可信、可控、可解释的新一代人工智能系统,为AI技术的健康发展提供坚实保障。
时间 | 内容 |
13:30-13:40 | 开幕式,领导致辞 |
13:40-14:20 | 报告01:张谧 题目:大模型安全风险与治理—复旦白泽助力负责任AI |
14:20-15:00 | 报告02:熊贇 题目:领域大模型方法研究与安全挑战 |
15:00-15:10 | 中场休息 |
15:10-15:50 | 报告03:符春辉 题目:让智能更安全:大模型风险识别与防范 |
15:50-16:30 | 报告04:孟国柱 题目:保护AI系统:现实部署的风险与挑战 |