人工智能作为新一轮科技革命和产业变革的重要驱动力量,广泛应用于医疗、金融、交通等领域,带来了巨大的经济效益与社会效益。
(资料图)
然而随着人工智能应用的深入,其自身的技术缺陷以及带来的决策偏见、使用安全等问题引发了信任危机,可信成为关注焦点。
9月1日下午,世界人工智能大会可信AI论坛在徐汇滨江举行,并发布了《可信人工智能产业生态发展报告2022》(以下简称《报告》)。
据IDC相关数据,2021年全球人工智能产业规模为3619亿美元,并预计在2022年同比增长19.6%,超4300亿美元。
《报告》指出,技术上,人工智能算法脆弱,易受攻击;黑箱模型导致算法不透明,使得人们无法直观理解决策背后的原因。
应用上,人工智能训练数据中存在的偏见歧视导致公平性缺失;以人脸识别技术为代表的生物识别信息的频繁使用增加了隐私泄露的可能。
伦理上,人工智能系统决策复杂,难以界定责任主体,带来伦理安全问题。
构建可信人工智能成为缓解和消除这些担忧的必然选择。《报告》显示,学术界率先推开了可信人工智能的大门,在可信人工智能概念提出后,逐步推广可信共识。
2020年起,可信人工智能领域研究论文数量飞速增长,围绕鲁棒性、可解释性、隐私保护等方面的技术研究持续升温。可信已经成为人工智能产业发展必备要素,驱动人工智能规范发展。
人工智能只有可信可靠,才能获得可持续性发展。对用户而言,可信要素将推动人工智能技术黑箱趋于透明,增强用户对人工智能的信任感。对开发者而言,可解释的人工智能有助于全生命周期的企业管理,有助于履行内部报告和外部监管合规义务,确保应用和服务在最大程度上减少偏见。
报告显示,在可信人工智能实践上,世界各国高度重视,在政策、技术、标准的研究制定上均采取了相关措施。
政策发布上,全球持续探索人工智能立法,推动可信人工智能范式法制化。
技术研究上,提升人工智能系统稳定性、隐私保护技术占据可信人工智能技术研究主流,可解释性、公平性等技术研究紧随其后。
当前以对抗训练、梯度屏蔽为代表的人工智能系统稳定性技术稳步发展;以同态加密、多方安全计算、差分隐私等为代表的隐私安全技术发展迅速;可解释性增强技术研究当前仍处于初期阶段,科技巨头推出多个AI可解释性工具及服务;提升人工智能公平性主流方法为通过构建完整异构数据集及引入公平决策量化指标算法,以减轻决策偏差。
报告发布结束后,为推动企业实现业务全链路可信,护航可信AI走向工业级落地,蚂蚁集团基于大规模实践经验,联合清华大学和中国信通院云计算与大数据研究所共研一款适配工业级应用的AI安全检测平台,正式发布向行业开放使用。