首页 报告正文

国内首份可解释 AI 报告

  随着各界对AI伦理的日益重视,AI系统的可解释性也逐渐成为热点,甚至上升到立法和监管的要求。许多人工智能领域的专家都把2021年视为“AI可解释元年”,在这一年,不仅政府出台相应的监管要求,国内外许多科技公司,譬如谷歌、微软、IBM、美团、微博、腾讯等,也都推出了相应的举措。

  近日,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯AILab等组成的跨学科研究团队,历时近一年,完成业内首份《可解释AI发展报告2022——打开算法黑箱的理念与实践》,全面梳理可解释AI的概念、监管政策、发展趋势、行业实践,并提出未来发展建议。

  2021年11月,联合国UNESCO通过首个全球性的AI伦理协议《人工智能伦理建议书》(Recommendation on the ethics of artificial intelligence),提出的十大AI原则包括“透明性与可解释性”,即算法的工作方式和算法训练数据应具有透明度和可理解性。

  就当前而言,机器学习模型尤其是深度学习模型往往是不透明的,难以为人类所理解的。未来,人工智能的持续进步有望带来自主感知、学习、决策、行动的自主系统。然而,这些系统的实际效用受限于机器是否能够充分地向人类用户解释其思想和行动。如果用户想要理解、信任、有效管理新一代的人工智能伙伴,人工智能系统的透明性与可解释性就是至关重要的。因此,近年来,可解释AI(Explainable Artificial Intellifence,简称“XAI”)成为了AI研究的新兴领域,学术界与产业界等纷纷探索理解AI系统行为的方法和工具。

  可解释AI的意义:第一,帮助用户增强对AI系统的信息与信任。第二,防止偏见,促进算法公平。第三,满足监管标准或政策要求。第四,理解和验证AI系统的输出,推动系统设计的改进。第五,帮助评估风险、鲁棒性和脆弱性。

  可解释AI的发展趋势:第一,AI的透明性和可解释性逐渐成为立法和监管关注的焦点。第二,对政府公共部门使用的AI系统提出较高的透明度与可解释性要求。第三,对商业领域的AI系统在可解释方面避免作“一刀切”要求。第四,行业积极探索可解释AI的技术解决方案。

  报告指出,透明性与可解释性,连同公平性评价、安全考虑、人类AI协作、责任框架,都是AI领域的基本问题。对AI应用系统的透明性与可解释性要求,需要考虑受众需求、应用场景、技术与经济可行性、时空等因素,同时与效率、安全、隐私、网络安全、知识产权等目的做好平衡,界定不同场景的最小可接受标准,必要时采取常规监测、人类审查等刹车机制,而非一味要求算法解释或算法公开。

具体内容如下

责任编辑:蔺弦弦

分享: