欢迎来到池州三陆五信息科技有限公司- 未来科技

微信
手机版
网站地图

微众银行关注可信人工智能,参与撰写《可解释人工智能导论》正式出版

2024-03-31 08:43:55 栏目 : 网络动态 围观 : 0次

近日,由机器学习、计算机视觉、自然语言处理、生物医学、金融、推荐系统等应用领域的12位知名专家共同撰写的《可解释AI导论》正式出版。本书全面介绍了可解释人工智能理论和应用发展的现状、存在的问题和未来的方向。其中,魏强首席AI官教授和AI首席科学家范力欣博士作为第一作者参与了本书的撰写。

进入21世纪以来,人工智能应用不断落地,创造可解释的人工智能变得越来越重要,人工智能(Artificial Intelligence,AI)有了长足的发展,智能人机协作已成为发展趋势。如果我们能够理解人工智能的决策决策,并实现理解、信任和管理人工智能的目标,那么人们就有信心将人工智能应用到各个方面。在这种情况下,开发可解释、可扩展、安全和可靠的AI至关重要。可解释性就像医生需要向病人解释原因,以便提供易于理解的诊断和治疗。开发安全可靠的人工智能面临的首要挑战是让人类理解人工智能技术的基本原则,自动决策机制以应对潜在风险,并准备预防措施。在实践中,核心AI算法,尤其是深度学习算法,往往以“黑匣子”这样的操作模式运行,其结果需要有合理的解释来补充,以供人类理解和信任。根据各国现有的法规和法规,人工智能系统的开发和使用必须在符合法规的情况下进行。因此,开发可解释的人工智能在理论上和实践上都具有重要意义。首先,可解释的人工智能可以帮助用户建立对人工智能系统的信任,防止由于算法的黑盒特性而产生有偏见的结论,并促进算法的公平性。其次,它可以满足监管机构的合规要求,促进人工智能的公平性、稳健性和安全性。在金融领域实践的基础上,以可靠和可解释的人工智能理论和应用为重点,WeiMDB在智能服务、智能营销、联合学习等领域取得了一系列成果。他参与了《解释人工智能导论》一书的写作,反映了该银行对开发可靠、可解释和负责任的人工智能的追求。针对隐私计算和联邦学习面临的安全性、效率和性能平衡问题,杨强教授最近带领魏强AI团队不断丰富和拓展联邦学习理论,提出了“可信联邦学习”的概念。“可信联邦学习”围绕隐私保护、模型性能和算法效率,并以模型决策的可解释性和可监管性为两大支柱,构成了更安全、更可信的联邦学习。杨强教授等人在“可信联盟学习”理论框架下,提出了隐私和模型性能的“无免费午餐安全-收益恒定”定律,利用这一定律实现可信联盟学习的安全性、性能和效率的协调性,同时又不牺牲数据安全保护。在不显著降低模型性能和学习效率的情况下,实现了更高质量的隐私保护。通过有效应用这一定律,可以定量分析隐私计算技术保护方案的优缺点,优化隐私保护算法的设计。相关文章目前已在国际顶级期刊上发表。杨教授说:“数据安全、隐私保护和可解释性必须与模型性能和算法效率相媲美,这在金融应用中尤为重要。未来,我们将继续深化相关领域的探索和研究,推动可信、可解释、负责任的AI应用。”

展开剩余内容

分享到:

猜你喜欢

热门标签