Hani Hagras教授(埃塞克斯大学)学术报告通知:实现面向现实应用的真正可解释的人工智能
发布人:王健  发布时间:2025-06-26   浏览次数:10

报告人:Hani Hagras


工作单位:埃塞克斯大学


报告题目:实现面向现实应用的真正可解释的人工智能


报告时间:2025年6月25日(周三)10:00


报告地点:图书馆(东馆)第三会议室


内容摘要:

近年来,计算能力的显著提升与可用数据量的激增,共同推动了人工智能(AI)理论与应用领域的复兴。然而,复杂AI算法的使用可能导致用户难以理解其运作机制,这种现象被称为黑箱/不透明模型。因此,若要赢得政府与工业界的信任并实现AI的广泛应用,亟需通过构建人性化的可解释人工智能(XAI)系统来提升透明度。XAI致力于使机器理解其运作的上下文环境,逐步构建能够描述现实世界现象的解释模型。该理念不仅能阐释AI的个体决策逻辑,揭示系统的整体优势与局限,还能预测其未来行为模式并提供纠错机制。

本次主题演讲将通过引入可解释人工智能(XAI)的概念,展示其对全球社会与工业产生的积极影响,并重点介绍创新技术如何构建人性化的XAI系统——这些系统具备易于人类理解、分析及增强的特性。这将推动可信赖的AI系统在现实场景中的广泛部署。


个人简介:

哈尼·哈格拉斯 (Hani Hagras) 教授任职于英国埃塞克斯大学计算机科学与电子工程学院,担任人工智能教授、影响力总监、计算智能中心主任及人工智能研究组负责人。他是IEEE、IET、PFHEA、AIIA和AAIA会士。其核心研究聚焦可解释人工智能(XAI)与数据科学,应用于金融、信息物理系统、神经科学、生命科学、智能机器人及工业控制等领域。他已发表500多篇学术论著,拥有11项XAI工业专利,位列全球被引前2%科学家及全球顶尖学者(前0.05%)。哈格拉斯教授屡获殊荣,包括两度荣获IEEE模糊系统汇刊杰出论文奖、多次IEEE国际模糊系统会议最佳论文奖、与英国电信合作的全球电信商业奖(2015, 2017)、IEEE计算智能学会杰出讲席(2016)、埃塞克斯大学最佳研究影响力奖(2017)、以及知识转移与创新奖项。他担任IEEE模糊系统汇刊、IEEE人工智能汇刊等顶级期刊副主编,并曾担任IEEE模糊系统国际会议等多项重要会议主席。


【编辑:刘婉琦】