近年,人工智能技术发展迅猛,已经赋能诸多行业,提高社会效率,如,对医学影像的快速处理,辅助医生诊断,在新冠期间发挥重要作用等。然而,人工智能技术在可解释和可信等方面还存在较大的进步空间。如何从软件的视角看AI赋能系统的可信性;因果启发的稳定学习理论和方法对解决不稳定、不可解释等问题存在哪些机遇和挑战;进化计算与群体智能行为主义算法具有行为可观察、可感知、可认识、可解释和可调控等优势,这类人工智能算法是否会弥补连接主义算法可解释性差的不足;更多借鉴脑的结构和功能的深度学习模型是否更具可解释性;如何设计更具鲁棒性的多模态聚类算法。本论坛通过以上视角探讨相关问题。