今天无论你走到哪里,都有人讨论人工智能(AI)是如何转变或破坏一个进程或系统的。但现在的人工智能并不是真正的智能,因为它没有应对未知的能力。典型的AI模型运用了大量的数据和计算能力,但它仍然是一个黑盒子,无法解释它如何做出决定。
这是法国初创公司AnotherBrain首席执行官兼创始人Bruno Maisonnier在接受EE Times Europe采访时多次强调的。由于渴望在人工智能中实现真正的智能,当他之前的创业公司Aldebaran Robotics于2013年被SoftBank以1亿美元收购时,Maisonnier选择从公司退出,以继续他的“通用人工智能”探险。
“机器人很棒,但与此同时,它们又很愚蠢,”Maisonnier说。“它们无法理解基础知识,也无法理解周围的环境。2010年时,我开始研究人工智能并为机器人提供更自然的行为能力,使之更像我们所期望的那样。”在研究了深度学习系统之后,他得出的结论是“今天所有人都称之为AI的深度学习,根本是骗人的”。
“深度学习、神经网络、大数据和人工智能,所有这些都和智能没有一丁点儿关系,”Maisonnier说。“虽然它们非常强大而且具有很多可能性,但我不是在诋毁它,它们真的与智能无关。”
Bruno Maisonnier, AnotherBrain公司CEO (图片来源: AnotherBrain)
受PalmPilot发明人Jeff Hawkins的《On Intelligence》一书启发,Maisonnier考虑实现Hawkins的一些想法。“我创立AnotherBrain公司是要实现一个承诺 ——创造更通用的智能。”他已经有了框架,但还缺少一些电子部件;他还希望将系统嵌入到芯片中。为此,Maisonnier聘请了脑视觉专家Patrick Pirim担任首席科学官。
Maisonnier费尽心思地想让大家明白,这个世界是不可预测的,我们根本无法用现有的技术建造自动驾驶汽车,甚至无法制造复杂机器人。“真正的智能是一个能够实时分析和理解我们大脑运作方式的系统,它不需要大量的数据,它以一种非常节俭的方式运行,”他说。“真正的智能需要在一个芯片中实现,功耗少于1w,而与之相比,深度学习的推理阶段耗能15或20w,训练的学习阶段则耗能数千瓦。”
Maisonnier补充说,真正的智能芯片不需要大数据或大量数据,其行为结果应该也是可解释的。为了说明他所说的的可解释性,他引用了一个自动驾驶汽车识别摩托车的例子。汽车的摄像头和传感器发现一个物体并确定这是一辆摩托车,但是他们是否可以解释判断它是一个摩托车的依据,而不仅仅是对数据库里的东西打勾?截止目前,它们还不能。但如果一位人类驾驶员被要求解释为什么一个物体是摩托车,那他可能会指出因为它有又粗又黑的车轮,中间有一个发出轰鸣声的马达,还有个油箱和一个戴着头盔的骑手。“这就是可解释性,”Maisonnier说。“这就是我们在AnotherBrain做的工作。我们已经在一家法国汽车制造商的质量控制工业生产线上展示了我们的概念验证。”
人工智能的决策依据是什么可解释性使系统能够以更接近自然的方式工作。Gartner在其对2019年数据与分析十大趋势的预测中表示,可解释人工智能(Explainable AI) 十分必要,因为人工智能模型越来越普遍地被用于增强和取代人类决策,在某些情况下,企业需要判断这些模型作出的决定是否合情合理。但是,大多数高级AI模型都是复杂的黑盒子,无法解释为什么它们会给出一个特定建议或决策。
可解释AI(XAI)的概念(图片来源:DARPA)
基于对当今AI系统黑盒子本质的担忧,创建能更好地解释其决策理由的系统已成为一种趋势。美国国防高级研究计划局(DARPA)正在进行一项可解释AI(XAI)计划,以实现“第三次浪潮的AI系统”,这个阶段的AI可以理解其运行的背景和环境,而且随着时间的推移,可以构建潜在的解释模型,从而允许它们描述真实世界的现象。
柏林工业大学、弗劳恩霍夫海因里希赫兹研究所(HHI)和新加坡科技与设计大学(SUTD)的研究人员上个月在Nature上发表了一篇论文,探讨人工智能系统如何得出他们的结论以及他们的决策是真正的智能,还是只是“一般的”成功。它探讨了理解决策过程的重要性,但质疑了机器学习的有效性和普遍性,质疑模型是否只是基于训练数据中的虚假相关性而做出决策。
仿生AI在五分钟内就学会了步行与此同时,生物启发的人工智能(Bio-inspired AI)有望克服目前机器学习方法的局限性。机器学习方法依赖于为所有潜在场景预编程一个系统,这是一个复杂、计算密集且效率低下的过程。DARPA正在开发另一个项目——终身学习机(L2M),它是一个能够在执行期间不断学习并在执行任务时变得越来越专业的系统。L2M项目于2017年首次宣布,目前正在开展下一代人工智能系统及其组件的研究和开发,以及研究将生物有机体的学习机制转化为计算过程。L2M项目通过提供不同期限和规模的基金与合同,支持多达30个研究团体的工作。
L2M的被资助者其中之一是南加州大学(USC)维特比工程学院,该学院已发布其对生物启发AI算法的研究结果。在3月份的《Nature Machine Intelligence》封面故事中,USC的研究小组详细介绍了其成功创造的一个由类似动物肌腱驱动的AI控制机器人肢体,它可以自学行走任务,甚至可以自动从被破坏的平衡中恢复。
USC研究人员的机器人肢体背后是一种生物启发算法,只需五分钟的“非结构化游戏”,或进行随机动作让机器人能够学习自己的结构及周围环境,就可以自行学习步行任务。机器人通过实践学习的能力是机器终身学习的重大进步。USC研究人员的成果表明,人工智能系统可以从相关经验中学习,随着时间的推移它可以找到并调整其解决方案来应对挑战。
最近,另一篇关于群智能(Swarm Intelligence)的论文提出了一个可能对实现更直观的AI(Intuitive AI)产生影响的模型。在二月的《美国国家科学院院刊》中,来自哈佛大学John A. Paulson工程与应用科学学院和有机与进化生物学系的研究人员勾勒出了一个新框架,该框架展示了环境物理与动物行为之间的简单规则如何在自然界中产生复杂的结构。通过关注动物建筑中最著名的例子——白蚁丘, 该理论框架展示了生命系统如何利用简单的规则创造出利用物质并注入复杂建筑的微环境。
基于对白蚁建筑成就的思考,Maisonnier说:“大自然在系统优化方面显然是完美的。”那里没有复杂的系统驱动白蚁的行为, 只有简单的规则应用于基本代理。如果正确选择简单规则,最终就可能得到一个白蚁丘,即使室外温度升至42°C,也可以完美地控制其内部温度和湿度条件。结果“一个看起来经过设计的系统,事实是没有首领、没有国王、没有王后,没有任何领导,甚至没有工程师。它完全从自然行为中产生。”
通过逻辑门了解晶体管那么,白蚁与开发AI系统有什么关系呢?Maisonnier从基础开始解释:“如果你想了解计算机是如何工作的,你可以说它只不过是一个晶体管的网络。但是,尽管您可能知道晶体管工作的基础知识,却很难将之与更高级别的计算机工作原理联系起来,因为两者之间的概念差距太大了。”
“但是,如果你从中间级功能的角度出发来考虑,比如逻辑门,那就比较容易理解计算机是如何工作的。这些中间级功能通过晶体管网络得到。因此,这里最重要的是中间级功能—— 逻辑门。”
Maisonnier说,大脑也是如此,其基本成分包括神经元,就像晶体管一样,而大脑类似于计算机。他说,同样的,两者之间的差距是巨大的;你无法仅仅根据对神经元的了解来推断大脑是如何运作的。
AnotherBrain开发出所谓的有机AI技术,将传感器转换为智能传感器。 (图片来源:AnotherBrain)
“但在大脑中有称之为皮质柱的功能。如果您了解这些柱状组织正在做什么(这是已知的科学),那么您就可以重现这些功能,或者通过神经元网络、神经网络(这是非常困难的),或者直接通过经典电子学。在AnotherBrain,我们使用经典电子设备再现那些皮质柱完成的功能。”
深度学习是在微观/神经元水平上探索人类大脑,与之不同,AnotherBrain是从更宏观的层面复制大脑的行为,其中大的神经元群体具有专用的功能,例如对运动或曲率的感知。 “我们专注于创建一个生态系统,而不仅仅是技术,”Maisonnier说。
AnotherBrain不是想取代机器学习技术,而是在努力对它们进行补充。Maisonnier说,“现在深度学习和神经网络已经可以很好地服务于很多应用程序,”。他说,深度学习仍将与许多应用程序相关,但还有其他应用程序需要真正的智能,这些应用需要了解正在发生的事情以及在混乱和不可预测的世界中如何表现。
AnotherBrain所开发的称之为有机AI的技术,将传感器转换为智能传感器,用于工业自动化、物联网(IoT)和汽车市场。Maisonnier说,公司已经在GPU上运行该技术从而为客户解决工业自动化中的问题,其下一个目标应用是自动驾驶。
AnotherBrain的技术通过设计是可解释的,其使用最少的能源和数据资源实现边缘运行,从而可以在工厂和物流中更加有效地部署AI。该公司的产品包括实时制造机器人指导和一次性学习视觉检查。该技术基于一套仿生算法,允许传感器了解周围环境并自主学习,同时可以向用户解释决策依据。