WAP手机版 RSS订阅 加入收藏  设为首页
威尼斯人官网
当前位置:首页 > 威尼斯人官网

威尼斯人官网:类脑智能:人类如何构建学习系统?

时间:2019/9/9 10:57:08  作者:  来源:  查看:75  评论:0
内容摘要:  爱丁堡机器人中心创始人戴维·莱恩教授在“类脑智能与群智智能”主题论坛上探讨了“持久的自主性”(Persistent Autonomy),即人工智能和仿生之间的关系。在他看来,人工智能的作用最终会回归自然,实际上,工程师与机器人的工作灵感也是来源于自然,那就是仿生,人工智能的系...
  爱丁堡机器人中心创始人戴维·莱恩教授在“类脑智能与群智智能”主题论坛上探讨了“持久的自主性”(Persistent Autonomy),即人工智能和仿生之间的关系。在他看来,人工智能的作用最终会回归自然,实际上,工程师与机器人的工作灵感也是来源于自然,那就是仿生,人工智能的系统辨识在此基础上建立的。

  在阐述“持久的自主性”之前,莱恩引用了儿子的成长经历。当孩子6个月大的时候,他试图用手去捡东西,往嘴巴里塞东西,这是婴儿探索世界的方式;16年后,他加入了校橄榄球队,成为一名优秀的运动员,他的肢体具有高度的协调性。这就是令莱恩着迷的地方,人类究竟是如何构建学习系统的?

  人类懂得交流,而AI懂得交互。在人脑这个系统中,人类通过学习来进行“抽象”,从而理解正在发生什么。所谓持久自主,就是要包括计划、决策、控制、感知、绘图、修复、诊断、学习、系统等多种功能。

  以AI界最成功的应用之一AlphaGo为例,自2016年问世以来,AlphaGo就因为击败了人类职业围棋选手而名声大噪,可是莱恩对AlphaGo这样的人工智能却存在四点困惑。


  首先,在AlphaGo学习下棋的过程中,它走的每一步棋都是成功的,如果要用相同的方法来训练其他机器人,那么势必需要更多的训练样本,因为机器人必须懂得处理多种形式的失败。其次,现实里的机器人是实时运行的,AlphaGo的下棋模型则要快上许多倍,其他机器人根本无法模拟这种运行速度,而且专注于围棋的AlphaGo也不会遇到现实里的各种不确定因素。

  第三个困惑则涉及“可解释的AI”(Explainable AI),即机器的行为可以被人类理解,与机器学习中“黑匣子”的概念形成鲜明对比,否则即使是设计者也无法解释人工智能为什么会做出如此决定,“可解释的AI”拥有实现社会解释的权利。莱恩的最后一个困惑展示了更大的现实意义——电力,要让这些机器人跑起来,需要多大的功率预算?

  机器人经历失败是种什么样的体验?在介绍机器人如何制定计划时,莱恩提及了“数字孪生”(digital twin)的概念,这是充分利用物理模型、传感器更新、运行历史等数据,集成多学科、多物理量、多尺度、多概率的仿真过程。“之所以用到数字孪生,是因为机器人制定计划时需要耗费大量的时间来理解所有偶发的可能性。”

相关评论

本类更新

本类推荐

本类排行

本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下 (威尼斯人官网)