人工智能最大的障碍是人类对人工智能的认知。人类科技的每一次进步来源于科学的重大发现,尤其是当下卷积神经网络的发展使得人类再次向智能迈进一步。在深度学习的基础上,人类可以设计出一款优秀算法可以通过图灵测试,而这些仅仅局限于语音交互方面。
人工智能,不仅仅只是在图像、语音方面的智能交互,而真正地成为人们想象中的人机交互(仿人类),还有很长一段路要走。这些技术的突破局限在于人类认知,例如对人类情感、想象、思考等机理,这或许困扰人类很长一段时间。
在人工智能体上,波士顿公司也不断推出各种逆天“仿人类”,使其更加地接近人类行为;但本体的环境交互还需要新材料和算法的突破,例如人类皮肤感知和灵巧手对物体操控。同样地,智能体更加地像人需要前面各种流弊算法支持。
人工智能走到今天,涉及学科较多,障碍多种多样,但仍要相信某一天电影中的那个真正智能体走入人类社会。
首先是技术,技术上没有突破,东西都弄不出来,谈其他的也枉然。
其次是就业层面,大量低端岗位被人工智能取代,那多出来那些工人如何安放,他们的就业怎么保证?
然后是伦理方面,简单举个例子,你能接受未来你的妻子/丈夫是机器人嘛?(可能那个时候,你不说别人都不知道他是个机器人)
最后,科技是第一生产力,尽情的憧憬吧!
图片是近期刚推出的波士顿动力旗下的四足机器人Spot。
人工智能发展的障碍主要有三个,技术、法律和伦理。
技术肯定是最大的障碍,很多人将人工智能称之为人工智障,就是由于AI技术还处在发展的初级阶段,很多技术还远远谈不上智能,只能算是稍具智能的自动化罢了。
技术的发展需要时间的积累,是不能一蹴而就的,需要时间、资本、人才和政策的综合作用。目前世界上很多国家都将人工智能作为国家级战略,就是在加大政策支持力度和资本支持力度,从而引导更多的优秀人才进入这个领域,剩下的就看时间站在谁的一边了,但至少目前看,在人工智能领域,基本上是中美两个玩家一统天下了。
除了技术外,法律也是一个问题,我们曾参与一些人工智能技术的投资,尤其重视服务机器人的应用,但在这个过程中就遇到了一些法律问题,比如家庭护理机器人,在护理老人的过程中,老人受伤了,这个责任应该算是谁的?再比如智能驾驶汽车出了交通事故,经济赔偿责任谁来承担?
所以我们后来和研发团队达成一致,在护理机器人领域,只研发那些不与人直接接触或者不主动接触的机器人产品,如果真有老人摔倒了,那机器人可以快速报警并通知家人,绝对不可以去尝试触碰老人。这就如同我们现在面临的社会悖论:老人在马路上摔倒了到底扶不扶的问题一样,法律责任难以认清的情况下,只能退而求其次了。
最大的障碍是人工智能真正火起来的落地应用深度学习占了95%,绝大部分老师学生在不停地刷着performance,真正能落地的算法或者真正能改进传统算法的几乎没有。
南大专家曾说要限制人工智能的使用而不应限制其研究,在大家全部关注深度学习的时候,能沉下心来研究其他人工智能重要方向的人太少了,比如特征提取、数据降维,这些关注的人越来越少,但是深度学习倒是人人在用,不加个深度学习研究方向拉不到项目and招生少一半,在这点上很佩服南大lamda与东南palm等专注理论研究的实验室。
最能体现人工智能算法是机器学习,机器学习包罗万象。深度学习可能会泡沫,但是机器学习和数据挖掘不会,就现在的ML算法而言,机器所学到的东西都是以参数为表现形式所体现出来的,也许它真的学到了什么东西,但是并没有真正成为我们人类所定义的knowledge,这是南大周老师在2016计算机大会上所说的话。
所以,在我浅薄的认知里,我认为现在人工智能最大的障碍是,所有人都挤破头了去使用深度学习这个工具以此发paper和圈钱,真正沉下心来研究理论的人国内真的很少。等过几年,资本看不见实质性的成果,撤资了,深度学习连带着人工智能热度都渐渐淡下去了。
我相信,机器学习领域一定有比深度学习更cool的算法,等着我们去发现与研究,但是技术层面就需要更多人的共同努力了。
人工智能最大的障碍是如何让机器拥有意识像人类一样的思考。
首先是技术,技术上没有突破,东西都弄不出来,谈其他的也枉然。
其次是就业层面,大量低端岗位被人工智能取代,那多出来那些工人如何安放,他们的就业怎么保证?
然后是伦理方面,简单举个例子,你能接受未来你的妻子/丈夫是机器人嘛?(可能那个时候,你不说别人都不知道他是个机器人)
最后,科技是第一生产力,尽情的憧憬吧!
图片是近期刚推出的波士顿动力旗下的四足机器人Spot。
怕人工智能超过人。
当代人工智能发展的时间和计算机的发展时间基本是一样长的。现代的计算机和刚出现的计算机相比,性能上提高了不止百万倍。人工智能也是最近一些年才开始了大规模的应用。其解决问题所需要的计算、开发成本还是比较高的。但强人工智能仍然还没什么眉目,最多就是能拼拼凑凑的能和人在某一方面比较,比如问题、下棋、端茶倒水之类的。这和人类做的事情的种类和学习能力是没法比较的。到底是什么阻碍了强人工智能的发展呢?总结起来基本上是三个方面,强人工智能的基本问题、计算规模的限制、现实利益驱动不够。
- 基本问题
强人工智能的一些问题还没有得到解决。虽然有很多科学家从细胞,分子生物,心理,大脑活跃度成像等各个角度角度来研究大脑。但不得不说,大脑对我们来说仍然是黑盒的。我们对它的认识还非常粗浅,一方面对大脑的各个层次的功能也只是碎片式的理解,另一方面,从对碎片理解来看,也没有推导出产生智能的系统是什么样的。
强人工智能也可以算作是仿生学的范畴。从模仿的角度来看,有两种研究和应用方法,一种是全盘复制的模仿;另一种是理解核心原理,然后做出从工程上来说更好的设计。比如仿人机器人的设计可认为是全盘复制,这个好处就是现有的功能都有,而且人易于接受。全盘复制需要对其结构非常了解,仿人机器人需要对人体骨骼、自由度方向进行深入的研究。再比如飞机,是从鸟类飞翔开始,理解了空气动力学的核心原理,然后从机械上做出了更容易实现和维护的方案。理解核心原理需要更多的理论上的突破,通常都有新的学科产生。对于强人工智能来说,这两条路都不容易。结构上,神经元一方面是分子级别的反应,反应种类多、且蛋白质结构复杂。另一方面是上百亿神经元组成的网络,取一小块研究都是非常大的规模,且很难进行动态研究。从原理上,虽然单个细胞的行为有很多理论了, 但规模化以后为什么就产生智能了,还没有理论能说清楚。
下面也仅仅列出了从现在的研究来看,所能发现的基本问题。由于信息量太大,知识之间交错不清,对这些基本问题的分类也不尽合理。随着这些问题的解决,估计还会出现新的基本问题。
目前来看技术方面是最大障碍。以后应该就是伦理道德方面的问题。凡事都有两面性。
人工智能的一个比较流行的定义,也是该领域较早的定义,是由麻省理工学院的约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。
目前人工智能还远未达到人们期望的程度,人工智能产品一眼就可以认出或感觉它只是人类创造的机器产物,外形棱角分明,动作僵硬,只能已设置好的领域的问题等等诸多问题。也就是现在在热议的弱人工智能。
我们来看看人工智能产品的构成:外界信息感知,信息处理,适当反映,这三个部分都属不同的领域。
外界信息感知是指能够使用传感器所输入的数据(如照相机、麦克风、声纳以及其他的特殊传感器)。这些传感器还没有达到理想的解析度,还处于比较大的方块状态,通俗讲也就是不够细腻。达不到人类的细腻感知。我认为这是其中一个难点问题。
信息处理,获得信息后如何处理,显然仅有逻辑推理是不够的,如何综合处理各种信息是一个难点所在。