没听明白是如何解决“经验主义”的,且由于测不准原理并不能由一些参数算出宇宙中事情的走向,我认为XX上的定律应是贴近现实的,对与我们所隔较远的地方是否符合的XX定律纠是无关验证的。
这是哲学问题了,我必须先声明我根本没有资格来回答这个问题。下面我从我的一知半解中给你分享一下我的肤浅之见,请你将来自己阅读材料和请教大师来解决疑问。从我的阅读所得来的知识告诉我,以大卫.休谟为代表的英国经验主义认为:一切认知都来自感官经验,理性总结出来的各种规律是不牢靠的。我们今天不死、明天不死、后天不死,不能归纳出永远不死,所以“实践是检验真理的唯一标准”,“没有永恒的定律”——这是唯物主义对经验主义的解读。康德哲学兼容了唯物主义与唯心主义,将真理分成两类:第一类,物质性真理,如牛顿三定律,确实符合经验主义的观点,所以随着科学的发展和进步,相对论和量子力学也在不断地修正,它们并非永恒成立;第二类,认识论真理,比如亚里士多德在《逻辑学》中总结的四大定律:同一律、排中律、充足理由律和矛盾律,这些定律是人脑思维和心灵的固有结构,只要人类存在就一直成立。我来尝试举个通俗的例子:欧式几何的几大公理并不见得永恒成立(比如黎曼几何等非欧式几何,就不遵从欧式几何的公理),但欧氏几何推导所使用的那套逻辑方法,只要人类存在就一直成立。
①据我所知,人工智能有穷举(或神经网络)等方式创造绘画、乐曲的能力,那么,有没有可能让人工智能创造新的程序,甚至是新的人工智能?若它真的能够做到,它是否可独立为一个物种?它与人类的关系?②在脑机交互过程中,电极可以起到一个转换信息的作用,那么,它是“意识”的延伸吗?是否有一天,计算机可以作为意识、信息的外延(不是载体)?
(1)虽然在讲座中我提到了无限猴子定理,不过还没有看到真的这样去创作乐曲和绘画的。
目前像Prisma这种应用大多是应用transfer learning and deeplearning进行画风的转换,模拟学习已有绘画风格创造出新的作品。确实目前有自动编程的研究,不过进展不大。本质上来说,现阶段的人工智能自动编程最多还是解决“在有限时间内搜索最优解”的优化问题,距离生成超越本身的程序还有非常遥远的距离。物种是一个生物学的概念,从生物学的角度看人工智能并不能成为一个物种,它与人类的关系也是服务于人类。(2)目前来说这个想法的实现还仅存在科幻之中,而且也不能算是意识的延伸。从目前的研究水平来看不能明朗地看到这个趋势。
如果,科技界的发展在某种程度上会遵循“三大定律”,那CPU宽待等的增长是否会阻涉科技方面其它的发展。若这两发面是相辅相承的,那算法、速度上的精又是如何影响“意识”的呢?
硬件能力的增强、带宽的增加、网络价值的不断提高并不会阻碍其他方面的发展,相反,计算性能、网络性能的提升使得我们所遇到的复杂的高运算量的问题比如深度学习更为可行,网络价值的提升则意味着有更多的用户参与,能够提供更大量的数据从而也能帮助人工智能发展。随着GPU的性能变得强劲,进行深度学习训练的门槛大大降低,即使是普通人买到一块显卡,就能进行深度学习的实验,这很大程度上促进了类似深度学习这样的方法在更广泛的领域普及,对研究人工智能的帮助是巨大的。但这些因素与“意识”本身没有太大的直接关系,目前关于“意识”是如何产生的还是一个谜题,因此探讨这些因素如何影响“意识”为时尚早。如果一定要问有什么影响的话,应该是有更多的研究者开始好奇如何提升人工智能的能力,从而使机器真的获得“意识”。机器最终会拥有自我意识吗?人类希望机器最终拥有意识吗?猛拍阑干思往事,一场春梦不分明。
您认为应该怎样避免或预防人工智能出现的失误?在alphago和李世石下围棋的第四局中,alphago人工智能出现了严重失误,下出了几步明显有误的棋,那么如果人工智能在未来被用于医疗、交通等领域中,这样的失误可能导致灾难性的后果,我们该如何尽可能不让这种事出现呢?
这个问题非常好!这是AI应用中的“关键性应用”和“非关键性应用”的问题。AlphaGo基于的深度学习技术目前在自然语言处理、计算机视觉以及语音识别等领域应用已经逐渐开始广泛起来。深度学习在这些领域的应用很多方面超过人,大家可以经常看到精度(precision)甚至达到99%以上,好了,问题就来了,这个百分之几点几在应用领域的重要性就有所区分,比如在非关键性应用,人脸识别等领域我高几个点低几个点不会有什么太严重的问题;但在关键性应用比如医疗和交通上是不容许这种失误的,人命关天;因此在不同应用领域,不同场景所用的机制和算法策略是不同的,我们不会直接照搬AlphaGo的算法过来套用在新的领域。数据、场景、算法和计算资源是缺一不可的。在医疗和交通领域,真实可靠的数据、丰富的场景加之匹配的算法和算力以及专业的行业人员的指导分析是保证这些关键性应用的王牌,目前在这些关键性应用里面其实还有更多的细分领域;比如目前的医疗领域,还不会让AI去做自主诊断和决策,在肿瘤识别和病灶边界分割方面,AI是可以极大程度降低人的主观误诊率和漏诊率并极大提升效率和降低成本的;但最终的治疗方案和签字权还在有经验的医师手中。
此外,我们在讲座中也提到人工智能鲁棒性问题。人工智能出现失误的时候,其失误显得比人的失误更“傻得多”。失误其实任何人的一生中都会有,如何能从每一次失误吸取宝贵的经验与教训,也有意义和价值。客观说,在医疗和交通等重要领域,不仅仅是机器的失误会导致灾难性的后果,人的失误同样有可能引起这些问题。我记得高中有一个全文背诵的课文,红日初升其道大光,河出伏流一泻汪洋。美哉我少年中国,与天不老,壮哉我中国少年,与国无疆。这个作者就是著名的梁启超。他是怎么去世的呢?据说是个意外,做手术的时候被后来做了卫生部政务次长的协和医院一位名医,错误地切掉了好的肾,留下了本来要切掉的坏肾。这是什么样惨烈的失误?!怎么避免?
霍金曾多次向人类提醒人工智能的发展将对人类产生威胁,甚至会与人类争夺生存的权利以至于人类灭绝。您对这种看法如何评论,您对人工智能与人类的关系又有哪些看法?
请问您对霍金“人工智能威胁论”有什么看法?是外行指导内行,是一个有价值的思考吗?还是我只知其一不知其二,不知道霍金的语境,或者不知道霍金的后半句线
请问您如何看待霍金的“人工智能威胁论”?还是我只知其一不知其二,不知道霍金说这话的语境,下半句话或者他更改了他的观点?
这个问题我回答过很多次。我觉得,作为一个科普为主的科学家,霍金有时候不关心依据何来。相比来说,霍金在科普上的成就,远高于他在科学上的成就。
②人虽然在综合方面可以超过人工智能,但在某些方面不如人工智能,比如马虽然比车更能识别主人,但在驾驶方面,车比马好,故马被取代,如司机一定不如自动驾驶,人未来如何就业呢?人类(少部分人)又凭什么养活大部分无用的人呢?(问题灵感来源于《时间简史》)——高一(17)班 陈泽禺
你的问题比较人比人工智能是否存在优势的前提是:生物是算法且人工智能可以加入反应,这两个前提前者尚未证明,后者目前实现难度依然非常非常大。
我非常佩服你已经看了《时间简史》这本书。我高中的时候也就看了阿童木和机器猫,我相信很多人也都没有完整地看过《时间简史》。人类发展的过程中,职业类别一直在一边消失一边产生中,比如我小时候最兴奋的就是有个背着一个小箱子走街串巷叫卖“冰棍5分雪糕1毛”的老奶奶路过我家门口;同时职业种类的增加也是明显的,在没有计算机之前哪有码农这种高大上的工作啊:) 所以是不是可以这样预测,即使在未来,一种职业倒下去,千百种职业站起来。积极地说,天生我材必有用! (可怕的是不知道怎么用哈)我们每个人都要学会在未来的社会中找到自己发光发热的位置。倒是那些“少数人”他们凭什么认为自己“养活”着别人呢?
听说有人在做书法机械臂和人工智能古典诗词创作这样的项目,但这一类领域重在人类情感,您认为这类项目的意义在哪?我们应当如何根据人工智能的特点来尽可能大地发挥它的优势?
在今后相当长的一段时间内模拟人的感情应该都是人工智能需要攻克的难点,而如果人工智能能够在这类对人类情感相当看重的领域做出突破性的进展,那么对于技术的发展来说还是具有相当重要的意义的。此外,借着人工智能的东风使得中国的传统文化能够多了一条被大众认识了解的途径也算是其一个隐形的好处吧。好像很早以前就有一种“藏头诗”或者“藏尾诗”的生成软件,生成的各种“藏头诗”可谓传播甚广,这其中被“黑”的最惨的应该就是李白了吧,每首藏头诗后面诗仙都得跟上一句:这真的不是我写的。AI在书法以及古诗词这方面的优势主要在于可以将已有的经验规则发挥到极致,换句话说AI写出来的字和做出来的作品从技巧上来说都不会有明显的失误,而且速度极快轻松量产;但作品呈现的情感还难以给人类共鸣。今后借助于类似GAN这样的技术,是不是可以创造出AI的风格呢?这还不知道。难度也是非常大的。从事这方面的研究意义在于,如果有一天情感的沟通gap可以被填补,那在很多心理、精神治疗领域,比如忧郁症、孤独症、自闭症以及老年人陪护、留守儿童护理方面都会产生相当的社会和文化价值。
有几个相对思想性的问题,我想知道您的看法(仅仅是看法就好)。关于如果大脑能被全部/大部分数据化,那么对于这个数据,是能复制还是剪切,也就是说相同的“意识体”究竟能否存在多个?意识和数据又是否能画上约等号?
目前我们对于意识的产生和工作机理几乎一无所知,所以这个问题要等到人类理解了意识之后才能回答。不过我可以提供一些你所谓的“我的看法”。我认识一个人,他做了大脑的手术,切除了相当一部分大脑,神奇的是,这个人居然没有损失任何机能。是不是变笨了?我不知道。但是并没有直接失去某些我们一眼看得到的机能。他还是原来的他吗?他自己说是。不过我们也无法验证。他是不是忘掉了一些东西?问题是我们这些没有切掉什么的人不是也天天忘掉很多吗?所以意识体能否存在多个,真的是不知道,不过意识和数据目前看来不应该画上任何意义的等号。
人工智能的发展方向是偏向结构的改变还是在现有基础上的工业革新?工业革新固然无法做到最后的目的,但却即时有效,在您所讲将至的第四次工业革命,人工智能的发展方向是从思维(即大的结构革新)还是从物质角度进项技术(工业)革新?我认为回答会为将来愿意从事这方面的同学有帮助。
广义的人工智能,其发展是多方面的,包含但不限于你所说的两个方向,随着发展,必然会产生新的方向,无论是在哪一侧面有所突破,相信都会辅助人类提高生产和生活效率。这都不是泛泛而言可以说得透彻的。千里之行,始于跬步。你所说的思维角度或者是物质角度,其实就像我们常常说到的理论和实践。目前人工智能领域无论是在基础理论还是应用实践上都取得了非常快速的发展,同样也都有非常大的发展空间。计算机科学是一门以应用驱动的科学,在第四次工业革命中,一个大的趋势是要对不同类型的海量工业数据进行融合分析建模,这即需要我们重新设计新的模型来适应新的挑战,也需要结合具体工业场景,利用人工智能的方法,进行集成创新,同学们在职业选择的时候可以结合自己的兴趣和特长进行选择。
您认为对于情感方面是否有人工智能的解决方案,是否会用到更加深入的数学,甚至导致产生一个新的研究方向。现在对这方面是否有大概的方向与范围?
有不少相关的影视作品探讨了这个问题,比如《机器姬》、《机器管家》、《她》、《人工智能》等等。虽然目前已可以利用机器读懂人类的一些情感(比如自然语言处理中的语义情感分析或者微表情分析),但识别的准确度尚需提高。即便是机器读懂了人类的感情,机器的反应也未必是我们想象的。比如你兴奋地和你的Siri说“我考了满分!”,同时对你同桌说同样的话,究竟哪个会产生有“情感”的反应呢?从目前的技术进展看,人工智能产生情感是一件从技术上和伦理上都很难实现的事情。数学非常非常重要,只要是从事计算机(不限于)相关的工作,学好数学都是基础。
您对冯·诺依曼以外的结构有什么看法?做到的可能性有吗?有没有相关的研究在进行?
按照我的理解,除了冯诺依曼结构之外,比较主要的还有哈佛结构,可以算是现代计算机的两个结构,两者的主要差别在于计算机的指令和数据是分开存放(哈佛结构)还是统一存放(冯诺依曼结构)。前者理论上效率更高而后者硬件实现更简单。今天的计算机结构,看起来是采用了冯诺依曼结构,但由于CPU中1级缓存的存在且分为数据缓存和指令缓存,现代计算机的效果事实上是哈佛结构。类脑计算机、量子计算机,以及其他一些非常前沿的理论研究都在试图构建新型的计算结构。据我的了解,目前在短期内能看到的成熟应用还不多。
我很享受您的讲座。我有一个问题想问您:现在计算机用人脑控制执行任务应该主要是依靠脑电波。那么您觉得是不是可以利用脑化学信号或其它方法呢?
目前主要使用脑电波的原因应该是脑电波信号要比化学信号更好捕捉和监控,而且大多数人恐怕也不喜欢把一些设备插入到自己的脑袋里面(这个时候想想那些脑科学实验的小白鼠还真是可怜)。这倒让我想起了很经典也很有年头的美剧《火星叔叔马丁》,他脑袋上的两根天线很有意思,有兴趣可以搜来看看,不过严重怀疑这部1963-1966年的美剧还能不能搜到。
人的认知是有局限性的,是不是就是这一点导致了人对万物现象,以至于人类自己发明的数学,计算机都有局限性?
毫无疑问,人的认知自然是有局限性的。人类对事物的认识都是螺旋上升的,现在所谓的公理都可能被未来的研究和发现所推翻。对科学方法和原则的追求才是指导人类进步的大方向,也是不断突破“局限性”的方法。从某些角度上讲,科研工作就是在不断地提高我们认识、理解和处理万物的能力,从而突破我们现阶段的局限性。
人工智能的发展是否会刷新人类对“生物”的定义与认知?例如某天人工智能达到了现在的定义,现在的定义会被刷新吗?还是把这个人工智能也看作“生物”?
有人认为,广义的生命泛指变化和运动,狭义的生命指有机生物体,狭义的生命只是广义生命中的一种类型。从广义的角度说,一切都是有生命的,都在变化和运动,宇宙中的万事万物都具有生命,它包括生物、非生物和意识,也包括人类的和非人类的,还包括不同空间的生命。意识,从字面上讲,意,是自我的意思;识,就是认知,认识。有“识”,才能“意”,而如何让人工智能做到“识”,本身已经是一个极复杂的过程。举个简单的例子,我们现在手机上都有天气预报,里面会告诉你明天要穿什么样的衣服,有没有雨,有没有风,这些简单的文字后面是对通过成千上百的传感器采集到数据进行分析的基础上计算得出的结论,而这些传感器如何布置、如何把数据传送回来供分析,也是一个庞大而复杂的过程。
②请问图灵在六十年前作出的关于人工智能“图灵测试”以及其对于人工智能的预言对如今的人工智能有何意思?A
关于预言未来,我一向认为是危险的。应该说目前机器不具备而人类一般意义上所理解的“意识”,做到保存可能要比做到产生更有可能性,这至少是一个艰巨且漫长的过程。就“意识”本身而言,已经不是计算机问题,而是哲学层面的问题了。
年图灵的论文至今都对AI有着深远的影响,图灵提出关于机器思维的问题,他的论文“计算机和智能(Computing machinery andintelligence),引起了广泛的注意和深远的影响。去年很火的GAN就有一点这样的味道,提出了机器的所谓自我学习与自我觉醒。在提出图灵测试后,图灵还给出了自己的预测:“我相信在 50 年左右的时间内,计算机编程技术将可能…… 实现可以顺利通过模仿游戏的计算机,普通询问者在经过5分钟询问之后的判断准确率将不高于70%。”但其实即使到了现在,也就是图灵测试提出67年后,我们依然距离这个标准有很大的差距。
Q:刘教授好,我在追一个美剧,叫做《指定幸存者》。其中一集,总统为了处理国家间矛盾而禁止了一家企业在外国使用人工智能来代替人,来创造更多的就业岗位。有一些方面上人工智能的出现势必会伤害到一部分人,就像会使很多人失业。您认为在社会发展当中,我们如何才能平衡进步与传统间的矛盾?在很极端的条件下,我们是否在一个方面禁止人工智能的使用?人工智能的发展又需要什么样的道德原则?
随着社会的进步与发展,有些职业会渐渐去人工化,但是也有新的职业需求出现。任何技术的出现和普及总是会存在一定的磨合期。无论如何,你们反正不必担心机器和你抢饭碗,而应该担心被别人抢饭碗。人与人的竞争,可能比物种之间的竞争更加残酷而真实。至于机器智能发展的道德原则,人类一直在思考和不断地完善。你也可以通过自己的努力成为对此真正有发言权的人。
您有想过未来哪种算法能超越图灵机,形成真正的人工智能吗?以及图灵机的缺陷具体出现在哪里?
您认为在现在的情况下第一次出现大规模通过图灵测试的AI会出现在图灵机上还是非图灵架构?
请问要达到想象中的人工智能——有创造力、有好奇心的“电脑。请问是应该在图灵机上加以改进,还是新创造一种更加贴近人脑思考的计算机的形态。
目前仍没有能完全通过图灵测试的机器,而且完全通过图灵测试仍有很长的路要走。即便是人工智能发展大跨越的2017年,依然没有达到图灵写于 1950 年的论文《计算机器与智能》当中,那个 2000 年的机器思考能力达到30% 骗过测试者这样的预测。
我觉得这个问题引发的另外一个思考是图灵机能否以贴近人脑思考的形态进行计算?如果说人脑思考的过程是一个可判定的问题,那么图灵机已经能够实现所谓的贴近人脑思考的形态,可以通过完美地模拟人脑思考的方式实现人工智能。从目前的研究现状来看,我们对人类大脑的工作原理认知还十分的有限,并不能确定人类大脑到底在以什么样的方式进行工作。所以是否要超出图灵机的范畴研究人工智能,可能还需要我们进一步地深入理解人脑的工作方式。现有阶段也存在着如类人脑计算机等非图灵机架构的研究,但是能否取得进一步的成果,还要经过时间的检验。
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
相关阅读
热门推荐