当前位置首页 > 其他范文> 正文

《人工智能》读后感_7500字

《人工智能》读后感7500字

「人工智能」讀書筆記

◆ 人类,你好!

>> 不管我们是碳基人类还是硅基机器人,都没有本质的区别。我们中的每一员都应获得应有的尊重。”

◆ 到底什么是人工智能?

>> 人工智能是有关“智能主体(Intelligent agent)的研究与设计”的学问,而“智能主体是指一个可以观察周遭环境并做出行动以达致目标的系统”。

◆ 深度学习携手大数据引领第三次AI热潮

>> 从根本上来说,深度学习和所有机器学习方法一样,是一种用数学模型对真实世界中的特定问题进行建模,以解决该领域内相似问题的过程。

◆ AlphaGo带给人类的启示究竟是什么?

>> AI小百科

弱人工智能、强人工智能和超人工智能

我们谈到了人类对人工智能的某种担心,很多人最想知道的是:今天的人工智能到底有多“聪明”?人工智能到底会发展到什么程度?什么样的人工智能会超出人类的控制范围,甚至给人类带来威胁?

要回答这样的问题,我们也许需要先廓清一下有关不同层级人工智能的几个基本定义。

弱人工智能(Weak AI)

也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。

AlphaGo是弱人工智能的一个最好实例。AlphaGo在围棋领域超越了人类最顶尖选手,笑傲江湖。但AlphaGo的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得AlphaGo与李世石比赛时,帮机器摆棋的黄士杰博士吗?), AlphaGo连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪了。

一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。

但少数评论者依然认为,即便是弱人工智能,如果管理、应对不善,也会带来致命的风险。比如,发生在2010年5月6日的美股市场的“闪跌”(Flash Crash)事件,其起因就混合了人类交易员的操作失误和自动交易算法的内在风险,而当时已经大量存在的,由计算机程序控制的自动高频交易,则被一些研究者认为是放大市场错误,并最终造成股市瞬时暴跌的帮凶。除了金融市场外,能源领域特别是核能领域里使用的弱人工智能算法如果设计和监管不当,也有可能为人类带来灾难。类似地,自动驾驶汽车上使用的人工智能算法显然也存在威胁人类生命安全的隐患。

但无论如何,弱人工智能属于相对容易控制和管理的计算机程序。总体来说,弱人工智能并不比我们使用的其他新技术更为危险。设想一下,人类在用电时、开车时或者乘坐飞机时,不也要面对客观存在的风险因素吗?对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。一台可以自动控制汽车行驶的计算机和一台可以将重物吊起的起重机,二者都需要严格的质量控制流程与安全监管策略。自动驾驶程序中的错误可能导致车祸,起重机结构设计上的错误也可能导致起重机的倾覆,二者都会造成人员伤亡。

也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是前面我们详细讨论过的图灵测试。但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能力;

2)知识表示的能力,包括常识性知识的表示能力;

3)规划能力;

4)学习能力;

5)使用自然语言进行交流沟通的能力;

6)将上述能力整合起来实现既定目标的能力。

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。

有关意识的争议性话题极其复杂。本质上,这首先会牵扯出“人类的意识到底是什么”这样的难解问题,从而让讨论变得无的放矢。以人类今天对感情、自我认知、记忆、态度等概念的理解,类似的讨论会牵涉哲学、伦理学、人类学、社会学、神经科学、计算机科学等方方面面,短期内还看不出有完美解决这一问题的可能。

也就是说,一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。

超人工智能(Superintelligence)

假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能相比,超人工智能的定义最为模糊,因为没人知道,超越人类最高水平的智慧到底会表现为何种能力。如果说对于强人工智能,我们还存在从技术角度进行探讨的可能性的话,那么,对于超人工智能,今天的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能到底是一种不现实的幻想,还是一种在未来(不管这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法准确推断,到底计算机程序有没有能力达到这一目标。

◆ 奇点来临?

>> 如果整个人类大约6000年的文明史被浓缩到一天也就是24小时,我们看到的将是怎样一种图景?

·苏美尔人、古埃及人、古代中国人在凌晨时分先后发明了文字;

·20点前后,中国北宋的毕昇发明了活字印刷术;

·蒸汽机大约在22:30被欧洲人发明出来;

·23:15,人类学会了使用电力;

·23:43,人类发明了通用电子计算机;

·23:54,人类开始使用互联网;

·23:57,人类进入移动互联网时代;

·一天里的最后10秒钟,谷歌AlphaGo宣布人工智能时代的到来……

>> 2017年年初,霍金和马斯克均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马(Asilomar)会议通过的23条基本原则。这23条基本原则涵盖了三个范畴:1)科研问题;2)伦理和价值观;3)长期问题。

阿西洛马23条基本原则像科幻阿西莫夫笔下著名的“机器人三定律”一样,从方法、特征、伦理、道德等多方面,限定未来的人工智能可以做什么,不可以做什么。例如,有关人工智能相关的伦理和价值观,其中几条原则是这样规定的:

·安全性:人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。

·价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

·由人类控制:人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。

·非破坏性:通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。

>> 《人工智能时代》的作者,计算机科学家、连续创业家、未来学家杰瑞·卡普兰(Jerry Kaplan)与我讨论这个问题的时候,他的观点是:

超人工智能诞生并威胁人类这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。之所以会有“人工智能”的疑问,根本上是因为大众习惯于把人工智能人格化,这是问题的根源。

◆ 今天的人工智能还不能做什么?

「答疑解惑」
地球表面两点间的最短距离不是连接两点的直线距离,而是经过这两点所在的以地心为圆心的大圆的劣弧(不超过半圆弧)长度。为什么?

因为地球是圆的,确切地说叫做不规则球体。
我们在研究地球的时候可以把它当作一个规则球体。
球体表面上的任意两点都不能用直线相连,因为如果这样直线就穿过了球的内部,
而我们所讨论的是地面上的距离,
只能沿着地球表面(比如从北京去纽约,飞机不可能走地球内部,不能穿过地心飞过去,只能从地球表面绕),
所以航线只能是有弧度的。
为什么是以地心为圆心的大圆劣弧?
因为过这两点有无数个圆,
圆的半径越大,弧长就越短。
两个极值:
以连接这两个点的线段为直径作一个圆,半径最小,弧长最长;
以直径无穷大的圆来连接这两个点,它们的弧长几乎等于这两点的线段长度。
地球上什么圆直径最长?
过地心的圆。
通俗来讲:

在地图上两点间最短航线即为两点间的直线,

而当把地图折成球形时 ,
两点间就会形成一个弧度,

而最短弧度就是球面两点间连线距离。
为什么同一纬线上最短距离是经过以地心为圆心的大圆的劣弧?

>> 比如我们乘飞机从北京飞往美国西海岸时,很多人都会盯着机舱内导航地图上的航迹不解地说,为什么要向北飞到北冰洋附近绕那么大个弯子呀。“两点之间直线最短”在地球表面,会变成“通过两点间的大圆弧最短”,而这一变化,并不在那些不熟悉航空、航海的人的常识范围之内。

>> 胭脂泪,相留醉,几时重,自是人生长恨水长东

◆ 从工业革命到文艺复兴

>> 牛津大学全球化与发展教授、著名经济学家伊安·戈尔丁(Ian Goldin)对世界现状与人类变局的看法。他说,今天世界面临的最大的三个挑战是:

1.人类赶不上科技发展的速度,来不及调整适应;

2.人类之间的相互连接以及信息的迅速传播,既有好的一面,也有危险的一面;

3.对个人或国家短期有益的事情,有可能伤及世界的整体利益(如英国脱欧)。

伊安·戈尔丁教授并不是在用悲观的心态来看待今天的世界。事实上,他是《发现的时代:应对新文艺复兴的风险及回报》(Age of Discovery:Navigating the Risks and Rewards of Our New Renaissance)一书的作者。在该书中,他用诘问的方式,探寻以下问题的答案:

·我们生活在科技如此进步的时代,为什么还会有这样那样的不平等?

·人类的健康、人均寿命、全球的财富、教育、科学发现等,都有前所未有的发展,但人们为什么还充满了焦虑?

·发展的代价是什么?

◆ AI会让人类大量失业吗?

>> 李开复的“五秒钟准则”

一项本来由人从事的工作,如果人可以在5秒钟以内对工作中需要思考和决策的问题做出相应的决定,那么,这项工作就有非常大的可能被人工智能技术全部或部分取代。

>> 基于“五秒钟准则”,我个人预测,从事翻译、新闻报道、助理、保安、销售、客服、交易、会计、司机、家政等工作的人,未来10年将有约90%被人工智能全部或部分取代。如果就全人类的工作进行一个粗略的估计,我的预测是,约50%的人类工作会受到人工智能的影响。

人工智能对人类工作的可能影响包括三种类型:

·人类某种工作被人工智能全部取代;

·人类某种工作被人工智能部分取代;

·人类某种工作转变为新的工作形式。

>> 担心人工智能控制甚至毁灭人类的,是对超人工智能过于乐观的“科幻”爱好者;担心人工智能取代绝大部分人类工作,造成全球大范围失业的,则是不相信科技进步能凭借自身力量优化社会资源分配、调整经济结构、构建新就业秩序的保守主义者。

>> 当你拥有一把锤子时,所有东西看起来都像钉子。”

>> 只是人类的工具。技术本身不是问题,问题是我们如何使用技术以及如何围绕人工智能这样一种革命性的新科技,建立与之配合的社会和经济结构,用制度来保证人人都可享用人工智能带来的巨大收益,同时不必担心失业等潜在风险。

◆ 人类将如何变革?

>> ·在人工智能时代,我们需要教育父母,让他们不要再期望孩子寻找“安稳”的工作,因为在传统意义上,“安稳”意味着简单、重复,“安稳”的工作早晚都会被机器取代。我们要帮助下一代做最智慧的选择,选择那些相对不容易被淘汰,或者可以与机器协同完成任务的工作。

◆ AI时代该如何学习?

>> 如果要我来总结的话,我觉得,人工智能时代最核心、最有效的学习方法包括:

·主动挑战极限:像楼天城那样喜欢并主动接受一切挑战,在挑战中完善自我。如果人类不在挑战自我中提高,也许真有可能全面落伍于智能机器。

·从实践中学习(Learning by doing):面向实际问题和综合性、复杂性问题,将基础学习和应用实践充分结合,而不是先学习再实践。一边学习一边实践的方法,有些像现代职业体育选手的以赛代练,对个人素质的要求更高,效果也更好。

·关注启发式教育,培养创造力和独立解决问题的能力:被动的、接受命令式的工作大部分都可以由机器来替代。人的价值更多会体现在创造性的工作中。启发式教育在此非常重要。死记硬背和条条框框只会“堵死”学生灵感和创意的源头。

·虽然面对面的课堂仍将存在,但互动式的在线学习将愈来愈重要:只有充分利用在线学习的优势,教育资源才能被充分共享,教育质量和教育公平性才有切实保证。创新工场投资的VIPKid、盒子鱼等面向教育创新的公司,就是大量使用在线教育、机器辅助教育等手段来帮助孩子学习的范例。

·主动向机器学习:未来的人机协作时代,人所擅长的和机器所擅长的必将有很大不同。人可以拜机器为师,从人工智能的计算结果中吸取有助于改进人类思维方式的模型、思路甚至基本逻辑。事实上,围棋职业高手们已经在虚心向AlphaGo学习更高明的定式和招法了。

·既学习人—人协作,也学习人—机协作:未来的“沟通”能力将不仅仅限于人与人之间的沟通,人机之间的沟通将成为重要的学习方法和学习目标。学生要从学习的第一天起,就和面对面的或者远程的同学(可以是人,也可以是机器)一起讨论,一起设计解决方案,一起进步。

·学习要追随兴趣:通常来说,兴趣就是那些比较有深度的东西,所以只要追随兴趣,就更有可能找到一个不容易被机器替代掉的工作。无论是为了美,为了好奇心,为了其他原因产生的兴趣,这些兴趣都有可能达到更高层次,在这些层次里,人类才可以创造出机器不能替代的价值。

◆ AI时代该学什么?

>> 人工智能时代,程式化的、重复性的、仅靠记忆与练习就可以掌握的技能将是最没有价值的技能,几乎一定可以由机器来完成;反之,那些最能体现人的综合素质的技能,例如,人对于复杂系统的综合分析、决策能力,对于艺术和文化的审美能力和创造性思维,由生活经验及文化熏陶产生的直觉、常识,基于人自身的情感(爱、恨、热情、冷漠等)与他人互动的能力……这些是人工智能时代最有价值,最值得培养、学习的技能。而且,这些技能中,大多数都是因人而异,需要“定制化”教育或培养,不可能从传统的“批量”教育中获取。

>> 人工智能时代,自动化系统将大幅解放生产力,极大地丰富每个人可以享有的社会财富。而且,由于人工智能的参与,人类可以从繁重的工作中解放出来,拥有大量的休闲时间。这个时候,这个社会对文化、娱乐的追求就会达到一个更高的层次,而未来的文娱产业,总体规模将是今天的数十倍甚至上百倍。那么,学习文艺创作技巧,用人类独有的智慧、丰富的情感以及对艺术的创造性解读去创作文娱内容,显然是未来人类证明自己价值的最好方式之一。当绝大多数人每天花6个小时或更多时间去体验最新的虚拟现实游戏、看最好的沉浸式虚拟现实电影、在虚拟音乐厅里听演奏最浪漫的乐曲、阅读最能感动人的诗歌和小说……作家、音乐家、电影导演和编剧、游戏设计师等,一定是人工智能时代的明星职业。

科幻作家、雨果奖得主郝景芳说:“很显然,我们需要去重视那些重复性标准化的工作所不能够覆盖的领域。包括什么呢?包括创造性、情感交流、审美、艺术能力,还有我们的综合理解能力、我们把很多碎片连成一个故事这样的讲述能力,我们的体验。所有这些在我们看来非常不可靠的东西,其实往往是人类智能非常独特的能力。”

◆ 有了AI,人生还有意义吗?

>> 美剧《西部世界》是如此定义人类的进化和发展的:

·人类进化的原始动力靠的是自然界对各种进化错误(变异)的选择,优胜劣汰。

·当代科技发达,人类因变异而得的较低劣的生物特征也会被技术保全下来,进化动力已然失效。

·因为进化动力失效,人类也就失去了进一步进化的可能,总体上只能停留在目前的水准——人类必须不断思索自身存在的价值,寻找生物特征以外的生命意义。

>> 《真实的人类》里,合成人曾说:“我不惧怕死亡,这使得我比任何人类更强大。”而人类则说:“你错了。如果你不惧怕死亡,那你就从未活着,你只是一种存在而已。”

>> 逸兴遄飞

「同学少年多不贱,五陵衣马自轻肥」
年少时一起求学的同学大都已飞黄腾达了,他们在长安附近的五陵,穿轻裘,乘肥马,过着富贵的生活。

>> 法国哲学家布莱兹·帕斯卡说过:“人只不过是一根苇草,是自然界最脆弱的东西;但他是一根能思想的苇草。用不着整个宇宙都拿起武器来才能毁灭;一口气、一滴水就足以致他死命了。然而,纵使宇宙毁灭了他,人却仍然要比致他于死命的东西更高贵得多;因为他知道自己要死亡以及宇宙对他所具有的优势,而宇宙对此却是一无所知。因而,我们全部的尊严就在于思想。”

人脑中的情感、自我认知等思想都是机器所完全没有的。人类可以跨领域思考,可以在短短的上下文和简单的表达方式中蕴藏丰富的语义。当李清照说“雁字回时,月满西楼”的时候,她不仅仅是在描摹风景,更是在寄寓相思。当杜甫写出“同学少年多不贱,五陵衣马自轻肥”的句子时,他不仅仅是在感叹人生遭际,更是在阐发忧国之情。这些复杂的思想,今天的AI还完全无法理解。


本文由 文言宝 整理,转载请保留链接: https://www.wenyanbao.com/html/20221230/14172.html

猜你喜欢