读千脑智能笔记06_人工智能的未来(上)

1. 人工智能正在经历一场复兴,这是科技界最热门的领域之一

1.1. 大多数科学进步都建立在被广泛接受的理论框架之上。这种理论框架称为“科学范式”

1.2. 人工智能的未来将与大多数人工智能从业者如今的设想存在本质上的不同

1.3. 人工神经网络与人类大脑中的神经元网络截然不同,但是人工神经网络领导了当下的人工智能领域

1.4. 未来的人工智能将以与现在不同的原理为基础,新的原理更加接近于模拟人类大脑

1.5. 人工智能向基于大脑的原理的转变也是必然的

2. 并不智能的人工智能

2.1. 每一波浪潮都建立在某项新的技术之上,它们都试图为我们指明创造智能机器的方向

2.1.1. 最终都功亏一篑

2.2. 深度学习

2.2.1. 在图像分类、语音识别、汽车驾驶等任务上取得了惊艳的效果

2.3. 在包括大多数人工智能研究者在内的人看来,这些机器并不具有真正的智能

2.4. 当下的人工智能在诸多方面还达不到人类智能的水平

2.4.1. 最主要的原因是它们只会做一件事,而人类可以做各种各样的事情

2.4.2. 一台用于下围棋的计算机也许能在围棋对弈中战胜所有人类,但是它并不能做其他事

2.4.3. 人工智能研究的长期目标是创造展现类人智能的机器,它们能够快速学习新任务,发现不同任务之间的相似性,灵活地解决新的问题

2.4.3.1. 通用人工智能(Artificial General Intelligence)

2.5. 实现通用人工智能的两条路

2.5.1. 第一条路正是该领域目前的研究方向,那就是让计算机在某些具体任务上超过人类,如下围棋、检测医学图像中的癌细胞

2.5.1.1. 唯一重要的是,这样的人工智能计算机在执行特定任务时比其他人工智能计算机更强,并最终超越最强的人类

2.5.2. 第二条路是重点关注灵活性

2.5.2.1. 人工智能就不必具备比人类更强的性能

2.5.2.2. 目标变成了创造可以做各种事情并且可以将从某个任务中学到的东西应用于另一个任务的机器

2.5.2.3. 在此基础上最终制造出与人类能力相当或超越人类的系统

2.5.2.4. 我们并不知道这些知识如何存储于大脑中

2.5.2.4.1. 对于人类而言,学习“球如何反弹”这种常识不费吹灰之力

2.6. 知识表征

2.6.1. 知识表征是人工智能研究唯一重要的问题

2.6.2. 创建了巨大的人工神经网络,并使用大量的文本来训练这些网络

2.6.3. 如果人工神经网络不能像大脑那样对世界建模,那么任何深度学习网络都无法实现通用人工智能的目标

2.6.4. 深度学习网络目前取得了不错的性能,但这并不是因为它们解决了知识表征问题

2.6.4.1. 相反,它们完全避开了这一问题,转而依赖于统计信息和大量的数据

2.6.4.2. 深度学习网络不具备知识,因此,它们的能力并不会达到5岁孩子的水平

3. 将大脑视作人工智能模型

3.1. 我们能够创造智能机器之前,我们必须理解大脑是如何工作的

3.2. 大脑是我们所知的唯一具有智能的东西

3.3. 千脑智能理论解决了知识表征的问题

3.3.1. 表征知识的方法会导致研究者列出无穷无尽的定义和规则

3.3.2. 即使可以列出所有的规则,计算机仍然不会知道订书机是什么

3.4. 大脑则采用截然不同的方式存储关于订书机的知识

3.4.1. 它会学习一个模型

3.4.2. 模型是知识的体现

3.4.3. 大脑新皮质中的细胞学习了一个起到相同作用的虚拟模型

3.4.4. 知识并不是存储在文字或规则中的

3.4.4.1. 模型才是知识

3.5. 人工智能的未来将建立在大脑的工作原理之上

4. 从专用到通用人工智能的解决方案

4.1. computer一词最初指的是从事数学计算工作的人,为创建数值表或解码加密信息,数十名人类计算者需要手动进行必要的计算

4.2. 几乎所有的计算机都满足图灵设想的通用形式,我们称其为“通用图灵机

4.3. 未来的智能机器也会有各种形状和大小,但几乎所有的智能机器都遵循同一套原理

4.4. 像大脑一样的通用学习机器将成为人工智能的主流

4.5. 数学家已经证明,有些问题在理论层面是无法解决的

4.5.1. 并没有真正“通用”的解决方案

4.6. 现在的人工神经网络已经是通用的

4.6.1. 我们可以训练一个神经网络来下围棋或开汽车,但同一个神经网络并不能同时做到这两点

4.6.2. 为了使神经网络执行任务,还必须通过其他方式对它们进行调整和修改

4.6.3. 通用智能机器应该像人类一样,能够在无须抹去记忆并重新开始的情况下,学会完成许多事情

5. 两种机器人

5.1. 第一种机器人在工厂里给汽车喷漆

5.1.1. 这种机器人需要快速、准确和稳定地完成工作,而不需要每天都尝试新的喷漆技术

5.1.2. 功能单一、无须具备智能的机器人

5.2. 第二种火星建筑机器人

5.2.1. 一组建筑机器人送上火星,为人类建造一个宜居的栖息地

5.2.2. 将遇到不可预见的问题,需要通过合作随机应变地完成修补和对设计的修改

5.2.3. 人类可以处理这类问题,但现在还没有任何机器能够做到这一点

5.2.4. 需要具备通用智能

5.3. 在21世纪后半叶,通用人工智能将主导机器智能

5.3.1. 由于成本大大降低,尺寸也不断缩小,通用计算机成为20世纪规模最大、成本最低的技术之一

6. 智能的判断标准

6.1. 一台合格的通用计算机,即通用图灵机,需要内存、CPU、软件等特定的部件,而我们无法从机器外面看到这些部件

6.2. 一台智能机器需要具备一套运行的原则

6.3. 四种特性

6.3.1. 持续学习

6.3.1.1. 学习并不是一个独立于感知和行动的过程

6.3.1.2. 人类会不断学习

6.3.1.3. 灵活性要求这些系统不断适应变化的环境和新的知识

6.3.1.4. 神经元是能让大脑持续学习的最重要的部分

6.3.2. 通过运动学习

6.3.2.1. 人类通过运动来学习

6.3.2.2. 在日常生活中,人类会移动身体、四肢和眼睛。这些运动在学习的过程中是不可或缺的

6.3.3. 多重模型

6.3.3.1. “投票”是多重模型发挥作用的关键

6.3.4. 使用参考系存储知识

6.3.4.1. 人类的知识存储在大脑的参考系中

6.3.4.2. 为了实现智能,机器需要学习世界模型

6.3.4.3. 该模型必须包含物体的形状、物体在与人互动过程中的变化,以及物体彼此之间的相对位置

6.3.4.4. 机器需要参考系来表征这类信息

6.3.4.4.1. 参考系是知识的“骨架”

6.3.4.5. 机器人设计者对使用参考系并不陌生

6.3.4.5.1. 他们用参考系来跟踪机器人在世界上的位置,并规划机器人从某个位置移到另一个位置的方案

6.3.4.6. 尽管人工智能和机器人两门学科之间的界限开始变得模糊,但二者在很大程度上仍然是两个独立的研究领域

6.4. 不能依据机器执行一项或几项任务的情况来衡量智能

6.4.1. 智能是由机器如何学习和存储关于世界的知识决定的

6.4.2. 人类之所以聪明,不是因为我们能把一件事做得特别好,而是因为我们能学会做几乎任何事

7. 意识

7.1. 如果机器有意识,那么可能从道义的角度来说,我们不该关掉它

7.1.1. 如果某物有意识,即使是一台机器,它就拥有道义上的权利,关掉它等同于谋杀

7.2. 人们即使完全了解了大脑是如何工作的,也不能解释意识

7.2.1. 意识是“困难的问题”,而理解大脑的工作机制是“简单的问题”

7.3. 意识肯定是可以解释的

7.3.1. 大脑学习世界模型的方式与我们的自我意识和形成信念的方式密切相关

7.4. 意识的核心

7.4.1. 你洗车的时候其实是有意识的

7.4.2. 只有在删除了当天的记忆后,你才会坚信并声称自己没有洗过车

7.4.3. 这个思想实验表明,有意识要求我们形成即时的关于动作的记忆

7.4.4. 有意识还要求我们形成即时的关于思维的记忆

7.4.4.1. 思维就是大脑中神经元的连续激活

7.4.4.2. 如果我们不记得自己的想法,就意识不到做任意事情的原因

7.4.5. 当大脑正常工作时,神经元会对我们的思维和动作形成持续的记忆

7.4.6. 大脑中活跃的神经元有时代表我们当前的经验,有时代表以前的经验或想法

7.4.6.1. 这种机制既可以马上跳跃到过去,也可以向前滑动到现在,它赋予了我们存在感和意识

7.4.6.2. 如果不能回忆起最近的想法和经历,那么我们就无法意识到自己还活着

7.4.6.3. 我们无法永远保留每个时刻的记忆,通常会在几小时或几天内忘记它们

7.4.7. 我们的知觉和存在感是意识的核心部分,它依赖于不断形成对最近的思想和经历的记忆,并在日常生活中回放它们

7.4.8. 存在感,即感到我是世界上正在活动的智能体,是意识的核心

8. 感受质

8.1. 感受质的来源是意识之谜

8.1.1. 从眼睛、耳朵和皮肤连入大脑的神经纤维,看起来是一样的,不仅看起来一模一样,它们还使用相似的脉冲来传输信息

8.1.2. 通过观察大脑的输入,你并不能分辨出它们代表什么

8.1.3. 视觉和听觉是不同的,而且这两者都不是脉冲状的

8.1.4. 当你看到田园风光时,你感觉不到传入大脑的电脉冲

8.1.4.1. 你看到的是山丘、色彩和阴影

8.1.5. 感受质(qualia)是指感觉输入被感知的方式,以及它们带来的感觉

8.2. 感受质是大脑学习的世界模型的一部分

8.2.1. 感受质是主观的,这意味着它们是内在的经验

8.2.2. 颜色的感受质不纯粹是客观世界的属性

8.2.3. 如果颜色的感受质只与客观世界相关,我们都会对裙子的颜色持一样的看法

8.2.4. 衣服的颜色是我们大脑学习的世界模型的一种属性

8.2.4.1. 如果两个人对相同输入的感受不同,那么他们大脑中的世界模型就是不同的

8.2.5. 红色与光的特定频率相关,但我们所感知的红色并不总是对应于相同的频率

8.2.5.1. 消防车的红色是大脑的产物,它是大脑关于消防车表面模型的特性,而不是光本身的特性

8.3. 通过运动学习某些感受质

8.3.1. 人们通过类似的运动方式来学习感受质

8.3.2. 在改变纸张的角度时,进入你眼睛的光的频率和强度就会改变,输入到大脑脉冲的模式也会随之改变

8.3.3. 绿色的曲面参考系与咖啡杯等物体的参考系有一个重要的区别

8.3.3.1. 咖啡杯的参考系表示大脑在杯身不同位置感知到的输入

8.3.3.2. 绿色的曲面参考系表示大脑在表面不同方向上感知到的输入

8.3.4. 并非所有的感受质都是习得的

8.3.4.1. 几乎可以肯定,疼痛感是天生的,它由特殊的疼痛感受器和旧脑结构调节,而不是由大脑新皮质调节

8.3.4.2. 我们不能像理解绿色一样来理解疼痛,绿色是在大脑新皮质中习得的

9. 关于意识的神经科学

9.1. 一些神经科学家认为意识很可能无法通过常规的科学进行解释

9.1.1. 他们研究大脑是为了寻找与意识相关的神经活动,但并不相信神经活动可以解释意识

9.1.2. 人类也许永远无法理解意识,或者它可能是由量子效应或未发现的物理定律创造的

9.2. 我们可以像理解其他物理现象一样理解意识

9.2.1. 意识之所以看起来很神秘,只是因为我们还不了解其机制

9.2.1.1. 也许我们还没有正确地思考这个问题

9.2.2. 大脑新皮质的一个特定区域对注意力建模,类似于大脑新皮质的躯体神经对身体建模

9.2.3. 普林斯顿大学的神经科学家迈克尔·格拉齐亚诺(Michael Graziano)

9.2.3.1. 大脑中的注意力模型使我们相信自己是有意识的,就像大脑中的身体模型使我们相信自己有一只胳膊或一条腿

9.2.3.2. 他的理论以学习注意力模型的大脑新皮质为基础

9.2.3.3. 如果他是对的,这个模型是使用和网格细胞一样的参考系建立的

10. 有意识的机器

10.1. 与大脑工作原理相同的机器将会具有意识

10.2. 人类每天晚上睡觉时都是“关机”的,我们醒来的时候会再次“开机”

10.2.1. 这和拔掉一台有意识机器的电源,然后再把电源插上没什么区别

10.3. 我们对死亡的恐惧是由旧脑产生的

10.3.1. 旧脑中的神经元在产生恐惧和情感时,会向体内释放激素和其他化学物质

10.3.2. 大脑新皮质可能会帮助旧脑决定何时释放这些化学物质

10.3.3. 如果没有旧脑,我们就不会感知到恐惧或悲伤

10.3.4. 对死亡的恐惧和对失去亲人的悲伤对于具有意识和智能的机器而言并不是必要的

10.3.5. 除非我们特地赋予机器同样的恐惧和情感,否则它们根本不会在意自己是否被关闭、拆卸或报废

10.4. 人类有可能与智能机器产生感情

10.4.1. 我们对智能机器本身并没有道德上的义务

10.4.2. 并不支持特地为智能机器赋予恐惧和情感,但智能和意识本身并不会造成这种道德困境

11. 生命与意识之谜

11.1. 无生命的物质在具有生命的冲动后便具有了生命

11.1.1. 1907年,哲学家亨利·柏格森(Henri Bergson)

11.1.2. 生命的冲动(élan vital)

11.1.2.1. 像生命的冲动这样的概念已成为历史

11.1.3. 生命的冲动并不是物理性质,无法通过常规的科学研究来理解它

11.2. 随着基因、DNA和整个生物化学领域的研究发现,我们不再认为生物是无法解释的

11.2.1. 科学家不再争论生物是否可以解释

11.2.2. 可以从生物学和化学的角度来理解生命

11.3. 任何学习了世界模型的系统,会不断记住该模型的状态,并回忆起被记住的状态,这些系统都将是有意识的

作者:躺柒原文地址:https://www.cnblogs.com/lying7/p/18009844

%s 个评论

要回复文章请先登录注册