- UID
- 346826
- 在线时间
- 1 小时
- 最后登录
- 2019-11-14
- 注册时间
- 2013-1-28
- 宅魂
- 585 点
- 贡献
- 117 点
- 宅币
- 3666 枚
- 宅の石(入宅度)
- 0 块
- 元气(技能点)
- 12 点
- 活跃
- 15 ℃
- 听众
- 5
- 收听
- 0
签到天数: 2 天 连续签到: 2 天 [LV.1]初来乍到
序章
- 积分
- 6422
|
物理主义对于“通过语言的描述认识经验和意识”的研究,有一群人走向实验。他们研究损伤的脑子、药物作用下的脑子的功能变化来界定哪一部分脑子控制了什么意识,进入神经生物学、心理学和医学领域,后面再写。
还有一些研究者找了一些人,给他们外部刺激,让他们描述经验。有人认为这种研究也存在着问题,第一个问题是如果口头报告被视为观察,类似于在其他学科的观察,那么包含错误的可能性很大。但是很难判定受试者的感觉是错误的,想检测到这种错误更难。第二个问题是,语言制约着研究领域:无法研究没学会说话的孩子(可以理解为意识形成期)、脑损伤造成失语的人。第三个问题,至少在原则上,口头报告可以完全脱离意识:一个没有任何意识的哲学僵尸可能也能提供一份详细的口头报告。
物理主义的正向研究暂写到此,下面看一下逆向研究:人工智能。
其实上逆向研究在诞生之初就存在一个问题,举例来说,你不可能根据操作系统的界面和功能写出与其源代码相同的程序。
让我们先看看图灵的思路。图灵认为让人通过屏幕打字,同时用问题去问一个计算机程序和一个真人, 看看这人是否能够分辨哪一个是真人哪一个是计算机。如果此人无法分辨的话, 这个计算机就算通过了测试了。要命点在于:通过图灵测试的人造物品就算有意识了么?有人认为算,也有人认为不算。
后来来了个塞尔,他假设有一个懂英文但不懂中文的人在一个屋子里,他只参考一个英文的操作手册、一堆中文脚本和符号,与屋外的人用中文符号交换信息。如果他可以把中文符号操作得很好,让外面的人以为他懂中文,就像通过图灵测试一样,问题来了:这个中文房间里的人懂中文吗? 当然,我们会说他不懂中文。为什么呢?塞尔认为, 因为他只是依靠操作手册来查找和传送那些中文符号,但是却没有理解语意,也没有因果能力和意向性,那些纯粹的符号他来说是没有意义的。更进一步,计算机操作着我们给他的规则和脚本,而那只是一堆符号的操作过程,这样的计算机没有理解那些符号的意义,似乎真的难以产生像我们一样的语意来,所以即使通过了图灵测试的计算机也不算有意识。
塞尔认为要想赋予计算机意识,必须解决计算机系统如何仅仅依靠语法来获得语义,还应该解决“表现与人相同的”计算机系统怎么才能拥有人类大脑特殊的因果能力。
到目前为止,人工智能没有实现,同时我们也难以拿出明确的东西来宣告人工智能的失败。关于人工智能的争论还没有结论。
|
评分
-
参与人数 1 | 宅币 +20 |
贡献 +10 |
活跃 +1 |
宅の石(入宅度) +1 |
收起
理由
|
甚没钱
| + 20 |
+ 10 |
+ 1 |
+ 1 |
o(* ̄▽ ̄*)ブ 发糖 |
查看全部评分
|