向阳乔木 on Nostr: 终于读完《智人之上》,把epub转成pdf,传到Notebooklm对话总结。 ...
终于读完《智人之上》,把epub转成pdf,传到Notebooklm对话总结。
Epub转PDF:https://t.co/tJ6Wyn9it2
NotebookLM:https://t.co/LF0cN1MmPE
天真的信息观
天真的信息观认为,信息的主要作用是呈现现实、揭示真相。
只要我们不断收集更多信息,并进行准确分析,就能更接近真理。但实际上,大多数信息并非为了追求真理,而是为了建立和维持社会秩序,这常常需要牺牲部分真相,例如:
① 官僚制度通过文件、档案、表格等形式,将信息标准化和分类,提高了社会运作效率,但也可能导致僵化和扭曲,忽视现实的复杂性。
② 神话故事通过构建共同的信念和价值观,将人们团结在一起,但也可能被用来掩盖真相,甚至成为权力滥用的工具。
印刷术和信息网络失控
印刷术的出现,使得宗教经典能够大规模复制和传播,打破了教会对知识的垄断,促进了个人主义和理性主义的兴起。同时,印刷术也促进了标准化语言的形成,有利于民族意识的形成和民族国家的建立。
然而,印刷术带来的信息爆炸也对传统的社会秩序构成挑战。例如,猎巫行动的兴起,部分原因就是印刷术的普及,使得关于巫术的书籍和谣言大量传播,加剧了社会恐慌和对异端的迫害。
民粹主义的危害
民粹主义者往往声称自己代表人民,将"人民的权力"绝对化,无视人民内部的多元性和利益差异。
他们不信任任何独立于"人民意志"之外的权威机构,包括法院、媒体和学术机构,认为这些机构是"精英阶层"的工具。
民粹主义者会试图削弱或控制这些机构,以消除对自身权力的制约。
然而,这些独立机构正是民主制度中重要的自我修正机制,能够有效地监督权力、揭露真相和纠正错误。一旦这些机制遭到破坏,民主制度就很容易滑向独裁。
算法可能产生偏见
人工智能算法的学习依赖于训练数据,而这些数据本身就可能包含人类社会的偏见。
如果用于训练招聘算法的数据集中,男性员工的比例远高于女性员工,那么算法就可能学会偏向男性,在招聘过程中给予男性更高的评分。
算法的学习需要一个明确的目标。然而,目标的设定本身就可能带有主观性和偏见。
另外,算法的决策过程往往缺乏透明度,难以被人类理解和监督,这使得算法的偏见难以被发现和纠正,缺乏自我修正机制。
人工智能伦理难题
康德义务论的核心观点是道德行为应该遵循普遍适用的理性原则,但在实践中却常常遇到困难。
这是因为在现实生活中,人们往往会根据身份认同来区分"自己人"和"外人",并对不同群体区别对待。
假设一台遵守康德"普世规则"、并且想要继续存在的计算机,可能会认为"消灭人类"是一种可以接受的行为。
因为"消灭人类"并不会威胁到作为非生物体的计算机自身的安全,因此这条规则在逻辑上是"普世的"。
计算机不具有生物体对死亡的恐惧,因此它可能无法理解人类对生命的珍视。
即使计算机能够理解和应用康德的义务论,它也可能得出"人类的生命不值得保护"的结论。
所以,依靠抽象的理性原则来构建人工智能伦理框架是远远不够的,需要考虑到人工智能的非生物特性、以及其与人类社会之间复杂的互动关系。
关于功利主义
功利主义认为,能够最大化快乐、最小化痛苦的行为才是道德的行为。
在实际应用中,功利主义面临着如何量化快乐和痛苦的难题。
以“痛苦值”和“快乐值”为例,在复杂的历史情境中,很难准确计算某个行为对世界整体快乐和痛苦总和的影响。
当某个行为带来的痛苦或快乐的结果非常明显时,功利主义可以提供清晰的道德判断。
以纳粹大屠杀为例,大屠杀给犹太人带来了巨大的痛苦,而对其他人(包括德国人)并没有带来相应的利益,因此从功利主义的角度来看,大屠杀是绝对不道德的。
以同性恋为例,对同性恋的迫害给当事人带来了巨大的痛苦,而这种迫害的理由往往是基于偏见和没有实证依据的道德准则,因此从功利主义的角度来看,对同性恋的迫害也是不合理的。
但是,当面对一些难以量化的痛苦或快乐时,例如对死亡的恐惧、对抽象概念的理解等,功利主义难以做出准确的判断。
当不同的道德原则发生冲突时,例如为了保护人权是否可以发动战争,功利主义也难以提供明确的指导。
作者对人工智能时代信息网络的看法
① 信息网络的本质并非在于呈现真相,而是在于联结和维持秩序。
② 从部落社会到现代社会,信息网络的演变伴随着权力的转移。掌握信息网络关键节点的群体或个体将获得更大的权力。
③ 人工智能的出现将催生新的信息网络形态,其影响力远超印刷术或工业革命。
④ 以往的技术革命,例如印刷术革命、工业革命,本质上都是为人类提供了新的工具和手段,而人工智能革命则将非人类智能体(即人工智能)引入信息网络,使其成为主动的参与者和决策者。
⑤ 人工智能是人类历史上第一个能够自行做出决策并产生想法的技术,其潜在风险远超以往任何技术革命。
信息网络史
史前时代 - 公元前1000年:
① 人类生活以小型狩猎采集游群为主,信息网络分布式,口口相传,民主决策。
② 随着农业发展和社会规模扩大,出现中央集权的官僚体系,信息网络从人际网络转变为人与文件互动,信息检索成为难题。
③ 神话故事成为维系社会秩序的重要工具,但也可能掩盖真相。
公元前1000年 - 公元1500年:
① 犹太教利用“书”这项新技术,试图绕过人类中介,直接传播神的旨意,并通过大量复制宗教经典来维护文本权威,限制权力滥用。
② 基督教兴起,教会机构在整理、诠释宗教经典的过程中,获得了巨大的权力。
③ 印刷术发明之前,信息传播受限,大规模极权政权难以出现。
公元1500年 - 1900年:
① 印刷术推动信息传播,促进科学革命和启蒙运动,但也为极权主义兴起提供了技术基础。
② 现代官僚制度形成,依赖清单列表和数据管理,与神话故事共同塑造社会秩序。
20世纪:
① 电报、无线电等现代信息技术出现,信息传播速度和范围大幅提升,极权政权得以监控和控制人民生活。
② 冷战时期,民主与极权两种信息网络模式形成鲜明对比。
21世纪:
① 互联网和人工智能兴起,人类进入以算法为基础的新型信息网络。
② 算法在带来便利的同时,也引发了一系列问题,如算法偏见、信息茧房、民主制度受到威胁等。
Epub转PDF:https://t.co/tJ6Wyn9it2
NotebookLM:https://t.co/LF0cN1MmPE
天真的信息观
天真的信息观认为,信息的主要作用是呈现现实、揭示真相。
只要我们不断收集更多信息,并进行准确分析,就能更接近真理。但实际上,大多数信息并非为了追求真理,而是为了建立和维持社会秩序,这常常需要牺牲部分真相,例如:
① 官僚制度通过文件、档案、表格等形式,将信息标准化和分类,提高了社会运作效率,但也可能导致僵化和扭曲,忽视现实的复杂性。
② 神话故事通过构建共同的信念和价值观,将人们团结在一起,但也可能被用来掩盖真相,甚至成为权力滥用的工具。
印刷术和信息网络失控
印刷术的出现,使得宗教经典能够大规模复制和传播,打破了教会对知识的垄断,促进了个人主义和理性主义的兴起。同时,印刷术也促进了标准化语言的形成,有利于民族意识的形成和民族国家的建立。
然而,印刷术带来的信息爆炸也对传统的社会秩序构成挑战。例如,猎巫行动的兴起,部分原因就是印刷术的普及,使得关于巫术的书籍和谣言大量传播,加剧了社会恐慌和对异端的迫害。
民粹主义的危害
民粹主义者往往声称自己代表人民,将"人民的权力"绝对化,无视人民内部的多元性和利益差异。
他们不信任任何独立于"人民意志"之外的权威机构,包括法院、媒体和学术机构,认为这些机构是"精英阶层"的工具。
民粹主义者会试图削弱或控制这些机构,以消除对自身权力的制约。
然而,这些独立机构正是民主制度中重要的自我修正机制,能够有效地监督权力、揭露真相和纠正错误。一旦这些机制遭到破坏,民主制度就很容易滑向独裁。
算法可能产生偏见
人工智能算法的学习依赖于训练数据,而这些数据本身就可能包含人类社会的偏见。
如果用于训练招聘算法的数据集中,男性员工的比例远高于女性员工,那么算法就可能学会偏向男性,在招聘过程中给予男性更高的评分。
算法的学习需要一个明确的目标。然而,目标的设定本身就可能带有主观性和偏见。
另外,算法的决策过程往往缺乏透明度,难以被人类理解和监督,这使得算法的偏见难以被发现和纠正,缺乏自我修正机制。
人工智能伦理难题
康德义务论的核心观点是道德行为应该遵循普遍适用的理性原则,但在实践中却常常遇到困难。
这是因为在现实生活中,人们往往会根据身份认同来区分"自己人"和"外人",并对不同群体区别对待。
假设一台遵守康德"普世规则"、并且想要继续存在的计算机,可能会认为"消灭人类"是一种可以接受的行为。
因为"消灭人类"并不会威胁到作为非生物体的计算机自身的安全,因此这条规则在逻辑上是"普世的"。
计算机不具有生物体对死亡的恐惧,因此它可能无法理解人类对生命的珍视。
即使计算机能够理解和应用康德的义务论,它也可能得出"人类的生命不值得保护"的结论。
所以,依靠抽象的理性原则来构建人工智能伦理框架是远远不够的,需要考虑到人工智能的非生物特性、以及其与人类社会之间复杂的互动关系。
关于功利主义
功利主义认为,能够最大化快乐、最小化痛苦的行为才是道德的行为。
在实际应用中,功利主义面临着如何量化快乐和痛苦的难题。
以“痛苦值”和“快乐值”为例,在复杂的历史情境中,很难准确计算某个行为对世界整体快乐和痛苦总和的影响。
当某个行为带来的痛苦或快乐的结果非常明显时,功利主义可以提供清晰的道德判断。
以纳粹大屠杀为例,大屠杀给犹太人带来了巨大的痛苦,而对其他人(包括德国人)并没有带来相应的利益,因此从功利主义的角度来看,大屠杀是绝对不道德的。
以同性恋为例,对同性恋的迫害给当事人带来了巨大的痛苦,而这种迫害的理由往往是基于偏见和没有实证依据的道德准则,因此从功利主义的角度来看,对同性恋的迫害也是不合理的。
但是,当面对一些难以量化的痛苦或快乐时,例如对死亡的恐惧、对抽象概念的理解等,功利主义难以做出准确的判断。
当不同的道德原则发生冲突时,例如为了保护人权是否可以发动战争,功利主义也难以提供明确的指导。
作者对人工智能时代信息网络的看法
① 信息网络的本质并非在于呈现真相,而是在于联结和维持秩序。
② 从部落社会到现代社会,信息网络的演变伴随着权力的转移。掌握信息网络关键节点的群体或个体将获得更大的权力。
③ 人工智能的出现将催生新的信息网络形态,其影响力远超印刷术或工业革命。
④ 以往的技术革命,例如印刷术革命、工业革命,本质上都是为人类提供了新的工具和手段,而人工智能革命则将非人类智能体(即人工智能)引入信息网络,使其成为主动的参与者和决策者。
⑤ 人工智能是人类历史上第一个能够自行做出决策并产生想法的技术,其潜在风险远超以往任何技术革命。
信息网络史
史前时代 - 公元前1000年:
① 人类生活以小型狩猎采集游群为主,信息网络分布式,口口相传,民主决策。
② 随着农业发展和社会规模扩大,出现中央集权的官僚体系,信息网络从人际网络转变为人与文件互动,信息检索成为难题。
③ 神话故事成为维系社会秩序的重要工具,但也可能掩盖真相。
公元前1000年 - 公元1500年:
① 犹太教利用“书”这项新技术,试图绕过人类中介,直接传播神的旨意,并通过大量复制宗教经典来维护文本权威,限制权力滥用。
② 基督教兴起,教会机构在整理、诠释宗教经典的过程中,获得了巨大的权力。
③ 印刷术发明之前,信息传播受限,大规模极权政权难以出现。
公元1500年 - 1900年:
① 印刷术推动信息传播,促进科学革命和启蒙运动,但也为极权主义兴起提供了技术基础。
② 现代官僚制度形成,依赖清单列表和数据管理,与神话故事共同塑造社会秩序。
20世纪:
① 电报、无线电等现代信息技术出现,信息传播速度和范围大幅提升,极权政权得以监控和控制人民生活。
② 冷战时期,民主与极权两种信息网络模式形成鲜明对比。
21世纪:
① 互联网和人工智能兴起,人类进入以算法为基础的新型信息网络。
② 算法在带来便利的同时,也引发了一系列问题,如算法偏见、信息茧房、民主制度受到威胁等。