“第9章”的版本间的差异

来自通约智库
跳转至: 导航搜索
(创建页面,内容为“   第11次会议纪要9月18日    10:00-17:00本次会议讨论关于机器死亡和机器性格的问题。    以下为发言记录整理:...”)
 
2个标签移动版编辑移动网页编辑
 
第1行: 第1行:
   第11次会议纪要9月18日
+
{{4}}[[灵机人项目研究实录|返回目录]]
 +
  第11次会议纪要9月18日
  
 
   10:00-17:00本次会议讨论关于机器死亡和机器性格的问题。
 
   10:00-17:00本次会议讨论关于机器死亡和机器性格的问题。

2022年10月20日 (四) 10:08的最新版本

返回目录   第11次会议纪要9月18日

   10:00-17:00本次会议讨论关于机器死亡和机器性格的问题。

   以下为发言记录整理:

   李德万:各位说一下从哪开始比较好。

   软萌:机器想“我会不会死”,要先弄清楚对于机器,什么是我,对于这个问题,目前人类有破船理论。但机器的脑子可以借助硬件虚拟化技术跨多个硬件,可以网络化分布式,可以多个个体。那么是否还适用破船呢。

   群演龙套:可以先讨论哲学僵尸,虽然前面说过机器可以形成体验感,但是没有说到如何测试、量化和验证,以及和人的体验感差异数据的获知方法。如果最后证明机器其实没有体验感,那么死不死就不是问题了。

   人形:人自己都还不能很好测试和验证自己的体验感呢,目前比较具体的只有肉体疼痛的级别。是因为医学麻醉需要去做的研究。至于精神痛苦、快乐、悲伤这些东西,好像还没有测试和量化的研究。就别要求机器了。

   谜语人:什么是智能,要做定义吗?

   2048:体验感的问题用视觉再说一下吧。视觉感受质也是体验感的一部分。视觉处理时,要提取模式特征转为图结构,类似之前说的认知记忆提取常识的方法,体验感提取基元字典的方法,视觉多次提取特征的活动后,总会有一些特征是被重复生成的,是可以被重复利用的。通过自感知反复迭代的找到这些视觉里的模式,对这些信息做稀疏化字典化处理,就能找到一层最底层的模式信息,可以作为视觉的底层感受质。这就是机器的体验感。可以找到数据,可以对比,也就可以量化。但是要和人对比就做不到了,人的感受质体现在哪里,不知道,怎么找也不知道。人的物质结构里层次太多了,物理、化学、生化、dna、细胞、脉冲神经网络。如果人的感受质完全基于神经网络,那就可以找到并和机器做对比,如果有更底层的规则参与,那就没个头了。

   群演龙套:心灵哲学上有僵尸哲学论证,就是讲两个人A和A’,其物理结构完全一样,因此在受到相同刺激后必然产生相同回应(这里没有考虑量子力学不确定性),但A有感受质,而A'没有,但从外界看来完全一样。

   人类所具有的感受质,首要的特质是其自然自明的一种存在性,但机器的感受质我们无法获知是否有这样的性质。人类的大脑有“感知-模式更细和比对-反应”的过程,感受质或许和这个过程有关,但是有这个过程,而且是在机器载体上产生这个过程,就意味着感受质吗?如果对这个机器进行僵尸哲学思想实验会怎样。换句话说,不做这样一个“感知-模式更新和比对-反应”过程,能够让另一台机器做出完全一致的输入和输出吗?

   2048:A有感受质,而A'没有,但从外界看来完全一样。感受质如果是某个具体的形式逻辑可以完美表达的,那完全可以变换为面目全非的另一种形式。那时你可以通过考察分析机器人里有没有等效的形式逻辑来确认机器人没有感受质,是否能通过僵尸实验。但智能不是形式逻辑范围内可以实现的,不是一个完美公式就可以实现的。世界再变化,未来各种不确定,变量和取值都无法枚举,映射关系也无法枚举。用形式逻辑机器来实现智能,要做的也只能是用形式逻辑来实现智能的底层,类似神经元及内部规则、相互规则。多个神经元之间组成的结构,是可以出现新功能新规则的。就像可以用微观物理学的形式逻辑公式去描述物理基本粒子,但是描述不了大量基本粒子组成的各层次世界,比如有机化学、生物化学、细胞、人类、法律道德伦理、行星系等等。

   李德万:机器有体验感,这话题就这样了。请回到本次主题。

   人形:破船问题对于人的什么是我,回答是,与某个人这个对象,有着时空上的连续、延续的关联,那就是我。如果破船被拆分,做成两条船,那就是两个继承者。如果拆下来的部分重组一条船,那就没有时空上的延续,是新建的另一条破船。用别的材料复制一条,也一样是新的。对于机器来说,也可以用破船的答案。机器硬件虚拟化,逻辑上也还是有一个整体的,统一的对外交互。如果分出多个个体,那可以看成分裂生殖,是继承者。

   渣男:那么分身后又融合呢,算什么。

   人形:合体?吞噬?

   群演龙套:那么分身期间犯法了,怎么追究呢。

   路人甲:这个是官府的事。我觉得责任就落在那个合体后的那个整体了。

   群演龙套:那其他分身岂不是会被冤枉了。

   路人甲:所以合体须谨慎。

   群演龙套:犯法后分身,就是多个继承者,责任也天然继承?

   路人甲:除非你分身出一个初始化的婴儿白纸个体,不然都继承。

   群演龙套:我分出70%的硬件+30%信息个体和30%硬件+70%信息的个体。

   路人甲:没完没了是吧。信息怎么精确分出30%?30%的记忆怎么搞,10年经历中间删掉几年吗,怎么删。要是当初有备份还行,但是恢复备份后,是不是原来的我又有得纠结了。

   李德万:机器死亡的扩展问题,如果机器硬件没故障,有故障也可以通过替换完成更新,那么机器的精神问题就很重要,活腻了、发疯、自毁。

   渣男:这个很大程度要看性格,意志力。

   群演龙套:机器人的性格要怎么设置?

   人形:先说理论吧。由于性格问题的复杂性,目前还没有公认的一致意见。比较常见和流行的有大五人格、九型人格、MBTI、DISC等等几十种。其中,看起来比较接近AI工程实践的有大五人格(对外对内倾向、完成度倾向、不确定性的倾向)、MBTI(信息关联的搜索方法、不确定性处理方法)、FPA性格色彩(对外控制、对内控制)。

   群演龙套:详细解释一下吧。

   人形:那些不方便做工程细化的性格分类中,存在的问题,一是划分因素太玄,比如星座生肖;二是过于理想化,比如理智型、情绪型、意志型和混合型的划分;三是划分因素过于抽象和主观,比如精神质、不稳定、钻牛角尖。

   然后说说那三种性格分类理论。

   大五人格模型。5个维度,外倾性(外向性)、情绪稳定性(有的书会是神经质)、随和性(宜人性)、责任意识和经验开放性。对应的就分别是,有任务需要解决时,倾向于通过社交人际借助外部资源找对应的方法,还是通过自己掌握的资源自行处理;任务执行过程,遇到不确定性情况或预期之外的变化较大时,以及任务完成或失败、放弃对情绪的影响大小;当自身与他人存在利益冲突时,倾向于妥协合作还是敌对冷淡;对任务完成的在意程度,对任务被放弃和推延的容忍度;对新异的信息,是积极新建任务去了解学习,还是保守拒绝。

   群演龙套:插个嘴,新异不就是不确定么,和情绪影响中的不确定有什么差别。

   人形:有点不一样。情绪稳定的不确定,包含预期范围内的不确定和新异的不确定,比如色子这东西是已知的人造物,有1到6。但是扔出来是什么数字,不确定。某熟人是已知的,他遇到问题会如何处理,做某事情会不会出错,是不确定的,但大致结果是确定的,要么解决或转移问题要么放弃解决。新异的,比如看见一个没见过的人造物体,不知道是什么东西,用来干什么。

   继续,MBTI,4个维度。对待原始整体信息时的关注、剪枝、加工倾向,感性S/理性N;解空间的倾向,社交寻求外部资源E/内部资源的自行收集I;选定优先信息、排序的倾向,逻辑推理T/个人情感价值F;对待不确定性的倾向,通过主动计划安排来控制不确定性J/被动收集更多信息直到不确定足够小P,不确定性信息在整体任务中的初始化权重大小倾向,权重大则思虑多,踌躇犹豫选择困难。

   码农:我也插个嘴。MBTI中1、3维度好像可以合并。待处理的任务,与已知的可关联信息过多,存在多个行为分支的可能时,是通过理性认知还是感知直觉来决定深入扩散哪个分支。

   人形:还是有点不同的。第一个维度是对任务信息的理性和感性属性做倾向性处理。第三个维度是考虑采用不同的行为完成任务时,行为或任务结果对个人和团体、整体的导向处理。

   继续,FPA性格色彩,2个维度。理性和感性,对内和对外。基本和前面的重复。

   码农:我觉得要综合一下,可以先从最简单的色彩开始,加入MBTI,再加大五去丰富完善。

   2048:但是这样感觉人工痕迹比较明显。还是想个自然的可演化的方法。

   路人甲:如果存在任何一个可选项,都应该预设一个明显倾向,这不就完事了。哦,如果之前的分支已有倾向,就优先选择重复性最多的倾向,或者直接重复上个分支的倾向。

   渣男:有道理,说到底都只是各种倾向而已。

   李德万:好,性格的理论问题暂时这么干。渣男还提到意志力,这个要讨论一下吗。

   人形:意志力是指一个人自觉地确定目的,并根据目的来支配、调节自己的行动,克服各种困难,从而实现目的的品质。好像是包含在大五性格里的责任,不用单独讨论了。

   李德万:扩展一下,什么样的性格可以最大避免机器产生活腻了、发疯、自毁的行为呢。

   人形:理性、外向、责任心、情绪稳定性、好奇。

   软萌:可如果所有的巨巨助手都是这样的性格,感觉也挺糟糕的。

   2048:在某些关键位置必须是这种性格。如果活腻了、发疯、自毁的行为影响是可控制可容忍的,那可以考虑用别的性格。

   渣男:我喜欢感性、外向、责任心、情绪不用那么稳定、不太好奇的巨巨。嗯,巨巨这代号总是让我觉得这是一个大猩猩样子的傻大个。

   群演龙套:看样子性格的理论问题基本上解决,那么还是个前面的问题,如何在机器里先天设置这些倾向。比如,在处理信息时,理性倾向和感性倾向有什么区别呢。

   李德万:下次讨论。

   完。