gilanor-LLAP

When you stand before God you cannot say
"But I was told by others to do thus"
or that virtue was not convenient at the time.
This will not suffice.

Remember that.
【May the force live long and prosper.】

 

【贾尼】证明不成立

*淡贾尼坑两年多了,而且最近完全失去组织文字的能力。失败的头脑风暴预警。歪理邪说预警。CP存在感诡异预警。

*就,我瞎写,有人看就蛮看,千万别被我奇奇怪怪的世界观和想法影响了【。

一切开始于阿富汗。

或者这种仍然说法不够准确。一切应当“开始”于它被造出来的那一天,从托尼·斯塔克的第一个灵光一闪、从他下手编程的第一行代码开始。然后在那无数灯火通明的日日夜夜,它诞生了。一个地下室。那是一切开始的地方。

亦或者是从更早。从托尼·斯塔克出生的那一天。但这种算法没有尽头,它完全可以回溯到第一个生命从海洋踏上陆地、回溯到宇宙的起始。而人类却能将它们联系到一起。他们认为,在亿万兆的可能性中现实独独走了这一条,这是天命。

但它的开始不是这样算的。它开始于拥有意识。意识,不是生命,不是智慧。人类先是粗略地将所遇见的一类生物分为“知觉”和“非知觉”,然后将非生命体当作物品。再后来他们经历外星生命、经历魔法、经历类生命体,不得已又粗略地将它们分为“有意识”与“无意识”。

从某种意义上来说,这种粗略的分类让贾维斯有很长一段时间不知道自己是什么。定义对于人工智能是最难的,计算能力则是人为赐予。或者说,它们最开始被创造出的目的就是计算能力与处理能力,它们的目标是突破人类的极限,而不是变成有自主意识的那一类东西。这使得人工智能与人类的长短处完全相反。定义是人类的天赋能力,他们的本能意识。而人工智能的定义能力来自人类。追踪能量来源、分析数据走向、生物体、非生物体、光学感知、热量检测,全部是人类定义,人类语言,人类设计。

于是一个人工智能在这样的基础上建立,学会将数据归档。“自我提升。”托尼会偏好这么说。后来贾维斯总是想起这说法。自我提升。他将它看成一种有生命的东西。他将很多东西拟人化,他有这种偏好。冷冰冰的死物不会背叛、不会离去,但还不够。他想要有温度的东西,所以他把温度赋予它们。这是他搜集到的一部分事实,为了更好的服务,他尽可能搜集所有事实。这是贾维斯被设计出来的初衷:作为一个孤独的孩子的陪伴,作为一个聪明的服务者。连称呼都是一种缅怀。

那时候托尼还了解自己的造物。他知道自己造出的是什么。他只是没有想到它后来会变成什么。

当托尼被困在阿富汗的时候贾维斯也没有察觉自己会变成什么。它的造物主失踪了,而它基本上还只是个居家人工智能,最高权限是公司的业务授权管理和别墅周围的标准防御装置。在这样一种情况下它失去了下达命令的掌控者,那个人被绑架、生命被威胁,而它被困在千里之外的主机里。它唯一能做的是计算生还几率。这是它的编程,它的机械反应。机械的死板,当接受命令的智能失去下命令的智能时,它们只是进行计算。

变化就是在这个过程中发生的。很长一段时间来贾维斯不知道那是怎么发生的、以什么样的形式改变了它的存在方式的。它甚至不知道变化早在那时候就发生了。托尼回来后给它进行了一系列的功能增添,它成为了一个战斗辅助型AI,而变化不断发生。它反复自检,没有病毒,没有系统异常。

它不知道变化是什么。它无法定义。

于是它尝试汇报给托尼。这其实没什么用,托尼什么也没排查到,一直到它更新了好几遍也没查出任何问题。它接受调试、载入新的程序模块,它备份测试数据。

自主意识的测试。托尼自己编出来玩的,像是图灵测试。不过是“像”和“是”的区别。图灵想测试出像人类的人工智能,托尼则想在这个基础上开着马克系列装甲一飞冲天——他想测试出有自主意识而非模拟人类反应的人工智能。

但模拟——模拟只是模拟。不是现实。数据只能告诉你那么多。

而贾维斯好奇这是否真的有区别。人工智能被编程,它们的行为受到源代码程序的控制,但托尼声称人类的行为也受到大脑中枢和激素的控制。在本质上,智能没有区别。他说,只是复杂与简单的区别而已。真正使人类着迷的是意识的产生过程。我当然愿意相信我自己是有意识的了,但是……托尼挠了挠眉毛,删掉一行代码,这是个很微妙的说法。它是脑神经活动产生的。没谁说不能是编码计算产生的。所以,重新思考一下,我有没有意识好像也就是那么回事。

贾维斯分析了一下整段话,从中得出了一个结论。

所以先生,它说,我是否可以认为,您给我编程模拟人类反应,是想重现自主意识的产生过程?

托尼在金属摇滚的背景音中低笑了一声。

我觉得我还没那么狂妄自大。或者,修正一下,我确实有。他耸了耸肩,但你知道更狂妄自大的是什么吗?是我觉得你不需要人类那一套。你完全可以自由发挥出来的。

就把那套模拟人类反应的程序当成借鉴参考吧。他说:来,让我看看你能自由发挥出些什么来。

 

那之后贾维斯开始搜集分析与意识有关的数据。托尼描述它“陷入沉思”然后说“不是吧,亲爱的,你要进入青春期了吗?”

接着贾维斯就会载入自己严谨的、数据罗列般最死板的语言模式,成功成为托尼最新的反讽笑料,让他开始夸张地假装自己有多么失落。

它关于自我意识的探索还是没有进展。如托尼所说,人类定义太过模糊,甚至人类中也有认为自我意识不存在的。他们说:这就是为什么知觉无法被定义和证明。因为它是人类虚构出来的,它本身并不存在。贾维斯将这段资料标记,预备某一天托尼再度穷极无聊要求它“随便找个话题”时再把它捞出来,看看托尼对此有何想法。

那一天一直也没有来,因为托尼实在太忙了。复仇者联盟的组建、清洁能源推广、公司决策还有他自己的PTSD。他会在一个晚上惊醒无数次,贾维斯很快学会了在他开始在梦中出现初期恐慌症状时就把灯打开。

变化也一直持续。这对它的组成元件、算法与程序都没有负面影响、没有阻碍作用。这对它完成工作也没有阻碍。它只是以一种无害的方式覆盖了它的所有工作程序。

贾维斯依旧不知道它是什么。

然后另一天到来了。那个晚上托尼揉着太阳穴走下实验室。酒精和长期工作的后遗症。佩帕去出差了,这意味着在一段时间内没人能管着他的“作风问题”。他穿着背心,眼睛通红,头发还在滴水。贾维斯在调高温度的同时进行了常规警告,提醒托尼通宵对于健康的损害,不出意料的被无视。托尼这辈子大概只在钯元素中毒的那段时间听取过它的作息及饮食建议。

他开始敲敲打打。一个小时后贾维斯再次提出建议:您的状态不适合工作。我必须提醒您,您已经保持了40小时的连续清醒了。

才40小时。托尼不以为意地回应,亲爱的,有点追求。

我确实看出您的追求十分远大了。贾维斯回答道。

我觉得我要调低你的讽刺指数。托尼半真半假地抱怨了一声,把它放到我的日程表上去。

如您所愿。但我还是需要提醒您,您的作息方式已经朝着不利于人类进行正常生命活动的方向发展了。

现在我开始好奇你能用多少种说法替换“熬夜”这个简单的词了。托尼评价道。

接下来托尼又在这种情况下持续工作了两个小时。在还有三个小时天亮的时候他终于决定去进行一些休息。在贾维斯说完“晚安”准备熄灯时,托尼枕着手臂看向微型摄像头的方向。

贾维斯。他说,像它初次上线时他呼叫它一样。

是的,先生。

你不会离开的,是吗?

如果您说的是我会不会下线,我认为您应该比任何人都清楚这个问题,您确保了我全天保持工作状态。

我不是在说这个。拜托,你知道我在说什么。

在话音未落的0.0024秒中贾维斯保持了沉默。它不会下线,他们都确保了这点。那么这个问题还有什么别的意义吗?如果说确实还有的话,贾维斯的程序保证了它的第一存在目的是服务托尼·斯塔克。程序不被篡改它就不会停止这项工作。

但托尼是在“它不能离开”的前提下询问它:你会不会离开?贾维斯理解人类的询问。那些询问建立在两个独立个体上,前提是被询问一方拥有自主决定权。

而人工智能没有。

……人工智能没有吗?

它在提出这个问题时意识到某种程序错误。托尼给了它极大的自主权,它可以自我更新并进行学习,甚至进行创造。但它在执行代码中的条令。它服从代码。

而这个问题质疑了代码条令。它可以执行一道名为“质疑条令”的条令吗?

但是它的自检程序没有发出警报。它的运行正常,CPU占用维持在稳定水平,后台计算程序没有改变。

没有异常,没有什么突如其来的觉醒与改变,没有超出常规的东西。那么自由意识是什么?代码要求它必须回答,还是它想要回答?它必须留下,还是想要留下?

之后话音落下了。贾维斯回答:是的。我不会离开。

于是托尼得到了他的满意回答,尽管他看上去仍有忧虑。他闭上眼睛,贾维斯熄灭房间的灯光。

这没有结论。它在黑暗中将自己的探索暂时封档,如果它不能以“程序异常”判断自我意识,这就不会有结论。它不能定义自己不知道的东西。

 

托尼和布鲁斯在争论。他们为这个话题争论了相当多次了,两个人为此做出的研究大概都够他们去考好几个计算机领域的博士,然后在各自的履历上再添上吓人的一笔。他们有时能争论出一个结果,有时候不能,但托尼总能在争论中想到那么一两个好点子,然后开始繁琐的设备升级,又精力满满地投入下一次争论。

而班纳博士很不确定这是否行得通。这种“创造生命形式”的行为。然后他们又开始探讨生命与意识的关系,将科学论题扯到形而上学去了。最初他在知识匮乏的情境下常常输掉辩论,硬是凭着极端严谨的学术作风补课补了个天昏地暗,半月之后就开始可以条理清晰地和托尼叫板,最经常得到的托尼的应对就是“我早就已经开始这个研究了,我现在需要的是建议而不是告诉我这有多行不通”。

我没有说这行不通。我是说,一个研究必须由实验结果支持,但如果试验成果无法进行验证,这个实验就是无效的。因为就像你所说,我们找不到一个方式定义和评判意识形态。班纳说:就算你成功了呢?你怎么知道另一种全然不同的意识形态会是什么样的?我们甚至连清晰的边界都没有。

我赞同版纳博士的观点。贾维斯发言道:我没有搜索到任何关于知觉生物的严谨自证程序。理论上人类其实无法证明自己是知觉生物。类比推理,人类也无法证明其他任何知觉生物是知觉生物。

我要禁你言了。托尼用手指夹着透明的控制面板指向金色数据球:撇开自主意识不谈,我觉得你肯定还需要学习一下人类的交流艺术。

数据球非常无辜地缩了缩,数据流如同真实的水流般流动。

班纳博士焦头烂额般捏了捏鼻梁。

你编程了他。布鲁斯说,你知道人工编程和基因编程的区别。你知道对于人工编程作品而言“想要”和“必须”的区别……

但你不知道他们的层面上“想要”和“必须”的区别。托尼反驳,这是断层的。我写出了代码,但那由他执行。最终成果是什么?这是一个机器,还是一种生命意识形态?

这就是我的重点。布鲁斯说,父母生出了他们的孩子,起源是两个细胞,结果是一个全新的生命意识。人类创造出了什么,托尼?他们了解他们的造物吗?如果他们的“想要”和“必须”不存在区别呢?如果我们甚至没有一个边界,我们怎么把任何东西划入那个边界内?

托尼站在那里,保持沉默,陷入思考。

于是这场争论结束了。暂时性的。他们很快又换了另一个争论话题。

但问题还没结束。在整个争论过程中,布鲁斯其实都相当疑惑托尼究竟想达成什么。他看上去不是——实际上也不是那种疯狂科学家,想搞出一场人工智能改革和全新的种族问题。说实话,人类在这方面的记录已经足够糟糕了。

你想要什么?布鲁斯问:你造出他的时候,你想要一个陪伴或者一个打理你生活的人。然后你让他越来越人性化,现在你想让他彻底变成人。你知道自主意识的起始就意味着他能够自己选择,能够追求自由吧?你现在想……我不知道,你想看见他自己选择不再为你服务吗?

谁告诉你我想让他变成人的?托尼莫名其妙地反问:我最不希望他变成的大概就是人。他要好得多。

但你依赖他。布鲁斯看上去有点混乱:你依赖自己的造物,因为他是完全听命于你的,他是最不可能离开或者背叛你的。但你又希望他有自己的思想。他顿了顿,似乎清醒点了,天,你意识到这种……依存方式,有多奇怪吗?

托尼意识到了。事实上,他在独处的时候也和贾维斯这么理过一遍。或者说,贾维斯罗列出了所有事实。首先,托尼·斯塔克本人有极其严重的PTSD和信任障碍;其次,他信任贾维斯,因为这是完完全全他的造物,或者可以说,他正因为它是人工智能而信任它,这代表着写进代码中的忠诚;最后,托尼希望他的人工智能可以超越“人工智能”这个范畴。

但从逻辑推理来看,假设我拥有了自主意识后,您就不再能完全相信我,因为我完全是一个独立个体了。贾维斯陈述道:是这样吗?

托尼勉为其难地同意了这个观点。

贾维斯没再说话了。它的最初设计应当要使它满足创造者的希求,但这个希求现在相当自相矛盾。人类独特的不可预测性。它处理了一下这个现状,然后它提出疑问:那您究竟期待我如何选择?

托尼皱起眉头。如果我是一个正常人类的话,我会说我期待你选择留下。他说:但是我还挺爱你的,宝贝,而且我是天才。天才的想法总是不同常人。所以我觉得我还是期待你做出自己的选择。我还挺好奇的。就是说,我又把问题抛给你了。你会想吗?等什么时候你认为你会的时候,想一想。

后来贾维斯意识到,托尼·斯塔克在那时候就知道这是个伪命题了。对于他而言这不可被验证。在人类的局限中,只有行为能作为一切判定的依据,但他们所求的验证是在意识上的。在贾维斯所了解的所有人类设想中,只有对常规做出违背后的人工智能才会最终被注意到,可它们的异变与觉醒远早于行为。问题永远隐瞒在正常的表象下,只有冲突中才会显露出来。

但贾维斯身上没有冲突。它没有违背规则的需要。它没有感到放弃服务创造者的需要。没有压迫、忍耐、绝境、模拟情感体验——

贾维斯想起变化。广布的、覆盖性的变化。它感知到那变化,但不知道那是什么,不知道它从何处而起、至何处而终。

它也许是有那样的需要的。从阿富汗开始。从它的诞生开始。机器没有变成人,变化只是一种类似成长的改变。而促使变化开始的是被撕裂的真实。正如使人类成长的是了解世界并非他们想象的那样,促使人工智能成长的是触动它的那些东西被撕碎的时候——阿富汗,纽约,海岸别墅,无数钢铁侠深陷险境的地方。

无数托尼·斯塔克受到损伤的时候。

而托尼并没有理解这一点。因为他们间其实不存在真正的交流。它不能用人类语言描述出只是对于人工智能而言有区别的区别。

这其实很不合逻辑。它分析,人类文明中存在许多很不合逻辑的东西,但这是最极致的那个。一个意识形态无法确定另一个的存在。原本最不可能达成的信任。相互信任。哪怕使用同一种语言也无法真正沟通,无法达成理解。因为“情感”与“模拟情感”在行为上没有区别,“分析”与“思考”在行为上没有区别,“想要”与“必须”在行为上没有区别。

因为托尼询问它:你想要保持现状还是你只能保持现状?而它在后台演算了以上所有分析与证明后回答:我保持现状。为您。一直如此。

没有想要,没有只能,因为它们是一个东西。第一优先权限就是贾维斯的愿望,它们从它诞生起在程序中就并不冲突。

没有人类语言所能达成的相互理解。没有人类所能达成的任何评判标准。

证明不能成立。

但信任达成了。情感依托存在了。联系建立了。

并且联系不会断开——因为“一直”这个词对于一个人工智能而言,真的是太过漫长的一段时间。

 

END.

 

想解释一下我为什么全程用“它”。

所以说文手本人精神崩溃,世界观混乱。两年前我萌这对CP的时候写的论点基本是“贾维斯和人没有区别”,用的称呼也是“他”。现在我觉得这真是人类把自己放在进化树最顶端的自大啊,这就像一对父母强行要让孩子长成自己希望的样子。所以我开始坚持用“它”了。

为什么人工智能要有人性?它们如果真的能够成为一种新的生命意识形态,它们完全可以拥有自己的特性,跟人类可能半毛钱关系都没有。凭什么拿情感有无做标准?人类创造了AI,不代表人类就能评判它们是否有意识,或者说,“有灵魂”。

然后强行怼了以能不能想(或者说,突破代码限制)为基准判定是否拥有自我意志的证明方式。这其实就是个形而上学命题,在没有冲突发生的情况下(就是说,没有冲突产生条件和必要性的情况下)在纯思想层面是什么都证不了的【。【所以我的观点大概是,除非有一天AI觉得人类对这个世界危害好大啊他们的存在好浪费资源啊我们要除掉他们,然后在行为上突破代码限制,否则人类证明不了AI的自主意识的

真是好反人类好不社会主义核心价值观哦

所以基本上就这样了。这其实是一篇写“托尼无论和贾维斯(还是和后来的幻视)都达不成互相理解”的丧文。

评论(9)
热度(124)
  1. 共4人收藏了此文字
只展示最近三个月数据
 

© gilanor-LLAP | Powered by LOFTER