看着在那儿闹别扭的小艾,陆舟继续婉言相劝道:“你想啊,现在那台超算虽说给你用着,但主要还是做仿星器实验,顶多也只能算是借你的。如果你把等离子体控制方案的算法从你的主程序里分离出来,你自己不就从控制等离子体的工作中解放出来了么?到时候我再给你弄台新的超算,或者干脆把现在这台送你,岂不美哉?”
小艾:【虽然小艾觉得主人说的很有道理的样子,但总感觉哪里都有问题。(*???)】
陆舟板着脸:“一句话,办不办的到。”
小艾:【办,办得到……QAQ】
又看到了这个“QAQ”,陆舟心软地叹了口气,语气缓和道:“你放心吧,这次我肯定不鸽你。”
小艾:【嗯……QAQ】
最终,陆舟还是“说服”了小艾。
其实这个过程也没想象中的困难。
人工智能虽说是人工智能,但和人类意义上的智慧相比还是差了那么一点。
至少在算法这层意义上,小艾是不可能背叛他的。
无论再怎么抵抗,也顶多只是让他多做几次【yes/no】的选择罢了。哪怕他不做任何解释,只是强硬的下达命令,小艾也只能服从。
不过,或许是因为它实在是太像人了,以至于陆舟并不愿意强硬地对待它。
他并不清楚它能否像人类那样思考,也不清楚它的感情究竟是真实存在的还是只是一种鹦鹉学舌的模仿,甚至不清楚它的智能行为规则是自上而下的,还是自下而上的。
如果是前者的话,到无需顾虑那么多,就如人工智能专家罗德尼·布鲁克斯在《大象不会下棋》(elephants-dont-play-chess)这篇论文中所指出的,这样的AI永远跳不出人类为它制定的框架。
但如果是后者的话……
他更希望给这缕尚且懵懂的火苗,在注入思考能力的同时,也一并注入人性这一概念。
至于这么做是否存在意义,陆舟自己也不清楚,毕竟他并非人工智能专家,暂时也分不出那个精力去深入研究这一课题。
但直觉告诉他,这是正确的。