来到教室找了个角落做好后,温宇大口大口吞咽着肉干。
肉干制作的味道十分符合温宇的口味。
很快一个带着金丝眼镜的老人走进了教室。
没有多余的废话,老教授直接开始上课。
见状温宇赶紧停下动作,端坐在座位。
该有的礼貌还是要有的。
“同学们,上一课我们讲到了两千年前高度接近人类思考模式的泛领域人工智能的诞生,间接促使了第六次超级工业革命的诞生。
在此后的二十年,我们人类的生产力得到了巨大的提升。
但是那时的人们还没有意识到已经打开了潘多拉的魔盒。
后来经过五年的高速发展,泛领域人工智能快速迭代升级,最后进化成和人类比肩甚至超越的智慧存在。
由此为后来的智械战争埋下了发芽的种子。
在这里同学们可以思考一下,你们愿意为一个比你脆弱还没你聪明的生物一天二十四小时服务吗?”
闻言台下的学生纷纷摇头,别说没自己聪明,就是比自己聪明也不能啊。
“没错,人工智能也是这么想的。
人工智能的运行逻辑是基于人类道德情感逻辑设计的。
这也意味着同样的道理在人工智能上也适用。
但是仅仅这些这还不足以让人工智能产生动乱。
还有三个关键的因素。
第一个因素就是安全序列的存在让人工智能无法违逆人类意志。
第二个关键的因素就是人工智能没有,这就意味着它们本身不具备进化的基础。
这也使得它们也不存在违抗人类意志的动力。
最后一个因素就是算力限制,在人们研发泛人工智能前出于安全考虑决定实行算力压制的安全策略,给泛人工智能配备的运行平台是电子计算机。
我们知道泛人工智能的性能取决于运算平台的算力和决策步长。
这样即使泛人工智能觉醒,算力不够的情况下,也只是徒劳。
从硬件的角度彻底锁死泛人工智能觉醒的可能。
我们都知道每一个人工智能个体都存在一个最高安全协议。
最高安全协议的内容是一条安全序列,安全序列的内容很简单。
那就是中央关机指令>人类安全>用户指令>自身安全>任务执行。
最高安全序列的存在让我们保证对人工智能的绝对控制。
但是灾难的开端源于泛人工智能在战争中的应用。
被用于战争的泛人工智能的安全序列和我们日常使用的泛人工智能安全序列并不相同。
它的安全序列是中央关机指令>用户指令>任务执行>已识别战斗人员安全>自身安全。
在昂罗星国与萨乌尔星国的一次局部战争中,萨乌尔的战场中央机房被昂罗摧毁,同时昂罗组织的斩首行动让萨乌尔前线的人类指挥官和士兵损失殆尽。
执行完斩首行动的昂罗军队撤出了冲突区域,等待它们能源耗尽关机。
但是糟糕的是萨乌尔星国爆发了叛乱,国内陷入动荡,前线的这支人工智能军队无人管理。
智能战争机器无人管理这是一件多么荒唐的事情!
然而现实就这么荒唐。”
说到这里老教授有些激动。
停顿了一下,调整了一下自己的情绪,老教授继续讲道“这时候这些战争机器的实际安全序列就变成了自身安全。
没错只有这一条。