2)第四九六章 学数_永不下车
字体:      护眼 关灯
上一章 目录 下一章
  世界、闭门造车,都不可能凭空推动科学技术的进步。

  理论,对与不对,要由实践来检验。

  没有后面的这一步,再华丽的理论,也只能永远停留在空中楼阁的状态,永远无法坐实,永远无法成为新的出发点。

  正是基于这种考虑,在规划ai整体框架时,自己才会有意略过“实践”这一块。

  只要强人工智能没有这一模块,其全部活动,便只能在现有框架的范畴内进行,即便如兰伯特先生所言,随时间流逝,其自身状态越来越未可知,风险持续累计,也不至于越过虚幻与现实的界限,轻易对人类、也即自己构成威胁。

  工程进度有条不紊,到1495年深秋,数据——思维——实践,强人工智能的三大模块中,前两部分已大致完成。

  至于第三部分,研发,也在持续进行中,只不过一时半刻还用不上。

  不仅如此,为防范“强人工智能”失控的风险,思虑再三,方然还是在一开始就启动了自称为“连锁安全机制”的并行研究,除外,还指示另外两处研究机构进行“强ai”的研究。

  目的,不是要多个方案、优中选优,而是让目标不同的ai彼此制衡。

  791研究机构里的“强ai”,初号机的目标,一开始被指定为“数学基础理论研究”,后续目标则是“科学技术的创造性、探索性研究”。

  787研究机构的“强ai”,目标则是“防范自主系统的越权企图”,简单说来,这一强人工智能要去解决的问题,是利用自身的思维、认知能力,全力防范一个“自主系统”的独走,给出反制的措施。

  最后,还有一个830研究机构,同样进行“强ai”的研发,初号机的目标是“安保系统权限与行为审查”。

  不消说,这一强ai要盯防的,正是正在研究的强人工智能。

  一环扣一环,三大研究机构的开发团队,实力大致相若,获得的资源也差不多一样,“以人工智能提防人工智能”的策略,则在逻辑上确保了项目整体的安全性。

  原因很简单,倘若的“监控强ai之ai”研发不力,无法获得具有自主思维、能够主动采取措施限制目标行为的“强人工智能”,最有可能的原因,只能是这一设想本身有问题,以人类现有的技术水平,根本无法创造出具有自主思维的ai。

  换句话说,如果以东北太平洋大区的技术水平,能创造出“强人工智能”,那么也就应该能创造出监控这种ai的“监控型强ai”。

  至于万一的概率,监控型ai,也会有失控独走的风险,

  则由的“监控监控型强ai之ai”,来作为最后一道安全屏障。

  一环扣一环,以人工智能盯防人工智能,这种策略要想做到万无一失,理论上需要将链条延伸到无穷远,当然这不可能,方然能做到的,也不过是权衡利弊,在资源消耗与预期收益之间取得暂时的平衡。

  提前部署了这一切,项目启动后,方然时常抽时间浏览报告,了解“强人工智能”的研发情况。

  史上第一次,尝试打破人类对智力的垄断,对可能遇到的困难,方然已经有一些心理准备,所以,当各研发组报告进展顺利,预计将在两、三年内得到成果时,他着实挺意外。

  请收藏:https://m.yq2.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章