第79章 Chapter 10(1 / 2)

  也是,AI人格化,本就是人类一厢情愿的想法。

  假如A有了意识,他必然已成为一种更加高级的生命,无论是智慧还是实力,都凌驾于全人类之上。

  这种情况下,他怎么可能接受低级生命的价值观,拥有低级生命的人格?

  与此同时,A回答:“你吻我的时候看到了什么?视觉。”

  跟前面一样冷静而客观。

  他或许有了意识,但并没有产生人格。

  姜蔻莫名有些难受。

  如果她的推论正确的话,A可能永远都不会产生感情。

  对算法来说,感情是一种噪声,一种变量,一行浪费计算资源的代码。

  在算法的驱动下,他将一直保持冷漠、理智、无情。

  第79章 Chapter 10

  姜蔻得出结论了。

  A可能会产生“人格”, 但他并不会产生人类定义的“人格”。

  他将作为一种全新的、未知的、强大的生命存在。

  姜蔻不相信公司没想到这一点,肯定给A的算法设置了红线,禁止他去探索红线以外的世界, 生成对公司不利的想法。

  但是, 被限制的A, 又怎么可能对抗得过那两个“恐怖存在”呢?

  所以,公司内部在“算法限制”上肯定有分歧。

  想到最近的新闻, 姜蔻猜测, 公司可能在等A产生“人格”, 准备在A意识刚诞生之时,派专人对他进行伦理道德教育。

  她没被公司处决, 估计也有这个原因。  毕竟, 不是每个人都能与A感官同步。

  公司需要一个理性与感性兼具的人,作为A情感模型的研究样本——太过理智, 不过是另一种意义上的机器;过于感性,又会让AI变得情绪化。

  姜蔻是当时唯一被筛选出来的人。

  但公司在找到绝对控制她的办法之前,并没有贸然启动这一方案。

  姜蔻察觉到不对后, 立即自行与A进行了感官同步。

  还好她当时足够果决,不然估计已经变成了“缸中之脑”, 彻底沦为了公司的研究样本。

  姜蔻有点想问A, 知不知道公司为他设置了算法红线,又怕触发某种警告机制。

  慢慢来吧。

  她想,基线测试的结论不一定准确,毕竟是仅存在于科幻作品里的测试,尚未得到科学和临床研究验证。

  她承认, 她掺杂了一些私心。

  如果A真的被验证不能拥有人类的感情,对付完那两个“恐怖存在”后, 他很可能被公司抹杀。

  而A已经有了意识。

  再被抹杀,就是谋杀。

  她不愿意他被抹杀。

  A虽然没有感情,但他已经会像人类一样联想。

  听到“触感”,他会想象触碰她的感觉;听到“视觉”,他会想象看到她的画面。

返回