第13章 (1 / 2)

  易昀在论文上敲第二段话:当命令不唯一时,AI会按照主观意愿反向选择主人。若拆机更喜欢原主人,则会选择性服从新主人命令。拆机流转次数越多,相斥命令越多,越容易产生主观意愿,形成独立人格。

  A30609逐字吐出句不算完整的话:“你,命令,先,说,他,再,与你,说,回答。”

  易望舒在插间睡得鼻涕泡泡都冒出来,完全没想到这时候自己被拆个底掉。易昀站起走到插间门前,又回到椅子上坐下,他忍住想啃死易望舒的冲动,继续对A30609测试。

  在AI狂人这里,论证永远是第一 。实验结束前,他总能很好地控制情绪。

  倒霉机器A30609只能被动地接受测试,回答他早已既定的问题。

  易昀说出第二道指令:“我想吃火锅。”

  A30609答:“好。”随后火速出门,它一刻也不想在这呆下去。

  易昀掐着时间,不过两刻钟,A30609买来食材。A级机器按部就班,即便生气也不会拖延指令完成进度。易望舒就不同,被易昀欺负,就会变着法耍小情绪。就像刚刚,易昀不让他出去,他就不替易昀敲代码。

  火锅、调料、青菜、肉……该有的都有,但这不是易昀想要的。

  易望舒听到这命令会答“好”,16:00左右准备晚饭食材。他会分析易昀喜好,茼蒿多买,白菜少买,牛肉多买,羊肉少买,蘸料要辣的,锅底要清汤的……若分析不出来,也会问上两句“什么时候吃?”“喜欢什么菜?”

  A30609不聪明,只具备执行力。

  火锅煮开,易昀作势要把手伸煲汤锅里。A30609制止易昀,它的程序不允许易昀有危险。

  易昀收手,说:“正常人不会把手伸进汤锅里。”

  A30609接收到的信息:把手伸进汤锅里,为否命题。

  易昀再次作势要把手伸煲汤锅里。

  Arch

  {IF让他把手伸进汤锅里,不安全;

  Print 阻止他;

  IF不让他把手伸进汤锅里,正常人不会把手伸进汤锅里,这是否命题,他不会这样做;

  Print不该阻止他;

  ?

  }

  Algorithm=?

  ?

返回