360公司创始人周鸿祎在今天表达了一个观点: 机器人永远不要伤害人类,但是现在看来这个原则已经被打破。所以,他建议,AI武器应该把最后的决定权,应该让人来做最后的控制,而不是完全让AI做自动的判断、自动的决策。这个表述其实并不新鲜。随着科技发展,人工智能与人之间的伦理问题敏感且尖锐。日前,谷歌公司解雇了一名软件工程师,原因是该员工声称一款未发布的人工智能系统已经产生了意识感知能力,并将这一发现公之于众。如果工程师所言为真,周鸿祎建议“AI武器最后的决定权应该让人来做最后的控制”也就显得必要且紧迫。参考科幻作家阿西莫夫提出的“机器人三原则”,即“机器人不可伤害人,机器人必须服从人的命令,机器人必须保护自己”,人工智能也必须要有类似的原则并且严格遵守。