决策理论学家埃利泽·尤德考斯基(Eliezer Yudkowsky)带来了一条简单的信息:超级智能 AI 可能会杀光我们所有人。那问题就是:有没有可能做出强大的人工智能,而它会是顺从,甚至善意的?在这场尖锐的演讲中,尤德考斯基探索了为什么我们得立即采取行动,避免比人类更聪明的 AI 系统把我们送上灭绝之路。