霍金一直在苦口婆心地劝说着:
人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。
因此,人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结!
而在霍金在生前写下的最后文字《大问小答》(Brief Answers to the Big Questions)这本书中,霍金则表达了他对人工智能+基因科学的担心:一群超级人类将通过基因工程,甩开其他人类,最终接管地球。
如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。
这种超级人类一出现,未改进的人类就再也不是他们的对手,严重的问题由此产生。原版人类将逐渐灭绝,或变得无足轻重。
一个自我设计的种族将崛起,加速自我改良。而人类若能重新设计自身,就有望向外扩张,殖民其他星球与恒星。”
今天,霍金的这个预言或将成真了:以前几次技术革命,顶多是人的手、脚等身体器官的延伸和替代,人工智能则是对人类自身的替代,生物科学则连人类自身都要改变,它对人类社会家庭乃至整个社会的冲击,将是前所未有的。
还记得科幻电影《异星觉醒》的那一幕吗?
2024-04-25 09:53:31
2024-04-24 11:07:23
2024-04-22 10:35:22
2024-04-17 10:15:49
2024-04-17 09:46:33
2024-04-16 09:25:34
2024-04-16 09:36:37