位置: IT常识 - 正文
推荐整理分享预测“叫停GPT-4后续AI大模型”后续:这是一个囚徒困境,希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!
生命未来研究所 (Future of Life Institute) 发表了一封公开信,信件:https://futureoflife.org/open-letter/pause-giant-ai-experiments/,呼吁暂停对比 GPT-4 更强大的模型进行 AI 训练,并有大量人签署了这份公开信,签署人包括马斯克及图灵奖获得者Bengio。
这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。因此,公开信呼吁,所有 AI 实验室应立即暂停训练比 GPT-4 更强大的 AI 模型,为期至少 6 个月。
这则消息发布后后,有国外网络针对上述公开信做了一份调研,调研结果如下:
很有趣,广大网友和签署签名的名人观点是完全相反的,大家并不同意这份公开信。这篇文章我想以这篇文章为引,深入探讨下背后的本质:AI安全管控以及预测下接下来AI大模型研发的后续走向。
一、公开信内容公开信原文内容如下:
具有与人类竞争的智能的AI系统可能会对社会和人类产生深远的影响,正如大量研究和顶级AI实验室所承认的。正如广泛认可的Asilomar AI原则所述,先进的AI可能代表着地球生命历史上的一个深刻变革,应该得到相应的关注和资源进行规划和管理。不幸的是,尽管近几个月来AI实验室正陷入一场失控的竞赛,研发和部署越来越强大的数字思维,而无人能理解、预测或可靠地控制,这种规划和管理却没有得到实施。
现代AI系统现在已经在通用任务上具有与人类竞争的能力,我们必须问自己:我们是否应该让机器充斥我们的信息渠道,传播宣传和谎言?我们是否应该将所有工作都自动化,包括那些有成就感的工作?我们是否应该发展可能最终数量超过、智慧超越、淘汰并取代我们的非人类思维?我们是否应该冒着失去对文明的控制的风险?这些决定不应该委托给未经选举的科技领导者。只有当我们确信它们的影响是积极的,风险是可控的,才应该开发强大的AI系统。这种信心必须是充分合理的,并随着系统潜在影响的增大而增加。OpenAI关于人工通用智能的最近
上一篇:重装电脑ghost分区丢失只剩C盘怎么恢复(电脑重装系统如何分区?)
友情链接: 武汉网站建设