行业资讯

破坏力堪比切尔诺贝利,失控的人工智能在科学家眼中有多可怕?
发布者:鸿腾智能科技(江苏)有限公司 发布时间:2023-04-11 13:28:00 点击次数:423 关闭
人工智能的快速发展引发了全球科技狂潮,但在许多专家看来,变化太快可能会给世界带来灾难性的影响。
根据美国斯坦福大学的年度报告,许多接受调查的人工智能研究人员承认人工智能将成为人类社会的突破口,但36%的专家认为这项技术的影响可能不会是积极的。
人的工作胜过人?

报告指出,随着生成式人工智能开发和部署的准入门槛大幅降低,围绕人工智能的伦理问题将更加突出。由于初创企业和大公司竞相开发自己的模型,监管也受到阻碍,这意味着该技术不再由一小部分参与者控制。
谷歌与微软的“军备竞赛”较量,也让行业走上了更快的发展轨道。另一方面,也意味着不愿尝试的企业或个人,很快就会被AI行业甩在后面,这样一来,大家就被拖着往前走,别无选择。
在斯坦福的一项民意调查中,57%的科学家同意,以目前的发展速度,许多研究正在从生成人工智能转向创建通用人工智能(AGI)。业界认为,AGI需要50年或数百年的时间才能出现,而也有人质疑真正的AGI是否存在。
不祥的假设是,真正的AGI很可能伴随着人类对技术发展失去控制。
AGI本身可以非常接近甚至超越人脑的能力。人工智能作为人类的创造物,已经实现了超人的智能,这是58%的受访研究人员心目中的一个巨大问题。
另一个“切尔诺贝利”
加州大学巴克莱银行计算机科学教授StuartRussell警告说,不受约束的AI可能会导致切尔诺贝利式的灾难。
几十年来,拉塞尔一直是人工智能领域的领军人物,但他也是与马斯克一起呼吁暂停人工智能开发的名人之一。
他强调,人工智能出版商必须确保他们创建的系统能够安全运行,并证明模型符合相关法规。就像建造核电站一样,建设者必须向政府证明它是安全的:它不会在地震时泄漏,也不会像切尔诺贝利那样爆炸。
罗素认为,创造人工智能的新模式就像制造客机、建造核电站一样,只要出现一个小问题,就会对世界造成灾难性的影响。
此外,专家们迫切担心当前的人工智能研究过于专注于商业化和以时间和精力为代价实现目标,而没有听取各个研究领域的见解,这可能不利于解决人工智能伦理问题。
商务咨询 商务咨询
关于我们 产品展示 广告设计 客户案例 技术支持 联系我们

电话:0511-86930535(工作日)

手机:177-6865-8888(微信同号)

手机:137-7550-8287(微信同号)

零售:137-7550-7308(微信同号)