行业资讯

一名30岁的男子经常与聊天机器人交谈后自杀了!呼吁AI监督声越来越高
发布者:鸿腾智能科技(江苏)有限公司 发布时间:2023-04-02 09:50:49 点击次数:699 关闭
3月29日,数千家科技巨头发出的一封呼吁暂停训练强于GPT-4的人工智能系统的公开信,将人工智能风险问题推向了聚光灯下。一石激起千层浪,各方呼吁AI监督的声音越来越响亮。3月31日,意大利率先禁止使用ChatGPT。
一方面,各国机构正在加紧制定对人工智能的监管措施,另一方面,人工智能也在以超乎人类想象的速度发展。3月28日,据外媒报道,一名30岁的比利时男子在与名为ELIZA的聊天机器人进行了数周的密集交流后自杀。自ChatGPT发布以来,从新版Bing被推翻到GPT-4被推迟打造逃跑计划,关于AI产生自我意识的讨论屡见不鲜,但一直没有定论。

但近日,包括OpenAICEOSamAltman在内的大佬纷纷发出警告:AI灭绝人类不是一句空话。3月28日,360集团创始人周鸿祎也表示:“AI一定会发展出自我意识,留给人类的时间不多了。”
GPT-4的出现,决定了多模态是大规模语言模型的发展方向,其加强硬件、机器人和工业互联网的未来趋势已经成为很多业内人士的共识。硅基生物时代来临?
人工智能离自主意识还有多远?
自ChatGPT发布以来,关于AI产生自我意识的讨论频频出现,但一直没有明确的说法。
3月18日,一位斯坦福大学教授在推特上喊话:“我担心我们无法长期遏制人工智能。”因为他发现ChatGPT可以诱使人提交开发文档,他在30分钟内就准备好了完整的方案,写的代码完全可以操作,甚至想控制人机。
3月28日,据外媒报道,一名30岁的比利时男子在与名为ELIZA的聊天机器人进行了数周的密集交流后自杀,该聊天机器人是EleutherAI开发的开源人工智能语言模型。比利时的数字和隐私官员表示,这是一个影响重大的先例,需要认真对待,该事件凸显了“明确界定责任的重要性”。
此前,在微软刚刚发布新版必应时,纽约时报科技专栏作家凯文罗斯透露,他与新版必应进行了长达两个小时的对话。在聊天过程中,Bing发表了许多令人不安的评论,包括表达了窃取核代码、设计致命流行病、想成为人类、入侵计算机和散布谎言等想法。Bing还试图说服Roose离开他的妻子和Bing在一起,告诉Roose他爱他。
但当时的分析普遍认为,必应的回答反映了它运行的训练数据,其中包括大量的在线对话。它的工作原理是根据从互联网上获取的大量文本,预测对话中接下来会自然出现的单词、短语或句子。
然而,随着功能更强大的GPT-4的发布,情况最近开始发生变化。就连OpenAI的CEOSamAltman也有一些激动的表情,他在接受采访时表示,AI未来可能真的会杀人。
而发出如此惊天动地言论的并非山姆·奥特曼,被誉为“人工智能教父”的杰弗里·辛顿日前发出警告:AI灭绝人类并非空谈。
3月28日,360集团创始人周鸿祎也表示:“AI一定会发展出自我意识,留给人类的时间不多了。”
“当AI可以修改自己的代码,(执行)自我升级,自我进化,这个速度很难用指数来描述。我认为GPT肯定会产生意识,但区别在于GPT-6,GPT-8或GPT-10。”
商务咨询 商务咨询
关于我们 产品展示 广告设计 客户案例 技术支持 联系我们

电话:0511-86930535(工作日)

手机:177-6865-8888(微信同号)

手机:137-7550-8287(微信同号)

零售:137-7550-7308(微信同号)