登录

快速注册

专家警告说,人工智能是一个灭绝级别的威胁,我希望他们不再吓唬我们

作者:techradar 时间:2023/06/01 阅读:6721
构建世界上最先进的AI的人们刚刚签署了一份紧急而简短的声明,警告说,减轻AI的灭绝级能力现在是我们最紧迫的问题 […]

构建世界上最先进的AI的人们刚刚签署了一份紧急而简短的声明,警告说,减轻AI的灭绝级能力现在是我们最紧迫的问题之一。

不,我没有夸大这一点。 这是来自 人工智能安全中心 据他们说,这是由OpenAI首席执行官Sam Altman,Google DeepMind的Demis Hassabis以及图灵奖获得者Yoshua Benigo和Geoffrey Hinton共同签署的:

“除了流行病和核战争等其他社会规模风险外,减轻人工智能灭绝的风险应该是全球优先事项。”

想象一下,当你开车离开停车场时,你的汽车制造商对你大喊大叫:”汽车可能会杀死你,你所有的朋友,以及你认识的每个人!”

该中心用23个字描绘了一幅失控的人工智能的可怕画面,这个人工智能已经在策划我们的灭亡。

然而,现在,AI是一个粗暴的青少年,往往太聪明了,对自己的好处来说,高度的参与度非常高,并且因为它不知道更好而产生幻觉。

虽然没有一个共同签名者为他们的签名添加了任何颜色,但奥特曼在几周前就很清楚了 当他在国会前发言时 关于需要监管AI。 “我们认为政府的监管干预对于减轻日益强大的模式的风险至关重要,”奥特曼告诉立法者。 所以,不难相信他签署了一份声明,呼吁AI缓解。 尽管如此,”灭绝的风险”是另一个层面–甚至可能是歇斯底里的水平。

如果你想知道所有的大惊小怪是什么,你可能还没有与聊天机器人进行第一次对话。 不,不是那些能回答一两个问题然后又没有新谈话的愚蠢的人。 我的意思是那些建立在大型语言模型(Llm)上的生成型AI机器人,它们利用其训练和能力预测句子中下一个最可能的单词,以对几乎任何查询产生异常逼真的响应。 开放式的 N.聊天,聊天 是其中最知名和最受欢迎的,但 谷歌的吟游诗人 和 微软的Bing AI 紧随其后。

类似ChatGPT的功能也像杂草一样蔓延,这要归功于 OpenAI的死-简单的插件工具 .

而对于每一个” AI在30天内开发新型癌症治疗 “故事,还有一个关于一个 AI尽最大努力寻找毁灭人类的方法 .

随着人工智能的发展,事情正在快速发展,不再感觉像是一个缓慢的,缆车上陡峭的山腰,而是像一个Crisco喷雾涂层的雪橇骑行,在山上失去控制,同时修剪所有

然而,2023年人工智能的现实可能处于中间位置。

我们害怕很久了

这里还有一个标题给你: “科学家担心机器可能智取人。” 是从 《纽约时报》 -2009年。 当时,一群关注的科学家在加利福尼亚州蒙特利湾会面,讨论他们认为人工智能带来的真正风险。 “他们担心的是,进一步的进步可能会造成深刻的社会破坏,甚至会产生危险的后果,”写道 时代 记者约翰*马科夫。

他们主要关注的是人工智能工程的多态计算机病毒,可以无视跟踪,阻止和根除,可以自主杀死的无人机,以及在与人类互动时可以模拟移情的系统。

他们预见到大规模失业的可能性,因为AIs承担了我们许多最重复和无聊的工作,并且特别担心犯罪分子劫持可能伪装成人类的系统。

正如那些给我们带来了最令人兴奋的人工智能进步的人正在敲响最近的警钟一样,2009年的末日预言是由人工智能进步协会组织的。

那时 我有些愣住了 那么多聪明的人会试图蹒跚这项非常新的技术,就像它从一个怀孕的胎儿发展到一个爬行的蹒跚学步一样。

然而,现在,人工智能是一个粗暴的青少年,往往太聪明了,对自己的好处,高水平的参与,并产生幻觉,因为它不知道更好。

规定,请

青少年需要规则,所以我100%同意需要AI监管(最好是全球层面)。 然而,我看不出这种歇斯底里的语言与”灭绝级”事件的谈话是如何帮助任何人的。 这是一种fearmongering,可能会使AI发展短路,因为消费者根本不了解AI风暴弗兰肯斯坦博士的城堡并将其烧到地面。

AI不是怪物,也不是开发它的人。 这些担忧是有根据的,但实时的危险,好吧,它只是还没有。 我们的系统仍然有点愚蠢,经常出错。 与灾难性事件相比,我们面临的垃圾数据和信息负载风险更高。

这也是一个不小的问题。 消费者现在可以不受限制地使用这些强大的工具,但他们似乎不明白的是,人工智能仍然有可能出错,就像发现人工智能一生一次的治疗方法一样。

我们不能忽视风险,但煽动性言论不会帮助我们减轻风险。 警告人工智能构成生存威胁和说它可能导致我们的灭绝之间有很大的区别。 一个是模糊的,说实话,人们很难想象,另一个让人联想到小行星撞击地球并结束我们所有人的图像。

我们需要的是对监管进行更明智的讨论和实际行动-护栏而不是路障。 如果我们停止建造AI恐怖墙,我们只有得到前者。

发表回复


copyright © www.scitycase.com all rights reserve.
京ICP备16019547号-5