您现在的位置是: > 区块资讯区块资讯

在给AI贴上“灭绝风险”标签前,请明确担忧

zhoucl 2025-01-10 13:40:34 区块资讯 已有人查阅

导读来源:The Conversation

撰文:巴斯大学人工智能教授 Nello Cristianini

图片

本周,一群知名的人工智能研究人员签署了一份简短声明:

减轻人工智能带来的灭绝风险应成为全球优先事项,与其他重大风险如疫情和核战争并列。

作为人工智能领域的教授,我赞同减少此类风险,并愿意为此努力。然而,这种措辞可能引起恐慌,因此作者应更具体地澄清他们的担忧。

根据《大英百科全书》,灭绝指“一个物种的消亡”。许多签署者是该领域最受尊敬的科学家,但他们没有提供具体场景来解释这一极端事件的可能性。

这不是我们第一次面临类似情况。今年3月22日,一份请愿书要求暂停人工智能部署六个月,理由是“对社会和人类的深刻风险”。请愿书中提出了一系列反问:

我们应该让机器用宣传和谎言充斥信息渠道吗?我们应该把所有工作都自动化吗?我们是否应该开发非人类思维,最终超过、胜过、淘汰并取代我们?我们应该冒着失去文明控制的风险吗?

普遍的警觉

这项技术带来了诸多好处,但也伴随着风险,必须认真对待。然而,上述情景并未明确灭绝的具体途径,仅引发了一种普遍的警觉感。

最新声明发布在人工智能安全中心网站上,概述了八大风险类别,包括武器化、操纵新闻系统、无法自我管理等。

OpenAI 首席执行官 Sam Altman 于 2023 年 5 月 16 日在美国国会作证。

除了武器化,其他风险(尽管仍然可怕)如何导致灭绝尚不明确,需要进一步澄清。人工智能安全中心的主要担忧似乎是使用人工智能设计化学武器,但化学武器早已被禁止。

5 月 16 日,OpenAI 首席执行官 Sam Altman 在美国参议院听证会上表示:

我最担心的是,这项技术可能会对世界造成重大伤害……这就是我们创办公司的原因 [以避免这种未来]……如果这项技术出了问题,它可能会出大问题。

尽管我支持谨慎行事,但讨论一个拥有80亿个体的物种的灭绝时,保持分寸很重要。

AI 确实会带来需要避免的社会问题。作为科学家,我们的责任是了解并尽力解决这些问题,第一步是具体命名和描述它们。

本文标签:

很赞哦! ()

上一篇:未来城市中AIGC的角色展望

下一篇: