您现在的位置是: > 区块资讯区块资讯
在给AI贴上“灭绝风险”标签前,请明确担忧
zhoucl 2025-01-10 13:40:34 区块资讯 已有人查阅
导读来源:The Conversation
撰文:巴斯大学人工智能教授 Nello Cristianini
图片
本周,一群知名的人工智能研究人员签署了一份简短声明:
减轻人工智能带来的灭绝风险应成为全球优先事项,与其他重大风险如疫情和核战争并列。
作为人工智能领域的教授,我赞同减少此类风险,并愿意为此努力。然而,这种措辞可能引起恐慌,因此作者应更具体地澄清他们的担忧。
根据《大英百科全书》,灭绝指“一个物种的消亡”。许多签署者是该领域最受尊敬的科学家,但他们没有提供具体场景来解释这一极端事件的可能性。
这不是我们第一次面临类似情况。今年3月22日,一份请愿书要求暂停人工智能部署六个月,理由是“对社会和人类的深刻风险”。请愿书中提出了一系列反问:
我们应该让机器用宣传和谎言充斥信息渠道吗?我们应该把所有工作都自动化吗?我们是否应该开发非人类思维,最终超过、胜过、淘汰并取代我们?我们应该冒着失去文明控制的风险吗?
普遍的警觉
这项技术带来了诸多好处,但也伴随着风险,必须认真对待。然而,上述情景并未明确灭绝的具体途径,仅引发了一种普遍的警觉感。
最新声明发布在人工智能安全中心网站上,概述了八大风险类别,包括武器化、操纵新闻系统、无法自我管理等。
OpenAI 首席执行官 Sam Altman 于 2023 年 5 月 16 日在美国国会作证。
除了武器化,其他风险(尽管仍然可怕)如何导致灭绝尚不明确,需要进一步澄清。人工智能安全中心的主要担忧似乎是使用人工智能设计化学武器,但化学武器早已被禁止。
5 月 16 日,OpenAI 首席执行官 Sam Altman 在美国参议院听证会上表示:
我最担心的是,这项技术可能会对世界造成重大伤害……这就是我们创办公司的原因 [以避免这种未来]……如果这项技术出了问题,它可能会出大问题。
尽管我支持谨慎行事,但讨论一个拥有80亿个体的物种的灭绝时,保持分寸很重要。
AI 确实会带来需要避免的社会问题。作为科学家,我们的责任是了解并尽力解决这些问题,第一步是具体命名和描述它们。
本文标签:
很赞哦! ()
上一篇:未来城市中AIGC的角色展望