您现在的位置是: > 区块资讯区块资讯
观点 | 通用人工智能:机遇与风险并存
zhoucl 2025-01-10 13:40:40 区块资讯 已有人查阅
导读来源:澎湃新闻
图片
最近,微软雷蒙德研究院机器学习理论组负责人塞巴斯蒂安·布贝克(Sébastien Bubeck)与2023斯隆研究奖得主李远志等人联合发布了一篇长达154页的论文《通用人工智能的火花:GPT-4早期实验》。原定标题为《与AGI的第一次接触》,凸显了对通用人工智能(AGI)探索的重要性和前瞻性。
这篇论文标志着人工智能研究领域的重要里程碑,提供了关于AGI发展和应用的宝贵见解。GPT-4展示了通用智能的迹象,包括推理、创造力等核心能力,以及广泛的知识领域和任务执行能力。
读完这篇论文后,我反思了之前将ChatGPT归类为人工智能生成内容(AIGC)的做法,认为这可能过于狭隘。GPT-4更像是AGI的雏形。
在解释AGI之前,先介绍三个层次的人工智能:
① 弱人工智能(ANI): 专注于特定任务,如图像识别、语音识别等,表现优于人类但仅限于特定领域。常见例子包括虚拟助手和AlphaGo。
② 通用人工智能(AGI): 具备与人类同等的智能,能跨领域学习和解决问题。目前尚未实现,但许多公司和科学家正努力接近这一目标。
③ 超人工智能(ASI): 远超人类智慧,带来科技突破和社会变革,但也伴随潜在风险,如滥用和反叛。
我们曾以为从ANI到AGI再到ASI是一个漫长的过程,但现在看来,这个过程可能只需20年甚至更短。OpenAI在其规划中提到AGI将为每个人带来新能力,并强调需要逐渐过渡以确保社会适应。
尤瓦尔·赫拉利警告说,人工智能正在掌握语言,具备大规模产生亲密关系的能力,甚至可能入侵人类文明系统。核武器无法制造更强的核武器,但人工智能可以创造更强大的自己,因此需迅速采取行动。
3月22日,生命未来研究所发布公开信,呼吁暂停比GPT-4更强大的AI系统的训练至少6个月,已获多位知名人士支持。他们认为当前时刻类似于核时代的开始,需建立类似国际原子能机构的组织监督AI公司。
一些科学家主张避免AI超出人类控制,将其视为完整的外星文明。另一些则持乐观态度,认为通过透明和负责任的研究方法可以解决潜在问题。
世界卫生组织警告依赖AI生成数据进行决策的风险,强调需确保准确性、可靠性和公正性。许多国家已经开始规范AI领域的措施,如意大利禁止使用ChatGPT,欧盟制定《人工智能法》,美国商务部征求公众意见。
OpenAI首席执行官山姆·奥特曼在美国国会听证会上表示,政府干预可防止AI“狂放的自我复制”。他提议建立监管机构,颁发许可证并具备撤销权力。
中国也起草了《生成式人工智能服务管理办法》,支持自主创新,鼓励采用安全可信的技术,并要求内容符合社会主义核心价值观。
面对AI带来的机遇和挑战,我们需要明确伦理准则和法规,确保技术正确使用和透明度,保障数据隐私和安全,应对算法偏见,确保决策透明和可解释性。
大胆预测,2023年度词汇评选时,ChatGPT将成为十大热词之一。AI展现了“天使和恶魔”的共生关系,我们需要行动以享受一个金色的收获之秋,而不是陷入寒冬。
(作者胡逸,大数据工作者。)
本文标签:
很赞哦! ()