人工智能正处于全球创新的中心,塑造着各个行业并革新技术。然而,人工智能研究的先驱约书亚·本吉奥(Yoshua Bengio)指出,这一进展背后存在阴暗的一面。
在最近一次与CNBC的采访中,本吉奥在蒙特利尔举行的“青年世界峰会”上发出了警报:人工智能本身可能对人类造成伤害,而掌控其力量的人同样可能是危险的。
本吉奥是蒙特利尔大学学习算法研究所的负责人,他在该领域并非普通人物。与杰弗里·辛顿(Geoffrey Hinton)和扬·勒库恩(Yann LeCun)并称,他常常被称为“人工智能教父”之一。因此,他的警告具有重要的分量。他的主要担忧是什么?
一个强大的边缘精英群体,正如他所声称的,正在倡导机器完全取代人类。采访中,本吉奥问道:“智力赋予权力。那么,谁来控制这种权力?”这一暗示令人不寒而栗:如果意图不当,人工智能的巨大潜力可能会被武器化,对人类构成威胁。
边缘理论:机器能否取代我们?
本吉奥并不是在暗示所有科技领袖都想用机器取代人类。然而,他警告说,即使是持有这一愿景的小团体也可能拥有不成比例的影响力。
“有些人可能想要滥用这种权力,”他说。“还有一些人可能乐于看到人类被机器取代。”虽然这个想法听起来像是科幻小说,但本吉奥强调,除非采取适当的保护措施,否则这是一个非常真实的可能性。
这不仅仅是一种抽象的恐惧。人工智能已经展现出其颠覆行业、影响地缘政治和挑战社会规范的能力。如果没有严格的监管,本吉奥认为后果可能是灾难性的。
机器背后的资金
人工智能不仅仅是创新的工具——它是一个数十亿美元的产业。开发和部署先进的人工智能系统需要巨大的资源,这使得其控制权限局限于少数强大的组织和国家。
“能够做到这一点的组织和国家非常有限,”本吉奥解释道。这种经济集中,带来了三重威胁:
-
经济权力:人工智能垄断可能会损害市场竞争,扼杀创新。
-
政治权力:人工智能巨头的影响力可能会削弱民主进程。
-
军事权力:人工智能的进步可能会通过创造先进的自主武器来破坏全球地缘政治。
这些风险远不止经济层面。一个由少数人控制的人工智能世界可能会类似于反乌托邦,失控的权力侵蚀民主和社会稳定。
我们准备好迎接人类级人工智能吗?
人工通用智能(AGI)——能够进行类人推理的人工智能——是一个备受争议的话题。专家们对AGI何时会出现尚无共识,但本吉奥警告说,它可能会比预期的早得多。
“如果是五年内,我们就没有准备好,”他说。“我们没有方法确保这些系统不会伤害人类,或不会对人类反叛。”
这一时间表提出了紧迫的问题:在AGI成为现实之前,需要采取什么保护措施?政府和组织如何为人类级人工智能的时代做好准备?时间在流逝,本吉奥相信,如果不迅速采取行动,我们将面临未准备好进入这个新时代的风险。
为人工智能建立监管框架:需要做什么?
为了避免这些危险,本吉奥主张立即采取全球行动来规范人工智能的发展。关键步骤包括:
-
国际合作:建立条约和协议,以确保人工智能的发展是道德和安全的。
-
透明发展:要求组织共享有关人工智能进展的关键信息,以避免秘密和误用。
-
道德准则:制定标准,确保人工智能造福人类,而非伤害人类。
-
公众意识:教育人们了解人工智能的风险和利益,以促进知情讨论。
这些措施虽然实施起来具有挑战性,但可以帮助防止未来人工智能失控的局面。
人工智能教父的教训
本吉奥的警告源于深刻的理解。在塑造人工智能基础的过程中,他比大多数人更清楚其潜力和陷阱。他的信息很明确:人类站在十字路口,今天所做的决定将塑造未来几代人的世界。
那么,我们能做些什么?首先要提出问题:谁在开发人工智能,目的是什么?有哪些系统确保它造福人类?正如本吉奥所建议的,回答这些问题可能决定人工智能是成为我们最伟大的盟友,还是我们最危险的对手。
关注公众号【真智AI】
TOP AI模型智能问答|绘图|识图|文件分析
每天分享AI教程、赚钱技巧和前沿资讯!