当前快讯:迅猛突进的人工智能需要“缰绳”吗?
发布日期: 2023-03-30 13:49:38 来源: 上游新闻


(相关资料图)

近日,美国亿万富翁埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥等人联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。尽管有人怀疑马斯克的动机,但对迅猛突进的人工智能技术进行规范和约束却是刻不容缓。

在人类历史上,多次出现颠覆性的革命技术,如蒸汽机、内燃机、电灯、电报、电视、卫星技术等,这些技术,极大地释放人类生产力,但却完全能为人类所驾驭和利用。

真正第一次对社会和人类构成潜在风险的,是核武器的出现。当时,各国对核武器的热情,也让全球陷入核恐怖之中,有识之士认识到不限制核武器,可能让人类亲手毁掉自己。在国际社会的共同努力之下,1968年,联合国大会通过了《不扩散核武器条约》。

在人工智能飞速发展之前,还有一项冲击人类伦理底限的技术,那就是克隆技术。克隆技术是“无性繁殖”的科学技术,技术上尚不完善,其使用干扰了自然进化过程,也违背了很多伦理问题。 因此,2005年,联合国通过《联合国关于人类克隆宣言》,要求所有成员国禁止任何形式的人类克隆。这也是前沿技术发展过程中得到规范和约束的范例。

回到人工智能,马斯克曾说人工智能比核武器更危险。危险在哪里?在于人工智能可能最终发展出在数量上、智能上超越人类,甚至能淘汰并取代人类的非人类思维。这意味着失去对人类文明控制的风险。

不同于人类以往技术创新成果漫长的转化过程,人工智能技术突破能借助互联网一夜之间遍布全球。而随着人工智能的不断进步,其无所不能的边界不断扩大。人类真想好了么?让人工智能把所有的工作自动化,或者将所有信息和渠道交由人工智能产生和控制?那人做什么呢?信息真假如何辨别呢?让人工智能控制人类么?

著名物理学家霍金也曾说过,“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。

马斯克等呼吁的暂停并不意味着停止人工智能的开发,而是希望通过约束和规范来解决其发展可能带来的社会和伦理问题。没有规矩难成方圆,不能放纵人工智能“野蛮生长”,最后“反噬”人类社会。

上游新闻陈力

(文章来源:上游新闻)

标签:

新闻资讯
精彩推送