点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
王大鹏
经常跑高速的朋友大概都有这样的体会,在急弯或者长下坡的路段,路旁一般会有“请试刹车”的警示语,甚至有些路段还有备用车道,目的就是降低驾驶过程中出现的风险,说白了就是在加油的同时不要忘记备刹车。
最近,ChatGPT相关的讨论一度成为热议话题,很多人都跃跃欲试,向其提出各种问题,似乎它都能给出令人满意的答案,甚至已经有人开始利用这个程序替自己完成部分工作,比如撰写论文。
在前不久组织的一次科普座谈会上,有专家表示以ChatGPT为代表的人工智能会给科普创作带来一定的挑战,因为随着大规模语言模型的日趋成熟,普通读者可能难以区分哪些作品是由人工智能生产出来的。当然,在科普作品的情感方面,也许人工智能还不能比肩人类这个物种,但是它给我们带来的挑战仍然不能忽视。实际上,随着人工智能产品不断融入甚至是侵入生活的各个角落,有关人工智能将给人类带来哪些挑战的讨论也日渐多了起来,当然也有人会担心它会让很多人失业。
日前,包括图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克在内的千余名专家人士在宇宙学家泰格马克等人创办的未来生命研究所网站上发表了一封呼吁暂停训练比GPT4更强大的AI系统的公开信。他们认为最近几个月来人工智能领域已陷入一场几近失控的竞赛,我们到了给巨型AI研究按下暂停键的时候了。
在《2001太空漫游》中,作者写过这样一句话:“任何足够先进的科技,都与魔法无异。”以ChatGPT为代表的人工智能应用就如魔法一般,你提出一个问题,它能在很短的时间完成任务,当然其中也有一本正经胡说八道的内容,但是对于不明就里的普通公众而言,它确实就像变戏法,这也暗合了卡尔·萨根的那句话,“我们生活在一个完全依赖科学和技术的社会中,然而几乎没有人了解这些科学和技术”。
确实,人工智能便捷了我们的生活,比如在交通行业,人工智能助力自动驾驶汽车已经开始上路。借助人工智能技术,汽车可以处理大量复杂道路、行人和其他车辆的信息,并据此得出行驶路线的智能决策;在金融行业,人工智能技术可以生成金融分析模型,并且可以对历史信息进行整合,以便在征信和风控领域进行辅助;在医疗行业,人工智能技术可以通过对海量历史数据的挖掘,协助医生完成诊断,还可以通过对医疗影像数据的分析计算初步得出病理分析……
但是,在我们享受人工智能这种便捷服务的同时,也不能忽视它可能给我们带来的挑战。比如前不久刚刚发生的AI一键脱衣功能给当事人带来的伤害,这样的例子可能还有不少。
从科技向善的角度来说,我们有必要关注和研究新技术应该保持在一个什么样合理的范围内,才更符合全体人类的发展利益,这其实是一种立场和价值导向的问题,当然这应该是全人类共同持有的一种警觉,但是从研发者的视角来说,至少应该把“科技向善”作为一个终极目标,在最大的范围内寻求共识和解决方案,引导人工智能产品释放最大的人性之善,实现社会的良性发展。也就是说,人工智能产品需要以为人服务为宗旨,不能脱离开人类社会的全面发展这个基本目标。
实际上,从阿西莫夫的机器人三定律开始,人工智能的伦理问题就一直得到了特别的关注,但是就目前的发展速度来看,随着对人工智能投入和研发力度的不断加大,也许人工智能产品通过图灵测试只是时间问题,但是我们也应该从伦理道德、法律规章等较多做好相应的机制建设,让人工智能产品在造福人类福祉的道路上正常行驶,甚至必要的时候我们需要有一个“刹车”,毕竟在低头拉车的同时,我们也需要抬头看路,想想为什么出发。
这也让人想起了1975年在加利福尼亚阿西罗马会议中心举办的最著名的阿西罗马会议,其正式的名称是重组DNA分子国际会议。会上有超过100位顶尖科学家——其中大部分都是生物学家,和众多律师以及物理学家(以及报刊的成员)齐聚一堂共同提出对重组DNA技术(也被称为基因修饰)进行自我约束的指南。可以认为,该会议起源于科学家自己对研究的关切,会议研究并公布了一系列原则,旨在处理与重组DNA技术相关的潜在危害。同时,该会议是科学家们的一种自我规制,同时也有助于建立公众的信心,即在科学家采用的预防性措施方面,科学还是有用的。
想到日前发布的呼吁暂停训练比GPT4更强大的AI系统的公开信,我们并不知道它是否会起到作用,但是至少我们需要去思考这样一个问题,同时也应该考虑在加油的时候别忘了备刹车。
(作者系中国科普研究所副研究员、中国科普作家协会理事)