2023/04/08

AI炒作和人道关怀 AI Hype and Humanitarian Concern

 


2023年3月可能是人工智能研发历史上最火热蓬勃的一个月。先是2022年11月Open AI公开ChatGPT 3.5,随着相应的使用场景和搭配的程序工具陆续推出,可以聊天、写文案、编程、翻译、总结归纳文章,乃至于写小说和论文的强大能力,基本上包办了一般文书处理的工作。最令人惊艳的是,可以用人类日常的自然语言(natural language)作为指令,让ChatGPT去执行,然后再把程式码导出复制到我们想操作的软件,轻松达到指令的目的。于是,不出3个月,一些“用AI躺赚百万美金”、“摧毁谷歌霸权”、“颠覆社会”等等耸动的标题便在网路上弥漫扩散,“出圈”到大众的视野。

接着,本来也致力于人工智能研发的谷歌公司,在去年工程师训练人工智能 LaMDA,疑似出现带有主体意识和“禅意”的对话之后,一度放慢速度,不让微软专美于前,也公开了人工智能Bard。Bard目前只允许部分国家网民使用,因此我只看到经验分享的结果,似乎不如ChatGPT和GPT-4理想。至于百度的“文心一言”,也在这一串人工智能的爆点上登场,嘘声高于掌声。

3月29日,未来生命研究所(Future of Life)发表一封公开信,信中质疑“我们是否该发展最终可能超越我们、比我们聪明,并取代我们的非人类心智?我们应该冒着失去对文明控制的风险吗?”呼吁暂停开发比GPT-4更强大的人工智能系统至少6个月。签署这封公开信的一千多位人士,包括推特的CEO伊隆·馬斯克(Elon Musk)、苹果联合创办人沃兹尼克(Steve Wozniak)等。我在参加大学关于GPT-4和强化教育的会议时,也有同仁引述BBC新闻,询问是否要连署支持。

根据《天下杂志》报道,华盛顿大学语言学教授班德(Emily M. Bender)回应未来生命研究所的公开信指出:这封信充斥着“AI炒作”(AI hype),并滥用了她的研究成果。她的研究特别强调“目前大型语言模型在压迫性系统中的使用”,这是比“假设的未来AI”更具体、更紧迫的问题。

什么是“大型语言模型在压迫性系统中的使用”?我想这句话可能是翻译不顺的问题,就尝试转回英文,不过看了英文也不明白,主要是两个术语:“大型语言模型”和“压迫性系统”。接着我询问谷歌这两个术语,前者还能理解;后者搜索出的资料涉及神经受损、骨折疼痛,显然不是班德教授的意思。

终于,我想到,何不问问ChatGPT?以下是ChatGPT的回答:

“大型语言模型(例如GPT系列模型)可以用于训练各种自然语言处理应用程序,例如语言生成、文本分类、机器翻译、问答系统等。然而,它们也可以用于壓迫性系統,例如在社交媒体平台上的推荐算法、自动化内容过滤、言论监管等。这些应用程序可能会限制人们的言论自由、影响信息多样性,并有可能滋生偏见和歧视。因此,使用大型语言模型和其他人工智能技术的壓迫性潜力需要得到审慎的考虑和监管。

为了防止大型语言模型在壓迫性系统中的滥用,需要在法律、道德和技术层面上进行控制。例如,政府和监管机构可以制定法规限制在特定情况下使用语言模型,例如在涉及敏感话题、政治宣传或涉及歧视的情况下。同时,技术人员可以努力研究开发更加透明和公正的人工智能算法,以确保这些技术不会滥用或产生负面影响。”

原来如此啊!我开始感受到人工智能比搜索引擎还有用的的统合解释力了。青年人才荟萃、巨头资本集中,军备竞赛似的人工智能研发可能放慢脚步吗?受惠还是受害,考验的不只是科技进展,更重要的,是“人类智慧”。


2023年4月8日,新加坡《联合早报》“上善若水”专栏