
Photo by Milad Fakurian on Unsplash
OpenAI在2022年11月底发表的ChatGPT引爆了全球的AI热潮,业者争相投入庞大资源以开发AI模型与服务,在经历了超过一年的快速成长之后,今年开始出现AI已被过度炒作的声浪,还有人说AI即将泡沫化,但Google DeepMind专门研究机器学习与电脑安全的科学家Nicholas Carlini并不这么认为,他以自身对AI的应用,来说明大型语言模型(LLM)是个真正有帮助,可以提高生产力的工具。
Carlini表示,过去一年以来,他每周至少花几个小时与各种不同的大型语言模型互动,对于这些LLM的进步能力印象深刻,网路上对于LLM的讨论有乐观也有悲观,但他并不想争论LLM的未来,只想提供身为一名研究人员与不同LLM之间的互动案例。
其中,Carlini在LLM的协助下,使用过去从未用过的技术建置完整的Web应用程序;LLM教他如何使用从未用过的框架;将数十个程序转换成C或Rust,以提高10~100倍的效能;裁剪大型程序码库以简化专案;替他先前写的每一篇研究论文撰写实验性程序码;自动执行所有单调的任务或一次性脚本程序;在设定与配置新封包或专案时,几乎完全取代了网页搜寻;在除错时可取代50%的网页搜寻。
Carlini所举的例子大致可以分成学习及自动化无聊的任务,他说,这些例子只占了他使用LLM方式的不到2%,它们并不有趣,却是他每天从事的任务。他只是要说,LLM真的是有用且可提高其生产力的工具,利用不同的LLM来替他的专案撰写程序码,至少可节省50%的时间。
不过,批评AI是种炒作的看法却是角度各异,不像是光靠Carlini的解释就能满足的。例如共同创办非营利媒体The Markup的评论家Julia Angwin今年5月指出,AI虽然征服了许多以前无法想像的任务,但之后的研究发现其某些成就被OpenAI夸大了,此外,AI模型通常可以产出一份还不错的初稿,不过,修改它的时间大概等于她自己完成工作所需的时间。
软件工程专家Jonathan Xia今年4月时表示,生成式AI被炒作了。因为投资者给了太多的钱,期许那些远远还未得到证实的商业应用,而且现有的技术很快就会遇到难以突破的瓶颈。
Xia说,他曾经以ChatGPT来写程序码,发现它产生的程序码是合理的且格式简洁,但却是错的。他还说生成程序码已经是LLM最好的应用之一了,因为倘若以它来进行法律研究,它会生成不存在的案例;让它跟客户交谈,可能会提供不存在的交易;而且永远不会有原创,只是陈腔滥调。Xia也怀疑外界对于生成式AI可能会有指数型成长的论点。
华盛顿邮报(The Washington Post)也在今年4月认为,AI泡沬正在破灭。该报所列出的原因主要是开发模型需要投入大规模的硬件资源与成本,但短期内无法看到相对应的回报。
加拿大新闻人Paris Marx亦于今年5月指出,AI的泡沫化指日可待。Marx说,AI公司的估值已从最高点下滑,云端供应商正在降低客户对AI工具的期望,因为机器人依旧在犯错,而且业者尚不知如何从如此昂贵的技术中赚钱,更把对气候的承诺抛向了脑后。