先做个广告:如需代注册GPT帐号或代充值ChatGPT4会员,请添加站长客服微信:gpt-app
推荐使用ChatGPT中文版,国内可直接访问:https://ai.gpt86.top
原创 / 大模型之家
ChatGPT的出现,不仅让 AI 迎来了“高光时刻”,也为众多“参与者”打开了一个全新的“潘多拉魔盒”……
近日,百川智能创始人兼CEO王小川在演讲中提到:ChatGPT背后是人类历史的文字积累。如今的大模型其实处于“读万卷书”阶段,由于缺少线下经验,所以无法做到“行万里路”。
因此,王小川认为:坐在电脑前的工作大概率都会被取代,电脑面前坐的时间越长,这个工作就会变得越危险。同时,其更直言“程序员是自己的掘墓人,如果只会坐在电脑面前写代码,回头就把自己取代了。”
图片来源:网络
演讲结束后,此番言论迅速引起广泛关注。微博话题榜上#王小川说用电脑工作时间越长越会被ChatGPT取代##王小川说程序员是自己的掘墓人#等相关话题相继涌入关注焦点区。一时间,网友们从产品、市场、用户、经济环境、国际局势等等,多方面反驳了王小川的观点。
那么,坐在电脑前的工作(程序员)真的大概率会被大模型取代吗?
在断定孰是孰非之前,我们首先应厘清“程序员”的本质到底是什么?虽然很多程序员都喜欢以“码农”自称,且一旦脱离了代码,文档等等的确不能表达出软件真正所代表的价值。但一个不容忽视的关键是:编码在软件开发过程中仅位列次要部分,而程序员也绝非是简单的编码输入人员,其真正的核心职能是创造从无到有的开发过程,是持续的探索和发现创新。而将该定义与大模型(即由大型数据集和神经网络模型组成的模型,能够在多个自然语言处理任务中取得出色的表现)的定义结合来看,二者本质上所履行职责的关键属性并不相同,不存在“替代”甚至是“竞争”的情况。同时,良好的软件工程实践比基于大数据产生的大模型更具洞察力及创造性价值。与大模型相比,程序员能够更好的理解问题、拆解问题、设计算法,从而进行实施和测试解决方案。而在软件开发过程中则更是如此,程序员不仅需要编写代码,还要对业务进行深入的了解和分析,而这也恰恰是人工智能在实际应用中难以完成的。而这一点,也曾得到过MIT计算机科学和人工智能实验室副总监兼首席运营官Armando Solar-Lezama的认证。“人类编码员仍然必须弄清楚一段代码的结构、组织代码的正确抽象以及不同界面的要求”Armando Solar-Lezama强调。此外,单就大模型在“开发软件”的功能来看,目前已经存在ChatGPT、Copilot等在内的一众大模型,但仍存在生成代码不准确、错误,甚至是生成代码包含漏洞的可能。
图片来源:网络
资料显示,此前加拿大魁北克大学的研究人员在论文《How Secure is Code Generated by ChatGPT》中提到,ChatGPT生成代码的安全性让人倍感担忧,不仅没有达到最低安全标准, 也不会主动告知用户生成代码存在危险性的事实,除非用户向它询问。
无独有偶,Copilot也存在类似的问题。斯坦福大学的研究者曾对Copilot进行过类似测试,纵使仅使用了Copilot辅助生成的功能程序,且未对全部语言程序进行测试,但结果却仍然表明:其改写的代码中存在概率为40%的安全漏洞。头部尚且如此,后续“追兵”又如何保证其生成代码的准确性呢。一名互联网企业程序员向大模型之家表示:“相较于程序员而言,大模型的确能够更加高效快速的完成需求,但一个重要的前提是该工作需求所对应的是大量重复性工作”。谈及实际应用,其也直言,在体验了一段时间后发现,大模型生成代码确实很大概率上存在不准确的可能。倘若你的实际能力 > 生成的代码,大模型确实能起到很好的事半功倍的效果,反之将事倍功半。此外,国内外专家也相继对类似问题进行过公开回应。OpenAI的IlyaSutskever认为:添加带有人类反馈的强化学习可以消除LLM幻觉;Meta的YannLeCun和GeoffHinton(最近从Google退休),认为:大型语言模型更根本的缺陷在起作用;360创始人周鸿祎则认为:人工智能不是裁员工具 而是助力。将目光上升至政策方面,国家科技部原副部长吴忠泽指出,我国高度重视人工智能发展,并出台了《新一代人工智能发展规划》等政策文件,对人工智能发展作出系统全面的部署。实现人工智能健康发展,关键在创新,根本靠人才。这意味着,如今AI发展的每一个成果,都是人工技术作用的表达方式,仅仅赋能而非完全替代。因此,程序员绝非简单的“生成机器”,大模型的发展需要程序员进行推动和引导。在这过程中,程序员将不断地学习和应用新技术,并发挥丰富的想象力和创造力,为大模型甚至是人工智能注入源源不断的活力及具象的“现实感”。
相关数据显示,目前GitHub平台上的所有代码,有41%都是在使用CoPilot辅助下生成的。诚然,基于上述数据表明通用大模型生成代码确实能在一定程度上提高工作效率,但在生成式人工智能大模型的对话中需要特定的审视视角,而不是一昧地夸大其词。毕竟,大型语言模型缺乏非语言知识,也就说王小川所谓的“线下经验”,这对于理解语言所描述的潜在现实是至关重要。图片来源:网络实践之外,大模型能否“因地制宜”的为“项目需求”匹配生成服务也是现阶段一大弊端。毕竟,随着大模型逐渐垂直细分化发展,其除了要面对时间、空间复杂性外,还要面对垂直细分与专业化相结合的考验。而这也将在一定程度上制约着大模型无法“条条大路通罗马”。值得一提的是,在大模型之家前不久发布的《人工智能大模型产业创新价值研究报告》中提到:随着国内专业大模型的推出,通过一套“通用”的模型试题很难准确评价针对不同行业进行知识强化的诸多大模型。因此,特别推出了专业大模型“AQUA”评价体系。从6项指标、18个维度形成对人工智能大模型的全方位、立体式的评估标准,用以帮助使用者选择更实用的大模型。也就是说,目前现有的大模型,并无法完全解决每一个用户不固定的“需求”,结合现实的一系列因素,完全解决问题就更加困难了。同时,倘若尝试完全依赖ChatGPT等大模型,绝大多数用户都将成为电影主角楚门,基于答案与结局的基础上,循规蹈矩的工作、学习甚至是生活。这不仅会丧失独立思考的能力,也会将无数个0的突破机会变成千篇一律的流水线制作,再无创新。目前,ICML征稿,Nature新规等均强调禁止使用大型语言模型,以规避“歧义”风险。值得注意的是,去年4月,谷歌学生研究员 Daphne Ippolito 在推特上表示,智源研究院一篇拥有 100 位作者署名的综述研究《A Roadmap for Big Model》涉嫌抄袭,其中至少包括其发表的多篇论文内容。虽然智源人工智能研究院在事后快速发布了“致歉信”,并表示已启动邀请第三方专家开展独立审查,并进行相关追责。但无论是论文中多处抄袭情况的确认,还是事后“行业内风评的丧失”,都造成了“提高工作效率,丧失本质上主旨创新”情况的发生。更长远来看,随着人工智能大模型在千行百业遍地撒种,专业性、具象性也将成为大模型的基本门槛,一旦准确性“有失偏颇,非相关专业人士很可能被大模型带入歧途,混淆最终的结果。据美国斯坦福大学发布《2021年人工智能指数报告》显示,在期刊论文总数超过美国的若干年后,中国 AI 期刊论文被引量超过美国,拿下了世界第一。一个行业内共识是,论文引用量在学生研究界一定程度上等同于“同行”的认可。然而,在被称为AIGC元年的2020年,虽然我国较美国发布会议论文少了1400篇,但引用量却以数十倍的差距逊于“美国”。这意味着,人工智能不仅在“高度创新行业内”无法增效提量,更会制约着各个赛道“创新性”的诞生,与高举的智能是本、创新是根的AI大旗,完全背道而驰。如今,人工智能浪潮来袭,技术应用的广泛性的确能在一定程度上增量提效。但另一方面,其也将带来的不可控风险,它体现在医疗、教育等一系列关乎“民生”的方方面面。如今,诚如“AI 时代,程序员的出路在何方?等文章仍在不断发酵。对于大模型赛道来说,AI代码虽然可以提高编程效率,但并不能满足复杂场景、不够灵活甚至不够安全。生成的代码依然需要人去优化、去部署验证等。对程序员来说,有了 AI 的加持,其在工作实际操作中“如虎添翼”,为整个行业的创新带来无限的可能。
更长远来看,押宝大模型甚至是人工智能,不仅要破除大模型发展的“笼子”(即对创新力、教育及医疗准确性的发展的桎梏),也要充分释放AI发展路上人工技术的潜力更好的面对过程中时间及空间的复杂性,寻找技术发展和专业可控的平衡点,促进大模型技术在各个赛道的发展和产业应用。
本文链接:https://yeziwang.cc/openai_5.html