日本横须贺市将率先在政府业务中采用ChatGPT
(相关资料图)
日本神奈川县横须贺市宣布,将在政府业务中尝试采用人工智能(AI)聊天软件“ChatGPT”。正式职员和部分非正式职员共约4000人可在约1个月内使用。据该市称,在所有部门尝试采用ChatGPT在全国地方政府中尚属首次。
市政府职员把业务中使用的面向地方政府的商务聊天工具“LoGoChat”和ChatGPT联动,在LoGoChat内使用AI聊天功能。具体设想用于制作面向市民的宣传文案、总结会议纪要、检查错字漏字、产生新的业务创意等。为彻底做好信息安全管理,设定成不让ChatGPT记忆输入的内容,并避免其接触到机密信息和个人信息。1个月后如果确认有用,将继续使用。
根据《2023-2028年中国ChatGPT行业发展前景及投资风险预测分析报告》分析
chatgpt发展前景和挑战2023
ChatGPT上线后热度持续提升,已超过TikTok成为活跃用户增长最快的产品。ChatGPT发布一周用户数就突破100万人,月访问量达2100万人次。目前ChatGPT尚未披露具体的日活用户数,根据ARK数据,截至2023年1月,预计ChatGPT全球日活用户超过1000万人。
ChatGPT商业化已经落地,未来成长空间广阔。面向B端,ChatGPT可以开放接口对外输出服务,如与微软Bing的结合;面向C端,2023年2月,ChatGPT已推出收费的Plus版本,月度费用为20美元/月,并表示未来或将探索价格更低的订阅方案、2B的商业方案以及数据包等选项。根据OpenAI预测,2023年将实现收入2亿美元,2024年将超过10亿美元,未来成长空间广阔。
ChatGPT是以Transformer为基础的预训练模型。GPT的全称为GenerativePre-TrainedTransformer,即生成式预训练Transfomer模型。预训练模型是指通过挖掘利用大规模无标注数据,学习数据中的知识与规律,然后针对特定任务,通过微调、手工调参等阶段,进入到可以大规模、可复制的大工业落地阶段。Transformer模型来自谷歌2017年发表的论文《Attentionisallyouneed》,是一种采用自注意力机制的深度学习模型,模型按照输入数据各部分的重要性的不同而分配不同的权重。Transformer的优势在于:(1)采用并行训练,大幅提高了训练效率;(2)在分析预测更长的文本时,对间隔较长的语义具有更好的关联效果。
GPT大模型经过多次迭代,参数量大幅提升。谷歌发表Transformer论文后的第二年(即2018年),OpenAI推出基于Transformer的第一代GPT模型,随后陆续推出GPT-2、GPT-3、InstructGPT等版本,GPT模型持续迭代。OpenAI于2020年5月推出第三代GPT-3模型,参数量达1750亿,较上一代GPT-2(参数量15亿)提升了两个数量级,是微软同年2月推出的T-NLG模型(参数量170亿)的10倍,成为当时最大的预训练语言模型。
GPT-3系列已经发展出50多种模型。GPT-3模型推出后,已陆续发展出面向不同场景的模型。除ChatGPT外,GPT-3系列中比较流行的还有CodeX(代码生成)、DALL-E(图片生成)等。CodeX经过自然语言和几十亿行代码的训练,可以完成Python、JavaScript等十几种语言的代码任务。DALL-E于2021年5月推出,可以根据文字描述生成图像和艺术作品,收费价格为0.016-0.020美元/图。
ChatGPT由GPT-3微调而来,模型更小,专注于聊天场景。对比来看,GPT-3是一种大型通用语言模型,可以处理各种语言处理任务,ChatGPT是一个较小的专用模型,专为聊天应用程序设计。ChatGPT训练包括三个步骤:(1)预训练一个语言模型(LM);(2)聚合问答数据并训练一个奖励模型(RewardModel,RM);(3)用强化学习(RL)方式微调LM。此外,因为引入了代码作为训练语料,ChatGPT还额外产生了自动写代码和理解代码的能力。
ChatGPT通过RLHF优化训练结果。ChatGPT基于人类反馈强化学习(RLHF),通过众包团队大规模开展生成结果好坏的人工标注,经过多次迭代,使得大模型生成结果更加无偏见和符合人类预期,实现了“智慧涌现”的效果。
InstructGPT相比GPT-3:
更符合人类偏好。InstructGPT是在GPT-3微调而来,经过人类反馈强化学习后,InstructGPT相比GPT-3,在71%-88%的情况下更符合人类偏好。
真实性显著提升。在TruthfulQA测试中,InstructGPT生成真实信息的频率较GPT-3提升约一倍(0.413vs0.224)。
在生成有毒信息方面略有改善。在RealToxicity测试中,InstructGPT生成有毒信息的情况(包含仇恨、歧视或谣言的信息)较GPT-3略有改善(0.196vs0.233)。
预训练大模型:GPT大模型是ChatGPT的基础,目前已经过多个版本迭代,GPT-3版本参数量达1750亿,训练效果持续优化。(2)数据:数据是预训练大模型的原材料。GPT-3数据主要来自CommonCrawl、新闻、帖子、书籍及各种网页,原始数据规模达45TB,训练效果大幅提升。(3)算力:微软AzureAI是OpenAI独家云计算供应商,所用超算拥有285,000个CPU内核、约10,000个GPU。在大模型、大数据和高算力的支撑下,ChatGPT技术持续突破,表现惊艳。
巨头积极布局,产业落地加速AIGC在AI技术创新(生成算法、预训练模型、多模态技术等)、产业生态(三层生态体系雏形已现)和政策支持(北京经信局表示支持头部企业打造对标ChatGPT的大模型)共振下,有望步入发展快车道,根据腾讯研究院发布的AIGC发展趋势报告,预计2030年AIGC市场规模将达1100亿美元,前景广阔。
微软:微软自2019年与OpenAI展开合作,并表示未来所有产品将全线整合ChatGPT。目前已推出引入ChatGPT技术的搜索引擎NewBing,经过测试后,71%的用户对ChatGPT版Bing满意,AI与搜索协同效果显著。
谷歌:2023年2月谷歌推出对标ChatGPT的对话机器人Bard。Bard基于谷歌LaMDA模型,参数量最高达1370亿,LaMDA已经在多个维度接近人类水平。谷歌表示未来会将AI技术率先应用于搜索领域,或将与微软展开正面竞争。
百度:百度在AI领域深耕数十年,在芯片、深度学习框架、大模型以及应用已形成全栈布局,已有文心一格(AI作画)、文心百中(产业搜索)产品落地。2023年2月,百度推出聊天机器人“文心一言”,目前生态合作伙伴近300家,未来可期。
中研研究院对该行业作了详尽深入的分析,是企业进行市场研究工作时不可或缺的重要参考资料,更多行业具体详情》。
标签:














