企业资讯

首页 关于我们

企业资讯

优雅打工人ChatGPT | 究竟是打工人的曙光还是……???
发布时间:2023/04/04
返回列表

随着ChatGPT、、、GPT4、、、文心一言等大模型越来越被大家所关注。。弈桔推出「优雅打工人ChatGPT」系列栏目,,,和大家聊一聊ChatGPT的「优雅」。。

 

few weeks ago

打工人还沉浸在

「ChatGPT解放生产力」

「使用ChatGPT摸鱼一共几步」

的愉悦中

 

紧接着

OpenAI 研究人员提交报告

预言美国人约80%工作岗位和50%工作任务

会受到 AI 影响

 

仅5天后,,,,高盛又发布报告

预测 AIGC 将使全球 3 亿工作岗位实现自动化

打工人听后

又开始瑟瑟发抖起来

 

 

高盛还说

它也会创造新就业机会

比如年薪百万的提示工程师

可能会在未来10年内使全球年度GDP增加7%

 

ChatGPT究竟何德何能

能让数亿打工人的心绪波动如此激烈

(明明都是些被社会锤炼过的老打工人了)

让我们来浅析一波 

 

 

自从ChatGPT问世,,,,打工人和学生党便开始沉浸于与ChatGPT聊天解闷,,,,询问常识问题,,并使用“小助手”辅助写写作业等互动上。。

ChatGPT发布后仅4个月,,,3月15日OpenAI再投一枚重磅消息发布GPT-4。。。。3月16日百度也紧随其后,,,发布了文言一心的内测版本。。。

从OpenAI官网了解到,,,GPT-4 比 GPT-3 能够更好地理解自然语言的细节和语义,,,生成准确和自然的文本。。

此外,,GPT-4增加了多模态处理功能,,,,对图片能够准确识别和转义。。比如输入一张下图左侧的图片,,,,然后询问它:“如果拳击手套落下,,,将会发生什么????”ChatGPT能够给出符合常理且正确的回答:“拳击手套将集中木板,,而小球会飞起。。。。”

 

更令所有竞争对手目瞪口呆的是,,,,就在GPT-4发布后的第二天,,,“卷王”微软宣布正在将该技术植入到微软办公软件中,,该功能名为“Microsoft 365 Copilot”,,,,可谓是“宁可累死自己也要卷死同行”的真实写照。。

 

Copilot接入微软的多个商业应用程序中使用,,,,包括我们打工人每天接触的Word、、、PowerPoint、、、Excel等。。。。在Word中Copilot可以帮助用户扫描文档,,快速提取有用的信息,,,,节省采编、、、写作的时间;在Excel中可以帮助用户分析数据的趋势,,,,在表格中突出显示关键的数据;另外它还可以在PowerPoint中根据用户需求快速生成幻灯片。。。简直可以称其为 真·智能化·全自动·办公小助手。。。

 

当国际上以大型语言模型(LLM)为主导的人工智能拉锯战进行的如火如荼时,,国内各大互联网企业也蓄势待发,,包括百度、、、腾讯、、、阿里巴巴、、、、快手等在内的大型科技企业,,,,争相预发布中国第一个ChatGPT模型,,连李开复都公开宣布自己“参赛”。。

国内企业中,,,,百度的进展最为迅猛。。在前文提到的3月16日百度发布会上,,李彦宏宣布正式推出大型语言模型生成式人工智能产品“文心一言”。。。。不仅能够生成高质量、、、、流畅自然的中文文本,,,,并具备多种应用场景,,如智能客服、、、内容创作、、、语音识别等,,,展示了百度在大型语言模型领域的技术实力和创新能力。。。。

 

浅析ChatGPT技术

简单来说,,,ChatGPT是一个大模型,,,对应大数据、、、强算力、、好算法。。

 

大数据

ChatGPT具有“场景通用性强、、泛化能力好、、能够自主学习”等功能,,而这一切都是以海量数据为基石,,,,算法模型通过从海量数据中获得先验知识,,,,构建知识图谱,,,,根据上下文关系从而生产出问题答案。。

关于ChatGPT使用的数据,,,,我们采访了ChatGPT本尊,,,,它是这样回复的:

 

Q:ChatGPT用了多少数据集,,,,数据从哪里来

A:作为GPT-3.5的一种变体,,,我使用了大量的数据集进行训练,,,,包括来自网络的文本语料库、、、书籍、、、、新闻文章、、论文、、、博客、、、、维基百科等。。这些数据集是从公共领域和互联网上获取的。。。

我使用的主要数据集是OpenAI的专有数据集,,,,包括Common Crawl、、WebText、、、BooksCorpus和新闻文章数据集。。这些数据集涵盖了广泛的主题和语言风格,,,,可以让我学习各种不同的语言和文本风格。。此外,,,,我还使用了其他来源的数据集,,例如维基百科和一些常见的开放数据集,,,例如电影评论数据集和新闻主题数据集。。。

总的来说,,,我使用了数万亿个令牌(tokens)的文本数据进行训练,,,,这是我能够提供广泛的语言理解和生成能力的基础。。。。

 

ChatGPT相关的论文阐述其所用数据如下所示[1]:

 

强算力

在训练ChatGPT模型的过程中,,,需要大量的计算资源来完成。。。。据OpenAI官方信息,,,ChatGPT模型拥有1750多亿个参数 [2]。。。为了训练这个模型,,,OpenAI使用了多台超级计算机,,,,包括由超过1万枚英伟达A100 GPU芯片的AI计算集群和Azure AI超算平台等。。。其中,,,微软Azure云服务为ChatGPT提供了计算资源,,,其超级计算机拥有超过28.5万个CPU核心、、、、1万个GPU,,并且每个GPU都有400Gbps的网络带宽 [3] ,,可以为ChatGPT提供大规模分布式AI模型训练所需的巨大算力。。。。

据OpenAI发布的数据显示,,,ChatGPT总算力消耗约为3640PF-days,,,这相当于每秒计算一千万亿次,,,,需要计算3640天才能完成 [4]。。。可以看出,,ChatGPT的训练需要大量的计算资源和时间,,,因此其训练成本非常高昂。。。。

 

好算法

ChatGPT是一种基于深度学习的语言模型,,,它采用了一种被称为Transformer的架构。。。。Transformer是一种基于自注意力机制的神经网络结构,,,用于解决序列到序列的任务,,,例如机器翻译和自然语言处理。。。相对于之前的递归神经网络和卷积神经网络,,,,Transformer在处理长序列时效果更好,,能够并行化处理,,提高了计算效率。。

ChatGPT的核心算法是语言模型,,,,即用来预测下一个单词或字符的模型。。。。它的训练目标是最大化给定输入序列的条件概率,,,,也就是给定前面的词语,,,预测下一个词语的概率。。

ChatGPT使用了一种被称为“预训练 + 微调”的训练方法。。在预训练阶段,,,,模型会在大量的文本数据上进行无监督学习,,目标是学习语言中的模式和规律。。。在微调阶段,,模型会在特定的任务上进行有监督学习,,,例如文本分类、、、语言生成等,,,以适应具体的应用场景。。。。

在具体的算法实现上,,ChatGPT采用了多层Transformer编码器作为基本单元,,,,每个编码器包含了多头自注意力机制和前向神经网络两部分。。自注意力机制用于处理输入序列中每个位置之间的关系,,前向神经网络用于对每个位置进行局部的特征提取和转换。。。

算法、、、算力、、、数据是推动人工智能高速发展的三驾马车,,,训练ChatGPT这种超大规模往往不属于一个人或者一个成型的商品,,,,需要公司日积月累以及专业的数据公司的采集、、清洗、、整理、、、分析和标注。。。。 

 

数据

是训练一切大模型的基石

如果想追赶国外的ChatGPT,,,,数据积累是关键。。。。数据是ChatGPT之类大模型训练的基础,,,,它们是大模型学习语言模式和语义理解的来源。。

如果数据不够丰富或者不够准确,,,大模型将无法准确的进行语言模型和语义学习,,,导致大模型的质量下降。。。。并且这些模型需要大量多样化的数据才能进行训练,,这些数据可以来自于不同的领域和不同的语言,,,,从而提升模型的泛化能力,,,,通用性和鲁棒性。。

通过使用多样性的数据进行训练,,,,大模型才能够更好的理解各种语言和领域的语言特征。。。其中数据的准确性对于大模型的训练也非常重要。。。

如果数据存在错误或者噪声,,,这些错误和噪声将会被大模型所学习并产生负面影响,,,,导致模型的性能下降。。。。

随着时间的推移,,语言和语义理解的方式也会不断变化,,,,实时性对于大模型的训练来说也非常重要。。。。及时更新数据可以保持线上大模型的学习和推理能力,,,使其保持最新的语言和语义理解。。

 

那么如何积累如此庞大规模的数据呢???

采集互联网数据

通过技术手段可以从互联网上收集大量的数据,,,,但需要注意法律和伦理问题,,,避免侵犯个人隐私或违反版权法。。。。同时,,,,要注意采集速度和频率,,,,避免对网站造成不必要的压力或影响用户体验。。。。最后一步则是对采集数据进行处理和清洗,,,删除无效或不良数据,,,,从中提取有效信息。。。。

 

数据合成

数据合成指的是用生成模型AIGC的深度学习模型合成语音、、图像、、、文本、、多媒体视频数据,,,,再用这些数据辅助通用大模型的训练。。虽然这些合成的数据不是从现实世界中采集或测量的,,,,但合成数据能够从数学或统计学上反映真实数据。。。。

 

数据定制

根据企业不同的场景需求,,数据公司可以基于自身对于行业客户的理解及专业积累,,,,为企业提供相关咨询建议,,,,并为企业量身打造安全合规的专业数据。。

从2016年Google AlphaGo打败柯洁,,到今天OpenAI 的ChatGPT和GPT-4 , 人工智能不断突破人类的想象,,逐渐走入日常生活。。。相信会有更多超越期待的产品在研发的路上,,不断扩宽我们的认知边界,,刷新我们的感官体验。。。。

 

 

 

文献参考

[1] Why Does Surprisal From Larger Transformer- d Language Models Provide a Poorer Fit to Human Reading Times? https://arxiv.org/abs/2212.12131

[2] Language Models are Few-Shot Learners, 2020, 6.3 Energy Usage, https://arxiv.org/pdf/2005.14165.pdf

[3] Microsoft announces new supercomputer, lays out vision for future AI work,  https://news.microsoft.com/source/features/ai/openai-azure-supercomputer/

[4] GPT-3: The Dream Machine in the Real World, https://towardsdatascience.com/gpt3-the-dream-machine-in-real-world-c99592d4842f

 

 

 

 

 

 

 

 

 

 

分享到微信朋友圈

打开微信,,,点击底部的"发现"

使用“扫一扫”即可将网页分享至朋友圈。。

站点地图