1.5
AI名词简单记

任何行业都有术语,想要掌握ChatGPT自然也要了解一些相关的基本术语。本书旨在让读者能够尽快地入门并熟练运用ChatGPT,因此,这里挑选了一部分关联性较强的术语,尝试用最简单的语言解释给大家。

AIGC(Arti昀cial Intelligence Generated Content)

AIGC即人工智能生成内容,可以根据用户的需求,通过AI应用自动生成所需的内容。现在的人工智能已经可以生成的内容包括但不限于文字、图片、语音、视频。例如ChatGPT,可以生成文章、邮件、说明书等不同的文字内容。

自然语言处理(Natural Language Processing, NLP)

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。

机器学习(Machine Learning)

机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。

深度神经网络

深度神经网络是机器学习领域中的一种技术,它通过算法能够让计算机像人脑神经一样运作。神经网络的出现,使得人工智能的性能大幅提升。

Transformer架构

Transformer架构是由谷歌的工程师团队在2017年提出的神经网络架构,是GPT大模型的重要基础,它让文字训练变得更容易,使量变到质变成为可能。ChatGPT中的T是Transformer的缩写。

RLHF(Reinforcement Learning from Human Feedback)

RLHF即“基于人类反馈的强化学习”,ChatGPT成功背后的最后一块拼图,也将是未来几年发展极快的AI领域。它是一种强化学习算法,通过真实人类的反馈,大幅加速语言模型的训练速度,让它更好地理解人类真实的意图,并给出更合适的响应。这可以提高模型的准确性和自然度,提升用户体验。

多模态(Multimodal)

多模态技术是指利用多种不同的数据模态(如语音、图像、视频等)进行联合处理和交互的技术。多模态的大模型可以同时进行处理和分析不同模态的数据,从而使得应用程序在理解和响应用户时更加准确、全面和自然,也可以同时输出文字以外更多形式的内容。

GPT-1及GPT-2(Generative Pre-trained Transformer)

初代GPT模型GPT-1由OpenAI在2018年6月发布,2019年2月它的升级版GPT-2发布。它们可以用来生成语句、回答问题、翻译文字、生成文章和故事等。

GPT-3

GPT-3在2020年5月发布,使用了惊人的175亿训练参数,量变终于引起质变。大模型在训练数据量达到一定程度之后,效果惊人。

GPT-3的成果不仅在于模型本身,在商业模式上,它也开启了基于自然语言大模型应用的“百花齐放”的时代。其在大模型的基础上,额外进行加工、资料输入再学习的过程后,就能得到在某一领域更为突出的定制化AI应用。

GPT-3.5

GPT-3.5在ChatGPT推出时首次公布,它在GPT-3的基础上调整和优化而来。

新版微软必应(New Bing)

微软基于最新GPT模型开发的New Bing搜索引擎。2023年2月开放测试,最新GPT大模型与搜索引擎的结合,大大弥补了当下ChatGPT不能联网的短板,具有高效信息收集和数据聚合分析的能力。

GPT-4

2023年3月14日,OpenAI正式推出GPT-4大模型,升级为多模态的同时,在语言准确度、事实准确性、逻辑能力、专业学术领域知识和记忆量等多个维度都实现了大幅提升。