ChatGPT到底是什么?3分钟带你搞懂大语言模型的原理和提示词的进阶使用教程
生成式人工智能ChatGPT自从2023年初,ChatGPT在全球爆火,从那开始,就好像是人工智能的奇点时刻,刚开始人们只在新闻上见识到ChatGPT的厉害之处,到现在和ChatGPT差不多的大语言模型(豆包、Kimi、Deepseek等)已经完全属于平民老百姓的日常消费品。就和当年的互联网一般,从少数的使用扩散到大众的使用,最终大语言模型这类的生成式人工智能就会和互联网一样,成为工作生活中不可缺
生成式人工智能ChatGPT
自从2023年初,ChatGPT在全球爆火,从那开始,就好像是人工智能的奇点时刻,刚开始人们只在新闻上见识到ChatGPT的厉害之处,到现在和ChatGPT差不多的大语言模型(豆包、Kimi、Deepseek等)已经完全属于平民老百姓的日常消费品。
就和当年的互联网一般,从少数的使用扩散到大众的使用,最终大语言模型这类的生成式人工智能就会和互联网一样,成为工作生活中不可缺少的一部分,这完全是可预见到的未来。
现在每个人似乎都能对ChatGPT的功能说得头头是道,比如写作,回邮件或者写文案之类的用途。但要是真问起ChatGPT的原理和如何高效发挥出ChatGPT的能力,却很少有人能说得清楚。
年轻的一辈在教老一辈用手机APP之类的互联网应用的时候,总是有一股子的恨铁不成钢的心态,总感觉这个互联网电脑手机用起来都很简单,为啥老一辈的人这么难教会呢。这其实就是固化思维阻止了学习新事物的能力。
但如果你现在使用ChatGPT之类的大语言模型,还是只会粗略的像聊天一样,在聊天框里只会说写一个关于节日的文案之类的提示词,其实和老一辈只会用古董功能机是一样的,仅仅使用了大语言模型十分之一的功能而已。
为了更好地理解和使用大语言模型,避免被时代的步伐抛在身后。要主动打破下自己的固化思维,以开放的心态来迎接新生的事物。那就很有必要来主动认识下大语言模型的原理和学习下如何高效使用生成式人工智能的大语言模型(ChatGPT、豆包、Kimi、Deepseek等)。
一、什么是大语言模型?
大语言模型(LLM,Large Language Model)是机器学习中的深度学习技术在自然语言(人平时交流所用的语言)处理中的一个应用。
你可以把LLM想象成一个函数,类似于学校里的y=ax+b,X相当于你输入的文本,Y相当于函数的输出。
只不过大语言模型的参数比我们在学校里接触过参数要多的多,仅是早期的ChatGPT3.5版本就拥有约1750亿个参数。这也是为什么叫做大语言模型的原因之一。
另一个原因是训练大语言模型过程中,需要用来大量的文本数据来训练,GPT-3使用了大约570GB的文本数据。
请注意,这里指是文本数据的大小,一本百万字数TXT格式的小说大概是2M,训练的数据大概是百万文本的 29.1 万倍,可想而知,训练大语言模型所使用的文本资料是有多大,这还只是早期版本的使用数据。
二、什么是ChatGPT?
ChatGPT是Chat(聊天)、G(Generative:生成式)、P(Pre-trained:预训练)和T(Transformer:变换器)组成的。
这种命名方式很好的表明了ChatGPT是经过预训练的,采用了Transformer模型(一种深度学习架构)的生成式人工智能,可以使用聊天这种方式来使用ChatGPT的生成式功能。
Chat:使用聊天这种人类日常交流的语言的形式就能正常使用大语言模型,而不需要专门去学习机器语言如汇编、Python等编程语言才能使用。
这也催生出一个新的职业,即提示词工程师,当然只要会正常的打字聊天,都可以自称自己为提示词工程师,这完全没有问题。
G:生成式人工智能是人工智能的一种,像以前的AlphaGo和谷歌翻译其实都属于人工智能的一种,只不过以前是只能在一种领域中使用,而生成式人工智能最大的不同,它现在属于全才,什么都懂,什么都会,不再局限于翻译等单项任务。
生成式人工智能做的事情,在本质上就是在做文字接龙,比如一句话最后一个字是“我”,模型会像掷骰子一样,输出下一个文字。
每个文字好像是在骰子的一个面上,并且有相应的概率,其中的概率是通过大量的训练得来的。这也能解释为什么人工智能会存在“幻觉”的情况,因为ChatGPT做的事情本质上只是在做文字接龙,生成出奇怪的语句才是正常情况。
P:大语言模型需要经过大量的文本资料的预训练才能学会文字的最基本的语法。
在模型中最小的处理单位叫做Token,每种模型中Token可能是不一样的,这取决于模型训练者的定义。只要知道Token并不一定等于一个单词或汉字就行。它有可能是一个单词,也有可以只是单词的一部分。
在训练的过程中,通过对文本的进行Token切割的处理,然后模型通过不停的训练来理解文字之间的相关性,从而学会了最基本的语法。
总的大语言模型的训练分为三步,预训练+微调(Fine-tuning)+RLHF(带有人类反馈的增强式学习)。
预训练只是模型训练的第一步,第二步是微调,使用人类标注的数据资料进行模型的训练,数据资料是人类准备好输入与输出的范例对,告诉大语言模型当遇见这种输入时,就应该要输出这样的答案。
第三步是RLHF,比如当ChatGPT输出两个结果时,让人类来评判哪个输出结果更好,这样模型就会从反馈中微调模型中的参数。
三、ChatGPT的进阶使用方法
1、明确需求
你不可能知道你自己不知道的事,如果你不知道你想要什么,就随便对ChatGPT说一些模糊广泛的要求,想让ChatGPT生成一个满意的输出结果,那大概率是不可能完成的。
有两种情况:
一是你不清楚要问哪些问题,比如想要快速了解一个陌生的领域,你并不知道你应该提出一些什么样的问题来询问ChatGPT。这时候,你可以主动对ChatGPT说,我想快速了解XX领域,我应该问你一些什么样的问题才能达到快速了解这个领域。这样你就能知道你应该提哪些元问题了。
第二,你是知道自己想要什么。那就需要把ChatGPT想象成你的下属,它会充分的执行你的想法,前提是你必须要准确的表达出你的想法,千万不要给ChatGPT留下想象的空间,你说的越仔细,越充分,你就越能得到自己期望中的结果。
2、解构需求
在使用ChatGPT的时候,一定要把自己想象成公司的CEO,主抓大方向,提要求,提意见,如果对下属ChatGPT的成果不满意,要及时的给出修改意见,或让ChatGPT自己重新在做过一份,直到作为领导的我们满意才行。
如果我们想要写一篇小说,如果直接把一些大概要求写好,直接扔给ChatGPT,让它来生成一篇小说,小说大概率很容易会出现牛头不对马嘴的情况,质量也不会太高。
这时候,就应该先让ChatGPT写出一份大纲来,从全局在到局部,一步一步的抓大方向,在细化小要求,这样生成出来的小说质量肯定是比较高的。能高屋建瓴并且及时给出指导意见的CEO,才是好领导。
或许你可以在开始不太熟悉的时候,先尝试使用STAR模型来帮助自己习惯下结构化提示词的写法:
S(Situation):情境。描述问题的相关的背景信息,提供上下文。好比上学时候做的语文阅读题,每个问题都是在特定的上下文场景下提出来的。
T(Task):任务。讲明你想要ChatGPT所要完成的任务是什么。也就是自己想要达到的目标是什么。
A(ACT):扮演。让ChatGPT扮演什么角色。例如告诉ChatGPT,你从现在开始是一名擅长写科幻小说的作家,又或者是专业的文案广告从业人员。这样能提高输出内容的质量。
R(Rules):规则。对输出进行一些规定,例如用什么风格输出,严肃或者有趣,又或者是通俗易懂。指定输出的字数等等诸如之类的规定。要明确地告诉ChatGPT要做什么,而非不做什么会更有用。
3、提问与工具
提问
如果你不知道应该用什么提示词框架模型来询问ChatGPT,这时候你依然可以直接问ChatGPT。然后根据ChatGPT的反馈,选择自己想要或觉得合适的框架模型。
如果全部都不满意,别忘记了,你可以不停地让ChatGPT进行重写和修改,ChatGPT可不会觉得你烦,也不会有人类的情绪,这是人工智能最大的优点,它只会不断地根据你提出的反馈,对输出的答案进行优化。
请记住,你永远可以无限的追问ChatGPT。
工具
你也可以使用LangGPT提示词专家,在ChatGPT的网页中有一个叫做“探索GPT”,在搜索框内搜索“LangGPT”,这个应用会根据你的宽泛的目标要求,自动为你生成一个结构化的提示词模型,你可以对生成的提示词模型进行修改,直到你满意为止。
然后直接将这个提示词复制到ChatGPT新的对话窗口中,这样你就能轻松调教好大语言模型,获得一个专业的写作助手、与女生聊天的对话助手、编程助手等等。
如果是想要写出好的AI生图的提示词,你同样可以用这个LangGPT提示词专家来生成一个专门优化AI生图提示词的专家。
小结:
随着时代的发展,新技术总是会不断涌现出来,许多传统行业的岗位会消失在时代的浪潮当中。
这种变革在每一次技术革命中都屡见不鲜,就像工业革命虽然让大量的纺织工人失去了一份熟悉的工作,但工业的进步所带来的社会生产力的大幅提高,对人类福利贡献的作用是不容置疑的。
如今的AI智能浪潮同样终将改变我们的生活与工作,造福全体人类。
新的高效生产力技术总会一步步地取代落后的技术,历史的车轮不会因为轮下的人在哀嚎而停止前进的脚步。
时代前进所带来的陈痛,虽然处在局中的人可以抱怨下,来发泄下情绪与不满,但可惜的是解决不了实际的问题。时代一直在进步,我们能做的就是积极的主动学习,不幻想能成为时代的弄潮儿,但也别被时代远远的抛弃在身后就好了。
AGI(通用人工智能)未来的最终形态应该就如许多科幻电影中展现的一般,一个无所不知的万能助理。人工智能也将进一步打破信息差,提高各行各业的效率,将互联网以前对各行业所做的数字化应用,再做一次人工智能化应用。
我们真是太幸运了,亲自见证了一个人工智能的时代的开启。我们都是历史书上的参与者,我们每个上网的痕迹都是在述写着历史,我们的一切都会变得更好的。
(以上所有的内容不只适用于ChatGPT,在任何的大语言模型内都是通用的,比如国内的豆包、Kimi、Deepseek、文心一言等。ChatGPT只是在大语言模型中最出名的一个,所以在本文中使用ChatGPT来进行举例。)
零基础入门AI大模型
今天贴心为大家准备好了一系列AI大模型资源,包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
有需要的小伙伴,可以点击下方链接免费领取【保证100%免费
】
1.学习路线图
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
2.视频教程
网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。
(都打包成一块的了,不能一一展开,总共300多集)
3.技术文档和电子书
这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
4.LLM面试题和面经合集
这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
5.免费获取
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码或者点击以下链接都可以免费领取【保证100%免费】

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。
更多推荐
所有评论(0)