Appearance
AGI通识课程(一):AGI基础认知与行业变革
课程设计亮点
- 认知-工具-场景三阶递进结构,符合成人学习规律
- 工具对比矩阵帮助选择最优解决方案,避免工具滥用
- 20+社区真实案例覆盖党建、民生、应急等核心场景
- 工作流沙盘模拟培养系统性思维,突破单点工具局限
1 AGI基础认知与行业变革
TIP
开场故事(10分钟)
电影世界里
讲稿
那么真实世界中,随着2024年AGI模型和应用的大爆发,我们身边的世界是怎样的
现实世界案例一:重塑家庭生活
配置
分两栏显示,左侧展示案例,右侧用DeepSeek生成提示词,做成吉卜力风格配图
AGI重塑家庭生活——从智能家居到个性化健康管理
场景描述
社区的王阿姨最近发现,家里的灯光、空调和扫地机器人开始“主动”配合她的生活习惯。早晨6:30,客厅灯光自动调至柔和模式,咖啡机开始预热;傍晚散步回家时,空调已根据室外温度调整到舒适状态;扫地机器人则会避开她刚买的花瓶,绕道清洁。更令她惊讶的是,她的智能手表能通过分析睡眠数据,结合AGI健康管理系统,自动生成饮食建议,并联动冰箱推荐食谱。
技术支撑 这一改变源于AGI在智能终端中的深度应用。例如,荣耀Magic7系列的AI Agent能通过多模态感知(语音、视觉、传感器数据)理解用户需求,并自主规划任务。同时,医疗领域的AGI系统(如梅奥诊所部署的方案)已能通过分析个人健康数据,提供精准的健康管理建议。
习惯改变
被动接受→主动服务:设备从“听从指令”变为“预判需求”;
现实世界案例二:智能规划出行
配置资源
分两栏显示,左侧展示案例,右侧用DeepSeek生成旅行行程单的截图或网址
旅行规划革命——从“攻略焦虑”到“AGI全程护航”
场景描述 白领小林计划带父母去云南旅游,过去她需要花一周时间查攻略、比价格、排行程,还要担心天气变化和景点人流量。这次她使用某平台的AGI旅行助手,只需输入需求:“7天云南家庭游,父母65岁+,避开高强度徒步,预算人均5000元”,系统10秒生成3套方案:
舒适版
:直飞丽江+专车接送,景点间预留休息时间,餐厅推荐少油少辣;深度版
:大理扎染体验+洱海骑行(适配老年人电动助力车);备选方案
:实时标注雨季路况风险(如虎跳峡路段),并绑定“动态保险”——若暴雨导致行程取消,AGI自动协调退款和补偿权益。
途中,AGI助手实时介入:
发现玉龙雪山索道排队超2小时,立刻推送“错峰方案”:先前往人少的蓝月谷,并同步预约下午索道时段;
通过智能眼镜识别父亲心率异常升高,自动联系附近医疗站,同步翻译方言沟通病情。
技术支撑
多模态需求解析
:AGI结合用户历史数据(如小林曾搜索“无障碍设施酒店”)、实时场景(雨季地质灾害预警)和情感分析(父母聊天中提到的“想拍民族服饰”);
动态知识图谱
:整合交通(12306余票)、医疗(区域急救网点)、文化(节日禁忌)等跨领域数据,规避“攻略盲区”(如小林未注意到的“火把节”期间交通管制);
端侧-云端协同计算
:手机本地处理隐私数据(如健康监测),云端调度全局资源(如紧急医疗资源)。
习惯改变
计划刚性→动态优化:从“按表打卡”变为“AGI实时微调路线”;
工具依赖→人机信任:用户从“不放心AI”转向主动授权关键决策(如医疗救援)。
现实世界案例三:工作提效
配置资源
分两栏显示,左侧展示案例,右侧用DeepSeek生成提示词,做成吉卜力风格配图
社区文案工作革命——从“熬夜赶稿”到“AI协作”
场景描述 社区工作人员小李曾为撰写季度总结报告头疼不已:需整合10份会议记录、30页政策文件,并提炼居民反馈。如今,他使用腾讯会议的AI纪要功能,1小时内自动生成会议关键结论;通过WPS的文档模板库,调用AGI生成的标准化报告框架;最后用AI润色工具调整语气,使公文既合规又贴近居民语言风格。原本3天的工作压缩至半天完成。
技术支撑 AGI在文档处理领域已实现多模态解析(PDF/图片文字识别)、知识图谱构建(如招标文件条款提取)和合规性校验。例如,腾讯文档的AI应用能通过语义分析自动关联政策文件,减少人工检索成本。
习惯改变 人工堆砌→智能生成:从“逐字码稿”转向“框架优化+内容校准”;
单兵作战→人机协同:AGI承担重复性工作(如数据整理),人类聚焦创意与决策。
2 AGI通识课程结构和时间安排
3 AGI核心概念与发展(45分钟)
3.1 什么是AGI
我们目前接触到的大部分都是专用人工智能,也称为弱人工智能或窄AI,专注于解决特定领域内的问题,并且在该领域内表现出超乎寻常的性能。这类AI系统通常经过精心设计和训练,以应对具体任务,例如图像识别、语音识别、自动驾驶汽车、股票交易算法或者游戏策略等。这些系统的智能体现在其在限定环境下的高效处理能力和精准决策。
AGI(Artificial General Intelligence)是指一种能够像人类一样思考、学习和解决问题的人工智能系统。AGI的目标是超越人类的智能水平,实现对人类世界的理解和控制。与当前主流的人工智能(如专用AI模型)不同,AGI能够跨领域学习、推理和解决问题,展现出高度的灵活性和适应性。
3.2 AGI vs 专用人工智能
对比项 | 专用AI(弱AI) | 通用AI(AGI) |
---|---|---|
能力范围 | 单一任务(如人脸识别、下棋) | 多领域任务(数学推理、语言创作、医疗诊断等) |
学习方式 | 依赖大量标注数据,固定框架训练 | 自主学习,举一反三,无需预设任务 |
适应性 | 无法处理未训练场景 | 动态调整策略,应对未知环境 |
技术目标 | 优化特定任务的精度和效率 | 模拟人类认知,实现跨领域推理与创造 |
应用场景 | 特定行业(如医疗、金融) | 广泛应用于各个领域,如自然语言处理、计算机视觉、医疗诊断等 |
典型案例 | 1. AlphaGo:专精围棋,但无法解答数学题或创作诗歌 2. 人脸识别系统:仅处理图像分类,无法理解语言 3. 语音助手(如Siri):预设指令响应,无法自主规划任务 | 1. 多模态大模型(如GPT-4):融合文本、图像推理,跨领域生成内容 2. 医疗诊断系统:综合影像、病历、基因组数据提出个性化方案 3. 自动驾驶AGI原型:实时适应复杂路况,预测潜在风险 |
3.3 OpenAI,AGI前期发展的里程碑
讲稿
也许大家觉得现在AGI的发展已经为什么过了很长的时间,现在才开始接触AGI的应用,学习怎么使用已经很晚了,会有焦虑的情绪,担心会不会跟不上。但是实际上在完成技术储备之后,AGI的发展是非常快的,进入AI新时代,一切的发展速度之快超乎想象。我们常说人间一天,AI一年。 从我们接触到真正可用的AGI工具到现在,也不过2年多的时间;从我们接触到大众可以使用的DeepSeek,也不到半年的时间。而且AGI还在快速发展中,甚至有加速的趋势,我们只会接触到越来越多新的知识,刷新我们的认知。从开始到现在不到3年的时间,仅仅是一个起点而已。 所以最好的了解和学习的时间,任何时候都是现在,我们随时可以开始。 我们先来简单了解一下AGI的发展阶段。 如果要说AGI的发展,一定绕不开OpenAI,甚至可以说它的产品工具基本奠定了AGI前期发展的代际划分。 那么从2024
OpenAI的介绍
发展阶段
- 第一阶段:
- 基础模型:
- 第一代:OpenAI的GPT-1
- 第二代:DeepMind的AlphaGo
- 第三代:OpenAI的GPT-3
- 第四代:OpenAI的GPT-4
- 应用场景:
- 自然语言处理:
- 基础模型:
3.4 人工智能的发展阶段
OpenAI提出了 5 级 AGI 量表
核心定义、技术特点与当前进展的详细解读:
OpenAI 的 AGI 五级量表
等级 | 名称 | 核心能力 | 技术特点 | 应用场景 | 当前进展 |
---|---|---|---|---|---|
L1 | 聊天机器人 | 能进行自然语言对话,但依赖模式匹配和统计学习,无深层理解能力。 | NLP + 机器学习,通过海量语料库学习语言规则。 | 客服、翻译、信息咨询等基础交互场景。 | 已实现(如 ChatGPT、Claude 等)。 |
L2 | 推理者 | 解决人类水平的复杂问题(如数学推导、法律分析等),具备博士级逻辑推理能力。 | 强化学习构建“世界模型”,多步推理能力;正确率约 68%(2025 MIT 测试数据)。 | 医疗诊断、金融风险评估、编程优化等需要深度推理的领域。 | 部分实现(如 GPT-4-o1、DeepSeek R1 等模型已展现初步能力)。 |
L3 | 智能体 | 主动执行多步骤任务(如谈判合同、管理工厂),具备自主决策与环境适应能力。 | 三层架构:工具层(API 接口)、推理层(类人决策)、行动层(自我修正)。 | 自动驾驶、供应链管理、个人助理等需持续行动的领域。 | 研发中(如 OpenAI 的 Operator 框架、Manus、多智能体系统 Swarm)。 |
L4 | 创新者 | 提出原创性解决方案(如新材料研发、艺术创作),辅助人类突破知识边界。 | 组合现有知识生成创新方案,专利级创意概率为 1/2000(集中在技术交叉领域)。 | 科研(如 AlphaFold 预测蛋白质结构)、艺术设计、工程模拟等创新领域。 | 早期探索(DeepMind 的 AlphaFold 4 等)。 |
L5 | 组织者 | 管理复杂组织系统(如跨国企业、城市运营),协调资源与战略决策。 | 处理数百万动态变量,理解政治博弈、伦理困境等非结构化问题。 | 企业战略管理、城市治理、全球供应链协调等宏观领域。 | 理论阶段(预计需 10 年以上实现)。 |
3.5 当前进展与时间轴
讲稿
OpenAI 的五级量表为 AGI 发展提供了清晰的阶段性目标,但技术落地仍需克服模型可靠性、多模态交互、伦理安全等挑战。
Sam Altman 的预测“AI 不会取代人类,但会用 AI 的人将取代不用 AI 的人”正逐步成为现实——从替代基础岗位(L1)到赋能高阶创新(L4/L5),人类需重新定义与 AI 的协作关系。
L1→L2 过渡:
- OpenAI 自评处于 L1 末期,正突破 L2(推理者)。
- 2024 年发布的 GPT-4-o1 模型已接近人类博士水平推理能力,但仍有低级错误(如误判化学反应条件)。
- 预计 2026 年前全面实现 L2 并向 L3 过渡。
L3 智能体的挑战:
- 需解决复杂场景下的自主行动问题(如动态调整谈判策略、实时优化生产线)。
- OpenAI 计划通过 Operator 框架连接垂直领域(教育、电商等),推动 L3 落地。
L4/L5 的争议:
- 部分专家认为 AGI 可能在 5-10 年内实现(如 Sam Altman、黄仁勋),但需突破 LLM 技术瓶颈(如缺乏常识、创造性局限)。
- 微软 AI 首席 Mustafa Suleyman 则认为 AGI 需更长时间(约 10 年)。
4 什么是大模型
讲稿
我们目前所有的AGI应用,都是基于大模型来实现的,所以我们需要先了解一下什么是大模型。
大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型。
大模型的“大”特点体现在:
- 参数数量庞大
- 训练数据量大
- 计算资源需求高
随着发展,大模型的参数也在显著增加,例如:
- 2020年,OpenAI公司推出了GPT-3,模型参数规模达到了1750亿
- 2023年3月发布的GPT-4的参数规模是GPT-3的10倍以上,达到1.8万亿 但是最近模型参数有下降的趋势,比如DeepSeek满血版是671B,6710亿参数 基本可以理解成参数规模越大,智能化程度越高
4.1 比较知名的大模型
以下是国内外知名大模型系列的首个版本发布时间及最新版本信息(截至2025年4月13日):
模型系列 | 所属公司 | 系列首个版本发布时间 | 最新版本及发布时间 |
---|---|---|---|
GPT系列 | OpenAI | 2018年6月(GPT-1) | GPT-4.5(2025年2月28日) |
Claude系列 | Anthropic | 2023年3月(Claude 1) | Claude 3.7(2025年2月25日) |
Gemini系列 | Google DeepMind | 2023年12月(Gemini 1.0) | Gemini 2.5 Pro(2025年3月) |
Grok系列 | xAI (Elon Musk) | 2023年11月(Grok-1) | Grok-3(2025年2月18日) |
Llama系列 | Meta | 2023年2月(Llama 1) | Llama 3.3(2024年12月6日) |
Mistral系列 | Mistral AI | 2023年9月(Mistral 7B) | Ministral 8B(2024年10月) |
DeepSeek系列 | 深度求索 | 2024年1月(DeepSeek-V1) | DeepSeek-R1(2025年1月20日) |
文心系列 | 百度 | 2023年3月(文心一言1.0) | 文心4.5(2025年3月16日) |
通义千问系列 | 阿里巴巴 | 2023年4月(Qwen-7B) | Qwen2.5-Omni(2025年3月) |
豆包系列 | 字节跳动 | 2023年8月(Doubao 1.0) | Doubao-1.5-pro(2025年1月) |
Kimi系列 | 月之暗面 | 2024年11月(Kimi初代) | Kimi探索版(2024年10月) |
星火系列 | 科大讯飞 | 2023年5月(星火1.0) | 星火V4.0(2024年6月27日) |
GLM系列 | 智谱AI | 2023年(GLM-130B) | GLM-4(2025年) |
4.2 AI模型发展时间线(2020-2025)
讲稿
让我们转换到时间线来看
- 时间线显示,国外大模型(如GPT、Claude)的系列迭代周期普遍早于国内1-2年。
- 国内模型中,阿里通义千问和百度文心一言的首个版本发布时间最早(2023年Q1),而字节豆包、月之暗面等属于后发阵营。
- 部分模型(如Mistral、DeepSeek)通过开源策略快速追赶,最新版本已接近国际顶尖水平。
4.3 大模型技术图谱:模态分类
按照模态分类
类别 | 语言大模型 | 视觉大模型 | 多模态大模型 |
---|---|---|---|
定义 | 在自然语言处理(NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言。这类模型在大规模语料库上训练,学习语法、语义和语境规则。 | 在计算机视觉(CV)领域中使用的大模型,通常用于图像处理和分析。通过大规模图像数据训练,实现图像分类、目标检测等视觉任务。 | 能够处理多种类型数据(如文本、图像、音频)的大模型。结合NLP和CV能力,实现对多模态信息的综合理解和分析。 |
用途 | 文本生成、语言理解、对话系统等 | 图像分类、目标检测、图像分割、姿态估计、人脸识别等 | 跨模态数据融合、文生图、多模态搜索等 |
代表性产品 | • GPT系列(OpenAI) • Bard(Google) • DeepSeek • 文心一言(百度) | • ViT系列(Google) • 文心UFO • 华为盘古CV • INTERN(商汤) | • DingoDB多模向量数据库(九章云极) • DALL-E(OpenAI) • 悟空画画(华为) • Midjourney |
4.4 大模型技术图谱:应用分类
按照应用领域分类
对比维度 | 通用大模型 L0 | 行业大模型 L1 | 垂直大模型 L2 |
---|---|---|---|
定义 | 可以在多个领域和任务上通用的大模型 | 针对特定行业或领域的大模型 | 针对特定任务或场景的大模型 |
训练数据 | 海量的开放数据 | 行业相关的数据 | 任务相关的数据 |
能力特点 | 利用大算力、巨量参数的深度学习算法,在大规模无标注数据上训练,形成“举一反三”的强大泛化能力 | 通过行业数据预训练或微调,提高在特定领域的性能和准确度,成为“行业专家” | 通过任务数据预训练或微调,提高在特定任务上的性能和效果 |
类比 | 相当于AI完成“通识教育” | 相当于AI成为“行业专家” | - |
应用特性 | 不进行微调或少量微调即可完成多场景任务 | 需针对行业需求优化 | 需针对具体任务优化 |
4.5 大模型技术图谱:思维类型分类
CoT链式思维的出现将大模型分为了两类:“概率预测(快速反应)”模型和“链式推理(慢速思考)”模型。前者适合快速反馈,处理即时任务;后者通过推理解决复杂问题。了解它们的差异有助于根据任务需求选择合适的模型,实现最佳效果。
大语言模型分为:通用大模型和推理大模型,二者不是彼此取代关系
- 如果你需要完成数据分析、逻辑推理、代码生成等逻辑性较强且较为复杂的任务,请选择推理大模型
- 如果你面临创意写作、文本生成、意图识别等发散性较强且较为创意多样的任务,请选择通用大模型
(内嵌豆包来对比)
通用大模型(非推理):适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像推理模型那样复杂的推理和决策能力。
- 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译等任务。 推理大模型:是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。
- 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。
特性 | 推理大模型 | 通用大模型 |
---|---|---|
适用场景 | 复杂推理、解谜、数学、编码难题 | 文本生成、翻译、摘要、基础知识问答 |
复杂问题解决能力 | 优秀,能进行深度思考和逻辑推理 | 一般,难以处理多步骤的复杂问题 |
运算效率 | 较低,推理时间较长,资源消耗大 | 较高,响应速度快,资源消耗相对较小 |
幻觉风险 | 较高,可能出现"过度思考"导致的错误答案 | 较低,更依赖于已知的知识和模式 |
泛化能力 | 更强,能更好地适应新问题和未知场景 | 相对较弱,更依赖于训练数据 |
擅长任务举例 | 解决复杂逻辑谜题,编写复杂算法,数学证明 | 撰写新闻稿,翻译文章,生成产品描述,回答常识问题 |
成本 | 通常更高 | 通常更低 |
优势领域 | 数学推导、逻辑分析、代码生成、复杂问题拆解 | 文本生成、创意写作、多轮对话、开放性问答 |
劣势领域 | 发散性任务(如诗歌创作) | 需要严格逻辑链的任务(如数学证明) |
性能本质 | 专精于逻辑密度高的任务 | 擅长多样性高的任务 |
强弱判断 | 并非全面更强,仅在其训练目标领域显著优于通用模型 | 通用场景更灵活,但专项任务需依赖提示语补偿能力 |
特性 | 普通模型 | DeepSeek R1(推理模型) |
---|---|---|
适用任务 | 闲聊、日常文本、客服、社交媒体 | 复杂问题、编程、数学、法律、医学 |
回答速度 | 超快(适合实时互动) | 较慢但更精准(适合深度思考) |
计算需求 | 省资源,适合本地运行 | 更强算力,适合云端使用 |
回答风格 | 更自然随性,适合对话 | 更严谨深入,适合分析问题 |
4.6 什么是AI幻觉
大模型幻觉,也被称为 AI幻觉,是指大型语言模型在生成内容时,产生与事实不符、逻辑错误或无中生有等不合理信息的现象。 例如:
- 在回答历史事件时,可能会编造不存在的细节或人物;
- 在进行科学知识讲解时,给出错误的理论或数据。 产生原因主要包括:
- 模型训练数据存在偏差、不完整或错误,导致学习过程中引入不准确信息;
- 模型基于概率分布生成内容,可能选择看似合理但实际错误的路径。 影响: 大模型幻觉会降低信息的准确性和可靠性,在信息传播、学术研究等领域可能引发不良后果。
建议: 所以目前大模型并不能真正替代人类的思考,使用大模型生成的内容时,还是需仔细验证和甄别其真实性。
学术:指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测” 说人话:一本正经地胡说八道 事实性幻觉:指模型生成的内容与可验证的现实世界事实不一致 忠实性幻觉:指模型生成的内容与用户的指令或上下文不一致
为什么会产生幻觉
- 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)
- 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)
- 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)
- 意图误解:用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)
4.6.1 如何降低AI幻觉
- 优化技术架构 检索增强生成(RAG)
- 将生成过程与实时知识库/互联网搜索结合,要求标注引用来源,例如Vectara公司通过该技术将错误率降低至2%。
- 建立溯源机制,用户可反向追踪每个结论的数据锚点。
模型训练改进
- 采用「知识蒸馏+人类反馈强化学习」,如DeepSeek团队通过植入「存疑询问机制」使错误率下降40%。
- 优化训练数据清洗流程,减少模糊性文本占比,规避「统计关系误判」导致的逻辑错误。
- 强化提示工程(Prompt Engineering), 精准约束生成范围
- 通过设定时间、数据源或知识领域边界,如要求「仅基于2024年光伏产业白皮书分析技术趋势」,可降低模型因数据缺失产生的虚构风险。
- 使用选项限定式提问(如选择题)而非开放式问题,限制模型随机发挥空间。
分步生成与反馈迭代
- 将复杂任务拆解为「事实列举→逻辑推导」的步骤,例如先要求列出已证实的医疗数据,再基于此进行诊断建议。
- 实时反馈错误内容,通过「温度参数」(0-2)调节生成随机性,严谨场景建议设为0.5以下。
- 多重验证机制 多模型交叉验证
- 同时调用GPT-4、Claude、DeepSeek等模型回答同一问题,对比差异率达30%时需人工介入。警惕「信息茧房效应」,避免过度依赖单一AI输出形成认知闭环。
- 设置「裁判模型」自动审核生成内容一致性,如新闻领域采用BERT事实核查模块。
4.7 大模型的应用方式
以下是基于搜索结果整理的大模型应用方式对比表格,涵盖官方应用、API调用、云端部署、本地部署等多种形式:
应用方式 | 技术特点 | 适用场景 | 部署成本 | 优缺点对比 |
---|---|---|---|---|
官方应用/网页 | 预训练模型直接封装为交互界面 | 个人用户快速体验、简单问答、创意生成 | 低(按使用付费) | 优点:零门槛、即开即用 缺点:功能受限、无法定制化 |
浏览器插件集成 | 通过沉浸式翻译等扩展程序调用 | 个人效率工具(实时翻译、内容摘要) | 无 | 优点:即装即用 缺点:功能单一 |
API调用 | 通过RESTful接口集成模型能力 | 开发者快速接入、企业轻量化应用 | 中(按调用量计费) | 优点:灵活扩展、无需算力投入 缺点:依赖网络、响应延迟较高 |
云端部署(MaaS) | 基于云平台提供全托管服务,支持检索增强、多模型协同 | 企业级复杂应用(如智能客服、数据分析) | 高(订阅制) | 优点:弹性扩缩容、内置安全合规 缺点:数据需上云、长期成本累积 |
本地微调部署 | 通过Prompt-tuning/Adapter技术调整部分参数 | 行业特定任务优化(如金融风控、法律文书) | 较高(硬件+训练) | 优点:数据隐私保障 缺点:需专业团队维护 |
全量预训练部署 | 从头训练或全参数微调 | 科研机构、超大规模定制模型 | 极高 | 优点:完全自主可控 缺点:需千卡级GPU集群 |
边缘端推理 | 使用MLC LLM等框架编译优化,适配移动端芯片 | 物联网设备、移动端实时交互 | 中 | 优点:低延迟离线运行 缺点:模型规模受限 |
一体机方案 | 软硬件深度集成(如NVIDIA Triton推理服务器) | 企业私有化部署、高并发场景 | 极高 | 优点:极致性能优化 缺点:初始投入大 |
开源模型部署 | 通过Text-Generation-WebUI等工具本地运行 | 开发者实验、小规模应用 | 低(需自有GPU) | 优点:完全免费开源 缺点:功能完整性依赖社区 |
多模型协同 | 构建AI Agent工作流(如DeepSeek+GPT-4交叉验证) | 高可靠性场景(医疗诊断、法律咨询) | 高 | 优点:结果更可靠 缺点:复杂度指数级增长 |
部署策略建议:
- 初创团队优先选择API调用+提示工程组合,快速验证需求(参考网页7的非官方API方案)
- 中大型企业推荐云端MaaS部署,结合检索增强生成(RAG)优化效果
- 高敏感行业可采用本地微调+一体机方案,如金融领域使用DeepSeek定制模型
- 科研机构建议全量预训练+多框架协同(如vLLM+DeepSeek优化套件)
技术趋势:行业应用正朝着「轻量化微调+多模型Agent」方向发展,通过7B级小模型与知识库结合,可在消费级显卡实现专业场景部署(如法律合同生成准确率达92.3%)
讲稿
在DeepSeek出来之前,我们要体验大部分大模型,基本只能使用官方应用(免费/付费)或者付费使用API。 那么在DeepSeek之后,越来越多的大模型开始选择开源,开始推动整个AGI环境的加速发展, Openai从GPT-4开始一直是闭源,但是前段时间,Sam Altman发布了一篇文章,也说openai闭源可能是个错误的决定。
那么那模型开源以后,我们就可以选择更多的使用方式,包括云端、本地部署。当然如果不是企业级别的内部应用的话,不需要深度定制的话,我们个人选择官方应用和网页版就足够了,我们可以用更好的提示词来实现足够经验的效果。
4.8 国内主要大模型对比
讲稿
对产品的认知 目前有很多大模型,信息爆炸,但是其实使用起来的差异没有明显的区别,很多人都是在不同模型、产品间切换使用,比如kimi-豆包-DeepSeek-腾讯元宝,所以首先牢记,大模型是帮助我们提高效率的工具,不是目的。
因为现在大模型的同质化其实比较严重,但是我们还是需要了解目前已有的大模型,然后选择适合我们的工具
我们可以选择合适的工具,比如有段时间只有kimi有生成ppt的功能,那在那个时候我们只能选择kimi,但是当其他竞品都有类似功能的时候,我们就不要纠结了。但是不要为了学习而学习,为了使用而使用,工具是工具,不是目的。
我们会在第二节课归纳一下目前常见AI工具的能力和特质,作为我们选择的基础,但是在介绍怎么用AI提效上,我会侧重用一个通用的流程来讲述,做到适用于所有模型和场景。
WARNING
表格内容是自动生成的,需要重新整理
工具 | 核心优势 | 社区适配场景举例 | 实操演示重点 |
---|---|---|---|
DeepSeek | 复杂逻辑推理 | 活动方案可行性分析 | 提示词链设计(5W2H法) |
通义千问 | 多模态生成 | 宣传海报+短视频制作 | 图生文/文生图提示技巧 |
文心一言 | 本地政策库整合 | 民生政策解读 | 知识库对接RAG技术 |
腾讯混元 | 会议纪要自动化 | 居民议事会记录整理 | 语音转写+要点提炼 |
模型系列 | 所属公司 | 系列首个版本发布时间 | 最新版本及发布时间 |
---|---|---|---|
DeepSeek系列 | 深度求索 | 2024年1月(DeepSeek-V1) | DeepSeek-R1(2025年1月20日) |
文心系列 | 百度 | 2023年3月(文心一言1.0) | 文心4.5(2025年3月16日) |
通义千问系列 | 阿里巴巴 | 2023年4月(Qwen-7B) | Qwen2.5-Omni(2025年3月) |
豆包系列 | 字节跳动 | 2023年8月(Doubao 1.0) | Doubao-1.5-pro(2025年1月) |
Kimi系列 | 月之暗面 | 2024年11月(Kimi初代) | Kimi探索版(2024年10月) |
星火系列 | 科大讯飞 | 2023年5月(星火1.0) | 星火V4.0(2024年6月27日) |
GLM系列 | 智谱AI | 2023年(GLM-130B) | GLM-4(2025年) |
5 DeepSeek:新时代的希望
DeepSeek引爆 AI原生App活跃用户数一个月几乎翻倍
讲稿
那么我们来系统的介绍一下DeepSeek,我们将结合公司背景、技术突破、行业影响等维度展开:
5.1 公司背景与诞生历程
创始基因
DeepSeek(杭州深度求索人工智能基础技术研究有限公司)成立于2023年7月17日,由知名量化私募巨头幻方量化孵化,创始团队核心成员包括梁文锋(浙江大学人工智能背景)、高华佐(北京大学物理系)、王炳宣(北京大学数据处理专家)等。公司初始注册资本1000万元,后增至3.25亿人民币,总部位于杭州拱墅区。技术驱动定位
专注于大语言模型(LLM)研发,目标是通过架构创新和高效训练策略突破AGI技术瓶颈。创始团队强调“底层逻辑颠覆性创新”,例如首创多头潜在注意力机制(MLA)和DeepSeekMoE稀疏架构,显著降低推理成本。硬件与资金支持
依托母公司幻方量化的算力资源(拥有万张A100 GPU集群),并自主研发“萤火”系列超算,为大规模模型训练提供基础设施保障。
5.2 核心产品与技术里程碑
时间 | 产品/技术突破 | 技术亮点与影响 |
---|---|---|
2023年11月 | DeepSeek Coder(首款开源编程模型) | 支持多语言代码生成,MIT协议开源,降低开发者门槛 |
2024年5月 | DeepSeek-V2(2360亿参数MoE架构模型) | 推理成本降至每百万token 1元,引发中国AI模型价格战 |
2024年12月 | DeepSeek-V3(6710亿参数) | 训练成本557.6万美元(仅为GPT-4o的1/11),性能对标GPT-4o |
2025年1月 | DeepSeek-R1(动态专家系统架构) | 完全开源模型,推理效率达行业标杆3.2倍,登顶美区App Store并导致英伟达单日市值蒸发5890亿美元 |
2025年2月 | 上线国家超算互联网平台,部署苏州市公共算力服务平台 | 实现国产化算力生态闭环,服务企业级高并发场景 |
特性 | 普通模型 | DeepSeek R1(推理模型) |
---|---|---|
适用任务 | 闲聊、日常文本、客服、社交媒体 | 复杂问题、编程、数学、法律、医学 |
回答速度 | 超快(适合实时互动) | 较慢但更精准(适合深度思考) |
计算需求 | 省资源,适合本地运行 | 更强算力,适合云端使用 |
回答风格 | 更自然随性,适合对话 | 更严谨深入,适合分析问题 |
5.3 技术突破特征
- 成本革命:通过MoE架构和动态路由技术,推理成本仅为GPT-4 Turbo的17%。
- 训练效率:V3模型在55天内完成训练,使用2000块GPU(对比GPT-4o需2.5万块)。
- 开源战略:坚持模型开源(如R1),推动技术普惠化,吸引全球开发者参与生态建设。
5.3 对中国AI发展的战略意义
技术路径创新
通过软硬件协同优化突破算力约束,证明“低成本+高性能”模式可行性,为中小团队参与AGI研发提供范例。生态构建
开源策略打破巨头垄断,吸引全球开发者共建应用生态,形成“基础模型+垂直场景”的协同创新网络。国际竞争格局重塑
- 技术指标上实现对OpenAI等企业的追赶(如R1性能媲美GPT-4o)。
- 推动中国从“应用创新”向“基础理论引领”转型,提升全球AI治理话语权。
产业赋能
在金融、医疗、教育等领域落地案例中,模型推理成本降低推动AI普惠化,例如:- 法律领域:合同生成准确率达92.3%;
- 财经分析:第一财经技术中心基于V2构建垂类模型。
DeepSeek引爆 AI原生App活跃用户数一个月几乎翻倍
5.4 行业影响与重大新闻事件
市场冲击与全球关注
- 2025年1月R1发布后,单日下载量超ChatGPT,导致OpenAI紧急推出o3-mini应对竞争。
- 美国总统表态关注其技术突破,美媒称其“动摇硅谷霸权”。
- 访问量超5.25亿次(2025年2月),市场份额达6.58%,仅次于ChatGPT。
资本市场连锁反应
- 英伟达股价因市场对算力需求预期下调单日暴跌17%。
- 创始人梁文锋身价预估超1260亿美元,跻身全球科技富豪前列。
政策与产业共振
- 澳大利亚以“安全风险”为由禁止政府设备使用DeepSeek,凸显技术输出引发的国际博弈。
- 国内200+企业接入其模型,推动金融、医疗等行业智能化升级。
未来展望与挑战
- 技术挑战:需解决多模态处理能力短板及“幻觉风险”。
- 生态扩展:加速与国产芯片(如华为昇腾)的适配,构建自主可控产业链。
- 全球化布局:应对国际政策壁垒(如澳大利亚禁令),探索合规出海路径。
6 实践内容
引导操作
引导学生使用DeepSeek对课前三个案例进行尝试
然后给出更好的提示词,对比二者的输出效果,引出下一节课的如何优化提示词
推荐使用元宝,可以扫码使用网页版
案例1
案例2
案例3
引导操作
- 打开微信或其他扫码工具
- 扫描下方二维码
- 全选复制文本/点击下方
复制文本内容
- 扫码打开DeepSeek网站
- 粘贴到DeepSeek
- 点击生成
旅行计划提示词

腾讯元宝(网页版没有DeepSeek,可以考虑换成豆包,有深度思考)
7 推荐阅读内容
常用工具,可以在下一堂课之前任意体验,在下一堂课我们会详细介绍一下怎么使用,和分享一些应用案例 推荐阅读内容 DeepSeek从入门到精通_20250207
摘要
《DeepSeek 赋能数字政府应用指南》一书近日由新华出版社出版并面向全国发行,该书电子书将在国内各大数字阅读平台上线。 根据介绍,该书由中国经济信息社编写,内容聚焦人工智能技术在数字政府建设中的应用,详细阐述了其在 “高效办成一件事”、“一网通办”、政务服务大厅、12345 热线、智慧城市等多个领域中的创新探索,展现了人工智能赋能数字政府建设的生动实践,深入探讨 DeepSeek 等人工智能技术如何赋能政务服务效能提升和城市治理现代化,为从事和关注数字政府建设的各界人士提供参考。 该书围绕数字政府建设,提供了 “人工智能 +” 行动可借鉴的实践范式,帮助读者感受技术赋能下的政府治理创新与时代脉动,共同见证更加智能、高效、便民的活力中国。
内容结构
1. DeepSeek基础
- 1.1 是什么?
- 专注AGI的中国科技公司
- 开源模型DeepSeek-R1,免费商用
- 性能对齐OpenAI-o1
- 1.2 能做什么?
- 文本生成:创作、摘要、结构化生成
- 自然语言理解:语义分析、文本分类、知识推理
- 编程相关:代码生成、调试、文档处理
- 绘图能力:SVG矢量图、Mermaid/React图表
2. 使用指南
- 2.1 访问方式
- 2.2 知识范围
- 知识截止2024年7月
3. 进阶技巧
- 知识截止2024年7月
- 3.1 模型选择
- 推理模型(如DeepSeek-R1):逻辑/数学任务
- 通用模型(如GPT-4):创意/开放任务
- 对比表:优势领域、性能本质
- 3.2 提示语设计
- 核心原则:
- 推理模型:简洁指令
- 通用模型:分步引导
- 策略差异:
- 需求表达:从指令到混合模式
- 任务类型适配(如数学证明 vs 创意写作)
4. 提示语工程
- 核心原则:
- 4.1 设计方法论
- 元素分类:信息类、结构类、控制类
- 组合策略:互补增强、涌现属性
- 4.2 实战技巧
- 精准定义任务
- 分解复杂任务
- 避免常见陷阱:
- 模糊指令、假设偏见、AI幻觉
- 伦理边界(如隐私保护)
5. 应用场景
- 5.1 文案写作
- 三要素:信息传递、情感共鸣、行动引导
- 5.2 营销策划
- 创意概念、传播策略、执行方案
- 5.3 社交媒体
- 微信公众号:深度阅读、结构分层
- 微博:热点借力、互动设计
- 小红书:种草文案、场景化表达
- 抖音:视觉冲击、节奏控制
6. 创新设计
- 6.1 提示语链
- 作用机制:任务分解、知识激活
- 设计模型:CIRS(Context-Instruction-Refinement-Synthesis)
- 6.2 跨域创新
- 类比映射(如网络安全≈免疫系统)
- 技术分层:基础模型→领域模型→场景应用(图示化对比通用模型与垂类模型)
- 国产模型矩阵:DeepSeek(推理能力)、通义(多模态)、文心一言(政务场景适配) 大模型
- 大模型分类
- 根据信息类型:文本、多模态(文生图/图生视频/文生视频、语音转文字/文字转语音)
- 根据生成类型:普通生成式模型、推理模型
- 3种模型分类AI爆发,很多人没看懂这3大红利
- 大模型应用
- 主要厂商
- 国内厂商
- 其他套壳应用
- 带部分/附加功能的应用
- 浏览器
- 生图APP
- 虚拟人APP
- 集成到应用中:WPS、百度网盘、飞书、腾讯文档
- 知识库
- 本地知识库
- Agent
- 单一任务工具
- 虚拟助手、智能客服
- 工作流
- 自搭工作流
- 集成到应用中的