Skip to content

AGI通识课程(一):AGI基础认知与行业变革

slides

课程设计亮点

  1. 认知-工具-场景三阶递进结构,符合成人学习规律
  2. 工具对比矩阵帮助选择最优解决方案,避免工具滥用
  3. 20+社区真实案例覆盖党建、民生、应急等核心场景
  4. 工作流沙盘模拟培养系统性思维,突破单点工具局限

封面

1 AGI基础认知与行业变革

TIP

开场故事(10分钟)

电影世界里

讲稿

那么真实世界中,随着2024年AGI模型和应用的大爆发,我们身边的世界是怎样的


现实世界案例一:重塑家庭生活

配置

分两栏显示,左侧展示案例,右侧用DeepSeek生成提示词,做成吉卜力风格配图

AGI重塑家庭生活——从智能家居到个性化健康管理

场景描述

社区的王阿姨最近发现,家里的灯光、空调和扫地机器人开始“主动”配合她的生活习惯。早晨6:30,客厅灯光自动调至柔和模式,咖啡机开始预热;傍晚散步回家时,空调已根据室外温度调整到舒适状态;扫地机器人则会避开她刚买的花瓶,绕道清洁。更令她惊讶的是,她的智能手表能通过分析睡眠数据,结合AGI健康管理系统,自动生成饮食建议,并联动冰箱推荐食谱。

技术支撑 这一改变源于AGI在智能终端中的深度应用。例如,荣耀Magic7系列的AI Agent能通过多模态感知(语音、视觉、传感器数据)理解用户需求,并自主规划任务。同时,医疗领域的AGI系统(如梅奥诊所部署的方案)已能通过分析个人健康数据,提供精准的健康管理建议。

习惯改变

​被动接受→主动服务:设备从“听从指令”变为“预判需求”;


现实世界案例二:智能规划出行

配置资源

分两栏显示,左侧展示案例,右侧用DeepSeek生成旅行行程单的截图或网址

旅行规划革命——从“攻略焦虑”到“AGI全程护航”

场景描述 白领小林计划带父母去云南旅游,过去她需要花一周时间查攻略、比价格、排行程,还要担心天气变化和景点人流量。这次她使用某平台的AGI旅行助手,只需输入需求:“7天云南家庭游,父母65岁+,避开高强度徒步,预算人均5000元”,系统10秒生成3套方案:

  • ​舒适版:直飞丽江+专车接送,景点间预留休息时间,餐厅推荐少油少辣;
  • ​深度版:大理扎染体验+洱海骑行(适配老年人电动助力车);
  • ​备选方案:实时标注雨季路况风险(如虎跳峡路段),并绑定“动态保险”——若暴雨导致行程取消,AGI自动协调退款和补偿权益。

途中,AGI助手实时介入:

发现玉龙雪山索道排队超2小时,立刻推送“错峰方案”:先前往人少的蓝月谷,并同步预约下午索道时段;

通过智能眼镜识别父亲心率异常升高,自动联系附近医疗站,同步翻译方言沟通病情。

技术支撑

​多模态需求解析:AGI结合用户历史数据(如小林曾搜索“无障碍设施酒店”)、实时场景(雨季地质灾害预警)和情感分析(父母聊天中提到的“想拍民族服饰”);

​动态知识图谱:整合交通(12306余票)、医疗(区域急救网点)、文化(节日禁忌)等跨领域数据,规避“攻略盲区”(如小林未注意到的“火把节”期间交通管制);

​端侧-云端协同计算:手机本地处理隐私数据(如健康监测),云端调度全局资源(如紧急医疗资源)。

习惯改变

​计划刚性→动态优化:从“按表打卡”变为“AGI实时微调路线”;

​工具依赖→人机信任:用户从“不放心AI”转向主动授权关键决策(如医疗救援)。


现实世界案例三:工作提效

配置资源

分两栏显示,左侧展示案例,右侧用DeepSeek生成提示词,做成吉卜力风格配图

社区文案工作革命——从“熬夜赶稿”到“AI协作”

场景描述 社区工作人员小李曾为撰写季度总结报告头疼不已:需整合10份会议记录、30页政策文件,并提炼居民反馈。如今,他使用腾讯会议的AI纪要功能,1小时内自动生成会议关键结论;通过WPS的文档模板库,调用AGI生成的标准化报告框架;最后用AI润色工具调整语气,使公文既合规又贴近居民语言风格。原本3天的工作压缩至半天完成。

技术支撑 AGI在文档处理领域已实现多模态解析(PDF/图片文字识别)、知识图谱构建(如招标文件条款提取)和合规性校验。例如,腾讯文档的AI应用能通过语义分析自动关联政策文件,减少人工检索成本。

习惯改变 ​人工堆砌→智能生成:从“逐字码稿”转向“框架优化+内容校准”;

​单兵作战→人机协同:AGI承担重复性工作(如数据整理),人类聚焦创意与决策。


2 AGI通识课程结构和时间安排


3 AGI核心概念与发展(45分钟)

3.1 什么是AGI

我们目前接触到的大部分都是专用人工智能,也称为弱人工智能或窄AI,专注于解决特定领域内的问题,并且在该领域内表现出超乎寻常的性能。这类AI系统通常经过精心设计和训练,以应对具体任务,例如图像识别、语音识别、自动驾驶汽车、股票交易算法或者游戏策略等。这些系统的智能体现在其在限定环境下的高效处理能力和精准决策。

AGI(Artificial General Intelligence)是指一种能够像人类一样思考、学习和解决问题的人工智能系统。AGI的目标是超越人类的智能水平,实现对人类世界的理解和控制。与当前主流的人工智能(如专用AI模型)不同,AGI能够跨领域学习、推理和解决问题,展现出高度的灵活性和适应性。


3.2 AGI vs 专用人工智能

对比项专用AI(弱AI)通用AI(AGI)
能力范围单一任务(如人脸识别、下棋)多领域任务(数学推理、语言创作、医疗诊断等)
学习方式依赖大量标注数据,固定框架训练自主学习,举一反三,无需预设任务
适应性无法处理未训练场景动态调整策略,应对未知环境
技术目标优化特定任务的精度和效率模拟人类认知,实现跨领域推理与创造
应用场景特定行业(如医疗、金融)广泛应用于各个领域,如自然语言处理、计算机视觉、医疗诊断等
典型案例1. AlphaGo:专精围棋,但无法解答数学题或创作诗歌
2. 人脸识别系统:仅处理图像分类,无法理解语言
3. 语音助手(如Siri):预设指令响应,无法自主规划任务
1. 多模态大模型(如GPT-4):融合文本、图像推理,跨领域生成内容
2. 医疗诊断系统:综合影像、病历、基因组数据提出个性化方案
3. 自动驾驶AGI原型:实时适应复杂路况,预测潜在风险

3.3 OpenAI,AGI前期发展的里程碑

讲稿

也许大家觉得现在AGI的发展已经为什么过了很长的时间,现在才开始接触AGI的应用,学习怎么使用已经很晚了,会有焦虑的情绪,担心会不会跟不上。但是实际上在完成技术储备之后,AGI的发展是非常快的,进入AI新时代,一切的发展速度之快超乎想象。我们常说人间一天,AI一年。 从我们接触到真正可用的AGI工具到现在,也不过2年多的时间;从我们接触到大众可以使用的DeepSeek,也不到半年的时间。而且AGI还在快速发展中,甚至有加速的趋势,我们只会接触到越来越多新的知识,刷新我们的认知。从开始到现在不到3年的时间,仅仅是一个起点而已。 所以最好的了解和学习的时间,任何时候都是现在,我们随时可以开始。 我们先来简单了解一下AGI的发展阶段。 如果要说AGI的发展,一定绕不开OpenAI,甚至可以说它的产品工具基本奠定了AGI前期发展的代际划分。 那么从2024

OpenAI的介绍

发展阶段

  1. 第一阶段:
    • 基础模型:
      • 第一代:OpenAI的GPT-1
      • 第二代:DeepMind的AlphaGo
      • 第三代:OpenAI的GPT-3
      • 第四代:OpenAI的GPT-4
    • 应用场景:
      • 自然语言处理:

3.4 人工智能的发展阶段

OpenAI提出了 5 级 AGI 量表

核心定义、技术特点与当前进展的详细解读:

OpenAI 的 AGI 五级量表

等级名称核心能力技术特点应用场景当前进展
L1聊天机器人能进行自然语言对话,但依赖模式匹配和统计学习,无深层理解能力。NLP + 机器学习,通过海量语料库学习语言规则。客服、翻译、信息咨询等基础交互场景。已实现(如 ChatGPT、Claude 等)。
L2推理者解决人类水平的复杂问题(如数学推导、法律分析等),具备博士级逻辑推理能力。强化学习构建“世界模型”,多步推理能力;正确率约 68%(2025 MIT 测试数据)。医疗诊断、金融风险评估、编程优化等需要深度推理的领域。部分实现(如 GPT-4-o1、DeepSeek R1 等模型已展现初步能力)。
L3智能体主动执行多步骤任务(如谈判合同、管理工厂),具备自主决策与环境适应能力。三层架构:工具层(API 接口)、推理层(类人决策)、行动层(自我修正)。自动驾驶、供应链管理、个人助理等需持续行动的领域。研发中(如 OpenAI 的 Operator 框架、Manus、多智能体系统 Swarm)。
L4创新者提出原创性解决方案(如新材料研发、艺术创作),辅助人类突破知识边界。组合现有知识生成创新方案,专利级创意概率为 1/2000(集中在技术交叉领域)。科研(如 AlphaFold 预测蛋白质结构)、艺术设计、工程模拟等创新领域。早期探索(DeepMind 的 AlphaFold 4 等)。
L5组织者管理复杂组织系统(如跨国企业、城市运营),协调资源与战略决策。处理数百万动态变量,理解政治博弈、伦理困境等非结构化问题。企业战略管理、城市治理、全球供应链协调等宏观领域。理论阶段(预计需 10 年以上实现)。

3.5 当前进展与时间轴

讲稿

OpenAI 的五级量表为 AGI 发展提供了清晰的阶段性目标,但技术落地仍需克服模型可靠性、多模态交互、伦理安全等挑战。

Sam Altman 的预测“AI 不会取代人类,但会用 AI 的人将取代不用 AI 的人”正逐步成为现实——从替代基础岗位(L1)到赋能高阶创新(L4/L5),人类需重新定义与 AI 的协作关系。

  1. L1→L2 过渡

    • OpenAI 自评处于 L1 末期,正突破 L2(推理者)。
    • 2024 年发布的 GPT-4-o1 模型已接近人类博士水平推理能力,但仍有低级错误(如误判化学反应条件)。
    • 预计 2026 年前全面实现 L2 并向 L3 过渡。
  2. L3 智能体的挑战

    • 需解决复杂场景下的自主行动问题(如动态调整谈判策略、实时优化生产线)。
    • OpenAI 计划通过 Operator 框架连接垂直领域(教育、电商等),推动 L3 落地。
  3. L4/L5 的争议

    • 部分专家认为 AGI 可能在 5-10 年内实现(如 Sam Altman、黄仁勋),但需突破 LLM 技术瓶颈(如缺乏常识、创造性局限)。
    • 微软 AI 首席 Mustafa Suleyman 则认为 AGI 需更长时间(约 10 年)。

4 什么是大模型

讲稿

我们目前所有的AGI应用,都是基于大模型来实现的,所以我们需要先了解一下什么是大模型。

大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型。

​大模型的“大”特点体现在:​​

  1. 参数数量庞大
  2. 训练数据量大
  3. 计算资源需求高

随着发展,大模型的参数也在显著增加,例如:

  • 2020年,OpenAI公司推出了GPT-3,模型参数规模达到了1750亿
  • 2023年3月发布的GPT-4的参数规模是GPT-3的10倍以上,达到1.8万亿 但是最近模型参数有下降的趋势,比如DeepSeek满血版是671B,6710亿参数 基本可以理解成参数规模越大,智能化程度越高

4.1 比较知名的大模型

以下是国内外知名大模型系列的首个版本发布时间及最新版本信息(截至2025年4月13日):

模型系列所属公司系列首个版本发布时间最新版本及发布时间
GPT系列OpenAI2018年6月(GPT-1)GPT-4.5(2025年2月28日)
Claude系列Anthropic2023年3月(Claude 1)Claude 3.7(2025年2月25日)
Gemini系列Google DeepMind2023年12月(Gemini 1.0)Gemini 2.5 Pro(2025年3月)
Grok系列xAI (Elon Musk)2023年11月(Grok-1)Grok-3(2025年2月18日)
Llama系列Meta2023年2月(Llama 1)Llama 3.3(2024年12月6日)
Mistral系列Mistral AI2023年9月(Mistral 7B)Ministral 8B(2024年10月)
DeepSeek系列深度求索2024年1月(DeepSeek-V1)DeepSeek-R1(2025年1月20日)
文心系列百度2023年3月(文心一言1.0)文心4.5(2025年3月16日)
通义千问系列阿里巴巴2023年4月(Qwen-7B)Qwen2.5-Omni(2025年3月)
豆包系列字节跳动2023年8月(Doubao 1.0)Doubao-1.5-pro(2025年1月)
Kimi系列月之暗面2024年11月(Kimi初代)Kimi探索版(2024年10月)
星火系列科大讯飞2023年5月(星火1.0)星火V4.0(2024年6月27日)
GLM系列智谱AI2023年(GLM-130B)GLM-4(2025年)

4.2 AI模型发展时间线(2020-2025)

讲稿

让我们转换到时间线来看

  1. 时间线显示,国外大模型(如GPT、Claude)的系列迭代周期普遍早于国内1-2年。
  2. 国内模型中,阿里通义千问和百度文心一言的首个版本发布时间最早(2023年Q1),而字节豆包、月之暗面等属于后发阵营。
  3. 部分模型(如Mistral、DeepSeek)通过开源策略快速追赶,最新版本已接近国际顶尖水平。

4.3 大模型技术图谱:模态分类

按照模态分类

类别语言大模型视觉大模型多模态大模型
定义在自然语言处理(NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言。这类模型在大规模语料库上训练,学习语法、语义和语境规则。在计算机视觉(CV)领域中使用的大模型,通常用于图像处理和分析。通过大规模图像数据训练,实现图像分类、目标检测等视觉任务。能够处理多种类型数据(如文本、图像、音频)的大模型。结合NLP和CV能力,实现对多模态信息的综合理解和分析。
用途文本生成、语言理解、对话系统等图像分类、目标检测、图像分割、姿态估计、人脸识别等跨模态数据融合、文生图、多模态搜索等
代表性产品• GPT系列(OpenAI)
• Bard(Google)
• DeepSeek
• 文心一言(百度)
• ViT系列(Google)
• 文心UFO
• 华为盘古CV
• INTERN(商汤)
• DingoDB多模向量数据库(九章云极)
• DALL-E(OpenAI)
• 悟空画画(华为)
• Midjourney

4.4 大模型技术图谱:应用分类

按照应用领域分类

对比维度通用大模型 L0行业大模型 L1垂直大模型 L2
定义可以在多个领域和任务上通用的大模型针对特定行业或领域的大模型针对特定任务或场景的大模型
训练数据海量的开放数据行业相关的数据任务相关的数据
能力特点利用大算力、巨量参数的深度学习算法,在大规模无标注数据上训练,形成“举一反三”的强大泛化能力通过行业数据预训练或微调,提高在特定领域的性能和准确度,成为“行业专家”通过任务数据预训练或微调,提高在特定任务上的性能和效果
类比相当于AI完成“通识教育”相当于AI成为“行业专家”-
应用特性不进行微调或少量微调即可完成多场景任务需针对行业需求优化需针对具体任务优化

4.5 大模型技术图谱:思维类型分类

CoT链式思维的出现将大模型分为了两类:“概率预测(快速反应)”模型和“链式推理(慢速思考)”模型。前者适合快速反馈,处理即时任务;后者通过推理解决复杂问题。了解它们的差异有助于根据任务需求选择合适的模型,实现最佳效果。

大语言模型分为:通用大模型和推理大模型,二者不是彼此取代关系

  • 如果你需要完成数据分析、逻辑推理、代码生成等逻辑性较强且较为复杂的任务,请选择推理大模型
  • 如果你面临创意写作、文本生成、意图识别等发散性较强且较为创意多样的任务,请选择通用大模型

(内嵌豆包来对比)

通用大模型(非推理):适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像推理模型那样复杂的推理和决策能力。

  • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译等任务。 推理大模型:是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。
  • 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。
特性推理大模型通用大模型
适用场景复杂推理、解谜、数学、编码难题文本生成、翻译、摘要、基础知识问答
复杂问题解决能力优秀,能进行深度思考和逻辑推理一般,难以处理多步骤的复杂问题
运算效率较低,推理时间较长,资源消耗大较高,响应速度快,资源消耗相对较小
幻觉风险较高,可能出现"过度思考"导致的错误答案较低,更依赖于已知的知识和模式
泛化能力更强,能更好地适应新问题和未知场景相对较弱,更依赖于训练数据
擅长任务举例解决复杂逻辑谜题,编写复杂算法,数学证明撰写新闻稿,翻译文章,生成产品描述,回答常识问题
成本通常更高通常更低
优势领域数学推导、逻辑分析、代码生成、复杂问题拆解文本生成、创意写作、多轮对话、开放性问答
劣势领域发散性任务(如诗歌创作)需要严格逻辑链的任务(如数学证明)
性能本质专精于逻辑密度高的任务擅长多样性高的任务
强弱判断并非全面更强,仅在其训练目标领域显著优于通用模型通用场景更灵活,但专项任务需依赖提示语补偿能力
特性普通模型DeepSeek R1(推理模型)
适用任务闲聊、日常文本、客服、社交媒体复杂问题、编程、数学、法律、医学
回答速度超快(适合实时互动)较慢但更精准(适合深度思考)
计算需求省资源,适合本地运行更强算力,适合云端使用
回答风格更自然随性,适合对话更严谨深入,适合分析问题

4.6 什么是AI幻觉

大模型幻觉,也被称为 ​AI幻觉,是指大型语言模型在生成内容时,产生与事实不符、逻辑错误或无中生有等不合理信息的现象。 例如:

  • 在回答历史事件时,可能会编造不存在的细节或人物;
  • 在进行科学知识讲解时,给出错误的理论或数据。 ​产生原因主要包括:
  • 模型训练数据存在偏差、不完整或错误,导致学习过程中引入不准确信息;
  • 模型基于概率分布生成内容,可能选择看似合理但实际错误的路径。 ​影响​: 大模型幻觉会降低信息的准确性和可靠性,在信息传播、学术研究等领域可能引发不良后果。

建议​: 所以目前大模型并不能真正替代人类的思考,使用大模型生成的内容时,还是需仔细验证和甄别其真实性。

学术:指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测” 说人话:一本正经地胡说八道 事实性幻觉:指模型生成的内容与可验证的现实世界事实不一致 忠实性幻觉:指模型生成的内容与用户的指令或上下文不一致

为什么会产生幻觉

  • 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)
  • 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)
  • 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)
  • 意图误解:用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)

4.6.1 如何降低AI幻觉

  1. 优化技术架构 检索增强生成(RAG)
  • 将生成过程与实时知识库/互联网搜索结合,要求标注引用来源,例如Vectara公司通过该技术将错误率降低至2%。
  • 建立溯源机制,用户可反向追踪每个结论的数据锚点。

模型训练改进

  • 采用「知识蒸馏+人类反馈强化学习」,如DeepSeek团队通过植入「存疑询问机制」使错误率下降40%。
  • 优化训练数据清洗流程,减少模糊性文本占比,规避「统计关系误判」导致的逻辑错误。
  1. 强化提示工程(Prompt Engineering), 精准约束生成范围
  • 通过设定时间、数据源或知识领域边界,如要求「仅基于2024年光伏产业白皮书分析技术趋势」,可降低模型因数据缺失产生的虚构风险。
  • 使用选项限定式提问(如选择题)而非开放式问题,限制模型随机发挥空间。

分步生成与反馈迭代

  • 将复杂任务拆解为「事实列举→逻辑推导」的步骤,例如先要求列出已证实的医疗数据,再基于此进行诊断建议。
  • 实时反馈错误内容,通过「温度参数」(0-2)调节生成随机性,严谨场景建议设为0.5以下。
  1. 多重验证机制 多模型交叉验证
  • 同时调用GPT-4、Claude、DeepSeek等模型回答同一问题,对比差异率达30%时需人工介入。警惕「信息茧房效应」,避免过度依赖单一AI输出形成认知闭环。
  • 设置「裁判模型」自动审核生成内容一致性,如新闻领域采用BERT事实核查模块。

4.7 大模型的应用方式

以下是基于搜索结果整理的大模型应用方式对比表格,涵盖官方应用、API调用、云端部署、本地部署等多种形式:

应用方式技术特点适用场景部署成本优缺点对比
官方应用/网页预训练模型直接封装为交互界面个人用户快速体验、简单问答、创意生成低(按使用付费)优点:零门槛、即开即用
缺点:功能受限、无法定制化
浏览器插件集成通过沉浸式翻译等扩展程序调用个人效率工具(实时翻译、内容摘要)优点:即装即用
缺点:功能单一
API调用通过RESTful接口集成模型能力开发者快速接入、企业轻量化应用中(按调用量计费)优点:灵活扩展、无需算力投入
缺点:依赖网络、响应延迟较高
云端部署(MaaS)基于云平台提供全托管服务,支持检索增强、多模型协同企业级复杂应用(如智能客服、数据分析)高(订阅制)优点:弹性扩缩容、内置安全合规
缺点:数据需上云、长期成本累积
本地微调部署通过Prompt-tuning/Adapter技术调整部分参数行业特定任务优化(如金融风控、法律文书)较高(硬件+训练)优点:数据隐私保障
缺点:需专业团队维护
全量预训练部署从头训练或全参数微调科研机构、超大规模定制模型极高优点:完全自主可控
缺点:需千卡级GPU集群
边缘端推理使用MLC LLM等框架编译优化,适配移动端芯片物联网设备、移动端实时交互优点:低延迟离线运行
缺点:模型规模受限
一体机方案软硬件深度集成(如NVIDIA Triton推理服务器)企业私有化部署、高并发场景极高优点:极致性能优化
缺点:初始投入大
开源模型部署通过Text-Generation-WebUI等工具本地运行开发者实验、小规模应用低(需自有GPU)优点:完全免费开源
缺点:功能完整性依赖社区
多模型协同构建AI Agent工作流(如DeepSeek+GPT-4交叉验证)高可靠性场景(医疗诊断、法律咨询)优点:结果更可靠
缺点:复杂度指数级增长

部署策略建议

  1. 初创团队优先选择API调用+提示工程组合,快速验证需求(参考网页7的非官方API方案)
  2. 中大型企业推荐云端MaaS部署,结合检索增强生成(RAG)优化效果
  3. 高敏感行业可采用本地微调+一体机方案,如金融领域使用DeepSeek定制模型
  4. 科研机构建议全量预训练+多框架协同(如vLLM+DeepSeek优化套件)

技术趋势:行业应用正朝着「轻量化微调+多模型Agent」方向发展,通过7B级小模型与知识库结合,可在消费级显卡实现专业场景部署(如法律合同生成准确率达92.3%)

讲稿

在DeepSeek出来之前,我们要体验大部分大模型,基本只能使用官方应用(免费/付费)或者付费使用API。 那么在DeepSeek之后,越来越多的大模型开始选择开源,开始推动整个AGI环境的加速发展, Openai从GPT-4开始一直是闭源,但是前段时间,Sam Altman发布了一篇文章,也说openai闭源可能是个错误的决定。

那么那模型开源以后,我们就可以选择更多的使用方式,包括云端、本地部署。当然如果不是企业级别的内部应用的话,不需要深度定制的话,我们个人选择官方应用和网页版就足够了,我们可以用更好的提示词来实现足够经验的效果。


4.8 国内主要大模型对比

讲稿

对产品的认知 目前有很多大模型,信息爆炸,但是其实使用起来的差异没有明显的区别,很多人都是在不同模型、产品间切换使用,比如kimi-豆包-DeepSeek-腾讯元宝,所以首先牢记,大模型是帮助我们提高效率的工具,不是目的。

因为现在大模型的同质化其实比较严重,但是我们还是需要了解目前已有的大模型,然后选择适合我们的工具

我们可以选择合适的工具,比如有段时间只有kimi有生成ppt的功能,那在那个时候我们只能选择kimi,但是当其他竞品都有类似功能的时候,我们就不要纠结了。但是不要为了学习而学习,为了使用而使用,工具是工具,不是目的。

我们会在第二节课归纳一下目前常见AI工具的能力和特质,作为我们选择的基础,但是在介绍怎么用AI提效上,我会侧重用一个通用的流程来讲述,做到适用于所有模型和场景。

WARNING

表格内容是自动生成的,需要重新整理

工具核心优势社区适配场景举例实操演示重点
DeepSeek复杂逻辑推理活动方案可行性分析提示词链设计(5W2H法)
通义千问多模态生成宣传海报+短视频制作图生文/文生图提示技巧
文心一言本地政策库整合民生政策解读知识库对接RAG技术
腾讯混元会议纪要自动化居民议事会记录整理语音转写+要点提炼
模型系列所属公司系列首个版本发布时间最新版本及发布时间
DeepSeek系列深度求索2024年1月(DeepSeek-V1)DeepSeek-R1(2025年1月20日)
文心系列百度2023年3月(文心一言1.0)文心4.5(2025年3月16日)
通义千问系列阿里巴巴2023年4月(Qwen-7B)Qwen2.5-Omni(2025年3月)
豆包系列字节跳动2023年8月(Doubao 1.0)Doubao-1.5-pro(2025年1月)
Kimi系列月之暗面2024年11月(Kimi初代)Kimi探索版(2024年10月)
星火系列科大讯飞2023年5月(星火1.0)星火V4.0(2024年6月27日)
GLM系列智谱AI2023年(GLM-130B)GLM-4(2025年)

5 DeepSeek:新时代的希望

DeepSeek引爆 AI原生App活跃用户数一个月几乎翻倍

讲稿

那么我们来系统的介绍一下DeepSeek,我们将结合公司背景、技术突破、行业影响等维度展开:


5.1 公司背景与诞生历程

  1. 创始基因
    DeepSeek(杭州深度求索人工智能基础技术研究有限公司)成立于2023年7月17日,由知名量化私募巨头幻方量化孵化,创始团队核心成员包括梁文锋(浙江大学人工智能背景)、高华佐(北京大学物理系)、王炳宣(北京大学数据处理专家)等。公司初始注册资本1000万元,后增至3.25亿人民币,总部位于杭州拱墅区。

  2. 技术驱动定位
    专注于大语言模型(LLM)研发,目标是通过架构创新高效训练策略突破AGI技术瓶颈。创始团队强调“底层逻辑颠覆性创新”,例如首创多头潜在注意力机制(MLA)DeepSeekMoE稀疏架构,显著降低推理成本。

  3. 硬件与资金支持
    依托母公司幻方量化的算力资源(拥有万张A100 GPU集群),并自主研发“萤火”系列超算,为大规模模型训练提供基础设施保障。


5.2 核心产品与技术里程碑

时间产品/技术突破技术亮点与影响
2023年11月DeepSeek Coder(首款开源编程模型)支持多语言代码生成,MIT协议开源,降低开发者门槛
2024年5月DeepSeek-V2(2360亿参数MoE架构模型)推理成本降至每百万token 1元,引发中国AI模型价格战
2024年12月DeepSeek-V3(6710亿参数)训练成本557.6万美元(仅为GPT-4o的1/11),性能对标GPT-4o
2025年1月DeepSeek-R1(动态专家系统架构)完全开源模型,推理效率达行业标杆3.2倍,登顶美区App Store并导致英伟达单日市值蒸发5890亿美元
2025年2月上线国家超算互联网平台,部署苏州市公共算力服务平台实现国产化算力生态闭环,服务企业级高并发场景
特性普通模型DeepSeek R1(推理模型)
适用任务闲聊、日常文本、客服、社交媒体复杂问题、编程、数学、法律、医学
回答速度超快(适合实时互动)较慢但更精准(适合深度思考)
计算需求省资源,适合本地运行更强算力,适合云端使用
回答风格更自然随性,适合对话更严谨深入,适合分析问题

5.3 技术突破特征

  • 成本革命:通过MoE架构和动态路由技术,推理成本仅为GPT-4 Turbo的17%。
  • 训练效率:V3模型在55天内完成训练,使用2000块GPU(对比GPT-4o需2.5万块)。
  • 开源战略:坚持模型开源(如R1),推动技术普惠化,吸引全球开发者参与生态建设。

5.3 对中国AI发展的战略意义

  1. 技术路径创新
    通过软硬件协同优化突破算力约束,证明“低成本+高性能”模式可行性,为中小团队参与AGI研发提供范例。

  2. 生态构建
    开源策略打破巨头垄断,吸引全球开发者共建应用生态,形成“基础模型+垂直场景”的协同创新网络。

  3. 国际竞争格局重塑

    • 技术指标上实现对OpenAI等企业的追赶(如R1性能媲美GPT-4o)。
    • 推动中国从“应用创新”向“基础理论引领”转型,提升全球AI治理话语权。
  4. 产业赋能
    在金融、医疗、教育等领域落地案例中,模型推理成本降低推动AI普惠化,例如:

    • 法律领域:合同生成准确率达92.3%;
    • 财经分析:第一财经技术中心基于V2构建垂类模型。

DeepSeek引爆 AI原生App活跃用户数一个月几乎翻倍

5.4 行业影响与重大新闻事件

  1. 市场冲击与全球关注

    • 2025年1月R1发布后,单日下载量超ChatGPT,导致OpenAI紧急推出o3-mini应对竞争。
    • 美国总统表态关注其技术突破,美媒称其“动摇硅谷霸权”。
    • 访问量超5.25亿次(2025年2月),市场份额达6.58%,仅次于ChatGPT。
  2. 资本市场连锁反应

    • 英伟达股价因市场对算力需求预期下调单日暴跌17%
    • 创始人梁文锋身价预估超1260亿美元,跻身全球科技富豪前列。
  3. 政策与产业共振

    • 澳大利亚以“安全风险”为由禁止政府设备使用DeepSeek,凸显技术输出引发的国际博弈。
    • 国内200+企业接入其模型,推动金融、医疗等行业智能化升级。

未来展望与挑战

  • 技术挑战:需解决多模态处理能力短板及“幻觉风险”。
  • 生态扩展:加速与国产芯片(如华为昇腾)的适配,构建自主可控产业链。
  • 全球化布局:应对国际政策壁垒(如澳大利亚禁令),探索合规出海路径。

6 实践内容

引导操作

引导学生使用DeepSeek对课前三个案例进行尝试

然后给出更好的提示词,对比二者的输出效果,引出下一节课的如何优化提示词

推荐使用元宝,可以扫码使用网页版


案例1


案例2


案例3

引导操作

  1. 打开微信或其他扫码工具
  2. 扫描下方二维码
  3. 全选复制文本/点击下方复制文本内容
  4. 扫码打开DeepSeek网站
  5. 粘贴到DeepSeek
  6. 点击生成

旅行计划提示词

案例三文本二维码

腾讯元宝(网页版没有DeepSeek,可以考虑换成豆包,有深度思考) 腾讯元宝二维码


7 推荐阅读内容

常用工具,可以在下一堂课之前任意体验,在下一堂课我们会详细介绍一下怎么使用,和分享一些应用案例 推荐阅读内容 DeepSeek从入门到精通_20250207

《DeepSeek 赋能数字政府应用指南》

摘要

《DeepSeek 赋能数字政府应用指南》一书近日由新华出版社出版并面向全国发行,该书电子书将在国内各大数字阅读平台上线。 根据介绍,该书由中国经济信息社编写,内容聚焦人工智能技术在数字政府建设中的应用,详细阐述了其在 “高效办成一件事”、“一网通办”、政务服务大厅、12345 热线、智慧城市等多个领域中的创新探索,展现了人工智能赋能数字政府建设的生动实践,深入探讨 DeepSeek 等人工智能技术如何赋能政务服务效能提升和城市治理现代化,为从事和关注数字政府建设的各界人士提供参考。 该书围绕数字政府建设,提供了 “人工智能 +” 行动可借鉴的实践范式,帮助读者感受技术赋能下的政府治理创新与时代脉动,共同见证更加智能、高效、便民的活力中国。


内容结构

1. DeepSeek基础

  • 1.1 是什么?
    • 专注AGI的中国科技公司
    • 开源模型DeepSeek-R1,免费商用
    • 性能对齐OpenAI-o1
  • 1.2 能做什么?
    • 文本生成:创作、摘要、结构化生成
    • 自然语言理解:语义分析、文本分类、知识推理
    • 编程相关:代码生成、调试、文档处理
    • 绘图能力:SVG矢量图、Mermaid/React图表
      2. 使用指南
  • 2.1 访问方式
  • 2.2 知识范围
    • 知识截止2024年7月
      3. 进阶技巧
  • 3.1 模型选择
    • 推理模型(如DeepSeek-R1):逻辑/数学任务
    • 通用模型(如GPT-4):创意/开放任务
    • 对比表:优势领域、性能本质
  • 3.2 提示语设计
    • 核心原则
      • 推理模型:简洁指令
      • 通用模型:分步引导
    • 策略差异
      • 需求表达:从指令到混合模式
      • 任务类型适配(如数学证明 vs 创意写作)
        4. 提示语工程
  • 4.1 设计方法论
    • 元素分类:信息类、结构类、控制类
    • 组合策略:互补增强、涌现属性
  • 4.2 实战技巧
    • 精准定义任务
    • 分解复杂任务
    • 避免常见陷阱
      • 模糊指令、假设偏见、AI幻觉
      • 伦理边界(如隐私保护)
        5. 应用场景
  • 5.1 文案写作
    • 三要素:信息传递、情感共鸣、行动引导
  • 5.2 营销策划
    • 创意概念、传播策略、执行方案
  • 5.3 社交媒体
    • 微信公众号:深度阅读、结构分层
    • 微博:热点借力、互动设计
    • 小红书:种草文案、场景化表达
    • 抖音:视觉冲击、节奏控制
      6. 创新设计
  • 6.1 提示语链
    • 作用机制:任务分解、知识激活
    • 设计模型:CIRS(Context-Instruction-Refinement-Synthesis)
  • 6.2 跨域创新
    • 类比映射(如网络安全≈免疫系统)

  • 技术分层:基础模型→领域模型→场景应用(图示化对比通用模型与垂类模型)
  • 国产模型矩阵:DeepSeek(推理能力)、通义(多模态)、文心一言(政务场景适配) 大模型
  1. 大模型分类
    1. 根据信息类型:文本、多模态(文生图/图生视频/文生视频、语音转文字/文字转语音)
    2. 根据生成类型:普通生成式模型、推理模型
      1. 3种模型分类AI爆发,很多人没看懂这3大红利
  2. 大模型应用
    1. 主要厂商
    2. 国内厂商
  3. 其他套壳应用
  4. 带部分/附加功能的应用
    1. 浏览器
    2. 生图APP
    3. 虚拟人APP
    4. 集成到应用中:WPS、百度网盘、飞书、腾讯文档
  5. 知识库
    1. 本地知识库
  6. Agent
    1. 单一任务工具
    2. 虚拟助手、智能客服
  7. 工作流
    1. 自搭工作流
    2. 集成到应用中的