一、软件演进的三个阶段

  1. 软件1.0(代码驱动)

    • 核心:人类直接编写确定性指令(如Python/C++),逻辑显式定义。

    • 代表平台:GitHub作为代码托管生态。

  2. 软件2.0(权重驱动)

    • 核心:通过数据集训练神经网络生成权重参数,程序由优化器“学习”而非手动编写。

    • 代表平台:Hugging Face成为“模型界的GitHub”,例如Stable Diffusion的LoRA微调即等效于一次“Git提交”。

  3. 软件3.0(提示词驱动)

    • 核心:自然语言(如英语)提示词(Prompt)成为新编程语言,直接调度大模型(LLM)完成任务。

    • 案例对比

      • 情感分析任务

        • 软件1.0需手写规则代码;

        • 软件2.0需标注数据集训练分类器;

        • 软件3.0仅需自然语言指令+示例。

    • 意义:编程门槛大幅降低,非技术用户可通过语言描述创造软件。


二、LLM的三重本质属性

  1. 公共事业属性(Utility)

    • OpenAI等公司以CAPEX训练基础模型(类比电网建设),通过API提供OPEX服务(按Token计费)。

    • 依赖症凸显:顶级LLM宕机即引发全球“智能停电”。

  2. 晶圆厂属性(Fab)

    • 训练需巨额资本与尖端技术,分化为两种模式:

      • 无晶圆厂模式:依赖NVIDIA GPU;

      • 垂直整合模式:如Google自研TPU。

  3. 操作系统属性(OS)

    • 架构类比:LLM=CPU,上下文窗口=内存,提示词=命令行输入。

    • 生态现状

      • 闭源巨头(GPT/Gemini)类似Windows/macOS;

      • 开源社区(LLaMA)类似Linux。

    • 时代定位:处于“1960年代分时计算”阶段——算力集中云端,个人设备(如Mac Mini运行小模型)是革命前兆。


三、LLM的能力与缺陷:“有缺陷的超人”

  • 超能力

    • 百科全书式记忆(如背诵Git哈希值)。

  • 致命缺陷

    1. 幻觉与低级错误:如判断“9.11 > 9.9”或数错字母;

    2. 锯齿状智力:部分任务超越人类,却犯人类不会犯的错;

    3. 顺行性失忆:无长期记忆,上下文窗口清空即遗忘(类比《记忆碎片》)。

四、核心机遇:半自主化AI产品

  • 核心理念:不造“钢铁侠”(全自主AI),而是造“钢铁侠战衣”(人机协同)。

  • 关键设计

    • 自主性滑块:用户控制AI参与程度,例如:

      • 编程工具Cursor:从代码补全到全库重构的多级控制;

      • 搜索工具Perplexity:自主性可调的研究模式。

    • Vibe Coding实践:Karpathy本人用英语提示词一天开发iOS应用,但部署(支付/认证)仍依赖人工点击——揭示当前基础设施局限。


五、未来基础设施:为AI智能体重构世界

  • 现存问题:当前网站/文档为人类设计(如“点击这里”),AI无法解析。

  • 解决方案

    1. LLM.txt协议:类似robots.txt,声明网站对AI的开放规则;

    2. 机器友好接口:如Vercel/Stripe提供Markdown文档,用curl命令替代图形界面操作;

    3. 智能体优先设计:打通系统孤岛,使AI可跨平台调度工具(例:实在Agent自动处理Excel→CRM同步)。

六、技术演进三阶段展望

  • 短期:软件重构为“人类+大模型”协同模式,半自主应用爆发;

  • 中期:大模型渗透企业工作流,代码/文档/数据分析全面智能化;

  • 长期:贾维斯级助手普及,但人类保持最终决策权(自主性滑块右移不失控)。

💡 演讲总结:Karpathy呼吁开发者掌握三种范式技能(1.0代码/2.0训练/3.0提示词),并强调“2025是Agent的十年”——其本质是重建人机协作范式,而非追求完全自动化。软件3.0时代的标志是:自然语言成为创世工具,人类从“程序员”转型为“AI教师”。

点赞(0)

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部