GPT:生成式预训练Transformer | Generative Pre-trained Transformer
📖 术语定义 | Definition
GPT(Generative Pre-trained Transformer),即生成式预训练Transformer,是OpenAI开发的一系列基于Transformer架构的大语言模型。GPT模型通过"预训练+微调"的方式,先在海量通用文本上学习语言规律,再针对特定任务进行优化。
English: GPT (Generative Pre-trained Transformer) is a series of large language models developed by OpenAI based on the Transformer architecture. They learn language patterns from massive text data through pre-training, then fine-tune for specific tasks.
🧠 通俗解释 | Plain English
GPT = 生成 + 预训练 + Transformer
- 生成(Generative):不只是回答问题,而是能创造性地生成全新内容
- 预训练(Pre-trained):先用一个超大型通用数据集训练,打好"语言基础"
- Transformer:一种特别高效的处理序列数据(如文字)的AI架构
你可以把GPT想象成一个完成了通识教育的写作天才——它已经掌握了几乎所有知识,现在可以帮你写任何类型的文章。
📅 GPT家族进化史 | GPT Evolution
| 版本 | 发布时间 | 亮点 |
|---|---|---|
| GPT-1 | 2018 | 开创性尝试,1.1亿参数 |
| GPT-2 | 2019 | 15亿参数,能写长文章 |
| GPT-3 | 2020 | 1750亿参数,涌现能力 |
| GPT-3.5 | 2022 | 优化推理,ChatGPT采用 |
| GPT-4 | 2023 | 多模态,支持图像输入 |
| GPT-4o | 2024 | 实时语音+视觉,端到端 |
| GPT-o1/o3 | 2025 | 推理能力大幅提升 |
💡 应用场景 | Use Cases
- 对话交互:ChatGPT、Siri式对话
- 内容创作:文章写作、故事创作、营销文案
- 代码生成:写代码、调试、Bug修复
- 数据分析:解读数据、生成报告
- 教育辅助:解题、讲解概念、翻译
🔗 相关链接 | Links
本文属于「AI术语科普」系列