人工智能概览
人工智能(AI)是以可计算方式实现感知、推理、决策与行动的工程与科学。现代 AI 以数据驱动与表征学习为核心,依托大规模算力与高质量数据,通过“目标—数据—模型—计算—评估—迭代”的闭环持续进化。AI 并非单一技术,而是算法(统计学习、深度学习)、系统(分布式计算、存储、网络)、工程方法论(数据治理、可观测性、灰度发布)与合规治理(安全、隐私、许可证)的综合体。
1. 总体框架与关键角色
- 目标与评价:以业务目标拆解技术指标(准确率/召回率/F1、困惑度、延迟、吞吐、鲁棒性)。
- 数据与知识:高质量语料、结构化数据与外部知识库(见 检索增强生成)是性能上限的决定因素。
- 模型与算法:从线性/树模型到神经网络与 变形神经网络 家族(Encoder/Decoder/Encoder-Decoder)。
- 计算与基础设施:GPU/CPU/内存/网络协同;并行策略(数据并行、张量并行、传递并行)与拓扑(Nvlink参数、PCIE参数)。
- 评估与监控:离线指标—人评—在线 A/B 形成闭环;监控漂移、回归与稳定性。
- 部署与运维:剪枝、蒸馏、量化(含 GGUF模型量化)等压缩手段;灰度发布与回滚。
2. 数据与计算的“幂律”
- 数据规模:在表征学习与大模型范式下,性能常随数据量呈幂律提升,但边际效益递减;数据质量与多样性比单纯规模更关键。
- 计算资源:训练时间与成本与算力、显存与带宽强相关。A100显卡 提供高带宽 HBM 与 NVLink,RTX3090显卡/RTX4090显卡 则以性价比与单卡推理著称。
- 系统优化:流水线/通信重叠、激活检查点、混合精度、张量融合与图编译(TensorRT/ONNX)显著影响端到端效率。
3. 学习范式与问题结构
- 监督学习:以标注数据学习输入—输出映射(见 监督机器学习算法)。
- 非监督学习:挖掘结构与分布(见 非监督机器学习算法)。
- 强化学习:通过与环境交互最大化回报(见 强化机器学习算法)。
- 自监督学习:掩码建模、对比学习在预训练中至关重要。
4. 神经网络与 Transformer 里程碑
- 基元:神经元 以权重与 偏置 进行线性变换,经 激活函数(如 Sigmoid激活函数)引入非线性;
- 传统架构:前馈神经网络、卷积神经网络、循环神经网络 面向不同数据结构;
- Transformer:自注意力 + 残差 + 归一化,演化出 变形编码器、变形解码器 与 双向变形编码器(如 E5向量双向变形编码器)。
5. 训练、微调与优化
- 训练闭环:初始化 → 前向 → 损失 → 反向 → 更新 → 评估;
- 微调路径:全量微调、Adapter/Prefix/Prompt、LoRA微调神经网络训练,以及 ZeRO 分片(ZeRO微调神经网络训练)。
- 模型压缩:模型优化 与 模型量化(含 GGUF模型量化)用于降本增效。
6. RAG 与应用工程
- 流程:索引 → 检索 → 重排 → 生成 → 反馈闭环(见 检索增强生成)。
- 价值:提升事实性与时效性,降低幻觉;支持可解释引用与合规审计。
- 工程要点:查询改写、难负样本挖掘、融合打分、证据覆盖率与拒答策略。
7. 评估、对齐与安全
- 多层评估:离线指标、人评、端到端 KPI;
- 对齐:指令规范、拒答策略、红队与内容安全;
- 合规:数据来源、隐私保护、许可证边界(Apache2.0许可证、LlamaCommunity许可证)。
8. 常见误区与实践建议
- 一味堆参数:忽视数据治理与系统优化;
- 指标错位:线下好、线上差;需对齐业务 KPI;
- 忽略拓扑:通信瓶颈导致并行扩展失败;
- 文档缺失:实验不可复现、回滚困难。
9. 工具链与基础设施
- 训练:PyTorch/JAX、DeepSpeed/Megatron-LM、Lightning/Accelerate;
- 推理:ONNX/TensorRT、kv cache 优化、批内去重与并发调度;
- 平台:云(弹性、快速迭代)与边/端(低延迟、隐私,本地化部署结合 GGUF模型量化)。
10. 延伸阅读
- Attention Is All You Need: https://arxiv.org/abs/1706.03762
- Full Stack Deep Learning: https://fullstackdeeplearning.com/
- NVIDIA Developer: https://developer.nvidia.com
- Hugging Face 生态与 MTEB: https://huggingface.co/ 与 https://huggingface.co/spaces/mteb/leaderboard