作为AI产品经理,深入理解人工智能领域的核心术语是高效沟通、需求定义和产品落地的关键。无论是与算法工程师协作优化模型,还是向业务方解释技术方案,准确掌握专业术语能显著提升决策效率,避免因概念混淆导致的开发偏差。本文系统梳理了模型与算法、NLP(自然语言处理)、CV(计算机视觉)、数据处理、核心评估指标等领域的核心术语,帮助产品经理快速构建AI技术认知框架。
目录
1. 基础概念
2. 模型与算法
3. 自然语言处理(NLP)
4. 计算机视觉(CV)
5. 数据处理
6. 核心评估指标
7. 工具与框架
8. 伦理与责任
9. 部署与工程化
10. AI产品设计与运营
术语 |
解释 |
人工智能(Artificial Intelligence, AI) |
使计算机系统模拟人类智能行为的技术,包括学习、推理、问题解决和决策等能力。可分为弱AI(专用领域)和强AI(通用智能)。 |
通用人工智能(Artificial General Intelligence, AGI) |
具备与人类相当或超越人类的多领域智能水平,能够自主完成各种认知任务的AI系统。目前尚未实现,是AI研究的长期目标。 |
机器学习(Machine Learning, ML) |
AI的子领域,通过算法让计算机从数据中学习模式并做出预测或决策,而无需显式编程。包括监督学习、无监督学习和强化学习三大类。 |
深度学习(Deep Learning, DL) |
基于多层神经网络的机器学习方法,能够自动学习数据的层次化特征表示。在图像、语音等复杂数据上表现优异,但需要大量数据和计算资源。 |
生成式AI(Generative AI) |
能够生成新内容(如文本、图像、音乐、视频等)的人工智能系统。典型代表包括GPT系列(文本生成)、Stable Diffusion(图像生成)等。 |
大语言模型(Large Language Model, LLM) |
基于海量文本数据训练的超大规模神经网络模型(参数量通常达数十亿以上),具有强大的语言理解和生成能力。 |
AI生成内容(AI-Generated Content, AIGC) |
由人工智能系统自动生成的各种形式的内容,包括文本、图像、音频、视频、代码等。正在改变内容创作方式。 |
智能体(Agent) |
能够感知环境、做出决策并执行动作的自治系统。可以是简单的规则系统,也可以是复杂的基于学习的AI系统。 |
多智能体系统(Multi-Agent System, MAS) |
由多个智能体组成的系统,智能体之间通过协作或竞争来完成复杂任务。应用于交通控制、分布式计算等领域。 |
监督学习(Supervised Learning) |
使用带有标签的训练数据来建立输入到输出的映射关系。典型任务包括分类(如图像识别)和回归(如房价预测)。 |
无监督学习(Unsupervised Learning) |
从未标记数据中发现隐藏的模式或结构。常见应用包括聚类(如客户细分)和降维(如数据可视化)。 |
强化学习(Reinforcement Learning, RL) |
通过试错和奖励机制来训练智能体做出最优决策。适用于序列决策问题,如游戏AI和机器人控制。 |
术语 |
解释 |
神经网络(Neural Network) |
模仿生物神经元结构的计算模型,由输入层、隐藏层和输出层组成,通过调整连接权重来学习数据特征。 |
卷积神经网络(Convolutional Neural Network, CNN) |
用于处理网格状数据(如图像)的神经网络,通过卷积操作提取局部特征,具有平移不变性特性。 |
循环神经网络(Recurrent Neural Network, RNN) |
用于处理序列数据的神经网络,具有记忆功能,能够考虑历史信息。但存在梯度消失问题,难以处理长序列。 |
Transformer |
基于自注意力机制的神经网络架构,能够并行处理序列数据并捕获长距离依赖关系。已成为NLP领域的主流架构。 |
随机森林(Random Forest) |
集成学习方法,通过构建多棵决策树并综合它们的预测结果来提高准确性和鲁棒性。 |
支持向量机(Support Vector Machine, SVM) |
通过寻找最优超平面来对数据进行分类的算法,在小样本、高维数据上表现良好。 |
梯度提升(Gradient Boosting) |
通过迭代训练弱学习器(通常是决策树)并聚焦于之前模型的错误来构建强学习器的方法。XGBoost是其高效实现。 |
术语 |
解释 |
分词(Tokenization) |
将文本分割成有意义的单元(如单词、子词或字符)的过程,是NLP任务的基础预处理步骤。 |
词嵌入(Word Embedding) |
将词语映射到低维连续向量空间的技术,使得语义相似的词在向量空间中距离相近。Word2Vec是经典方法。 |
注意力机制(Attention Mechanism) |
让模型能够动态地关注输入的不同部分的技术,显著提升了序列建模任务的性能。 |
BERT(Bidirectional Encoder Representations from Transformers) |
基于Transformer的双向预训练语言模型,通过掩码语言模型和下一句预测任务进行训练。 |
GPT(Generative Pre-trained Transformer) |
基于Transformer的自回归语言模型,通过预测下一个词的任务进行训练,擅长文本生成。 |
命名实体识别(Named Entity Recognition, NER) |
从文本中识别出特定类别的实体(如人名、地名、组织机构名等)的任务。 |
术语 |
解释 |
图像分割(Image Segmentation) |
将图像分割成多个区域或对象的过程。语义分割区分不同类别,实例分割区分不同个体,如语义分割区分“人”和“背景”。 |
目标检测(Object Detection) |
识别图像中特定对象的位置并用边界框标注的任务。YOLO和Faster R-CNN是典型算法。 |
人脸识别(Facial Recognition) |
通过分析面部特征来识别或验证个人身份的技术,包括特征点检测和深度特征匹配等步骤,应用于安防、支付等场景。 |
光学字符识别(Optical Character Recognition, OCR) |
将图像中的文字转换为可编辑文本的技术,涉及文本检测和识别两个主要步骤,如扫描文档转电子文本。 |
卷积层(Convolutional Layer) |
CNN的基本构建块,通过滑动窗口(卷积核)提取局部特征(如边缘、颜色)。 |
术语 |
解释 |
特征工程(Feature Engineering) |
通过转换、组合或创建新特征来提高模型性能的过程。包括特征选择、特征提取和特征构造,直接影响模型效果。 |
数据增强(Data Augmentation) |
通过对原始数据进行变换(如图像旋转、加噪、文本同义词替换)来人工扩展数据集,提高模型泛化能力。 |
过拟合/欠拟合(Overfitting/Underfitting) |
过拟合指模型过度记忆训练数据细节导致在新数据上表现差;欠拟合指模型未能学习到数据的基本模式。可通过正则化、增加数据等解决。 |
交叉验证(Cross-Validation) |
将数据集分成k份,轮流用k-1份训练、1份验证,重复k次的评估方法。常用k=5或10,比简单划分更可靠。 |
数据标注(Labeling) |
为原始数据添加标签的过程(如标注图像中的物体边界框)。质量直接影响模型效果,需设计标注规范和质检流程。 |
术语 |
解释 |
准确率(Accuracy) |
分类正确的样本占总样本的比例。适用于类别平衡的数据,不平衡时可能失真。 |
精确率/召回率(Precision/Recall) |
精确率=TP/(TP+FP),衡量预测为正的样本中实际为正的比例;召回率=TP/(TP+FN),衡量实际为正的样本被正确预测的比例。 |
F1分数(F1 Score) |
精确率和召回率的调和平均数(2×P×R/(P+R)),综合评估分类模型在类别不平衡时的表现。 |
均方误差(Mean Squared Error, MSE) |
预测值与真实值差值的平方的平均值,常用于回归任务。对异常值敏感,值越小越好。 |
AUC-ROC曲线(AUC-ROC) |
横轴假正率(FPR),纵轴真正率(TPR)绘制的曲线下面积。值在0.5-1之间,1表示完美分类,0.5相当于随机猜测。 |
术语 |
解释 |
TensorFlow |
Google开发的端到端机器学习平台,支持静态计算图,适合大规模部署。提供TF Lite用于移动端。 |
PyTorch |
Facebook开发的动态神经网络框架,支持即时执行模式,研究友好。TorchScript支持生产部署。 |
Hugging Face |
提供Transformer模型库(如BERT、GPT)和工具链(Datasets、Tokenizers),是NLP领域的事实标准。 |
OpenCV(Open Source Computer Vision Library) |
包含2500+优化算法的计算机视觉库,支持图像处理、物体检测、3D重建等功能。 |
Scikit-learn |
基于Python的传统机器学习库,提供分类、回归、聚类等算法和评估工具,API设计统一。 |
术语 |
解释 |
算法偏见(Algorithmic Bias) |
由于训练数据不平衡(如主要包含某类人群)或算法设计导致对不同群体的歧视性输出。需通过数据审计、公平性指标监测来缓解。 |
可解释AI(Explainable AI, XAI) |
使复杂模型(如深度学习)的决策过程可被人类理解的技术,包括LIME、SHAP等方法。在医疗、金融等关键领域尤为重要。 |
公平性(Fairness) |
确保模型对不同人口统计组(性别、种族等)的表现差异在可接受范围内。可通过预处理、后处理或算法改进实现。 |
隐私保护(Privacy Preservation) |
技术包括联邦学习(数据不出本地)、差分隐私(添加可控噪声)、同态加密(加密数据计算)等,满足GDPR等法规要求。 |
术语 |
解释 |
MLOps |
机器学习运维,包含持续集成(CI)、持续交付(CD)、监控等实践。核心是自动化模型训练-部署-迭代流程,减少技术债。 |
边缘计算(Edge Computing) |
在终端设备(手机、摄像头)而非云端运行模型,降低延迟和带宽消耗。需模型轻量化(剪枝、量化)。 |
模型服务化(Model Serving) |
将模型封装为可通过API调用的服务,常用工具包括TensorFlow Serving、TorchServe等。需考虑并发、缓存和版本管理。 |
Docker/Kubernetes |
Docker实现应用容器化,保证环境一致性;Kubernetes管理容器化应用的部署、扩展和负载均衡,适合大规模AI服务。 |
术语 |
解释 |
用户旅程地图(User Journey Mapping) |
可视化用户与AI产品的端到端交互路径,通过绘制关键触点、痛点和机会点来优化体验设计(如智能客服的对话流程优化)。 |
模型可解释性(Model Interpretability) |
使黑盒模型的决策过程透明化的能力,包括特征重要性分析、决策路径可视化等技术,对金融、医疗等高风险场景尤为重要。 |
数据飞轮效应(Data Flywheel) |
用户行为数据→模型优化→体验提升→更多用户参与的良性循环(如电商推荐系统的点击数据持续反哺排序模型)。 |
冷启动问题(Cold Start Problem) |
新用户/新场景缺乏初始数据导致推荐不准,解决方案包括:基于内容的推荐、迁移学习、混合推荐策略等。 |
AI合理合规(AI Ethics Compliance) |
涵盖数据隐私(GDPR)、算法公平性(消除性别/种族偏见)、可追溯性等要求的系统性框架。 |
AI技术债务(Technical Debt in AI) |
为快速上线而妥协的临时方案积累的问题,包括数据管道混乱、模型版本管理缺失、监控体系不完善等。 |
AI产品生命周期(AI Product Lifecycle) |
包含需求分析→数据收集→模型开发→测试→部署→监控→迭代的全过程。比传统软件更强调数据和质量监控。 |
最小可行产品(Minimum Viable Product, MVP) |
用最简单功能验证核心假设的初期版本。AI产品MVP需平衡模型效果与开发成本(如先用规则引擎过渡)。 |
A/B测试(A/B Testing) |
将用户随机分为两组,分别使用不同版本(如新旧模型),通过关键指标(点击率、转化率)比较效果。 |
人在回路(Human-in-the-Loop, HITL) |
将人类判断纳入AI系统循环,如在模型不确定时交由人工处理,或用人反馈持续优化模型。 |
模型部署(Model Deployment) |
将训练好的模型集成到生产环境的过程,涉及服务化(API封装)、资源分配、性能优化和监控报警。 |
投资回报率(Return on Investment, ROI) |
(收益-成本)/成本。AI项目需计算数据、算力、人力等投入与业务提升(如客服效率)的量化关系。 |