近来人工智能(AI)比较火,对于想投身AI领域的同学,有必要对AI相关的名词了解清楚。其领域涉及的概念繁多,为了方便查阅,我将常见且重要的AI名词按照类别进行了整理和解释。这个术语表涵盖了从基础理论到前沿技术的核心词汇,希望能帮助你快速理解。
人工智能(Artificial Intelligence,AI)
指通过计算机程序或机器模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。目标是使机器能像人一样思考、学习、决策。
图灵测试(Turing Test)
由艾伦·图灵提出,测试机器是否能表现出与人类无法区分的智能行为。如果一台机器在对话中能让人类无法分辨它是人还是机器,就认为它具有智能。
强人工智能 vs 弱人工智能
弱人工智能(Weak AI / Narrow AI):专注于完成特定任务(如人脸识别、语音助手),当前所有AI都属于此类。
强人工智能(Strong AI / AGI):具备与人类同等水平的通用智能,能理解、学习和应用知识解决任何问题,目前尚未实现。
超人工智能(Artificial Superintelligence,ASI)
假设中在几乎所有领域都远超最聪明人类的智能体,仍处于理论阶段。
智能体(Agent)
能够感知环境并采取行动以实现目标的实体,可以是软件程序(如聊天机器人)或硬件设备(如机器人)。
机器学习是实现AI的主要途径,通过数据训练模型,使计算机能从经验中自动改进。
监督学习(Supervised Learning)
使用带标签的数据训练模型,输入与输出一一对应,如分类、回归任务(识别猫狗图片)。
无监督学习(Unsupervised Learning)
使用无标签数据,让模型自行发现数据中的模式或结构,如聚类、降维(客户分群)。
半监督学习(Semi-supervised Learning)
结合少量标签数据和大量无标签数据训练,降低标注成本。
强化学习(Reinforcement Learning,RL)
智能体通过与环境交互,根据奖惩信号学习最优策略,如AlphaGo、自动驾驶。
特征(Feature)
用于描述数据的属性或变量,如预测房价时的面积、卧室数量。
标签(Label)
监督学习中希望预测的结果,如邮件是否为垃圾邮件(是/否)。
模型(Model)
通过算法从数据中学习到的规律或表示,可用于对新数据进行预测。
训练(Training)
使用数据调整模型参数,使模型预测误差最小的过程。
过拟合(Overfitting)
模型在训练数据上表现极好,但在新数据上表现差,因为学到了噪声或细节。
欠拟合(Underfitting)
模型过于简单,无法捕捉数据中的规律,在训练和测试数据上表现都差。
泛化能力(Generalization)
模型对新数据的适应能力,是衡量模型好坏的关键。
交叉验证(Cross-validation)
将数据分成多份,轮流用作训练集和验证集,以更稳健地评估模型性能。
偏差与方差(Bias and Variance)
偏差:模型预测值与真实值的差距,高偏差导致欠拟合。
方差:模型对训练数据波动的敏感度,高方差导致过拟合。
损失函数(Loss Function)
衡量模型预测值与真实值差异的函数,训练目标是最小化损失。
梯度下降(Gradient Descent)
通过计算损失函数对参数的梯度,沿梯度反方向更新参数以最小化损失的优化算法。
超参数(Hyperparameter)
训练前人为设定的参数,如学习率、神经网络层数,不由模型自动学习。
深度学习的核心是构建多层神经网络,自动提取数据的层次化特征。
神经网络(Neural Network)
模拟人脑神经元结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元。
神经元(Neuron)
神经网络的基本单元,接收输入、加权求和、经激活函数输出。
激活函数(Activation Function)
引入非线性,使网络能学习复杂模式。常用:ReLU、Sigmoid、Tanh。
层(Layer)
输入层:接收原始数据。
隐藏层:中间计算层,可有多层。
输出层:输出最终结果。
深度神经网络(Deep Neural Network,DNN)
具有多个隐藏层的神经网络。
卷积神经网络(Convolutional Neural Network,CNN)
专为处理网格状数据(如图像)设计的网络,利用卷积核提取局部特征,常用于计算机视觉。
循环神经网络(Recurrent Neural Network,RNN)
处理序列数据(如文本、时间序列)的网络,具有记忆能力,但存在长程依赖问题。
长短期记忆网络(Long Short-Term Memory,LSTM)
RNN的一种变体,通过门控机制有效解决长期依赖问题。
门控循环单元(Gated Recurrent Unit,GRU)
LSTM的简化版本,参数更少,训练更快。
Transformer
基于自注意力机制的架构,彻底改变了自然语言处理领域,是BERT、GPT等模型的基础。
自注意力(Self-Attention)
Transformer的核心,允许序列中每个位置关注所有其他位置,捕捉长距离依赖。
多头注意力(Multi-Head Attention)
将自注意力并行执行多次,从不同表示子空间学习信息。
前馈网络(Feed-Forward Network,FFN)
Transformer中的组成部分,对每个位置的表示进行非线性变换。
位置编码(Positional Encoding)
Transformer中为序列添加位置信息的方法,因为模型本身不具备顺序概念。
残差连接(Residual Connection)
将输入直接加到输出上,缓解深层网络梯度消失问题,让训练更深网络成为可能。
层归一化(Layer Normalization)
对每个样本的特征进行归一化,稳定训练过程。
反向传播(Backpropagation)
计算损失函数对每个参数梯度的算法,用于更新网络权重。
优化器(Optimizer)
实现梯度下降的具体算法,如SGD、Adam、RMSprop。
批量(Batch)
一次训练中同时输入模型的多个样本。
轮次(Epoch)
完整遍历一次整个训练数据集。
学习率(Learning Rate)
梯度下降中参数更新的步长,过大可能震荡,过小收敛慢。
嵌入(Embedding)
将离散对象(如词、商品)映射为连续向量,便于模型处理。
词嵌入(Word Embedding)
将单词表示为低维稠密向量,语义相近的词向量距离近,如Word2Vec、GloVe。
让计算机理解、生成和处理人类语言的技术。
分词(Tokenization)
将文本切分成更小的单元(词、子词、字符),如“我爱AI” → ["我", "爱", "AI"]。
词性标注(Part-of-Speech Tagging)
为每个词标注词性,如名词、动词。
命名实体识别(Named Entity Recognition,NER)
识别文本中的专有名词(人名、地名、机构名等)。
句法分析(Parsing)
分析句子的语法结构,如依存关系、短语结构。
语义理解(Semantic Understanding)
理解文本的含义,包括词义消歧、意图识别等。
情感分析(Sentiment Analysis)
判断文本的情感倾向,如正面、负面、中性。
机器翻译(Machine Translation,MT)
将一种语言自动翻译成另一种语言,如谷歌翻译。
文本生成(Text Generation)
根据输入自动生成连贯的文本,如写诗、新闻稿。
问答系统(Question Answering,QA)
自动回答用户提出的问题,可基于文档或知识库。
对话系统(Dialogue System)
与用户进行多轮对话,如聊天机器人、任务型助手。
预训练语言模型(Pre-trained Language Model,PLM)
在大规模语料上预先训练好的语言模型,下游任务微调即可使用,如BERT、GPT。
BERT(Bidirectional Encoder Representations from Transformers)
Google提出的双向Transformer编码器,善于理解上下文,适合分类、阅读理解等任务。
GPT(Generative Pre-trained Transformer)
OpenAI提出的自回归语言模型,擅长文本生成,如ChatGPT。
大语言模型(Large Language Model,LLM)
参数规模巨大(数十亿至数千亿)的语言模型,如GPT-4、Llama、通义千问。
上下文学习(In-Context Learning)
大模型通过提示词中的示例直接学习任务,无需更新参数。
思维链(Chain-of-Thought,CoT)
引导模型生成中间推理步骤,提升复杂问题解决能力。
提示工程(Prompt Engineering)
设计输入提示词以引导大模型生成期望输出的技术。
微调(Fine-tuning)
在预训练模型基础上,用特定任务数据继续训练,使模型适应下游任务。
RLHF(Reinforcement Learning from Human Feedback)
基于人类反馈的强化学习,用于使大模型输出更符合人类偏好(如ChatGPT)。
幻觉(Hallucination)
大模型生成看似合理但事实上错误或无依据的内容。
让计算机理解和处理图像、视频等视觉信息。
图像分类(Image Classification)
将图像分为预定义类别,如“猫”、“狗”。
目标检测(Object Detection)
识别图像中多个物体的位置和类别,用边界框标出。
图像分割(Image Segmentation)
语义分割:给每个像素分配类别标签。
实例分割:区分同一类别的不同个体。
人脸识别(Face Recognition)
识别或验证图像中的人脸身份。
图像生成(Image Generation)
根据输入(如文本、噪声)生成新图像,如GAN、扩散模型。
图像超分辨率(Super-Resolution)
从低分辨率图像重建高分辨率图像。
图像风格迁移(Style Transfer)
将一幅图像的风格应用到另一幅图像上。
卷积核(Kernel / Filter)
CNN中用于提取特征的矩阵,在图像上滑动进行卷积操作。
池化(Pooling)
降低特征图尺寸的操作,如最大池化、平均池化。
感受野(Receptive Field)
网络中某层神经元对应的输入图像区域大小。
智能体(Agent)
做出决策的实体。
环境(Environment)
智能体交互的外部世界。
状态(State)
环境在某个时刻的描述。
动作(Action)
智能体可执行的操作。
奖励(Reward)
环境对智能体动作的反馈信号(标量),指导学习。
策略(Policy)
从状态到动作的映射,可以是确定性的或随机的。
值函数(Value Function)
评估某个状态或状态下采取某个动作的长期期望回报。
Q-learning
一种无模型的强化学习算法,学习动作值函数(Q函数)。
深度强化学习(Deep Reinforcement Learning)
使用深度神经网络近似策略或值函数,如DQN、AlphaGo。
蒙特卡洛树搜索(Monte Carlo Tree Search,MCTS)
通过模拟搜索最优决策的算法,AlphaGo中用到。
生成对抗网络(Generative Adversarial Network,GAN)
由生成器和判别器组成,两者博弈,生成器力图生成逼真数据,判别器判断真假。
变分自编码器(Variational Autoencoder,VAE)
基于自编码器的生成模型,学习数据的潜在分布,可生成新样本。
扩散模型(Diffusion Model)
通过逐步向数据添加噪声(前向过程),然后学习逆向去噪过程来生成数据,如Stable Diffusion、DALL·E 2。
自回归模型(Autoregressive Model)
逐个生成序列元素,每一步都依赖之前生成的内容,如GPT、PixelCNN。
TensorFlow
Google开发的开源深度学习框架,支持静态计算图。
PyTorch
Facebook开发的开源深度学习框架,动态计算图,研究界广泛使用。
Keras
高级神经网络API,可运行在TensorFlow、Theano等后端上。
JAX
Google开发的数值计算库,支持自动微分和GPU/TPU加速。
Hugging Face Transformers
提供大量预训练模型(BERT、GPT等)的库,简化NLP开发。
LangChain
用于构建基于大语言模型应用的框架,提供链式调用、记忆、工具集成等。
Scikit-learn
Python机器学习库,包含传统ML算法和工具。
Pandas / NumPy
数据处理和数值计算的基础库。
OpenCV
计算机视觉开源库,提供图像处理、视频分析等功能。
CUDA
NVIDIA的并行计算平台,允许利用GPU加速深度学习计算。
图神经网络(Graph Neural Network,GNN)
处理图结构数据(如社交网络、分子结构)的神经网络。
迁移学习(Transfer Learning)
将一个任务上学到的知识迁移到另一个相关任务,减少训练数据需求。
多模态(Multimodal)
涉及多种类型数据(如文本、图像、音频)的AI任务,如文生图、视频理解。
联邦学习(Federated Learning)
在保护数据隐私的前提下,分布式训练模型,数据不离开本地。
可解释AI(Explainable AI,XAI)
旨在让AI模型的决策过程透明、可理解,增强信任。
对抗样本(Adversarial Example)
对输入故意添加微小扰动,导致模型错误分类的样本。
元学习(Meta Learning)
学会如何学习,让模型能够快速适应新任务。
零样本学习(Zero-shot Learning)
模型能识别训练中从未见过的类别,依靠语义描述。
少样本学习(Few-shot Learning)
仅用少量样本就能完成新任务的学习。
知识蒸馏(Knowledge Distillation)
将大模型(教师)的知识转移到小模型(学生),压缩模型体积。
模型量化(Quantization)
降低模型参数精度(如从32位浮点转为8位整数),减少内存和加速推理。
剪枝(Pruning)
移除神经网络中不重要的连接或神经元,压缩模型。
这个列表涵盖了AI领域的主要名词,但AI技术日新月异,新术语将会不断涌现。

全部评论