人工智能(AI)领域涉及的名词做个汇总

2人浏览 / 0人评论 / 添加收藏

近来人工智能(AI)比较火,对于想投身AI领域的同学,有必要对AI相关的名词了解清楚。其领域涉及的概念繁多,为了方便查阅,我将常见且重要的AI名词按照类别进行了整理和解释。这个术语表涵盖了从基础理论到前沿技术的核心词汇,希望能帮助你快速理解。

🧠 基础概念

人工智能(Artificial Intelligence,AI)
指通过计算机程序或机器模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。目标是使机器能像人一样思考、学习、决策。

图灵测试(Turing Test)
由艾伦·图灵提出,测试机器是否能表现出与人类无法区分的智能行为。如果一台机器在对话中能让人类无法分辨它是人还是机器,就认为它具有智能。

强人工智能 vs 弱人工智能

弱人工智能(Weak AI / Narrow AI):专注于完成特定任务(如人脸识别、语音助手),当前所有AI都属于此类。

强人工智能(Strong AI / AGI):具备与人类同等水平的通用智能,能理解、学习和应用知识解决任何问题,目前尚未实现。

超人工智能(Artificial Superintelligence,ASI)
假设中在几乎所有领域都远超最聪明人类的智能体,仍处于理论阶段。

智能体(Agent)
能够感知环境并采取行动以实现目标的实体,可以是软件程序(如聊天机器人)或硬件设备(如机器人)。

📊 机器学习(Machine Learning,ML)

机器学习是实现AI的主要途径,通过数据训练模型,使计算机能从经验中自动改进。

监督学习(Supervised Learning)
使用带标签的数据训练模型,输入与输出一一对应,如分类、回归任务(识别猫狗图片)。

无监督学习(Unsupervised Learning)
使用无标签数据,让模型自行发现数据中的模式或结构,如聚类、降维(客户分群)。

半监督学习(Semi-supervised Learning)
结合少量标签数据和大量无标签数据训练,降低标注成本。

强化学习(Reinforcement Learning,RL)
智能体通过与环境交互,根据奖惩信号学习最优策略,如AlphaGo、自动驾驶。

特征(Feature)
用于描述数据的属性或变量,如预测房价时的面积、卧室数量。

标签(Label)
监督学习中希望预测的结果,如邮件是否为垃圾邮件(是/否)。

模型(Model)
通过算法从数据中学习到的规律或表示,可用于对新数据进行预测。

训练(Training)
使用数据调整模型参数,使模型预测误差最小的过程。

过拟合(Overfitting)
模型在训练数据上表现极好,但在新数据上表现差,因为学到了噪声或细节。

欠拟合(Underfitting)
模型过于简单,无法捕捉数据中的规律,在训练和测试数据上表现都差。

泛化能力(Generalization)
模型对新数据的适应能力,是衡量模型好坏的关键。

交叉验证(Cross-validation)
将数据分成多份,轮流用作训练集和验证集,以更稳健地评估模型性能。

偏差与方差(Bias and Variance)

偏差:模型预测值与真实值的差距,高偏差导致欠拟合。

方差:模型对训练数据波动的敏感度,高方差导致过拟合。

损失函数(Loss Function)
衡量模型预测值与真实值差异的函数,训练目标是最小化损失。

梯度下降(Gradient Descent)
通过计算损失函数对参数的梯度,沿梯度反方向更新参数以最小化损失的优化算法。

超参数(Hyperparameter)
训练前人为设定的参数,如学习率、神经网络层数,不由模型自动学习。

🧬 深度学习(Deep Learning,DL)

深度学习的核心是构建多层神经网络,自动提取数据的层次化特征。

神经网络(Neural Network)
模拟人脑神经元结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元。

神经元(Neuron)
神经网络的基本单元,接收输入、加权求和、经激活函数输出。

激活函数(Activation Function)
引入非线性,使网络能学习复杂模式。常用:ReLU、Sigmoid、Tanh。

层(Layer)

输入层:接收原始数据。

隐藏层:中间计算层,可有多层。

输出层:输出最终结果。

深度神经网络(Deep Neural Network,DNN)
具有多个隐藏层的神经网络。

卷积神经网络(Convolutional Neural Network,CNN)
专为处理网格状数据(如图像)设计的网络,利用卷积核提取局部特征,常用于计算机视觉。

循环神经网络(Recurrent Neural Network,RNN)
处理序列数据(如文本、时间序列)的网络,具有记忆能力,但存在长程依赖问题。

长短期记忆网络(Long Short-Term Memory,LSTM)
RNN的一种变体,通过门控机制有效解决长期依赖问题。

门控循环单元(Gated Recurrent Unit,GRU)
LSTM的简化版本,参数更少,训练更快。

Transformer
基于自注意力机制的架构,彻底改变了自然语言处理领域,是BERT、GPT等模型的基础。

自注意力(Self-Attention)
Transformer的核心,允许序列中每个位置关注所有其他位置,捕捉长距离依赖。

多头注意力(Multi-Head Attention)
将自注意力并行执行多次,从不同表示子空间学习信息。

前馈网络(Feed-Forward Network,FFN)
Transformer中的组成部分,对每个位置的表示进行非线性变换。

位置编码(Positional Encoding)
Transformer中为序列添加位置信息的方法,因为模型本身不具备顺序概念。

残差连接(Residual Connection)
将输入直接加到输出上,缓解深层网络梯度消失问题,让训练更深网络成为可能。

层归一化(Layer Normalization)
对每个样本的特征进行归一化,稳定训练过程。

反向传播(Backpropagation)
计算损失函数对每个参数梯度的算法,用于更新网络权重。

优化器(Optimizer)
实现梯度下降的具体算法,如SGD、Adam、RMSprop。

批量(Batch)
一次训练中同时输入模型的多个样本。

轮次(Epoch)
完整遍历一次整个训练数据集。

学习率(Learning Rate)
梯度下降中参数更新的步长,过大可能震荡,过小收敛慢。

嵌入(Embedding)
将离散对象(如词、商品)映射为连续向量,便于模型处理。

词嵌入(Word Embedding)
将单词表示为低维稠密向量,语义相近的词向量距离近,如Word2Vec、GloVe。

🗣️ 自然语言处理(Natural Language Processing,NLP)

让计算机理解、生成和处理人类语言的技术。

分词(Tokenization)
将文本切分成更小的单元(词、子词、字符),如“我爱AI” → ["我", "爱", "AI"]。

词性标注(Part-of-Speech Tagging)
为每个词标注词性,如名词、动词。

命名实体识别(Named Entity Recognition,NER)
识别文本中的专有名词(人名、地名、机构名等)。

句法分析(Parsing)
分析句子的语法结构,如依存关系、短语结构。

语义理解(Semantic Understanding)
理解文本的含义,包括词义消歧、意图识别等。

情感分析(Sentiment Analysis)
判断文本的情感倾向,如正面、负面、中性。

机器翻译(Machine Translation,MT)
将一种语言自动翻译成另一种语言,如谷歌翻译。

文本生成(Text Generation)
根据输入自动生成连贯的文本,如写诗、新闻稿。

问答系统(Question Answering,QA)
自动回答用户提出的问题,可基于文档或知识库。

对话系统(Dialogue System)
与用户进行多轮对话,如聊天机器人、任务型助手。

预训练语言模型(Pre-trained Language Model,PLM)
在大规模语料上预先训练好的语言模型,下游任务微调即可使用,如BERT、GPT。

BERT(Bidirectional Encoder Representations from Transformers)
Google提出的双向Transformer编码器,善于理解上下文,适合分类、阅读理解等任务。

GPT(Generative Pre-trained Transformer)
OpenAI提出的自回归语言模型,擅长文本生成,如ChatGPT。

大语言模型(Large Language Model,LLM)
参数规模巨大(数十亿至数千亿)的语言模型,如GPT-4、Llama、通义千问。

上下文学习(In-Context Learning)
大模型通过提示词中的示例直接学习任务,无需更新参数。

思维链(Chain-of-Thought,CoT)
引导模型生成中间推理步骤,提升复杂问题解决能力。

提示工程(Prompt Engineering)
设计输入提示词以引导大模型生成期望输出的技术。

微调(Fine-tuning)
在预训练模型基础上,用特定任务数据继续训练,使模型适应下游任务。

RLHF(Reinforcement Learning from Human Feedback)
基于人类反馈的强化学习,用于使大模型输出更符合人类偏好(如ChatGPT)。

幻觉(Hallucination)
大模型生成看似合理但事实上错误或无依据的内容。

👁️ 计算机视觉(Computer Vision,CV)

让计算机理解和处理图像、视频等视觉信息。

图像分类(Image Classification)
将图像分为预定义类别,如“猫”、“狗”。

目标检测(Object Detection)
识别图像中多个物体的位置和类别,用边界框标出。

图像分割(Image Segmentation)

语义分割:给每个像素分配类别标签。

实例分割:区分同一类别的不同个体。

人脸识别(Face Recognition)
识别或验证图像中的人脸身份。

图像生成(Image Generation)
根据输入(如文本、噪声)生成新图像,如GAN、扩散模型。

图像超分辨率(Super-Resolution)
从低分辨率图像重建高分辨率图像。

图像风格迁移(Style Transfer)
将一幅图像的风格应用到另一幅图像上。

卷积核(Kernel / Filter)
CNN中用于提取特征的矩阵,在图像上滑动进行卷积操作。

池化(Pooling)
降低特征图尺寸的操作,如最大池化、平均池化。

感受野(Receptive Field)
网络中某层神经元对应的输入图像区域大小。

🤖 强化学习(Reinforcement Learning)

智能体(Agent)
做出决策的实体。

环境(Environment)
智能体交互的外部世界。

状态(State)
环境在某个时刻的描述。

动作(Action)
智能体可执行的操作。

奖励(Reward)
环境对智能体动作的反馈信号(标量),指导学习。

策略(Policy)
从状态到动作的映射,可以是确定性的或随机的。

值函数(Value Function)
评估某个状态或状态下采取某个动作的长期期望回报。

Q-learning
一种无模型的强化学习算法,学习动作值函数(Q函数)。

深度强化学习(Deep Reinforcement Learning)
使用深度神经网络近似策略或值函数,如DQN、AlphaGo。

蒙特卡洛树搜索(Monte Carlo Tree Search,MCTS)
通过模拟搜索最优决策的算法,AlphaGo中用到。

🎨 生成模型

生成对抗网络(Generative Adversarial Network,GAN)
由生成器和判别器组成,两者博弈,生成器力图生成逼真数据,判别器判断真假。

变分自编码器(Variational Autoencoder,VAE)
基于自编码器的生成模型,学习数据的潜在分布,可生成新样本。

扩散模型(Diffusion Model)
通过逐步向数据添加噪声(前向过程),然后学习逆向去噪过程来生成数据,如Stable Diffusion、DALL·E 2。

自回归模型(Autoregressive Model)
逐个生成序列元素,每一步都依赖之前生成的内容,如GPT、PixelCNN。

🛠️ 框架与工具

TensorFlow
Google开发的开源深度学习框架,支持静态计算图。

PyTorch
Facebook开发的开源深度学习框架,动态计算图,研究界广泛使用。

Keras
高级神经网络API,可运行在TensorFlow、Theano等后端上。

JAX
Google开发的数值计算库,支持自动微分和GPU/TPU加速。

Hugging Face Transformers
提供大量预训练模型(BERT、GPT等)的库,简化NLP开发。

LangChain
用于构建基于大语言模型应用的框架,提供链式调用、记忆、工具集成等。

Scikit-learn
Python机器学习库,包含传统ML算法和工具。

Pandas / NumPy
数据处理和数值计算的基础库。

OpenCV
计算机视觉开源库,提供图像处理、视频分析等功能。

CUDA
NVIDIA的并行计算平台,允许利用GPU加速深度学习计算。

🧮 其他重要术语

图神经网络(Graph Neural Network,GNN)
处理图结构数据(如社交网络、分子结构)的神经网络。

迁移学习(Transfer Learning)
将一个任务上学到的知识迁移到另一个相关任务,减少训练数据需求。

多模态(Multimodal)
涉及多种类型数据(如文本、图像、音频)的AI任务,如文生图、视频理解。

联邦学习(Federated Learning)
在保护数据隐私的前提下,分布式训练模型,数据不离开本地。

可解释AI(Explainable AI,XAI)
旨在让AI模型的决策过程透明、可理解,增强信任。

对抗样本(Adversarial Example)
对输入故意添加微小扰动,导致模型错误分类的样本。

元学习(Meta Learning)
学会如何学习,让模型能够快速适应新任务。

零样本学习(Zero-shot Learning)
模型能识别训练中从未见过的类别,依靠语义描述。

少样本学习(Few-shot Learning)
仅用少量样本就能完成新任务的学习。

知识蒸馏(Knowledge Distillation)
将大模型(教师)的知识转移到小模型(学生),压缩模型体积。

模型量化(Quantization)
降低模型参数精度(如从32位浮点转为8位整数),减少内存和加速推理。

剪枝(Pruning)
移除神经网络中不重要的连接或神经元,压缩模型。

这个列表涵盖了AI领域的主要名词,但AI技术日新月异,新术语将会不断涌现。

全部评论