L2-归一化:一种把向量按其 L2范数(欧几里得长度) 缩放到指定长度(通常为 1)的处理方法。常用于机器学习/深度学习中特征缩放,使不同样本的向量长度一致,便于比较方向(如余弦相似度)。
(也常写作 L2 normalization、ℓ2-normalization。)
We apply L2-normalization to each embedding before comparing them.
我们在比较之前对每个嵌入向量进行 L2-归一化。
In face recognition, L2-normalization can stabilize training by constraining feature vectors to lie on a hypersphere, making cosine-based decision boundaries more consistent.
在人脸识别中,L2-归一化通过把特征向量约束在超球面上来稳定训练,从而让基于余弦相似度的决策边界更一致。
/ˌɛl ˈtuː ˌnɔːrmələˈzeɪʃən/
L2 来自数学中对向量长度的记法,指 L2范数(也称欧几里得范数);normalization 源自 “normal”(标准的、规范的),表示把数据调整到某种“标准尺度”。合起来就是“按 L2 范数进行标准化/归一化”。