向量相似度计算与Softmax概率分布对比
向量相似度计算与Softmax概率分布对比
向量相似度计算和“向量相乘 + Softmax”在目的、计算逻辑和应用场景上有明显区别,下面通过文本匹配和语言模型生成的例子详细对比:
一、核心区别:目的不同
对比项 | 向量相似度计算 | 向量相乘 + Softmax(以 LLM 输出为例) |
---|---|---|
核心目的 | 衡量两个向量的相似程度(如文本 A 和文本 B 是否相关) | 生成概率分布(如 LLM 预测下一个词的概率) |
典型场景 | 文本检索(找相似文档)、推荐系统(用户画像匹配) | 语言模型生成(如 ChatGPT 输出下一个词)、分类任务 |
输出结果 | 相似度得分(如余弦相似度 0.8) | 概率值(如“苹果”概率 0.6,“香蕉”概率 0.2 ) |