【数据科学之基础思维系列】第2讲:向量的基本运算和范数
发布网友
发布时间:2024-04-21 05:46
我来回答
共1个回答
热心网友
时间:2024-05-12 00:27
数据科学基础思维系列第二讲:探索向量的运算与范数世界
在上一讲中,我们揭开了向量和矩阵的神秘面纱。今天,我们将深入探讨向量的四重奏:转置、加法、数乘和内积,以及它们在实际问题中的应用。
向量转置:在Python中,对单个向量进行转置时,需特别注意,将其转换为矩阵形式,以便进行操作。这一转换能够帮助我们更好地理解和处理数据。
向量加法:如同数学中的基本法则,向量加法既满足交换律也满足结合律,为我们构建复杂的数据结构提供了基础。
数乘:这个操作赋予向量以缩放能力,无论是放大还是缩小,都是通过标量与向量的乘积来实现的,对数据分析尤为重要。
内积(点乘),也称为标量积,有着广泛的应用,例如情感分析中的相似度计算。通过计算两个向量的内积,我们可以揭示它们的相似程度。
实战示例:考虑一个关于年龄的数据集,我们可以用向量来表示年龄分布、总人数、以及年龄超过某个值的总人数,通过内积来计算平均年龄,直观地理解数据分布。
向量的运算不止于此。让我们继续探索:外积,在二维中代表面积,三维时涉及标准单位向量和右手定则,是理解空间关系的关键。
Hadamard积,则是通过元素对应相乘,常用于股票价格变化的分析,捕捉每个元素的同步变化。
范数与距离:引入范数,如同一把尺子,衡量向量间的距离,L1、L2和L∞范数各自对应着曼哈顿、欧式和切比雪夫距离,它们在模型预测、KNN和k-means聚类中发挥着重要作用。
连接几何与统计:内积与相关系数之间存在着深刻的联系。内积不仅体现了向量间的余弦相似度,还与Pearson相关系数紧密相连。当期望值为零时,相关系数简化为内积,揭示了数据间的几何相似性,从而将统计学中的相关性映射到向量空间的几何概念上。
下一站:我们将深入探讨线性相关性和向量空间的深度内涵,让我们共同期待更多数据科学的奥秘。别忘了,在探索的道路上,你的支持与关注是我们的动力源泉。