在2.3 節(jié)中,我們了解了線性代數的基礎知識,并了解了如何使用它來表達轉換數據的常見操作。線性代數是我們在深度學習和更廣泛的機器學習中所做的大部分工作的關鍵數學支柱之一。雖然第 2.3 節(jié) 包含足夠的機制來傳達現代深度學習模型的機制,但該主題還有更多內容。在本節(jié)中,我們將更深入地介紹線性代數運算的一些幾何解釋,并介紹一些基本概念,包括特征值和特征向量。
22.1.1. 向量幾何
首先,我們需要討論向量的兩種常見幾何解釋,即空間中的點或方向。從根本上說,向量是一個數字列表,例如下面的 Python 列表。
數學家最常將其寫成列向量或行 向量,也就是說
或者
這些通常有不同的解釋,其中數據示例是列向量,而用于形成加權和的權重是行向量。但是,保持靈活性可能是有益的。正如我們在2.3 節(jié)中所述 ,盡管單??個向量的默認方向是列向量,但對于表示表格數據集的任何矩陣,將每個數據示例視為矩陣中的行向量更為常規(guī)。
給定一個向量,我們應該給它的第一個解釋是空間中的一個點。在二維或三維中,我們可以通過使用向量的分量來定義這些點在空間中相對于稱為原點的固定參考的位置來可視化這些點。這可以在圖 22.1.1中看到。
這種幾何觀點使我們能夠在更抽象的層面上考慮問題。不再面臨一些看似無法克服的問題,例如將圖片分類為貓或狗,我們可以開始將任務抽象地視為空間中的點集合,并將任務描繪為發(fā)現如何分離兩個不同的點簇。
平行地,人們經常對矢量采取第二種觀點:作為空間中的方向。我們不僅可以想到向量 v=[3,2]?作為地點3右邊的單位和2從原點向上的單位,我們也可以把它看作是要采取的方向本身3向右的步驟和2 加強。這樣,我們認為圖 22.1.2中的所有向量都是相同的。
這種轉變的好處之一是我們可以從視覺上理解向量加法的行為。特別是,我們遵循一個向量給出的方向,然后遵循另一個向量給出的方向,如圖22.1.3所示。
矢量減法有類似的解釋。通過考慮身份u=v+(u?v), 我們看到向量u?v是帶我們離開點的方向v直截了當 u.
22.1.2。點積和角
正如我們在2.3 節(jié)中看到的,如果我們取兩個列向量u和v,我們可以通過計算形成他們的點積:
因為(22.1.3)是對稱的,我們將鏡像經典乘法的符號并寫成
強調交換向量的順序將產生相同答案的事實。
點積(22.1.3)也有一個幾何解釋:它與兩個向量之間的角度密切相關。考慮圖 22.1.4中所示的角度。
首先,讓我們考慮兩個特定的向量:
載體v是長度r并平行于x
評論
查看更多