CNN 深度學習指南
已發表: 2022-10-14人工智能縮小人類和機器技能之間差距的能力已顯著提高。 專業人士和業餘愛好者都專注於該領域的許多方面以取得出色的成績。 計算機視覺領域是幾個這樣的學科之一。
我們在美國的 AI 和 ML 項目
LJMU 和 IIITB 的機器學習和人工智能理學碩士 | IIITB 機器學習和人工智能執行 PG 計劃 |
要探索我們所有的課程,請訪問下面的頁面。 | |
機器學習課程 |
該領域旨在讓計算機能夠像人類一樣看待和理解世界,並將這種理解用於各種任務,包括圖像和視頻識別、圖像分析和分類、媒體娛樂、推薦系統、自然語言處理等。是用於隨著時間的推移開發和改進計算機視覺深度學習改進的主要算法。 讓我們進一步了解深度學習算法!
獲得世界頂尖大學的機器學習認證。 獲得碩士、Executive PGP 或高級證書課程以加快您的職業生涯。
什麼是卷積神經網絡?
卷積神經網絡或 CNN 是一種深度學習方法,它可以接收輸入圖像,賦予圖像中各種元素和對象的重要性,例如可學習的權重和偏差,並區分它們。 相比之下,CNN 所需的預處理比其他分類技術要少得多。 CNN 有能力學習這些過濾器和屬性,而在原始技術中,過濾器是手工設計的。
CNN 的架構受視覺皮層組織方式的影響,類似於人腦中神經元的連接網絡。 單個神經元僅在這個受限的視野區域(稱為感受野)中對刺激作出反應。 一連串這樣的重疊覆蓋了整個視野。
卷積神經網絡的架構
卷積神經網絡的架構不同於傳統的神經網絡。 常規神經網絡轉換輸入,將其通過幾個隱藏層。 每一層都由一組神經元組成,這些神經元與下一層中的所有神經元相連。 最終的全連接輸出層是表示預測的地方。
卷積神經網絡的結構略有不同。 這些層首先按三個維度排列:寬度、高度和深度。 此外,下一層中只有一部分神經元與下一層中的神經元相連。 然後將輸出壓縮為單個概率分數向量,並與卷積層一起分組。
CNN由兩部分組成:
從隱藏層提取特徵
網絡將在本節中進行一系列卷積和池化操作來檢測特徵。 如果您有老虎的圖像,網絡將在這裡識別出老虎、兩隻耳朵和四隻腿的條紋。
部分分類
在這些檢索到的特徵之上,在這種情況下,卷積層將用作分類器。 他們將給出圖像的對象與算法的預測相匹配的可能性。
特徵提取
CNN 的關鍵組件之一是卷積。 兩個函數的數學組合以產生第三個函數稱為卷積。 它結合了兩組數據。 在使用濾波器或內核的 CNN 的情況下,通過對輸入數據執行卷積來創建特徵圖。 通過在輸入上移動濾波器來執行卷積。 每個位置執行矩陣乘法並將輸出求和到特徵圖上。
我們對輸入進行多次卷積,對每個操作使用不同的過濾器。 結果,產生了各種特徵圖。 卷積層的輸出最終使用所有這些特徵圖進行組裝。
與其他所有神經網絡一樣,我們採用激活過程來使輸出非線性,其中激活函數用於在卷積神經網絡中發送卷積的輸出。
卷積神經網絡的類型
卷積層:
CNN 的基礎組件是卷積層。 它承載了網絡上的大部分計算負載。 該層在兩個矩陣之間進行點積,其中一個是內核,一個可學習參數的集合,另一個是感受野的約束區域。 與圖片相比,內核空間更小,但更深。 這表明如果圖像由三個通道組成,kerne'sl 的寬度和高度在空間上會很小; 但是,深度將上升到所有三個通道。
在前向傳遞過程中,內核在圖片的高度和寬度上移動,創建了該感受區域的圖像表示。 結果,創建了稱為激活圖的圖像的二維表示,揭示了內核在圖像中每個位置的響應。 步幅是內核可滑動大小的名稱。
池化層:
該層僅降低了處理數據所需的計算能力。 它是通過進一步減少突出顯示的矩陣的維度來實現的。 我們試圖從這一層的一小部分鄰域中提取主要特徵。
平均池化和最大池化是兩種不同類型的池化策略。
與 Max-pooling 相比,Max-pooling 在池化區域內的所有值中取最高值,Average-pooling 對池化區域內的所有值進行平均。
我們現在有了一個包含層池化後圖像關鍵元素的矩陣,而且這個矩陣的維數更小,這在接下來的階段會很有幫助。
全連接層:
學習卷積層輸出提供的高級特徵的非線性排列的一種廉價方法是添加一個全連接層。 在那個區域,全連接層現在正在學習一個可能不是線性的函數。
將其轉換為適合我們的多級感知器的格式後,我們會將輸入圖像展平為列向量。 前饋神經網絡接收扁平化的輸出,並在每次訓練迭代中使用反向傳播。 該模型可以使用 Softmax 分類方法通過識別多個時期的主要和特定低級特徵來對圖像進行分類。
非線性層:
非線性層通常包含在卷積層之後,以向激活圖添加非線性,因為卷積是線性操作,圖像不是線性的。
非線性操作有多種形式,最常見的是:
乙狀結腸
sigmoid 非線性的數學公式是 () = 1/(1+e)。 它將實數值分解為 0 到 1 之間的範圍。當激活位於尾部時,sigmoid 的梯度幾乎為零,這是一個非常不利的 sigmoid 特徵。 如果局部梯度變得太小,反向傳播將有效地殺死梯度。 此外,假設神經元的輸入完全是正的。 在這種情況下,Sigmoid 輸出要么完全為正,要么完全為負,從而導致權重梯度更新的鋸齒形動態。
譚
Tanh 將實數值壓縮到 [-1, 1] 範圍內。 像 sigmoid 神經元一樣,激活飽和,但與它們不同的是,它的輸出是零中心的。
ReLU
整流線性單元 (ReLU) 最近廣受歡迎。 它執行函數 ()=max (0,) 計算。 換句話說,激活只存在於零閾值處。 ReLU 將收斂速度提高了六倍,並且比 sigmoid 和 tanh 更可靠。
不幸的是,ReLU 在訓練期間可能很脆弱,這是一個缺點。 強梯度可以通過阻止神經元進一步更新來更新它。 但是,我們可以通過選擇適當的學習率來完成這項工作。
流行的機器學習和人工智能博客
物聯網:歷史、現在和未來 | 機器學習教程:學習機器學習 | 什麼是算法? 簡單易行 |
印度機器人工程師的薪水:所有角色 | 機器學習工程師的一天:他們在做什麼? | 什麼是物聯網(物聯網) |
排列與組合:排列與組合之間的區別 | 人工智能和機器學習的 7 大趨勢 | 使用 R 進行機器學習:您需要知道的一切 |
使用 UpGrad 開始您的 CNN 深度學習指南
與 LJMU 合作,在 UpGrad 註冊機器學習和人工智能理學碩士。
證書課程通過提供與行業相關的主題,讓學生為當前和未來的技術角色做好準備。 該計劃還重點強調了主題專家提供的真實項目、多個案例研究和國際學術。
通過註冊,您可以利用 UpGrad 的獨家功能,例如網絡監控、學習課程和 360 度學習支持。
CNN的深度學習算法是什麼?
CNN 的操作方式是獲取一張圖像,根據圖像中的各個項目為其分配權重,然後將它們相互分離。 與其他深度學習算法相比,CNN 需要極少的數據預處理。
CNN 與深度學習的區別是什麼?
深度學習更常用於營銷,聽起來比實際更專業。 深度神經網絡有很多種,包括 CNN。 CNN 因其在圖像識別中的眾多優勢用途而廣受歡迎。
為什麼CNN優於全連接?
卷積沒有密集連接,並且並非所有輸入節點都對每個輸出節點都有影響。 多虧了這一點,卷積層現在可以更靈活地學習。 此外,每層的權重更少,這有利於圖像數據等高維輸入。
CNN只用於圖片嗎?
是的。 任何 2D 和 3D 數據數組都可以使用 CNN 進行處理。