加入星計劃,您可以享受以下權益:

  • 創(chuàng)作內容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
  • 相關推薦
  • 電子產業(yè)圖譜
申請入駐 產業(yè)圖譜

演變中的神經網絡

2020/11/28
141
閱讀需 5 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

旅行商問題[1] 是優(yōu)化算法的試金石。 可以使用多種方法進行求解。比如下面是 Will Campbell ?利用遺傳算法求解美國各州首府旅行商問題[2] 的動態(tài)過程。利用神經網絡中的自組織映射網絡(SOFM),連續(xù) Hopfield 網絡也可以進行求解。

▲ 使用遺傳算法求解旅行商問題

?

下面是利用自組織特征映射(SOFM)用于求解十個地點中間的旅行商問題的過程。在 SOFM 網絡的競爭層采用首尾相連的一維拓撲結構,學習速率從 0.3 線性降低到 0, 學習半徑從 2 線性減小到 0。200 步訓練過程網絡對應的位置的演變過程如下圖所示:

▲ 循環(huán)和增加噪聲兩種效果下的搜索結果

在上述搜索過程中,對于每個搜索節(jié)點增加了隨機噪聲和定向游動,提高了網絡搜索的能力。

前面使用 SOFM 網絡進行優(yōu)化,應用的是自組織特征映射網絡的“保序特性”,也就是網絡的競爭層的神經元相互之間的拓撲結構與對應訓練樣本在數(shù)據(jù)空間中的分布上保持有相似的關系。

比如下面使用來自于三角形內均勻分布的數(shù)據(jù)點訓練一維拓撲結構的 SOFM,隨著訓練過程的收斂競爭網絡中的神經元逐步擴展到數(shù)據(jù)所在的三角形。

?

下面顯示的是二維拓撲結構的 SOFM 網絡在來自于區(qū)間隨機采樣的數(shù)據(jù)訓練下的收斂情況。

▲ 2D 拓撲結構的 SOFM 的訓練結果

?

下面是一次訓練扭曲的分布結果:

▲ 發(fā)生扭曲的訓練過程

?

上面的自組織特征映射網絡是來自于對競爭算法(WTA:勝者為王)的改進。下面顯示的是兩個節(jié)點的競爭網絡節(jié)點位置(紅點)在五個訓練樣本(藍點)作用下競爭的結果。

▲ 變學習速率的訓練過程

?

簡單的使用競爭算法,可以完成對于數(shù)據(jù)內部規(guī)律的學習。

比如下面是三個神經網絡初始的位置。

▲ 三個神經元初始化后的情況

?

使用下面帶有噪聲的 C,I,T 字符進行訓練。三個神經元便可以分別演化到 C,I,T 的平均結果。

▲ 添加噪聲后的訓練樣本

?

經過 100 次競爭學習之后他們最終演變的形狀。

▲ 競爭演變過程

?

在競爭的結果上,再增加一層映射,便可以去逼近函數(shù)。下面顯示的是單相對偶傳播網絡(CPN)逼近 Hermit 函數(shù)的演變過程。

?

增加競爭神經元節(jié)點的個數(shù),使用雙向 CPN 可以進一步提高逼近函數(shù)的效果。

▲ 雙向 CPN 函數(shù)逼近結果

?

對于神經網絡,如果只是依靠競爭(無導師訓練)所能夠達到的精度會受到數(shù)據(jù)量和分布的影響。對于只有少數(shù)數(shù)據(jù)量的場景,只有競爭往往是無法達到很好的效果的,除非是一個天才。

適當引入導師信號可以在小樣本下提高學習的效果。這就是學習矢量量化網絡(LVQ)優(yōu)勢。下面是一個極端的例子,可以看到 LVQ 網絡對于小樣本下的學習能力是非常強的。

▲ LVQ 訓練過程

?

▲ LVQ 訓練中隱層節(jié)點演變過程

?

對于復雜的非線性映射,最有效的方式就是通過淺層網絡的隨機梯度下降,來獲得較為可靠的訓練結果。

下面是 MATLAB 中的 Peaks 二維函數(shù)。

▲ peaks 函數(shù)圖像

?

采集到一些離散的數(shù)據(jù),對于有隱層網絡進行訓練。如果數(shù)據(jù)采集的足夠多,分布的足夠合理,可以很快獲得其中的映射關系。

▲ 采集到的數(shù)據(jù)樣本

?

下圖顯示了一個網絡在訓練過程中對應的輸入輸出關系演變過程。

▲ 神經網絡輸入輸出對應函數(shù)曲面演變過程

相關推薦

電子產業(yè)圖譜

公眾號TsinghuaJoking主筆。清華大學自動化系教師,研究興趣范圍包括自動控制、智能信息處理、嵌入式電子系統(tǒng)等。全國大學生智能汽車競賽秘書處主任,技術組組長,網稱“卓大大”。