<button id="50imr"><label id="50imr"></label></button>

  • <em id="50imr"><ol id="50imr"></ol></em>

            第六百三十章(1 / 2)

            對于一個給定的感知器來說,它的權重和閾值也是給定的,代表一種決策策略。因此,我們可以通過調整權重和閾值來改變這個策略。

            關于閾值threshold,這里需要指出的一點是,為了表達更方便,一般用它的相反數來表達:b=-threshold,這里的b被稱為偏置(bias)。

            這樣,前面計算輸出的規則就修改為:如果w1x1+w2x2+w3x3+...+b&gt;0,則輸出output=1,否則輸出output=0。

            而權重w1=w2=-2,則b=3。

            很明顯,只有當x1=x2=1的時候,output=0,因為(?2)*1+(?2)*1+3=?1,小于0。而其它輸入的情況下,都是output=1。

            所以在實際情況下,這其實是一個“與非門”!

            在計算機科學中,與非門是所有門部件中比較特殊的一個,它可以通過組合的方式表達任何其它的門部件。這被稱為與非門的普適性(GateUniversality)。

            既然感知器能夠通過設置恰當的權重和偏置參數,來表達一個與非門,那么理論上它也就能表達任意其它的門部件。

            因此,感知器也能夠像前面三體中的例子一樣,通過彼此連接從而組成一個計算機系統。

            但這似乎沒有什么值得驚喜的,我們已經有現成的計算機了,這只不過是讓事情復雜化了而已。

            單個感知器能做的事情很有限。要做復雜的決策,所以則是需要將多個感知器連接起來。

            而實際中的網絡可能會有上萬個,甚至數十萬個參數,如果手工一個一個地去配置這些參數,恐怕這項任務永遠也完成不了了。

            而神經網絡最有特色的地方就在于這里。

            我們不是為網絡指定所有參數,而是提供訓練數據,讓網絡自己在訓練中去學習,在學習過程中為所有參數找到最恰當的值。

            大體的運轉思路是這樣:我們告訴網絡當輸入是某個值的時候,我們期望的輸出是什么,這樣的每一份訓練數據,稱為訓練樣本(trainingexample)。

            這個過程相當于老師在教學生某個抽象的知識的時候,舉一個具體例子:

            一般來說,我們舉的例子越多,就越能表達那個抽象的知識。這在神經網絡的訓練中同樣成立。

            我們可以向網絡灌入成千上萬個訓練樣本,然后網絡就自動從這些樣本中總結出那份隱藏在背后的抽象的知識。

            這份知識的體現,就在于網絡的所有權重和偏置參數的取值。

            假設各個參數有一個初始值,當我們輸入一個訓練樣本的時候,它會根據當前參數值計算出唯一的一個實際輸出值。

            這個值可能跟我們期望的輸出值不一樣。想象一下,這時候,我們可以試著調整某些參數的值,讓實際輸出值和期望輸出值盡量接近。

            當所有的訓練樣本輸入完畢之后,網絡參數也調整到了最佳值,這時每一次的實際輸出值和期望輸出值已經無限接近,這樣訓練過程就結束了。

            最新小說: 身為鋼鐵俠弟弟的我卻成了超人 妄圖她 天官志 為了自救,老祖她在線劇透 民國諜王之我能搜集記憶碎片 姐,別說你是普通人了行不行 出獄后,我閃婚了植物人大佬 都市靈異:我吃詭就變強! 無限大樓:開局成為監管者 我拿陽壽玩惡魔游戲,一發入魂!
            <button id="50imr"><label id="50imr"></label></button>

          1. <em id="50imr"><ol id="50imr"></ol></em>

                    国产成人一区二区三区