241.AI
書迷正在閱讀:1717新美洲帝國、穿成反派后我和惡毒女配he、【西方羅曼】高H合集(強制,乙女,美人受)、惡毒女配與女反派、時光的未來、獨白手法、夭壽啦!大師姐的道侶逃婚了、天才師徒闖蕩文壇江湖、總裁jiejie給的半顆糖、混蛋,你可看見向日葵的枯萎
“叮!” 張曉龍思考之際,一封企鵝圍脖團隊的郵件就送到了他的郵箱。 “阿蔡,接口文檔收一下。除了公眾號,你帶一個這周前把圍脖助手做到微信里去?!?/br> 在三樓吼了一嗓子,張曉龍就回到自己辦公室。 現(xiàn)在馬華騰是源源不斷地將一切微信能利用的資源調(diào)集過來,他可不愿意拖沓什么。 “還差了哪里?”張曉龍敲擊著鍵盤,心中還是有些不定。 ...... 下午,路舟就開車回到了逸仙大學(xué)。 今年春節(jié)前,微訊的隱形人陸銘就一直在籌謀和逸仙做一個合作項目。實際需求和一些雛形自然是路舟所提出來的。 春節(jié)學(xué)校放假前,路舟就已經(jīng)是接到了陸銘的通知,說是項目學(xué)校已經(jīng)批了下來。做法上自然是微訊提供資金預(yù)算,再由陸銘帶著一些研究生來推進項目的研究。 這般下來,陸銘也算扎了個根。而現(xiàn)在是節(jié)都過完了,路舟手頭不那么忙,這也就得來瞧兩眼。 等到了逸仙大學(xué)計算機系的實驗樓,路舟就往微訊合作項目的b404室走去。 實驗樓路舟還是熟悉的,畢竟數(shù)月前夢谷廣告甚至還在樓下辦公。 眼看到了地方,門口又是圍了一圈人。場景別提多讓人熟悉。 路舟,“......” “借一借?!?/br> 路舟越過人群進了里頭,卻發(fā)現(xiàn)是沒人。他拿出手機就要給陸銘打電話。 “喂師兄,你人呢?怎么不在實驗室?!?/br> “哦路舟啊。怎么,你在實驗室?” “對。我看沒事我就過來看看,忘了給你提前說。” “那你等等,我臨時到南校走點手續(xù)。我助手小宇是在實驗室的,中午他都在最里頭折疊床睡覺?!?/br> 路舟起身往實驗室后頭走去,一個男生在地上睡得正香。 “......” “還有你這外頭還圍了圈人,不用管吧?!?/br> “都是安排了面試的。小宇醒了讓他安排就好?!?/br> “行。那掛了?!?/br> 掛斷電話,路舟也就隨便找了個位置坐下,手上是翻看著案上的一些資料。 他一看,其中一份是關(guān)于神經(jīng)網(wǎng)絡(luò)的梳理資料,而另一份路舟估摸著像是份考題。 這第一份資料,是微訊目前數(shù)據(jù)挖掘和文本理解系統(tǒng)的一部分理論形式說明,路舟早前就看過完整的部分。而這也是微訊目前一些已經(jīng)實際使用的功能。 比如針對信息的分類、非結(jié)構(gòu)化知識抽取、熱點追蹤等。當(dāng)然,這也會用在一些鑒黃、鑒違規(guī)的場景。 其實路舟吩咐陸銘所做也是一些和人工智能相關(guān)的研究。 當(dāng)然,硬要說的話,路舟也覺這ai也并沒有大部分人所認為的那般神秘。對ai的研究是自計算機誕生不久就有之。 而現(xiàn)在,機器學(xué)習(xí)也是已經(jīng)被不少互聯(lián)網(wǎng)公司所使用,諸如千度圖搜采用卷積神經(jīng)網(wǎng)絡(luò)來處理圖像、搜狗等輸入法產(chǎn)品采用循環(huán)神經(jīng)網(wǎng)絡(luò)來處理語音識別和文本處理等。 夢谷之中,如今隨著數(shù)據(jù)多個產(chǎn)品的推進,每天都在產(chǎn)生著大量的數(shù)據(jù)。這些也成為了喂養(yǎng)供機器學(xué)習(xí)成長的養(yǎng)料。 “請問是陸師兄嗎?” 路舟正思考著,聽了聲音抬眼一看,是三個學(xué)生,想來應(yīng)該是面試的人員。 “嗯。我是。”路舟點了點頭。 這戴著眼鏡略顯清秀的學(xué)生說道,“師兄好。我是甄臻。” 她一旁的女生說道,“師兄好,廖文秀?!?/br> “曹文聰?!?/br> 路舟,“你們好,面試的話再等等。門外的同學(xué)也進來等吧?!?/br> 門外的學(xué)生一聽,一窩蜂都進門坐到座位上等待。位置是不多,沒座的也只能站著等。 “師兄可以給我們講講之前你下發(fā)的題嗎?”甄臻問道。 隨后她又補了一句,“呃,如果面試要涉及就算了?!?/br> 路舟拿起考題看了一眼,“也行。隨便講講應(yīng)該是沒什么問題?!?/br> “這個卷說不上多復(fù)雜。首先是先針對神經(jīng)元進行設(shè)計,轉(zhuǎn)變成數(shù)學(xué)運算的問題,那需要先給輸入數(shù)據(jù)增加權(quán)重,再之后對結(jié)果進行一個偏置,最后則通過一個激活函數(shù)來獲得一個最終值。常見的激活函數(shù)比如可以使用生物學(xué)中常用的sigmoid作為閾值函數(shù)。 這就是個簡單的搭建過程。” 路舟停了下來,思考片刻又接著說了下去。 “而在訓(xùn)練這個網(wǎng)絡(luò)之前,我們可以用均方誤差來定義loss值,確定訓(xùn)練之后的預(yù)測結(jié)果是否達到要求。均方誤差我就不多講了,應(yīng)該都懂吧?!?/br> “......” 路舟抬眼看了三人一眼,“那么接下來訓(xùn)練的優(yōu)化就集中在了將loss值減小。具體來說就是對上述得到的loss值函數(shù)形式進行鏈式求導(dǎo)......” 甄臻忽然就是舉手,“師兄,能不能演算一遍?!?/br> 路舟笑了笑,“哪專業(yè)的,數(shù)學(xué)沒學(xué)好吧。” 廖文秀,“也不是呢師兄,主要是研究生沒選的人工智能方向,思路還沒打開。” 路舟聽了也不多說,他也只得拿了筆在一張白紙上給三人演示。 “事實上loss會包含我剛提到的權(quán)重w和偏置參數(shù)。所以我們在調(diào)整w時,loss到底是增大還是減???這就需要我們求一個l/w的偏導(dǎo)數(shù)。 這里我們直接鏈式求導(dǎo),然后根據(jù)loss的定義去求出第一個偏導(dǎo)數(shù),再根據(jù)神經(jīng)元定義的h值再次求導(dǎo),再配合激活函數(shù)sigmoid最后得到總的求導(dǎo)公式......” 甄臻,“......” 路舟,“ok,這方法一般被叫做反向傳播。經(jīng)過這個計算后,我們是可以得出對w變化時,loss函數(shù)最終的變化曲線。而對這個entity,我們接下來可以再用一個隨機梯度下降sgd的優(yōu)化算法來進行優(yōu)化。” 廖文秀,“......” 路舟,“sgd主要的作用在于權(quán)重和偏置值的調(diào)整。首先我們定義一個學(xué)習(xí)率的常數(shù),它將決定整個神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。這樣,我們再逐步調(diào)整權(quán)重和偏置的過程中,loss也能夠不斷降低。 最后loss達到了要求,整個流程也就走完了,模型也就出來了?!?/br> 曹文聰,“......” 路舟見三人表情有些懵逼,感覺是有些尷尬,“額......” 他抹了一把臉,直接喚醒了一旁的電腦,“好吧,這么說有點虛,我直接給你們寫個代碼樣例。我就直接用python來示范吧,用numpy的模塊。大概呢還是按照我們剛剛的理論基礎(chǔ),先定義幾個需要用的函數(shù)......” 五分鐘后。 “好了。大概就是這樣?!?/br> 三人,“......” 這也忒快了點。 甄臻有些膽小地又舉了手,“師兄。博士和研究生差距有這么大嘛?我怎么一點聽不進去......” 路舟聽了就樂了,“別。我就一本科生。陸師兄面前我可不敢造次。” 三人,“?!”