- 相關(guān)推薦
人工智能與機器學(xué)習(xí)的區(qū)別
人工智能早已不是一個新名詞,它的發(fā)展歷史已經(jīng)有幾十年。下面是小編分享的,歡迎大家閱讀!
【人工智能與機器學(xué)習(xí)的區(qū)別】
從80年代早期開始,當(dāng)時計算機科學(xué)家設(shè)計出可以學(xué)習(xí)和模仿人類行為的算法。在學(xué)習(xí)方面,最重要的算法是神經(jīng)網(wǎng)絡(luò),但由于模型過于強大,沒有足夠的數(shù)據(jù)支持,導(dǎo)致不是很成功。然而,在一些更具體的任務(wù)中,使用數(shù)據(jù)來適應(yīng)函數(shù)的想法獲得了巨大的成功,這也構(gòu)成了機器學(xué)習(xí)的基礎(chǔ)。在模仿方面,人工智能在圖像識別、語音識別和自然語言處理方面有著廣泛的應(yīng)用。專家們花費了大量時間去創(chuàng)建邊緣計算,彩色型材,N-gram語言模型,語法樹等,不料所獲成績平平。
傳統(tǒng)的機器學(xué)習(xí)
機器學(xué)習(xí)(ML)技術(shù)在預(yù)測中發(fā)揮了重要作用,機器學(xué)習(xí)已經(jīng)經(jīng)歷了多代,有一套完備的模型結(jié)構(gòu),如:
·線性回歸
·Logistic回歸
·決策樹
·支持向量機
·貝葉斯模型
·正則化模型
·集成模型
·神經(jīng)網(wǎng)絡(luò)
每一個預(yù)測模型都基于一定的算法結(jié)構(gòu),參數(shù)可進行調(diào)整。訓(xùn)練預(yù)測模型涉及以下步驟:
1.選擇模型結(jié)構(gòu)(例如,邏輯回歸、隨機森林等)。
2.用訓(xùn)練數(shù)據(jù)(輸入和輸出)對模型進行反饋。
3.學(xué)習(xí)算法將輸出最優(yōu)模型(即具有特定參數(shù)的模型,使訓(xùn)練誤差最小化)。
每個模型都有自己的特點,在某些任務(wù)中表現(xiàn)很好,在其他方面也卻不盡人意。但一般來說,我們可以把它們分為低功耗(簡單)模型和大功率(復(fù)雜)模型。在不同的模型之間進行選擇是一個非常棘手的問題。傳統(tǒng)上,使用低功耗/簡單模型比使用高功率/復(fù)雜模型要好,原因如下:
·在我們擁有大量的處理能力之前,訓(xùn)練高功率模型需要花費很長時間。
·直到我們有一個龐大的數(shù)據(jù)量,培養(yǎng)高功率模型會導(dǎo)致過擬合問題(由于高功率模型具有豐富的參數(shù),可以適應(yīng)多種數(shù)據(jù)的形狀,我們可能最終會訓(xùn)練出一個與當(dāng)前訓(xùn)練數(shù)據(jù)非常相關(guān)的模型,而不是對未來數(shù)據(jù)進行預(yù)測)。
然而,選擇低功耗模型存在著所謂的"欠擬合"問題,即模型結(jié)構(gòu)過于簡單,無法在較復(fù)雜的情況下適應(yīng)訓(xùn)練數(shù)據(jù)。(假設(shè)下面的數(shù)據(jù)有一個二次關(guān)系:y=5*X的平方;沒有方法可以擬合一個線性回歸:y=A,B,B,B,無論我們選擇什么樣的A和B。)
為了減輕"不適合的問題",數(shù)據(jù)科學(xué)家通常會應(yīng)用他們的"領(lǐng)域知識"來產(chǎn)生"輸入特性",它與輸出有更直接的關(guān)系。(例如,返回到二次關(guān)系y=5*X的平方),然后通過選取a=5和b=0,擬合線性回歸。
機器學(xué)習(xí)的一個主要障礙是這個特征工程步驟,它要求領(lǐng)域?qū)<以谶M入培訓(xùn)過程之前識別重要的信號。特征工程步驟非常手工,需要大量的領(lǐng)域?qū)iT知識,因此成為當(dāng)今大多數(shù)機器學(xué)習(xí)任務(wù)的主要瓶頸。換句話說,如果我們沒有足夠的處理能力和足夠的數(shù)據(jù),那么我們必須使用低功耗/簡單的模型,這需要我們花大量的時間和精力來創(chuàng)建適當(dāng)?shù)妮斎胩匦。這是大多數(shù)數(shù)據(jù)科學(xué)家花時間做的事情。
神經(jīng)網(wǎng)絡(luò)的回歸
在2000年代早期,隨著大容量數(shù)據(jù)時代大量的細粒度事件數(shù)據(jù)的收集,隨著云計算和大規(guī)模并行處理基礎(chǔ)設(shè)施的進步,機器處理能力得到了極大的提高。我們不再局限于低功耗/簡單的模型。例如,當(dāng)今最流行的兩種主流機器學(xué)習(xí)模型是隨機森林和梯度增強樹。然而,盡管它們都非常強大,并提供非線性模型擬合訓(xùn)練數(shù)據(jù),數(shù)據(jù)科學(xué)家仍然需要仔細地創(chuàng)建功能,以達到良好的性能。
與此同時,計算機科學(xué)家重新使用了許多層的神經(jīng)網(wǎng)絡(luò)來完成這些人類模擬任務(wù)。這給新出生的DNN(深度神經(jīng)網(wǎng)絡(luò))在圖像分類和語音識別的任務(wù)提供了一個重大的突破。
DNN的主要區(qū)別是,你可以發(fā)出原信號,(例如,RGB像素值)直接到DNN沒有創(chuàng)造任何特定于域的輸入特征。通過多層次的神經(jīng)元(這就是為什么它被稱為"深"的神經(jīng)網(wǎng)絡(luò)),能夠自動生成相應(yīng)的功能,通過各層最后提供了一個很好的預(yù)測。這大大節(jié)省了"特征工程"的努力,也是數(shù)據(jù)科學(xué)家遇到的一個主要瓶頸。
DNN也演變成許多不同的網(wǎng)絡(luò)結(jié)構(gòu),所以我們美國有線電視新聞網(wǎng)(卷積神經(jīng)網(wǎng)絡(luò)),RNN(神經(jīng)網(wǎng)絡(luò))、LSTM(長短期記憶)、GAN(生成對抗網(wǎng)絡(luò)),遷移學(xué)習(xí),注意模型…整個光譜被稱為"深度學(xué)習(xí)",這是當(dāng)今全機器學(xué)習(xí)界關(guān)注的焦點。
強化學(xué)習(xí)
另一個關(guān)鍵的'部分是如何模仿一個人(或動物)學(xué)習(xí)。想象一下感知/行為/獎賞周期的非常自然的動物行為。一個人或動物首先會通過感知他或她處于什么狀態(tài)來理解環(huán)境;谶@一點,他或她會選擇一個"動作"把他或她帶到另一個"狀態(tài)",然后他或她會得到一個"獎勵",如此循環(huán)重復(fù)。
這種學(xué)習(xí)方法(稱為強化學(xué)習(xí))與傳統(tǒng)的有監(jiān)督機器學(xué)習(xí)的曲線擬合方法有很大的不同。特別是,強化學(xué)習(xí)的發(fā)生非常迅速,因為每一個新的反饋(如執(zhí)行一個動作和獲得一個獎勵)立即被發(fā)送來影響隨后的決定。強化學(xué)習(xí)已經(jīng)獲得了巨大的成功在自動駕駛汽車以及AlphaGO(下棋機器人)。
強化學(xué)習(xí)也提供了一個平滑的預(yù)測和優(yōu)化集成,因為它保持一個信念的當(dāng)前狀態(tài)和可能的轉(zhuǎn)移概率時采取不同的行動,然后作出決定,哪些行動會帶來最好的結(jié)果。
深度學(xué)習(xí)+強化學(xué)習(xí)=人工智能
與經(jīng)典機器學(xué)習(xí)技術(shù)相比,深度學(xué)習(xí)提供了一個更強大的預(yù)測模型,通常能產(chǎn)生良好的預(yù)測。與經(jīng)典的優(yōu)化模型相比,強化學(xué)習(xí)提供了更快的學(xué)習(xí)機制,并且更適應(yīng)環(huán)境的變化。
【人工智能與機器學(xué)習(xí)的區(qū)別】相關(guān)文章:
人工智能機器人論文11-04
人工智能機器人論文(7篇)11-05
人工智能機器人論文7篇11-04
人工智能學(xué)習(xí)心得11-02
人工智能機器人論文匯編7篇11-05
人工智能學(xué)習(xí)心得3篇11-03
人工智能作文08-23
人工智能心得12-01
人工智能與生活07-28