欧美亚洲自拍偷拍_日本一区视频在线观看_国产二区在线播放_亚洲男人第一天堂

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁(yè) » 企資快報(bào) » 服務(wù) » 正文

推薦這三個(gè)超參優(yōu)化庫(kù)(附python代碼)

放大字體  縮小字體 發(fā)布日期:2021-08-26 02:58:32    作者:媒體小英    瀏覽次數(shù):37
導(dǎo)讀

在傳統(tǒng)的算法建模過(guò)程中,影響算法性能的一個(gè)重要環(huán)節(jié)、也可能是最為耗時(shí)和無(wú)趣的一項(xiàng)工作就是算法的調(diào)參,即超參數(shù)優(yōu)化(Hyper-parameter Optimization,HPO),因此很多算法工程師都會(huì)調(diào)侃的自稱(chēng)"調(diào)參俠"。近期在

在傳統(tǒng)的算法建模過(guò)程中,影響算法性能的一個(gè)重要環(huán)節(jié)、也可能是最為耗時(shí)和無(wú)趣的一項(xiàng)工作就是算法的調(diào)參,即超參數(shù)優(yōu)化(Hyper-parameter Optimization,HPO),因此很多算法工程師都會(huì)調(diào)侃的自稱(chēng)"調(diào)參俠"。

近期在研究一些AutoML相關(guān)的論文和實(shí)現(xiàn),而在AutoML中的一個(gè)核心組件就是HPO。借此機(jī)會(huì),本文梳理總結(jié)Python中三種常見(jiàn)的可實(shí)現(xiàn)HPO的庫(kù),并提供一個(gè)簡(jiǎn)單的示例。

HPO,全稱(chēng)Hyper-parameter Optimization,即超參優(yōu)化。之所以做這項(xiàng)工作是出于機(jī)器學(xué)習(xí)領(lǐng)域的兩個(gè)基本事實(shí):

no free lunch。即天下沒(méi)有免費(fèi)午餐,用在機(jī)器學(xué)習(xí)領(lǐng)域是指沒(méi)有一種算法可以適用于所有的機(jī)器學(xué)習(xí)問(wèn)題,換言之A算法可能在這個(gè)數(shù)據(jù)集上表現(xiàn)最優(yōu),但在另一個(gè)數(shù)據(jù)集上表現(xiàn)最好的則是另一個(gè)B算法。

對(duì)于同一算法,不同的超參數(shù)可能對(duì)算法性能影響很大。例如線(xiàn)性模型中的正則化系數(shù)、決策樹(shù)模型中樹(shù)的最大深度等,這些都屬于模型擬合之外的參數(shù),需要認(rèn)為指定,故而稱(chēng)之為超參數(shù)。

正因如此,所以算法工程師們?cè)谔嵘惴ㄐ阅軙r(shí)常常需要對(duì)比多個(gè)模型,同時(shí)在各模型內(nèi)部又要調(diào)整多組超參,以期實(shí)現(xiàn)最優(yōu)效果。在這個(gè)超參調(diào)優(yōu)過(guò)程中,當(dāng)前的實(shí)現(xiàn)方式主要是如下三種:

最為簡(jiǎn)單也最為熟知的莫過(guò)于網(wǎng)格搜索,在sklearn中的實(shí)現(xiàn)是GridSearch,通過(guò)對(duì)各超參數(shù)提供所有可能的候選值,該算法會(huì)自動(dòng)暴力嘗試所有可能的超參組合,并給出最佳結(jié)果。該實(shí)現(xiàn)方法直觀易懂,但缺點(diǎn)也很明顯,那就是效率不高,而且只能接受離散取值

與網(wǎng)格搜索類(lèi)似、但不再暴力枚舉的一種方法是隨機(jī)搜索,其優(yōu)化過(guò)程其實(shí)也更為簡(jiǎn)單:即對(duì)每個(gè)超參數(shù)均隨機(jī)選取一個(gè)候選值,而后組成一次隨機(jī)抽選的超參組合。最后返回所有隨機(jī)嘗試后的最優(yōu)組合。這種方法實(shí)現(xiàn)簡(jiǎn)單,搜索次數(shù)可大可小,但卻往往能取得不錯(cuò)的效果。但所得到的最好結(jié)果可能不是最優(yōu)解。

貝葉斯優(yōu)化。除了網(wǎng)格搜索和隨機(jī)搜索外,貝葉斯優(yōu)化可能是目前最為理想和高效的超參優(yōu)化(從其名字可以看出,這類(lèi)方法跟貝葉斯大神有一定關(guān)系,大概是由于其中要用到的代理函數(shù)與貝葉斯后驗(yàn)概率有關(guān)吧)。基于貝葉斯優(yōu)化算法實(shí)現(xiàn)的HPO,其一般形式可抽象為如下SMBO的過(guò)程:

《Bayesian Optimization Primer》

其中,各符號(hào)及變量的含義如下:

f:目標(biāo)函數(shù),在機(jī)器學(xué)習(xí)場(chǎng)景中即為根據(jù)超參數(shù)組合x(chóng)i得到評(píng)估指標(biāo)yi的過(guò)程

X:超參搜索空間,其中每個(gè)xi即為X中的一組取值;

yi:目標(biāo)函數(shù)的得分,在機(jī)器學(xué)習(xí)場(chǎng)景中即為評(píng)估指標(biāo)結(jié)果,例如accuracy_score

D:所有(xi, yi)組成的數(shù)據(jù)集

M:代理函數(shù),即要得到的由xi得到y(tǒng)i的映射方法。從機(jī)器學(xué)習(xí)的視角來(lái)理解,既然是由一組超參數(shù)(可理解為特征)擬合一個(gè)連續(xù)的得分結(jié)果(回歸目標(biāo)),所以可用一個(gè)回歸模型來(lái)實(shí)現(xiàn)。這里之所以稱(chēng)之為代理函數(shù),則是因?yàn)檎G闆r下,應(yīng)該是真正的用對(duì)應(yīng)的算法模型+超參數(shù)進(jìn)行實(shí)際的訓(xùn)練和評(píng)估,得到真實(shí)的評(píng)估結(jié)果,而此時(shí)為了避免這種大計(jì)算量的過(guò)程(expensive),所以才選擇用一個(gè)簡(jiǎn)單快速的函數(shù)加以擬合替代

S:采集函數(shù),即根據(jù)當(dāng)前得到的代理函數(shù)M和超參搜索空間X,如何獲取下一組可能帶來(lái)性能提升的超參組合。

基于上述符號(hào)定義,SMBO過(guò)程如下:

指定輸入?yún)?shù)f、X、M、S,給定一組初始的(xi, yi),作為初始訓(xùn)練集完成代理函數(shù)M的評(píng)估;

根據(jù)采集函數(shù)S和代理函數(shù)M,得到當(dāng)前情況下可能獲得最優(yōu)得分的超參組合x(chóng)i+1

將新一組超參數(shù)帶入待優(yōu)化的機(jī)器學(xué)習(xí),得到真實(shí)的yi+1

將最新數(shù)據(jù)(xi+1, yi+1)加入到數(shù)據(jù)集D中,重新擬合代理函數(shù)M

如此迭代執(zhí)行T次,或者達(dá)到目標(biāo)效果結(jié)束

這一優(yōu)化過(guò)程是逐一選取潛在的最優(yōu)超參數(shù),并將其結(jié)果加入到數(shù)據(jù)集中繼續(xù)完成代理函數(shù)的優(yōu)化過(guò)程,所以這也就是其稱(chēng)之為Sequential的原因,代理函數(shù)M則呼應(yīng)model-based。而毫無(wú)疑問(wèn),這其中有兩個(gè)重要細(xì)節(jié)實(shí)現(xiàn):一個(gè)是代理函數(shù)M的選取和建模;另一個(gè)是采集函數(shù)S的設(shè)計(jì)。這兩個(gè)過(guò)程的差異,也決定了具體的貝葉斯優(yōu)化實(shí)現(xiàn)的不同。

這里簡(jiǎn)單介紹幾種主流的代理函數(shù)M的選取:

高斯過(guò)程,即將K個(gè)超參數(shù)到評(píng)分的映射關(guān)系抽象為K維聯(lián)合高斯分布,從而每次都根據(jù)數(shù)據(jù)集D來(lái)計(jì)算該聯(lián)合高斯分布的均值和方差即可。但這種方式的一個(gè)顯著缺點(diǎn)是僅適用于連續(xù)性超參,且一般僅在較低維度下適用;

TPE,tree-structured Parzen estimator,主要思想是用到核密度函數(shù)估計(jì)(KDE,kernel density estimator),會(huì)根據(jù)yi的取值高低將數(shù)據(jù)集劃分為兩個(gè)區(qū)域,從而在兩個(gè)區(qū)域分別用kde方法擬合其分布。最后的目標(biāo)就是盡可能的最大化高分的概率g(x)同時(shí)最小化低分的概率l(x)(實(shí)際用到的是最小化比值:l(x)/g(x));

Random Forest,即將代理函數(shù)M用一個(gè)隨機(jī)森林回歸模型加以擬合,其中每棵子樹(shù)均通過(guò)在數(shù)據(jù)集D的隨機(jī)子集進(jìn)行擬合確保隨機(jī)性。當(dāng)拿到一組新的超參組合時(shí),即可通過(guò)該隨機(jī)森林模型中每棵子樹(shù)的評(píng)分結(jié)果的均值作為衡量該組超參數(shù)的潛力。

至于采集函數(shù)的選取,則也有不同的設(shè)計(jì),例如PI(Probability of improvement)和EI(Expected Improvement)等,這里不再展開(kāi)。

對(duì)于這三種代理函數(shù)的抽象實(shí)現(xiàn),Python中均有相應(yīng)的庫(kù)可直接調(diào)用。本文選取三個(gè)庫(kù),分別對(duì)應(yīng)一種代理函數(shù)的貝葉斯優(yōu)化方法:

GP,對(duì)應(yīng)python庫(kù)bayes_opt

TPE,對(duì)應(yīng)python庫(kù)hyperopt

RandomForest,對(duì)應(yīng)python庫(kù)scikit-optimizer,簡(jiǎn)稱(chēng)skopt

這里以sklearn中提供的經(jīng)典二分類(lèi)數(shù)據(jù)集breast_cancer為例,給出三個(gè)優(yōu)化庫(kù)的基本實(shí)現(xiàn)方法:

數(shù)據(jù)集加載和默認(rèn)參數(shù)隨機(jī)森林的baseline

from sklearn.datasets import load_breast_cancerfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.model_selection import cross_val_score, train_test_split

X, y = load_breast_cancer(return_X_y=True)X_train, X_test, y_train, y_test = train_test_split(X, y)

rf = RandomForestClassifierrf.fit(X_train, y_train)rf.score(X_test, y_test)# 默認(rèn)參數(shù)RF得分:0.958041958041958

bayes_opt實(shí)現(xiàn)

from bayes_opt import BayesianOptimization

# bayes_opt中的目標(biāo)函數(shù)def fun_bo(n_estimators, max_depth, min_samples_split, min_samples_leaf): rf = RandomForestClassifier(n_estimators=int(n_estimators), max_depth=int(max_depth), min_samples_split=int(min_samples_split), min_samples_leaf=int(min_samples_leaf)) score = cross_val_score(rf, X_train, y_train) return score.mean

# 貝葉斯優(yōu)化中的搜索空間space_bo = { 'n_estimators': (10, 300), 'max_depth': (1, 21), 'min_samples_split': (2, 20), 'min_samples_leaf': (2, 20)}bo = BayesianOptimization( fun_bo, space_bo)bo.maximize # 一鍵完成優(yōu)化

# 得到最優(yōu)超參結(jié)果param = {k:int(v) for k, v in bo.max['params'].items}rf_hp = RandomForestClassifier(**param)rf_hp.fit(X_train, y_train)rf_hp.score(X_test, y_test)# bayes_opt優(yōu)化得分:0.965034965034965

hyperopt實(shí)現(xiàn)

from hyperopt import fmin, hp, tpe, Trials

# hyperopt中的目標(biāo)函數(shù)def fun_hp(param): rf = RandomForestClassifier(**param, random_state=3) score = cross_val_score(rf, X_train, y_train) return 1-score.mean

# hyperopt中的搜索空間space_hp = { "n_estimators":hp.uniformint("n_estimators", 10, 300), "max_depth":hp.uniformint("max_depth", 1, 21), "min_samples_split":hp.uniformint("min_samples_split", 2, 20), "min_samples_leaf":hp.uniformint("min_samples_leaf", 2, 20)}

# 記錄優(yōu)化過(guò)程,fmin實(shí)現(xiàn)一鍵優(yōu)化,采用優(yōu)化算法是tpetrials = Trialsparam = fmin(fun_hp, space_hp, tpe.suggest, max_evals=100, trials=trials)

param = {k:int(v) for k, v in param.items} # 最優(yōu)超參數(shù)rf_hp = RandomForestClassifier(**res)rf_hp.fit(X_train, y_train)rf_hp.score(X_test, y_test)# hyperopt優(yōu)化得分:0.965034965034965

skopt實(shí)現(xiàn)

from skopt import forest_minimize, space

# skopt中的目標(biāo)函數(shù)def fun_sk(param): param = dict(zip(['n_estimators', 'max_depth', 'min_samples_split', 'min_samples_leaf'], param)) rf = RandomForestClassifier(**param) score = cross_val_score(rf, X_train, y_train) return 1 - score.mean

# skopt中的搜索空間space_sk = [ space.Integer(10, 300, name='n_estimators'), space.Integer(1, 21, name='max_depth'), space.Integer(2, 20, name='min_samples_split'), space.Integer(2, 20, name='min_samples_leaf')]

# 采用RF進(jìn)行優(yōu)化,得到最優(yōu)超參結(jié)果res = forest_minimize(fun_sk, space_sk)param = dict(zip(['n_estimators', 'max_depth', 'min_samples_split', 'min_samples_leaf'], res.x))rf_hp = RandomForestClassifier(**param)rf_hp.fit(X_train, y_train)rf_hp.score(X_test, y_test)# skopt優(yōu)化得分:0.965034965034965

在上述超參優(yōu)化過(guò)程中,由于所用數(shù)據(jù)集較小,所以在制定相應(yīng)的目標(biāo)函數(shù)時(shí)均采用交叉驗(yàn)證的方式以提高泛華性能。同時(shí),三種超參優(yōu)化方式所得到最優(yōu)優(yōu)化結(jié)果相同,這一方面源于數(shù)據(jù)集較小造成的,另一方面其本身也有一定的隨機(jī)性。但無(wú)論如何,三個(gè)優(yōu)化庫(kù)在具體使用上是相近的,在優(yōu)化效果方面也算相當(dāng)?shù)摹?/p>

Python 程序員深度學(xué)習(xí)的“四大名著”:



這四本書(shū)著實(shí)很不錯(cuò)!我們都知道現(xiàn)在機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的資料太多了,面對(duì)海量資源,往往陷入到“無(wú)從下手”的困惑出境。而且并非所有的書(shū)籍都是優(yōu)質(zhì)資源,浪費(fèi)大量的時(shí)間是得不償失的。給大家推薦這幾本好書(shū)并做簡(jiǎn)單介紹。


獲得方式:


2.后臺(tái)回復(fù)關(guān)鍵詞:4books

注:此處建議復(fù)制,不然容易打錯(cuò)


4books即可獲取

 
(文/媒體小英)
免責(zé)聲明
本文僅代表作發(fā)布者:媒體小英個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
 

微信

關(guān)注
微信

微信二維碼

WAP二維碼

客服

聯(lián)系
客服

聯(lián)系客服:

在線(xiàn)QQ: 303377504

客服電話(huà): 020-82301567

E_mail郵箱: weilaitui@qq.com

微信公眾號(hào): weishitui

客服001 客服002 客服003

工作時(shí)間:

周一至周五: 09:00 - 18:00

欧美亚洲自拍偷拍_日本一区视频在线观看_国产二区在线播放_亚洲男人第一天堂

        欧美a级片网| 久久手机精品视频| 免费看黄裸体一级大秀欧美| 国产欧美三级| 亚洲综合国产| 精品88久久久久88久久久| 亚洲一级黄色| 精品二区视频| 欧美三级电影大全| 久久精品99国产精品日本| 国产综合久久久久久鬼色| 久久综合伊人77777麻豆| 亚洲精品久久久久久下一站| 欧美日韩视频在线一区二区| 亚洲欧美一区二区三区在线| 国产一区视频网站| 欧美三级日本三级少妇99| 亚洲永久免费观看| 亚洲三级免费观看| 国产欧美日韩综合一区在线播放| 麻豆视频一区二区| 日韩视频不卡中文| 国产精品久久久久久久久婷婷| 欧美日韩亚洲视频一区| 亚洲天堂视频在线观看| 小嫩嫩精品导航| 欧美高清视频一区二区三区在线观看| 国产欧美在线观看| 一级成人国产| 欧美一区午夜视频在线观看| 亚洲第一黄网| 欧美成人精品在线播放| 欧美精品在线一区| 香蕉乱码成人久久天堂爱免费| 亚洲精品美女在线观看| 亚洲二区在线观看| 99精品国产高清一区二区| 亚洲精品乱码久久久久久按摩观| 亚洲国产小视频| 国产日韩一级二级三级| 狠狠色狠狠色综合日日五| 国产精品国产一区二区| 国产精品一区二区三区免费观看 | 午夜精品福利一区二区三区av| 亚洲欧洲免费视频| 一区二区欧美国产| 久久久久国产精品www| 亚洲一区二区三区中文字幕| 午夜精品电影| 欧美好骚综合网| 国产欧美一区二区三区沐欲| 国产日本精品| 亚洲免费电影在线观看| 亚洲在线日韩| 欧美日韩精品系列| 在线日本欧美| 久久噜噜噜精品国产亚洲综合| 欧美日韩亚洲高清一区二区| 136国产福利精品导航| 亚洲午夜精品久久久久久app| 蜜桃av久久久亚洲精品| 国产一区二区三区视频在线观看| 亚洲永久免费精品| 欧美精品一区二区三区在线看午夜 | 国产精品第三页| 韩国美女久久| 久久精品视频在线免费观看| 国产欧美日韩视频在线观看 | 欧美新色视频| 亚洲免费观看高清完整版在线观看| 久久综合久久88| 91久久精品国产91性色tv| 久久久亚洲欧洲日产国码αv| 国产视频不卡| 老牛国产精品一区的观看方式| 在线免费观看日韩欧美| 国产一区二区三区直播精品电影| 日韩视频一区| 欧美性事在线| 久久激情五月激情| 99精品国产在热久久下载| 欧美性一二三区| 卡一卡二国产精品| av成人黄色| 影音先锋国产精品| 欧美视频一区在线观看| 亚洲综合色自拍一区| 国产自产女人91一区在线观看| 免费日韩视频| 久久国产99| 一区二区久久久久| 国产欧美一区二区精品性色| 欧美精品1区2区3区| 老司机精品久久| 久久久久免费观看| 久久gogo国模裸体人体| 亚洲一区二区av电影| 亚洲精品综合久久中文字幕| 在线观看91精品国产麻豆| 国产亚洲欧洲一区高清在线观看| 欧美亚洲成人免费| 国产精品爱啪在线线免费观看| 久久精品成人一区二区三区蜜臀| 韩国女主播一区| 国产一区视频观看| 国产在线国偷精品产拍免费yy| 国产精品麻豆成人av电影艾秋| 欧美视频在线观看一区二区| 国产精品久久午夜| 国产偷国产偷精品高清尤物| 国产亚洲精品成人av久久ww| 国产日韩精品视频一区二区三区| 国产午夜亚洲精品不卡| 国产在线精品成人一区二区三区 | 欧美精品videossex性护士| 欧美伊人久久| 久久一区免费| 国产精品你懂的在线| 国产一区二区三区精品欧美日韩一区二区三区 | 一区二区电影免费观看| 亚洲欧美日韩成人高清在线一区| 欧美有码在线观看视频| 欧美伦理a级免费电影| 国产一区二区黄| 日韩小视频在线观看专区| 久久九九热re6这里有精品| 欧美成人午夜激情在线| 国外视频精品毛片| 亚洲系列中文字幕| 欧美色视频一区| 日韩亚洲不卡在线| 欧美激情视频免费观看| 一本色道久久综合亚洲精品按摩| 亚洲精品欧洲精品| 女女同性精品视频| 国产亚洲女人久久久久毛片| 中文亚洲欧美| 国产精品黄页免费高清在线观看| 在线观看欧美日本| 欧美96在线丨欧| 亚洲黄一区二区| 欧美日韩免费视频| 亚洲男人的天堂在线| 国产免费一区二区三区香蕉精| 一本色道久久88精品综合| 猛男gaygay欧美视频| 在线观看视频一区二区| 欧美日本在线观看| 亚洲一区精彩视频| 国产麻豆精品在线观看| 久久久亚洲一区| 日韩一区二区精品视频| 国产精品网站视频| 蜜臀av性久久久久蜜臀aⅴ四虎 | 午夜视频久久久| 在线国产亚洲欧美| 欧美视频中文字幕在线| 久久久久国产精品麻豆ai换脸| **欧美日韩vr在线| 国产精品嫩草影院一区二区| 欧美亚洲日本网站| 在线午夜精品自拍| 樱桃国产成人精品视频| 国产精品每日更新| 欧美人与禽猛交乱配| 欧美在线观看你懂的| 亚洲夜晚福利在线观看| 亚洲美女一区| 99热在线精品观看| 91久久精品国产91久久性色| 国内一区二区三区在线视频| 欧美日韩一区二区在线| 欧美另类极品videosbest最新版本| 久久精品国产亚洲5555| 欧美伊久线香蕉线新在线| 欧美亚洲一区二区在线| 久久精品国产欧美激情| 久久精品视频在线| 裸体一区二区三区| 欧美日韩国语| 欧美另类99xxxxx| 国产精品福利在线观看网址| 国产精品久久国产精品99gif| 国产女主播一区| 亚洲高清不卡| 亚洲一区二区三区四区中文 | 91久久精品一区二区三区| 日韩视频在线你懂得| 一片黄亚洲嫩模| 美女网站在线免费欧美精品| 欧美日韩激情网| 国内伊人久久久久久网站视频| 亚洲激情视频网| 亚洲欧美日韩专区| 你懂的视频欧美| 影音先锋一区| 亚洲性感激情| 欧美四级剧情无删版影片| 亚洲欧洲偷拍精品| 亚洲免费成人|