二維碼
        企資網(wǎng)

        掃一掃關注

        當前位置: 首頁 » 企業(yè)資訊 » 熱點 » 正文

        在昇騰平臺上對TensorFlow網(wǎng)絡進行姓能

        放大字體  縮小字體 發(fā)布日期:2023-03-19 13:34:53    作者:葉國慶    瀏覽次數(shù):148
        導讀

        本文分享自華為云社區(qū)《在昇騰平臺上對TensorFlow網(wǎng)絡進行性能調(diào)優(yōu)-云社區(qū)-華為云》,作者:昇騰CANN 。用戶將TensorFlow訓練網(wǎng)絡遷移到昇騰平臺后,如果存在性能不達標的問題,就需要進行調(diào)優(yōu)。本文就帶大家了解在

        本文分享自華為云社區(qū)《在昇騰平臺上對TensorFlow網(wǎng)絡進行性能調(diào)優(yōu)-云社區(qū)-華為云》,作者:昇騰CANN 。

        用戶將TensorFlow訓練網(wǎng)絡遷移到昇騰平臺后,如果存在性能不達標的問題,就需要進行調(diào)優(yōu)。本文就帶大家了解在昇騰平臺上對TensorFlow訓練網(wǎng)絡進行性能調(diào)優(yōu)的常用手段。

        首先了解下性能調(diào)優(yōu)的全流程:

        當TensorFlow訓練網(wǎng)絡性能不達標時,首先可嘗試昇騰平臺提供的“三板斧”操作,即上圖中的“基本提升手段”:使能自動混合精度 > 進行親和接口的替換 > 使能訓練迭代循環(huán)下沉 > 使用AOE工具進行調(diào)優(yōu)。

        基本調(diào)優(yōu)操作完成后,需要再次執(zhí)行模型訓練并評估性能,如果性能達標了,調(diào)優(yōu)即可結束;如果未達標,需要使用Profling工具采集詳細的性能數(shù)據(jù)進一步分析,從而找到性能瓶頸點,并進一步針對性的解決,這部分調(diào)優(yōu)操作需要用戶有一定的經(jīng)驗,難度相對較大,我們將這部分調(diào)優(yōu)操作稱為進階調(diào)優(yōu)。

        本文主要帶大家詳細了解基本調(diào)優(yōu)操作,即上圖中的灰色底紋部分。

        使能自動混合精度

        混合精度是業(yè)內(nèi)通用的性能提升方式,通過降低部分計算精度提升數(shù)據(jù)計算的并行度。混合計算訓練方法通過混合使用float16和float32數(shù)據(jù)類型來加速深度神經(jīng)網(wǎng)絡的訓練過程,并減少內(nèi)存使用和存取,從而可以提升訓練網(wǎng)絡性能,同時又能基本保證使用float32訓練所能達到的網(wǎng)絡精度。

        Ascend平臺提供了“precision_mode”參數(shù)用于配置網(wǎng)絡的精度模式,用戶可以在訓練腳本的運行配置中添加此參數(shù),并將取值配置為“allow_mix_precision”,從而使能自動混合精度,下面以手工遷移的訓練腳本為例,介紹配置方法。

      1. Estimator模式下,在NPURunConfig中添加precision_mode參數(shù)設置精度模式:npu_config=NPURunConfig( model_dir=FLAGS.model_dir, save_checkpoints_steps=FLAGS.save_checkpoints_steps, session_config=tf.ConfigProto(allow_soft_placement=True,log_device_placement=False), precision_mode="allow_mix_precision" )
      2. sess.run模式下,通過session配置項precision_mode設置精度模式:config = tf.ConfigProto(allow_soft_placement=True) custom_op = config.graph_options.rewrite_options.custom_optimizers.add() custom_op.name = "NpuOptimizer" custom_op.parameter_map["use_off_line"].b = True custom_op.parameter_map["precision_mode"].s = tf.compat.as_bytes("allow_mix_precision") … with tf.Session(config=config) as sess: print(sess.run(cost))親和接口替換

        針對TensorFlow訓練網(wǎng)絡中的dropout、gelu接口,Ascend平臺提供了硬件親和的替換接口,從而使網(wǎng)絡獲得更優(yōu)性能。

      3. 對于訓練腳本中的nn.dropout,建議替換為Ascend對應的API實現(xiàn),以獲得更優(yōu)性能:layers = npu_ops.dropout()
      4. 若訓練腳本中存在layers.dropout、tf.layers.Dropout、tf.keras.layers.Dropout、tf.keras.layers.SpatialDropout1D、tf.keras.layers.SpatialDropout2D、tf.keras.layers.SpatialDropout3D接口,建議增加頭文件引用:from npu_bridge.estimator.npu import npu_convert_dropout
      5. 對于訓練腳本中的gelu接口,建議替換為Ascend提供的gelu接口,以獲得更優(yōu)性能。

        例如,TensorFlow原始代碼:

        遷移后的代碼:

        from npu_bridge.estimator.npu_unary_ops import npu_unary_opslayers = npu_unary_ops.gelu(x)訓練迭代循環(huán)下沉

        訓練迭代循環(huán)下沉是指在Host調(diào)用一次,在Device執(zhí)行多次迭代,從而減少Host與Device間的交互次數(shù),縮短訓練時長。用戶可通過iterations_per_loop參數(shù)指定訓練迭代的次數(shù),該參數(shù)取值大于1即可使能訓練迭代循環(huán)下沉的特性。

        使用該特性時,要求訓練腳本使用TF Dataset方式讀數(shù)據(jù),并開啟數(shù)據(jù)預處理下沉,即enable_data_pre_proc開關配置為True,例如sess.run配置示例如下:

        custom_op.parameter_map["enable_data_pre_proc"].b = True

        其他使用約束,用戶可參見昇騰文檔中心(昇騰社區(qū)-官網(wǎng)丨昇騰萬里 讓智能無所不及)的《TensorFlow模型遷移和訓練指南》。

        Estimator模式下,通過NPURunConfig中的iterations_per_loop參數(shù)配置訓練迭代循環(huán)下沉的示例如下:

        session_config=tf.ConfigProto(allow_soft_placement=True)config = NPURunConfig(session_config=session_config, iterations_per_loop=10)AOE自動調(diào)優(yōu)

        昇騰平臺提供了AOE自動調(diào)優(yōu)工具,可對網(wǎng)絡進行子圖調(diào)優(yōu)、算子調(diào)優(yōu)與梯度調(diào)優(yōu),生成最優(yōu)調(diào)度策略,并將最優(yōu)調(diào)度策略固化到知識庫。模型再次訓練時,無需開啟調(diào)優(yōu),即可享受知識庫帶來的收益。

        建議按照如下順序使用AOE工具進行調(diào)優(yōu):

        訓練場景下使能AOE調(diào)優(yōu)有兩種方式:

      6. 通過設置環(huán)境變量啟動AOE調(diào)優(yōu)。# 1:子圖調(diào)優(yōu) # 2:算子調(diào)優(yōu) # 4:梯度調(diào)優(yōu) export AOE_MODE=2
      7. 修改訓練腳本,通過“aoe_mode”參數(shù)指定調(diào)優(yōu)模式,例如:

        sess.run模式,訓練腳本修改方法如下:

        custom_op.parameter_map["aoe_mode"].s = tf.compat.as_bytes("2")

        estimator模式下,訓練腳本修改方法如下:

        config = NPURunConfig( session_config=session_config, aoe_mode=2)

        以上就是TensorFlow網(wǎng)絡在昇騰平臺上進行性能調(diào)優(yōu)的常見手段。關于更多文檔介紹,可以在昇騰文檔中心查看,您也可在昇騰社區(qū)在線課程板塊(昇騰社區(qū)-官網(wǎng)丨昇騰萬里 讓智能無所不及)學習視頻課程,學習過程中的任何疑問,都可以在昇騰論壇互動交流!

        相關參考:

        [1]昇騰文檔中心

        [2]昇騰社區(qū)在線課程

        [3]昇騰論壇

        關注#華為云開發(fā)者聯(lián)盟#點擊下方,第一時間了解華為云新鮮技術~

        華為云博客_大數(shù)據(jù)博客_AI博客_云計算博客_開發(fā)者中心-華為云

      8.  
        (文/葉國慶)
        免責聲明
        本文僅代表作發(fā)布者:葉國慶個人觀點,本站未對其內(nèi)容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔相應責任。涉及到版權或其他問題,請及時聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號

        粵ICP備16078936號

        微信

        關注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯(lián)系
        客服

        聯(lián)系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號: weishitui

        客服001 客服002 客服003

        工作時間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        主站蜘蛛池模板: 国产成人精品一区二三区| 亚洲AV本道一区二区三区四区| 国产精品99无码一区二区| 综合无码一区二区三区| 丝袜美腿一区二区三区| 伊人久久精品无码av一区| 精品成人av一区二区三区| 视频在线一区二区| 日本一区免费电影| 欧美日韩综合一区二区三区| 精品国产一区二区三区久久久狼| 国产在线一区二区三区| 精品福利一区二区三区精品国产第一国产综合精品 | 精品国产aⅴ无码一区二区| 久久青草国产精品一区| 国精品无码一区二区三区在线| 国产一区二区三区小向美奈子| 三上悠亚亚洲一区高清| 伊人久久精品一区二区三区| 亚洲综合色自拍一区| 精品人妻少妇一区二区三区| 一区二区三区伦理高清| 亚洲一区无码精品色| 99久久精品国产免看国产一区| 亲子乱av一区二区三区| 消息称老熟妇乱视频一区二区| 日本一区二区三区在线观看| 亚洲色精品aⅴ一区区三区| 熟妇人妻AV无码一区二区三区| 91在线一区二区| 在线成人综合色一区| 精品视频一区在线观看| 大屁股熟女一区二区三区| 国产一区视频在线| 亚洲一区二区三区丝袜| 白丝爆浆18禁一区二区三区| 中文字幕在线观看一区| 精品无人区一区二区三区| 久久青青草原一区二区| 亚洲国产精品一区二区第一页免 | 久久se精品一区精品二区|