機(jī)器學(xué)習(xí)(深度學(xué)習(xí))算法和應(yīng)用

真實(shí)應(yīng)用案例 丨 真實(shí)工作成果 丨 連續(xù)舉辦20期 丨 評(píng)分高達(dá)9.9 丨 業(yè)界高口碑標(biāo)桿課程

經(jīng)典課程限時(shí)活動(dòng)          預(yù)約現(xiàn)場體驗(yàn)票

搶占名額

預(yù)約現(xiàn)場體驗(yàn)票

搶占名額

課程介紹

MSUP金牌經(jīng)典課程,已經(jīng)在各大IT公司巡講超過20場,評(píng)分高達(dá)9.9 ,已成為業(yè)界高口碑標(biāo)桿課程
課程內(nèi)容包含:幻燈片算法講解,結(jié)合代碼分析,剖析算法原理;實(shí)際應(yīng)用舉例和和業(yè)界趨勢(shì)分析;成熟開源框架介紹和實(shí)例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
內(nèi)容分7大部分:DNN 入門和基本模型;模型評(píng)估、調(diào)參和優(yōu)化;卷積神經(jīng)網(wǎng)絡(luò) CNN 原理和實(shí)踐;循環(huán)神經(jīng)網(wǎng)絡(luò)RNN原理和實(shí)踐;GAN;無監(jiān)督學(xué)習(xí);增強(qiáng)學(xué)習(xí)
課程適合對(duì)深度學(xué)習(xí)算法原理和應(yīng)用感興趣,具有一定編程(Python)和數(shù)學(xué)基礎(chǔ)(線性代數(shù)、微積分、概率論)的技術(shù)人員。

課程介紹

MSUP金牌經(jīng)典課程,已經(jīng)在各大IT公司巡講超過100場,評(píng)分高達(dá)9.9 ,已成為業(yè)界高口碑標(biāo)桿課程
課程內(nèi)容包含:幻燈片算法講解,結(jié)合代碼分析,剖析算法原理;實(shí)際應(yīng)用舉例和和業(yè)界趨勢(shì)分析;成熟開源框架介紹和實(shí)例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
內(nèi)容分7大部分:DNN 入門和基本模型;模型評(píng)估、調(diào)參和優(yōu)化;卷積神經(jīng)網(wǎng)絡(luò) CNN 原理和實(shí)踐;循環(huán)神經(jīng)網(wǎng)絡(luò)RNN原理和實(shí)踐;GAN;無監(jiān)督學(xué)習(xí);增強(qiáng)學(xué)習(xí)
課程適合對(duì)深度學(xué)習(xí)算法原理和應(yīng)用感興趣,具有一定編程(Python)和數(shù)學(xué)基礎(chǔ)(線性代數(shù)、微積分、概率論)的技術(shù)人員。

目標(biāo)收益

  • 學(xué)員能夠了解深度學(xué)習(xí)的流程步驟;

  • 理解用深度學(xué)習(xí)方法解決實(shí)際問題的方法和思路;

  • 初步掌握基礎(chǔ)深度學(xué)習(xí)的算法和實(shí)現(xiàn)方法,并應(yīng)用于多種項(xiàng)目中。

目標(biāo)收益

  • 學(xué)員能夠了解深度學(xué)習(xí)的流程步驟;

  • 理解用深度學(xué)習(xí)方法解決實(shí)際問題的方法和思路;

  • 初步掌握基礎(chǔ)深度學(xué)習(xí)的算法和實(shí)現(xiàn)方法,并應(yīng)用于多種項(xiàng)目中。

課程大綱

大量真實(shí)案例,深入分析,讓學(xué)員更好的掌握課程內(nèi)容

  • 01

    入門和基本 DNN 模型(略講)

    ? 深度學(xué)習(xí)概要 什么是深度學(xué)習(xí) & 與機(jī)器學(xué)習(xí)的異同
    ? 多層感知器模型 Multi-Layer Perceptron – MLP
    神經(jīng)元 權(quán)重和激活 Neurons Weight Activation
    神經(jīng)元網(wǎng)絡(luò) Neuron Networks
    訓(xùn)練網(wǎng)絡(luò) Training Networks
    Back-propagation 算法和計(jì)算圖
    多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate
    ? 用 Keras 搭建 MLP
    載入數(shù)據(jù)
    定義-編譯-訓(xùn)練-測試模型

    02

    評(píng)估、調(diào)參和優(yōu)化模型(上)

    ? 評(píng)估深度學(xué)習(xí)模型的性能
    ? 切分?jǐn)?shù)據(jù)集合 Data Splitting
    ? 數(shù)據(jù)集(構(gòu)建、清洗、評(píng)估等)
    ? 模型結(jié)構(gòu)選擇、搭建與調(diào)優(yōu)、訓(xùn)練調(diào)參方法技巧等
    ? 通用深度學(xué)習(xí)工具集 Keras + Scikit-Learn
    用 cross-validation 評(píng)估模型
    用 grid-search 微調(diào)超參數(shù)

    03

    評(píng)估、調(diào)參和優(yōu)化模型(下)

    ? MLP例子
    - 用 MLP 進(jìn)行多元分類 – 植物品種分類
    - 用 MLP 進(jìn)行二元分類 – 聲吶探測物體信號(hào)分析
    - 用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預(yù)測
    ? 序列化保存模型
    ? 通過 check point 機(jī)制獲取最佳模型
    ? 通過繪制模型歷史理解訓(xùn)練行為
    ? 通過 dropout regularization 降低模型過擬合
    ? 選取不同的 Learning Rate Schedule 提升模型性能

    04

    卷積神經(jīng)網(wǎng)絡(luò) CNN

    ? CNN 原理和構(gòu)造(概述):
    - 核 Filter 和卷積運(yùn)算 Convolutional Layer
    - 特征圖 Feature Maps、- 池化層 Pooling
    - 全連接層 Full Connected Layer
    - Dropout 和 Batch Normalization、- CNN 最佳實(shí)踐
    CNN 實(shí)踐
    - 項(xiàng)目:用 CNN 進(jìn)行手寫體識(shí)別
    - 練習(xí):在 CNN 圖像識(shí)別中通過 Image Augmentation 技術(shù)提升模型性能
    項(xiàng)目:用 CNN 進(jìn)行圖片物體識(shí)別 、XCeption 架構(gòu)、ResNet
    - 項(xiàng)目:用 CNN電影評(píng)論情緒預(yù)測

  • 05

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(一)

    ? - RNN 原理一:基本 RNN
    - 處理序列(Sequence)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)
    - 循環(huán)神經(jīng)網(wǎng) RNN 架構(gòu)
    - RNN訓(xùn)練:如何在訓(xùn)練中獲得穩(wěn)定的梯度下降
    - RNN 網(wǎng)絡(luò)演化歷史:RNN,LSTM,GRU 結(jié)構(gòu)比較和分析

    06

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(二)

    ? RNN 實(shí)踐一:RNN 回歸
    - 項(xiàng)目:用 MLP 進(jìn)行時(shí)間序列預(yù)測
    - 項(xiàng)目:用長短記憶網(wǎng)絡(luò)(Long-Short Term
    Memory, LSTM)進(jìn)行時(shí)間序列預(yù)測
    1) 用LSTM進(jìn)行回歸
    2)用LSTM 序列窗口(Window method)進(jìn)行回歸
    3) 用 LSTM 時(shí)間步長(Time Step)進(jìn)行回歸
    4) 用 LSTM記憶(Memory)進(jìn)行回歸 & Stacked LSTM
    ? RNN 實(shí)踐二:RNN 分類
    ? Spring Boot 實(shí)戰(zhàn)案例

    07

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(三)

    ? - 項(xiàng)目:對(duì)電影評(píng)論進(jìn)行序列分類 Sequence Classification
    - 項(xiàng)目:使用 dropout LSTM
    - 項(xiàng)目:結(jié)合使用 CNN 和 RNN 進(jìn)行序列分類
    ? RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char
    - 項(xiàng)目:用LSTM進(jìn)行 one-char生成
    - 項(xiàng)目:用LSTM feature-window進(jìn)行one-char生成
    - 項(xiàng)目:用LSTM time-step進(jìn)行 one-char生成
    - 項(xiàng)目:用 LSTM 批內(nèi)樣本間保持狀態(tài)進(jìn)行 one-char 生成
    - 項(xiàng)目:有狀態(tài) LSTM進(jìn)行 one-char 生成
    - 項(xiàng)目:變長輸入 LSTM

    08

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(四)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項(xiàng)目:用 LSTM 生成文本序列
    - 項(xiàng)目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance

  • 09

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(五)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項(xiàng)目:用 LSTM 生成文本序列
    - 項(xiàng)目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance
    ? 更多 RNN 模型:
    - -Sequence-to-Sequence 結(jié)構(gòu)和實(shí)現(xiàn)
    - Attention 機(jī)制、- image captioning 圖像字幕
    - machine translation 機(jī)器翻譯
    - dialogue generation 對(duì)話生成
    - 神經(jīng)機(jī)器翻譯 Neural Machine Translation
    - Query泛化 和 Q&A: multiple perspective 機(jī)制

    10

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(六)

    ? 無監(jiān)督學(xué)習(xí)概念、方法和例子
    無監(jiān)督學(xué)習(xí)方法
    Word Embedding
    Word2Vec:前生今世 - 起因和效果
    Word2Vec:原理和架構(gòu)
    Word2Vec 訓(xùn)練
    Auto-Encoder 、Auto-Encoder 概念和訓(xùn)練
    全連接 Auto-Encoder
    Variational Auto Encoder (VAE)
    Deep Convolutional VAE

課程大綱

大量真實(shí)案例,深入分析
讓學(xué)員更好的掌握課程內(nèi)容

  • 01

    入門和基本 DNN 模型(略講)

    ? 深度學(xué)習(xí)概要 什么是深度學(xué)習(xí) & 與機(jī)器學(xué)習(xí)的異同
    ? 多層感知器模型 Multi-Layer Perceptron – MLP
    神經(jīng)元 權(quán)重和激活 Neurons Weight Activation、 神經(jīng)元網(wǎng)絡(luò) Neuron Networks 、 訓(xùn)練網(wǎng)絡(luò) Training Networks 、 Back-propagation 算法和計(jì)算圖、 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate、 ? 用 Keras 搭建 MLP
    載入數(shù)據(jù)、定義-編譯-訓(xùn)練-測試模型

    02

    評(píng)估、調(diào)參和優(yōu)化模型(上)

    ? 評(píng)估深度學(xué)習(xí)模型的性能
    ? 切分?jǐn)?shù)據(jù)集合 Data Splitting
    ? 數(shù)據(jù)集(構(gòu)建、清洗、評(píng)估等)
    ? 模型結(jié)構(gòu)選擇、搭建與調(diào)優(yōu)、訓(xùn)練調(diào)參方法技巧等
    ? 通用深度學(xué)習(xí)工具集 Keras + Scikit-Learn
    用 cross-validation 評(píng)估模型
    用 grid-search 微調(diào)超參數(shù)

    03

    評(píng)估、調(diào)參和優(yōu)化模型(下)

    ? MLP例子
    - 用 MLP 進(jìn)行多元分類 – 植物品種分類
    - 用 MLP 進(jìn)行二元分類 – 聲吶探測物體信號(hào)分析
    - 用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預(yù)測
    ? 序列化保存模型
    ? 通過 check point 機(jī)制獲取最佳模型
    ? 通過繪制模型歷史理解訓(xùn)練行為
    ? 通過 dropout regularization 降低模型過擬合
    ? 選取不同的 Learning Rate Schedule 提升模型性能

    04

    卷積神經(jīng)網(wǎng)絡(luò) CNN

    ? CNN 原理和構(gòu)造(概述):
    - 核 Filter 和卷積運(yùn)算 Convolutional Layer
    - 特征圖 Feature Maps、- 池化層 Pooling
    - 全連接層 Full Connected Layer
    - Dropout 和 Batch Normalization、- CNN 最佳實(shí)踐
    CNN 實(shí)踐
    - 項(xiàng)目:用 CNN 進(jìn)行手寫體識(shí)別
    - 練習(xí):在 CNN 圖像識(shí)別中通過 Image Augmentation 技術(shù)提升模型性能
    項(xiàng)目:用 CNN 進(jìn)行圖片物體識(shí)別 、XCeption 架構(gòu)、ResNet
    - 項(xiàng)目:用 CNN電影評(píng)論情緒預(yù)測

  • 05

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(一)

    ? - RNN 原理一:基本 RNN
    - 處理序列(Sequence)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)
    - 循環(huán)神經(jīng)網(wǎng) RNN 架構(gòu)
    - RNN訓(xùn)練:如何在訓(xùn)練中獲得穩(wěn)定的梯度下降
    - RNN 網(wǎng)絡(luò)演化歷史:RNN,LSTM,GRU 結(jié)構(gòu)比較和分析

    06

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(二)

    ? RNN 實(shí)踐一:RNN 回歸
    - 項(xiàng)目:用 MLP 進(jìn)行時(shí)間序列預(yù)測
    - 項(xiàng)目:用長短記憶網(wǎng)絡(luò)(Long-Short Term
    Memory, LSTM)進(jìn)行時(shí)間序列預(yù)測
    1) 用LSTM進(jìn)行回歸; 2)用LSTM 序列窗口(Window method)進(jìn)行回歸 ; 3) 用 LSTM 時(shí)間步長(Time Step)進(jìn)行回歸; 4) 用 LSTM記憶(Memory)進(jìn)行回歸 & Stacked LSTM
    ? RNN 實(shí)踐二:RNN 分類
    ? Spring Boot 實(shí)戰(zhàn)案例

    07

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(三)

    ? - 項(xiàng)目:對(duì)電影評(píng)論進(jìn)行序列分類 Sequence Classification
    - 項(xiàng)目:使用 dropout LSTM
    - 項(xiàng)目:結(jié)合使用 CNN 和 RNN 進(jìn)行序列分類
    ? RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char
    - 項(xiàng)目:用LSTM進(jìn)行 one-char生成
    - 項(xiàng)目:用LSTM feature-window進(jìn)行one-char生成; 用LSTM time-step進(jìn)行 one-char生成; 用 LSTM 批內(nèi)樣本間保持狀態(tài)進(jìn)行 one-char 生成;; 有狀態(tài) LSTM進(jìn)行 one-char 生成; 變長輸入 LSTM

    08

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(四)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項(xiàng)目:用 LSTM 生成文本序列
    - 項(xiàng)目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance

  • 09

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(五)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項(xiàng)目:用 LSTM 生成文本序列
    - 項(xiàng)目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance
    ? 更多 RNN 模型:
    - -Sequence-to-Sequence 結(jié)構(gòu)和實(shí)現(xiàn)
    Attention 機(jī)制、- image captioning 圖像字幕; machine translation 機(jī)器翻譯; dialogue generation 對(duì)話生成; 神經(jīng)機(jī)器翻譯 Neural Machine Translation; Query泛化 和 Q&A: multiple perspective 機(jī)制

    10

    循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN(六)

    ? 無監(jiān)督學(xué)習(xí)概念、方法和例子
    無監(jiān)督學(xué)習(xí)方法
    Word Embedding
    Word2Vec:前生今世 - 起因和效果
    Word2Vec:原理和架構(gòu)
    Word2Vec 訓(xùn)練
    Auto-Encoder 、Auto-Encoder 概念和訓(xùn)練
    全連接 Auto-Encoder
    Variational Auto Encoder (VAE)
    Deep Convolutional VAE

以下客戶都曾參加過該課程

以下客戶都曾參加過該課程

助你快速掌握深度學(xué)習(xí)的算法和實(shí)現(xiàn)方法

  • 適合人群
  • 講師介紹
  • B. Ma
    前百度 高級(jí)算法工程師
    中國原子能科學(xué)研究院理論物理碩士、中國科學(xué)院軟件研究所博士。
    曾領(lǐng)導(dǎo)重構(gòu)百度搜索引擎核心模塊,實(shí)現(xiàn)了九年歷史四十萬行遺留代碼的優(yōu)化;
    作為量化派技術(shù)總監(jiān),帶領(lǐng)技術(shù)部開發(fā)和重構(gòu)了基于金融大數(shù)據(jù)的借貸交易平臺(tái)和信審平臺(tái);
    應(yīng)用機(jī)器學(xué)習(xí)技術(shù)在丁丁租房多項(xiàng)在線服務(wù)(推薦 信審 反中介 派單策略 定價(jià)模型等);在Baidu AI 度秘團(tuán)隊(duì)負(fù)責(zé)NLU策略和模型

快速掌握深度學(xué)習(xí)的算法和實(shí)現(xiàn)方法

  • 適合人群
  • 講師介紹
  • B. Ma
    ? 前百度 高級(jí)算法工程師
    ? 中國原子能科學(xué)研究院理論物理碩士、中國科學(xué)院軟件研究所博士。
    ? 曾領(lǐng)導(dǎo)重構(gòu)百度搜索引擎核心模塊,實(shí)現(xiàn)了九年歷史四十萬行遺留代碼的優(yōu)化;
    ? 作為量化派技術(shù)總監(jiān),帶領(lǐng)技術(shù)部開發(fā)和重構(gòu)了基于金融大數(shù)據(jù)的借貸交易平臺(tái)和信審平臺(tái);
    ? 應(yīng)用機(jī)器學(xué)習(xí)技術(shù)在丁丁租房多項(xiàng)在線服務(wù)(推薦 信審 反中介 派單策略 定價(jià)模型等);在Baidu AI 度秘團(tuán)隊(duì)負(fù)責(zé)NLU策略和模型

為什么msup公開課你值得選擇

苛刻要求下設(shè)計(jì)出的課程體系

每門課程內(nèi)容都在教學(xué)講師和研究院同事精心設(shè)計(jì)下完成,保證教學(xué)目標(biāo)的準(zhǔn)確性與課程結(jié)構(gòu)的邏輯性。幫助企業(yè)帶來技術(shù)改善和培養(yǎng)人才骨干成長

緊跟行業(yè)熱點(diǎn)趨勢(shì)

攜手國內(nèi)外眾多一線技術(shù)大咖,從實(shí)戰(zhàn)案例和行業(yè)技術(shù)趨勢(shì)出發(fā),不斷更新迭代課程內(nèi)容,學(xué)習(xí)最前沿、最熱門的IT技術(shù)和經(jīng)驗(yàn)

知名教練權(quán)威認(rèn)證

擁有2000+客座教練,均來自全球知名企業(yè)一線技術(shù)帶頭人,具有多年軟件相關(guān)經(jīng)驗(yàn)涉及全球技術(shù)管理,戰(zhàn)略設(shè)計(jì)等方面的最新研究成果,實(shí)戰(zhàn)經(jīng)驗(yàn),幫助企業(yè)開拓眼界,打開思維局限,解決核心人才能力進(jìn)階問題。

高端舒適的學(xué)習(xí)體驗(yàn)

客戶成功團(tuán)隊(duì)全程服務(wù),保障與企業(yè)在整個(gè)項(xiàng)目中的及時(shí)溝通,解決現(xiàn)場問題;學(xué)習(xí)場地選在五星級(jí)酒店,每期課程都會(huì)有一線名企加入,為學(xué)員搭建高端舒適的學(xué)習(xí)交流環(huán)境

團(tuán)隊(duì)結(jié)業(yè)專屬證書

成績合格頒發(fā)業(yè)界認(rèn)可的權(quán)威證書

十一年的企業(yè)培訓(xùn)經(jīng)驗(yàn)

十一年的企業(yè)培訓(xùn)經(jīng)驗(yàn),服務(wù)超過3000+技術(shù)型企業(yè)已檢驗(yàn)過的有效實(shí)踐

往期課程



  • 課程現(xiàn)場


  • 課程現(xiàn)場


  • 課程現(xiàn)場


  • 課程現(xiàn)場


  • 課程現(xiàn)場

為什么msup公開課你值得選擇

往期課程


  • 課程現(xiàn)場

  • 課程現(xiàn)場

  • 課程現(xiàn)場

  • 課程現(xiàn)場

  • 課程現(xiàn)場

常見問題

  • Q:課程費(fèi)用

    預(yù)約報(bào)名成功后,課程費(fèi)用可通過銀行對(duì)公轉(zhuǎn)賬,和支付寶掃碼支付的形式;2天培訓(xùn)課程,包含課程費(fèi)用,課程學(xué)習(xí)資料,兩天午餐(中午12點(diǎn)準(zhǔn)時(shí))及下午茶歇等。

  • Q:開課通知提醒

    A:報(bào)名成功后,工作人員會(huì)通過郵件和短信的形式通知具體開課時(shí)間和地點(diǎn),課程開課前還會(huì)另行通知提醒。

  • Q:發(fā)票開具流程

    A:確認(rèn)收到課程費(fèi)用款項(xiàng)
    工作人員與課程報(bào)名聯(lián)系人及時(shí)溝通發(fā)票信息,請(qǐng)報(bào)名方確認(rèn)發(fā)票信息100%無誤
    在無外力因素的情況下,發(fā)票將在7個(gè)工作日開具并快遞
    msup規(guī)定,在收到課程報(bào)名費(fèi)用后,方可按照實(shí)際總金額開具,發(fā)票類別為增值稅發(fā)票;如果您有特殊需求,可及時(shí)與工作人員溝通

常見問題

  • Q:課程費(fèi)用

    A:預(yù)約報(bào)名成功后,課程費(fèi)用可通過銀行對(duì)公轉(zhuǎn)賬,和支付寶掃碼支付的形式;2天培訓(xùn)課程,包含課程費(fèi)用,課程學(xué)習(xí)資料,兩天午餐(中午12點(diǎn)準(zhǔn)時(shí))及下午茶歇等。

  • Q:發(fā)票開具流程

    A:確認(rèn)收到課程費(fèi)用款項(xiàng)工作人員與課程報(bào)名聯(lián)系人及時(shí)溝通發(fā)票信息,請(qǐng)報(bào)名方確認(rèn)發(fā)票信息100%無誤,在無外力因素的情況下,發(fā)票將在7個(gè)工作日開具并快遞msup規(guī)定,在收到課程報(bào)名費(fèi)用后,方可按照實(shí)際總金額開具,發(fā)票類別為增值稅發(fā)票;如果您有特殊需求,可及時(shí)與工作人員溝通

  • Q:開課通知提醒

    A:報(bào)名成功后,工作人員會(huì)通過郵件和短信的形式通知具體開課時(shí)間和地點(diǎn),課程開課前還會(huì)另行通知提醒。


查看更多

活動(dòng)詳情

提交需求