トレーニング時間 368時間

レーニング目標
レーニングカテゴリコンピュータープログラミング
理由ビッグデータ分析は、さまざまな新しいアプリケーション分野の背後にある共通のコアテクノロジーです。たとえば、スマートデバイス、Internet of Things、モバイルアプリケーション、クラウドサービス、ブロックチェーンなどはすべてビッグデータに関連しており、これらのアプリケーション分野の価値と実用性を示しています。その行動パターンと主要な影響要因を見つけるためにデータ分析に依存する必要があります。ビッグデータデータ分析は将来の中長期的な傾向であることがわかります。さまざまな分析アプリケーションがさまざまな業界で徐々に発酵されています。これらの新しいアプリケーション分野で生成される多様で複雑な大量のデータとさまざまなアプリケーションの分析ニーズに直面して、データ分析では、どこから始めればよいか、データ分析手法の使用方法がわからないことが多く、分析結果と要点を一目ですぐに把握できます。ビッグデータ分析の価値はさらに困難です。
コース目標ビッグデータ分析の理論的手法と応用は、業界での実際の事例とともに、実際の問題を適用して解決する方法を具体的に説明し、学生のビッグデータ分析とデジタル意思決定能力を向上させて企業に適用します。
雇用見通​​し現在、ビッグデータ分析は小売、金融、ハイテク、医療、製造などの業界で徐々に深まり、そのアプリケーションにより、さまざまな業界の意思決定者がマーケティングの機会、ユーザーの習慣、および将来の傾向を発見できるようになります。研修終了後、研修生は、ビッグデータ分析、ヒュージデータ分析、エンタープライズデータ分析アーキテクチャの計画と設計、機械学習、データベースの計画と設計、Javaプログラミング、Pythonプログラミング、エンタープライズeコマースシステムなどの作業コンテンツに従事できます。設計、ビジネスモデルの計画および建設プロジェクト。データアナリスト、ビッグデータアナリスト、データサイエンティスト、人工知能エンジニア、機械学習エンジニア、運用分析エンジニア、情報システムコンサルタントビッグデータプロジェクトマネージャー、マーケティングプランナーなどの役職も務めることができます。

 

講座の内容
概要1.入学促進コース(1時間):雇用資源の促進
2.オープニングトレーニング(1時間):オープニングセレモニー
3.最終トレーニング(1時間):最終トレーニングセレモニー
4.クラスミーティング(3時間):クラスワーク管理
5.ジェンダー平等コース(3時間):1。ジェンダーの自己理解2.ジェンダーと個人の関係3.ジェンダーの自己ブレークスルー4.ジェンダーの心身の発達
6.求職スキル+雇用動向コース(4時間):1 。仕事を探すときの態度2.仕事探しの10のステップ3.仕事探しの三部作4.再開と自伝(1)再開とは(2)再開の内容の書き方(3)明確で正確な再開フレームワーク(4)間違った再開-例(5)良い再開-例5.台湾の産業開発と雇用機会6.企業の人的資源と外部の雇用資源:(1)政府情報ウェブサイト(2)人的資源銀行のウェブサイト(3)。企業の外部ウェブサイト(4)。インターネット検索エンジン
7. Pythonプログラムとデータ処理(16時間):1。Pythonの基本的な知識とテクノロジー2. REPL3。タイプとオペレーター4 .Function 5.Pythonプログラムのパフォーマンスの向上6.Pythonデータ構造の紹介
8.MySQLデータの操作とアクセス(学習)(8時間):1。データベースとMySQLの紹介2.基本的なクエリ3.式と関数4 。結合および結合クエリ5.データの保守
9.ネットワークデータのクロールと分析(学習)(4時間):1。クローラーの概念の概要2.Web ページの構造の説明3.データのクロールスキル
10.Linuxの基本的なコマンド操作(学習) )(6時間):1。コンピューターの概要2.Linuxとは3.ホストプランニングとディスクパーティション4.Linuxのインストール5.Linuxファイルのアクセス許可とディレクトリ構成6.Linuxの基本的な手順
11. Hadoop(調査)(4時間):1。データサイエンスVSデータテクノロジー2.Hadoopコアアーキテクチャ3.HDFS分散ファイルシステム4.YARN分散コンピューティングシステム5.Hadoopコアシステムの機能6.Hadoopエコシステムアーキテクチャ
12.Spark (学習)(4時間):1。ApacheSparkシステムアーキテクチャ2.分散データ分析フレームワーク3. Spark実用アプリケーション
13.データの保存と管理(学習)(4時間):1。HBaseシステム運用アーキテクチャ2.HBaseラージデータデータベース3.HBaseデータテーブルの表示4.HBase REST API 5. HBaseデータテーブルの管理
14.システム分析および設計の概要(学習)(8時間):1。システム開発プロセス2.システム計画3.プロジェクト定義4。要件分析方法5.データ仕様6.ロジック設計の評価と確認7.ロジック設計8.ソフトウェアパッケージ9.システム出力設計10.システム入力設計
15.統計アプリケーションの実践(学習)(8時間):1。基本概念:確率、人口2.サンプルとサンプリング3.記述統計:頻度分布(相互分析)、平均、分散、中央値、モード
16. AI機械学習と深層学習(学習)(8時間): 1.予測(分類を含む):回帰(線形、論理など)、ニューラルネットワーク(BPN、DNN)、サポートベクトルマシン2.分類:決定ツリー、C5.0、ランダムフォレスト、決定フォレスト
17.画像認識( (4時間):1。画像処理の概念の概要2.OpenCVの構築とライブラリの実用化3.画像の形式とデータ構造のタイプ4.画像の読み取りとチャネル変換
18.自然言語処理(テキスト分析)(調査)(4時間):1。単語ベクトル表現:自然言語単語セグメンテーション方法の概要、テキストベクトル化のアプリケーション手順、およびテキストベクトル化プログラムの追跡。2.自然言語文処理:自然言語単語セグメンテーション方法の紹介、自然言語単語リストの確立3.自然言語記事分類:自然言語記事分類アプリケーション、自然言語記事分類構造の説明4.自然言語意味分析:自然言語意味分析メソッドの紹介、自然言語セマンティック分析トレーニングメソッドの説明。
19.ビッグデータチャート視覚化テクノロジー(学習)(16時間):1。一般的な属性または方法2.データ構造3.データのロード4.データクリーニング5.データベースデータの統合6. UI / UXの概念
20。エンタープライズケースプロジェクト(調査)(4時間):1。データの並べ替えと創造的思考2.関連文献のディスカッション
21. Pythonプログラムとデータ処理(手法)(24時間):1。コレクション2.プロセス構文3。関数アプリケーション4.論理判断5.カテゴリ6.継承7.例外処理8.io9。データ分析10.Pythonとデータベースの相互作用11.デバッグ12.Pythonの包括的な演習13.統合テストシナリオの設計
22.MySQLデータ操作とアクセス(手術)(24時間):1。文字セットとデータベース2.ストレージエンジンとデータタイプ3.表4.インデックス5.サブクエリ6.ビュー7.データベース情報8.エラー処理そしてクエリ9.データのインポートとエクスポート
23.ネットワークデータのクロールと分析(テクニック)(10時間):1。Pythonクローラープログラミング2.Pythonクローラーのパフォーマンス調整3.Webページ構造分析4.bs4データクロール
24. Linuxの基本的な命令操作(手術)(15時間):1。CentOSをインストールします2. UbuntuServerバージョンをインストールします3.Nginx + PHP-FPM(PHP7)ビルドステップ(Ubuntu18.04)4。Django Nginx + uwsgiインストール構成5. Apache + MariaDB + PHPCentOS 7)
25。Hadoop(テクニック)(20時間):1。Hadoopクラスター構成2.Hadoopクラスターコンテナーホストを作成して開始します3.クラスター構成ディレクトリ構造4.HDFS分散ファイルシステムをフォーマットします5. HDFSシステムアーキテクチャを開始および表示し、ルートディレクトリのアクセス許可を表示します。6。HDFS操作コマンド7.モノリシック並列アプリケーションシステムアーキテクチャ(モノリシック)8。MapReduceシャッフル設定9.YARN分散コンピューティングシステムの操作図10.YARN分散コンピューティングを開始および表示します。システム
26.Spark(技術)(20時間):1。Spark実用アプリケーション2.Sparkスタンドアロンクラスター操作アーキテクチャのセットアップ3.Sparkスタンドアロンコンテナーホストの作成と開始4.spark-shell(scalaインタープリター)の開始5.pyspark会話モードの開始6配信モードでPythonアプリケーションを実行します7.クラスター展開モードでpi.pyを実行します8.Anacondaをインストールします9.Anacondaを使用するようにSparkクラスターを構成します10.Sparkスタンドアロンクラスターシステムを起動します11.JupyterServer起動コマンドを起動および設計します12.PythonNoteBookを作成します
27.データの保存と管理(手術)(20時間):1。データサイエンティストのログインHadoopクライアント2.Hbaseデータセットテーブルの作成3.Pigプログラムの作成と実行4.Hiveの設定とHiveテーブルの作成5.HBaseRESTサービスの開始6.HBaseデータテーブルの管理7.分割データテーブルの作成8.演習の練習
28.統計的応用実践(科学)(8時間):1。推定:点推定、間隔推定2.仮説テスト:Tテスト、Fテスト、Zテスト3.単一因子分散分析4.相関と回帰
29. AI機械学習と深層学習(手術)(32時間):1。寸法縮小法:主成分分析法、線形弁別分析法、遺伝的アルゴリズム2.グループ化:2段階グループ化、K-mean、自己マッピングネットワーク3。アソシエーション:一次元アソシエーション、周期的アソシエーション、多次元アソシエーション4.ディープラーニング:CNN、RNN、LSTM、AutoEncoder
30.ビッグデータチャート視覚化テクノロジー(手術)(24時間):1。データ収集2.データ視覚化Matplotlib3。データの視覚化Seaborn4。データの視覚化Bokeh5。線形回帰6.ロジスティック回帰7.データマイニングと単語ハイフネーション分析8.バージョン制御ソフトウェア
31.エンタープライズケースプロジェクトの実装(手法)(60時間): 1.実装部門2.開発と設計3.テスト4.検証と変更5.プレゼンテーションの作成6.レポートの演習7.特別なシステム開発(1)システムアーキテクチャの設計(2)システム実装の開発(3)実験的な設計(4) )データ分析(5)結論と展望