イベントの説明
※ コロナ対策として、少人数の実施と、アルコール消毒・マスク着用を義務化します。
詳しくは「参加者への情報」にまとめましたので、必ず一読の上の参加をお願いします。
内容概要
近年よく用いられる勾配ブースティング木(GBDT; Gradient Boosting Decision Tree)ですが、
ライブラリを使えても意外と仕組みがわからないという話をよく見聞きします。
ということで、今回は基本的な勾配ブースティング木の仕組みの解説と、関連の論文のご紹介
などを行います。scikit-learnライクな簡単なスクラッチ実装も用意しておきますので、
理論やトレンドとともに実装も把握できる形にできればと思います。
開催日程
4/2(金)
受付: 19:25〜19:30
講義: 19:00〜21:30
※ 途中5分ほどの休憩を設ける予定です。
※ 19時15分以前の入室はお断りします。
※ 21時に中締めとしますので、全体向けの解説はそれまでに終了させるように進行します。
アジェンダ
1. 基本知識の解説(20分)
C4.5、CARTを用いた分類、回帰
アンサンブル学習(バギング、ブースティング)
2. 勾配ブースティングの理論とトレンド(50分)
勾配ブースティング
XGBoost、LightGBM、CatBoost
3. ハンズオン&実装の解説(40分)
実装を元にした理論面の確認
ハンズオン
※
全体の流れは変えませんが、細かい時間配分は全体バランス考慮して変更する可能性があります。
会場
水道橋駅、神保町駅、九段下駅周辺
千代田区西神田2-7-14 YS西神田ビル2F
対象者
・Jupyterなどを用いてPythonの簡単なプログラミングができる方
・機械学習の基本的な理解がある方
・高校レベルの数学、英語についてはそれほど苦手意識のない方
講師プロフィール
東大工学部卒。
データ分析/AI開発の仕事の経験は8年以上で、理論/開発/ビジネスのどれも経験があり強い。
また、多くの業界のプロジェクトに関わったためドメイン知識も豊富。
初心者向けの指導実績も多く、2,000名ほど。
当日までの準備
Jupyter、NumPy、scimitar-learn、matplotlibは使えるようにしてきてください。
費用
6,000円
※
・領収書発行の際は事務手数料として追加2,000円のお支払いをよろしくお願いいたします
定員
3名(5名までは増枠の可能性があります。)
資料 資料をもっと見る/編集する
資料が投稿されると、最新の3件が表示されます。