Registration info |
通常参加者枠 ¥3000(Pay at the door)
FCFS
|
---|
Description
内容概要
NGBoost(Natural Gradient Boosting)は今年10月に発表されたアルゴリズムで、 XGBoost等と同じ勾配ブースティングの派生形です。 通常の勾配法ではなく、パラメータ空間の構造を考慮した自然勾配法を用いることで、 これまでの勾配ブースティングでは予測できなかった確率分布(予測の不確かさ)の 予測を可能にしています。 本セミナーでは、NGBoostのアルゴリズムについて、そもそも自然勾配法とは? も含め徹底的に解説します。 ※ 念の為補足ですが、ある程度の事前知識がある上での進行になり、初心者向けでは ありませんので予めご注意ください。
開催日程
12/21(土) 受付 :15:50〜16:00 講義 :16:00〜18:00 ※ 途中切りの良いところで5分10分の休憩を設けます
会場
水道橋駅、神保町駅、九段下駅周辺 千代田区西神田2-7-14 YS西神田ビル2F
アジェンダ
・対象論文の解説 (100分) ・質疑応答及びディスカッション(20分) 基本的にはフリーで質疑応答やディスカッションができればと思います。
対象者
・機械学習の数理に興味がある方
当日のお持物
・ノートとペン ・本論文とノートPC(あると聞きやすいと思います。)
費用
・3,000円
定員
12名(人数に合わせて調整します、別媒体でも募集していますので申し込み人数は当日参加者数を反映しません)
当日までの事前準備
以下の論文がベースとなります。 https://arxiv.org/abs/1910.03225 対象論文を事前に軽く読み流してくると聞きやすいと思います。 決定木、ランダムフォレスト、アンサンブル学習、勾配ブースティングの基本的な知識は仮定します。 事前知識に自信が無い方は以下に目を通してきて下さい。 ・決定木、ランダムフォレスト、アンサンブル学習 https://lib-arts.hatenablog.com/entry/math_rf1 https://lib-arts.hatenablog.com/entry/math_rf2 https://lib-arts.hatenablog.com/entry/math_rf3 https://lib-arts.hatenablog.com/entry/math_rf4 https://lib-arts.hatenablog.com/entry/math_rf5 ・勾配ブースティング XGBoostの原論文の2章まで https://arxiv.org/pdf/1603.02754.pdf 有料になりますが、以前同シリーズで行ったXGBoostのセミナー資料も参考になると思います。 https://note.mu/lib_arts/n/nefb511ba4fde
講師プロフィール
東京大学大学院数理科学研究科修士課程修了。専門は複素幾何学。 その後、メガバンクでクオンツとして市場リスク管理業務に従事。 現在はベンチャーでAI融資審査モデルの開発に携わる。AIで金融サービスの変革を夢見る機械学習エンジニア。
領収書
領収書の発行も可能ですのでご希望の方はその旨お申し付けいただければと思います。 領収証発行の際は事務手数料として(法人料金も兼ねて)追加で1,000円のお支払いをよろしくお願いいたします。
備考
参考としてこれまでの同シリーズの開講情報をまとめておきます。 ・ニューラルネットワークが万能近似器であることの証明 https://ml-for-experts.connpass.com/event/137501/ ・XGBoost https://ml-for-experts.connpass.com/event/144710/ ・深層化による、ニューラルネットワークの表現能力の向上 https://ml-for-experts.connpass.com/event/149549/
ご参加にあたってのお願い
無断欠席や前日以降のキャンセルに関しては当日人数読めなくなり非常に 迷惑なので基本的に行わないようにお願いします。 体調不良などどうしてものケースは別途ご連絡いただくか、イベントへの お問い合わせよりご連絡いただけますと嬉しいです。 上記がひどいアカウントに関してはブラックリスト処理を行い以後の参加を お断りさせていただきますので、その点だけ予めご了承ください。 (7割以上来れる前提でのお申し込みと前日以降のキャンセルはメッセージでの ご連絡をいただくということだけ気をつけていただければ大丈夫だと思います)