版元ドットコム

探せる、使える、本の情報

文芸 新書 社会一般 資格・試験 ビジネス スポーツ・健康 趣味・実用 ゲーム 芸能・タレント テレビ・映画化 芸術 哲学・宗教 歴史・地理 社会科学 教育 自然科学 医学 工業・工学 コンピュータ 語学・辞事典 学参 児童図書 ヤングアダルト 全集 文庫 コミック文庫 コミックス(欠番扱) コミックス(雑誌扱) コミックス(書籍) コミックス(廉価版) ムック 雑誌 増刊 別冊
これならわかる機械学習入門 富谷 昭夫(著/文) - 講談社
..
詳細画像 0
【利用不可】

書店員向け情報 HELP

これならわかる機械学習入門 (コレナラワカルキカイガクシュウニュウモン)

このエントリーをはてなブックマークに追加
発行:講談社
A5判
256ページ
定価 2,400円+税
ISBN
978-4-06-522549-3   COPY
ISBN 13
9784065225493   COPY
ISBN 10h
4-06-522549-3   COPY
ISBN 10
4065225493   COPY
出版者記号
06   COPY
Cコード
C3041  
3:専門 0:単行本 41:数学
出版社在庫情報
不明
書店発売日
登録日
2021年1月7日
最終更新日
2021年3月26日
このエントリーをはてなブックマークに追加

紹介

【道具として使いこなす!】
膨大な観測データから普遍的な法則を抽出する手法とは? 高校数学レベルから始まり、Python入門、TensorFlowによる実装、最新の論文まで踏み込む入門書。

【著者サポートページ】
https://github.com/akio-tomiya/intro_ml_in_physics

【目次】
第1章 データとサイエンス
1.1 物理学とデータサイエンス/1.2 最小2乗法とオーバーフィット/1.3 テイラー展開と振り子の等時性/コラム:武谷の三段階論
第2章 行列と線形変換
2.1 ベクトル、行列と線形変換/2.2 変換としての行列/2.3 行列に関する色々/コラム:計算量のオーダー
第3章 確率論と機械学習
3.1 確率の基礎事項/3.2 教師あり学習と教師なし学習、強化学習/3.3 確率変数と経験的確率、大数の法則/3.4 大数の弱法則の証明/3.5 カルバックライブラーダイバージェンス/3.6 尤度と赤池情報量基準、汎化/3.7 ロジスティック回帰
第4章 ニューラルネットワーク
4.1 ニューラルネットワークの概論/4.2 万能近似定理/コラム:新しい道具と新理論
第5章 トレーニングとデータ
5.1 ニューラルネットワークの入出力と学習/5.2 誤差関数と汎化、過学習/5.3 誤差関数の最適化・学習/コラム:次元の呪い
第6章 Python入門
6.1 Pythonによるプログラミング入門/6.2 Pythonと他言語の比較/6.3 NumPyとMatplotlib/6.4 Pythonでのクラス
第7章 TensorFlowによる実装
7.1 TensorFlow/Kerasとは/7.2 データやライブラリのロード/7.3 データの分割とニューラルネットワークの設計/7.4 学習/7.5 結果の評価/コラム:量子化という用語
第8章 最適化、正則化、深層化
8.1 最適化法の改良/8.2 過学習を防ぐ/8.3 多層化にむけて
第9章 畳み込みニューラルネットワーク
9.1 フィルター/9.2 畳み込みニューラルネット/コラム:知能と飛行機
第10章 イジング模型の統計力学
10.1 イジング模型/10.2 イジング模型のモンテカルロ法/10.3 熱浴法のPythonコードとデータの準備/コラム:統計力学と場の量子論
第11章 Nature Physicsの論文を再現しよう
11.1 論文について/11.2 データの前処理/11.3 実験

目次

■第1章 データとサイエンス■
1.1 物理学とデータサイエンス
1.2 最小2乗法とオーバーフィット
1.3 テイラー展開と振り子の等時性
コラム:武谷の三段階論
■第2章 行列と線形変換■
2.1 ベクトル、行列と線形変換
2.2 変換としての行列
2.3 行列に関する色々
コラム:計算量のオーダー
■第3章 確率論と機械学習■
3.1 確率の基礎事項
3.2 教師あり学習と教師なし学習、強化学習
3.3 確率変数と経験的確率、大数の法則
3.4 大数の弱法則の証明
3.5 カルバックライブラーダイバージェンス
3.6 尤度と赤池情報量基準、汎化
3.7 ロジスティック回帰
■第4章 ニューラルネットワーク■
4.1 ニューラルネットワークの概論
4.2 万能近似定理
コラム:新しい道具と新理論
■第5章 トレーニングとデータ■
5.1 ニューラルネットワークの入出力と学習
5.2 誤差関数と汎化、過学習
5.3 誤差関数の最適化・学習
コラム:次元の呪い
■第6章 Python入門■
6.1 Pythonによるプログラミング入門
6.2 Pythonと他言語の比較
6.3 NumPyとMatplotlib
6.4 Pythonでのクラス
■第7章 TensorFlowによる実装■
7.1 TensorFlow/Kerasとは
7.2 データやライブラリのロード
7.3 データの分割とニューラルネットワークの設計
7.4 学習
7.5 結果の評価
コラム:量子化という用語
■第8章 最適化、正則化、深層化■
8.1 最適化法の改良
8.2 過学習を防ぐ
8.3 多層化にむけて
■第9章 畳み込みニューラルネットワーク■
9.1 フィルター
9.2 畳み込みニューラルネット
コラム:知能と飛行機
■第10章 イジング模型の統計力学■
10.1 イジング模型
10.2 イジング模型のモンテカルロ法
10.3 熱浴法のPython コードとデータの準備
コラム:統計力学と場の量子論
■第11章 Nature Physicsの論文を再現しよう■
11.1 論文について
11.2 データの前処理
11.3 実験

著者プロフィール

富谷 昭夫  (トミヤ アキオ)  (著/文

2015年、大阪大学大学院理学研究科物理学専攻博士課程修了。博士(理学)。2015年、大阪大学大学院物理学専攻特任研究員。2015年~2018年、中国・華中師範大学博士研究員。2018年より、理化学研究所基礎科学特別研究員(理研BNL研究センター計算物理研究グループ)。主な研究分野は素粒子理論、特に格子ゲージ理論。著書に『ディープラーニングと物理学――原理がわかる、応用ができる』(共著、講談社)がある。Twitterアカウントは @TomiyaAkio 。

上記内容は本書刊行時のものです。