機械学習の資料は英語が多い
機械学習を勉強していると英語で書かれた資料に目を通す機会も多い。
たとえば「derivative」という単語が出てくる。
一般的には「派生」という意味。
しかし、頻繁に「derivative」という単語が出てくる。
これは何か専門用語なんだろうなと思い、あたりをつけて調べたら「導関数」のことだった。
他にも、「differentiation」を「差」だと思って読んでたら、実は「微分」のことだったり。
こういう日常で使われる場合の英単語の意味と、専門用語での意味は微妙にイメージのずれがある。
何度も辞書を引かなくていいように、一覧表にまとめた。
機械学習で使う英単語まとめ
英語 | 和訳 | メモ |
---|---|---|
derivative | 導関数 | 導関数とは、f'(x)のこと f(x)を微分するとf'(x)が得られる f(x)を微分すると導関数が得られる |
differentiation | 微分 | $$\frac{df}{dx}$$のdはdifferentiationの略 |
differential | 微分 | |
variance | 分散 | |
machine learning | 機械学習 | MLってでてきたらマシンラーニングの略 |
generalizability | 汎化性能 | トレーニングデータに対する性能じゃなくて 未知のデータを処理した時の性能 |
objective function | 目的関数 | 目的関数=損失関数=コスト関数 |
loss function | 損失関数 | 目的関数=損失関数=コスト関数 |
cost function | コスト関数 | 目的関数=損失関数=コスト関数 |
predicted value | 予測値 | 誤差 = 目標値 - 予測値 |
target value | 目標値 | 誤差 = 目標値 - 予測値 誤差を計算するときにt-yというのが時々出てきて tってなんだ?と思ってたけどtargetの略だった |
squared error | 二乗誤差 | マイナス誤差をプラスと統一するために2乗する |
loss | 損失 | $$L = (t-y)^2$$ 正解との差、損失(誤差)を表すときに使うLはlossの頭文字 |
linear algebra | 線形代数 | |
product | 内積 | inner productと書くこともある |
transpose | 転置 | 転置記号のTはtransposeの略 |
identity matrix | 単位行列 | 対角要素がすべて1 非対角要素がすべて0の正方行列 |
unit matrix | 単位行列 | |
inverse matrix | 逆行列 | |
gradient | 勾配 | |
vector-valued function | ベクトル値関数 | 出力がベクトルになる関数 |
scalar-valued function | スカラ値関数 | 出力がスカラになる関数 |
joint probability | 同時確率 | P(x,y): xとyが同時に起きる確率
例: |
marginalization | 周辺化 | |
marginal probability | 周辺確率 | 同時確率の片方だけが起こる確率 (もう片方を全網羅したときの確率)例: 「出目が1」で「コインが表」の確率 + 「出目が1」で「コインが裏」の確率 = 出目が1になる確率 P(x,y)のyを全パターン網羅すれば、純粋なxの事象が起きる確率が分かる |
sample variance | 標本分散 | \begin{aligned} \sigma^2 = \frac{1}{N} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}
母集団から標本を取り出した時の分散 |
unbiased variance | 不偏分散 | \begin{aligned} s^2 = \frac{1}{N – 1} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}
母集団の分散 N-1で割っているので、Nで割る標本分散より大きくなる |
population | 母集団 | たとえば、日本人の平均身長を調べる場合、母集団は全日本人 |
sample population | 標本集団 | 全日本人の身長を計測するのは実質不可能 数日~数か月かけて調査している間に、調査対象の一部が死亡したり、新しく生まれた赤ちゃんが母集団に加わったりする。 また、調査初日と最終日で身長が変わっている人もいる。 そこで、たとえば0歳~100歳まで100人ずつサンプルを抽出する。 このときサンプルとして抽出されたものが標本集団。 |
standard deviation | 標準偏差 | 分散の平方根 |
correlation coefficient | 相関係数 | |
supervised learning | 教師あり学習 | |
unsupervised learning | 教師なし学習 | |
reinforcement learning | 強化学習 | |
centering | 中心化 | 単回帰分析で入力と出力の平均がともに0になるように 入力と出力の値をちょうせいすること |
inference | 推論 | |
1-hot vector | ワンホットベクトル 1か所だけ1で、それ以外の成分が0のベクトル たとえば、 数字の3=[0,0,0,1,0,0,0,0,0,0] 数字の9=[0,0,0,0,0,0,0,0,0,1] のように何番目の要素が1かで分類を表す |
|
gradient descent | 勾配降下法 | |
stochastic gradient descent |
確率的勾配降下法 | SGD |
perturbation | 摂動 | 「ノイズ・ずれ」のこと
摂動とは、惑星の引力により彗星の軌道がずれること クラッカー的手法で 現実世界ではありえないようなデータを入力として与え、モデルがどういう出力をするか実験が必要 |
統計学に出てくる記号の読み方
統計学に出てくる記号の読み方記号読み方メモ∂デル、ラウンドデルタ偏微分∇ナブラ偏微分を並べたベクトル≈ニアリーイコール≒と同じ≡合同左辺と右辺が同一の場合に使う=は特定の変数で成り立つとき≡はどの変数に対しても常に成り立つとき(恒等式)∼比...
コメント