機械学習で使う英単語まとめ

この記事は約6分で読めます。

機械学習の資料は英語が多い

機械学習を勉強していると英語で書かれた資料に目を通す機会も多い。

たとえば「derivative」という単語が出てくる。
一般的には「派生」という意味。

しかし、頻繁に「derivative」という単語が出てくる。
これは何か専門用語なんだろうなと思い、あたりをつけて調べたら「導関数」のことだった。

他にも、「differentiation」を「差」だと思って読んでたら、実は「微分」のことだったり。

こういう日常で使われる場合の英単語の意味と、専門用語での意味は微妙にイメージのずれがある。

何度も辞書を引かなくていいように、一覧表にまとめた。

機械学習で使う英単語まとめ

英語和訳メモ
derivative導関数導関数とは、f'(x)のこと
f(x)を微分するとf'(x)が得られる
f(x)を微分すると導関数が得られる
differentiation微分$$\frac{df}{dx}$$のdはdifferentiationの略
differential微分
variance分散
machine learning機械学習MLってでてきたらマシンラーニングの略
generalizability汎化性能トレーニングデータに対する性能じゃなくて
未知のデータを処理した時の性能
objective function目的関数目的関数=損失関数=コスト関数
loss function損失関数目的関数=損失関数=コスト関数
cost functionコスト関数目的関数=損失関数=コスト関数
predicted value予測値誤差 = 目標値 - 予測値
target value目標値誤差 = 目標値 - 予測値
誤差を計算するときにt-yというのが時々出てきて
tってなんだ?と思ってたけどtargetの略だった
squared error二乗誤差マイナス誤差をプラスと統一するために2乗する
loss損失$$L = (t-y)^2$$
正解との差、損失(誤差)を表すときに使うLはlossの頭文字
linear algebra線形代数
product内積inner productと書くこともある
transpose転置転置記号のTはtransposeの略
identity matrix単位行列対角要素がすべて1
非対角要素がすべて0の正方行列
unit matrix単位行列
inverse matrix逆行列
gradient勾配
vector-valued functionベクトル値関数出力がベクトルになる関数
scalar-valued functionスカラ値関数出力がスカラになる関数
joint probability同時確率 P(x,y): xとyが同時に起きる確率

例:
x: サイコロ、y:コイン
出目が1で、コインが表になる確率(同時確率)は
$$\frac{1}{6}\times\frac{1}{2}$$

marginalization周辺化
marginal probability周辺確率同時確率の片方だけが起こる確率
(もう片方を全網羅したときの確率)例:
「出目が1」で「コインが表」の確率 + 「出目が1」で「コインが裏」の確率
= 出目が1になる確率
P(x,y)のyを全パターン網羅すれば、純粋なxの事象が起きる確率が分かる
sample variance標本分散\begin{aligned} \sigma^2 = \frac{1}{N} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}

母集団から標本を取り出した時の分散
二乗和をNで割る

unbiased variance不偏分散\begin{aligned} s^2 = \frac{1}{N – 1} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}

母集団の分散
二乗和をN-1で割る

N-1で割っているので、Nで割る標本分散より大きくなる
(標本は母集団の一部にしか過ぎないので母集団の方が分散が大きくなる)

population母集団たとえば、日本人の平均身長を調べる場合、母集団は全日本人
sample population標本集団全日本人の身長を計測するのは実質不可能
数日~数か月かけて調査している間に、調査対象の一部が死亡したり、新しく生まれた赤ちゃんが母集団に加わったりする。
また、調査初日と最終日で身長が変わっている人もいる。
そこで、たとえば0歳~100歳まで100人ずつサンプルを抽出する。
このときサンプルとして抽出されたものが標本集団。
standard deviation標準偏差分散の平方根
correlation coefficient相関係数
supervised learning教師あり学習
unsupervised learning教師なし学習
reinforcement learning強化学習
centering中心化単回帰分析で入力と出力の平均がともに0になるように
入力と出力の値をちょうせいすること
inference推論
1-hot vectorワンホットベクトル
1か所だけ1で、それ以外の成分が0のベクトル
たとえば、
数字の3=[0,0,0,1,0,0,0,0,0,0]
数字の9=[0,0,0,0,0,0,0,0,0,1]
のように何番目の要素が1かで分類を表す
gradient descent勾配降下法
stochastic
gradient descent
確率的勾配降下法SGD
perturbation摂動「ノイズ・ずれ」のこと

摂動とは、惑星の引力により彗星の軌道がずれること
機械学習においては、入力を意図的改変してノイズを含む入力を発生させることを摂動という

クラッカー的手法で
「AI自動運転車のセンサーにノイズを読み取らせて事故を起こさせる」
みたいなテロが可能かもしれない

現実世界ではありえないようなデータを入力として与え、モデルがどういう出力をするか実験が必要

統計学に出てくる記号の読み方
統計学に出てくる記号の読み方 記号 読み方 メモ ∂ デル、ラウンドデルタ 偏微分 ∇ ナブラ 偏微分を並べたベクトル ≈ ニアリーイコール ≒と同じ ≡ 合同 左辺と右辺が同一の場合に使う =は特定の変数で成り立つと...

コメント

タイトルとURLをコピーしました