機械学習で使う英単語まとめ

この記事は約6分で読めます。

機械学習の資料は英語が多い

機械学習を勉強していると英語で書かれた資料に目を通す機会も多い。

たとえば「derivative」という単語が出てくる。
一般的には「派生」という意味。

しかし、頻繁に「derivative」という単語が出てくる。
これは何か専門用語なんだろうなと思い、あたりをつけて調べたら「導関数」のことだった。

他にも、「differentiation」を「差」だと思って読んでたら、実は「微分」のことだったり。

こういう日常で使われる場合の英単語の意味と、専門用語での意味は微妙にイメージのずれがある。

何度も辞書を引かなくていいように、一覧表にまとめた。

機械学習で使う英単語まとめ

英語 和訳 メモ
derivative 導関数 導関数とは、f'(x)のこと
f(x)を微分するとf'(x)が得られる
f(x)を微分すると導関数が得られる
differentiation 微分 $$\frac{df}{dx}$$のdはdifferentiationの略
differential 微分
variance 分散
machine learning 機械学習 MLってでてきたらマシンラーニングの略
generalizability 汎化性能 トレーニングデータに対する性能じゃなくて
未知のデータを処理した時の性能
objective function 目的関数 目的関数=損失関数=コスト関数
loss function 損失関数 目的関数=損失関数=コスト関数
cost function コスト関数 目的関数=損失関数=コスト関数
predicted value 予測値 誤差 = 目標値 - 予測値
target value 目標値 誤差 = 目標値 - 予測値
誤差を計算するときにt-yというのが時々出てきて
tってなんだ?と思ってたけどtargetの略だった
squared error 二乗誤差 マイナス誤差をプラスと統一するために2乗する
loss 損失 $$L = (t-y)^2$$
正解との差、損失(誤差)を表すときに使うLはlossの頭文字
linear algebra 線形代数
product 内積 inner productと書くこともある
transpose 転置 転置記号のTはtransposeの略
identity matrix 単位行列 対角要素がすべて1
非対角要素がすべて0の正方行列
unit matrix 単位行列
inverse matrix 逆行列
gradient 勾配
vector-valued function ベクトル値関数 出力がベクトルになる関数
scalar-valued function スカラ値関数 出力がスカラになる関数
joint probability 同時確率  P(x,y): xとyが同時に起きる確率

例:
x: サイコロ、y:コイン
出目が1で、コインが表になる確率(同時確率)は
$$\frac{1}{6}\times\frac{1}{2}$$

marginalization 周辺化
marginal probability 周辺確率 同時確率の片方だけが起こる確率
(もう片方を全網羅したときの確率)例:
「出目が1」で「コインが表」の確率 + 「出目が1」で「コインが裏」の確率
= 出目が1になる確率
P(x,y)のyを全パターン網羅すれば、純粋なxの事象が起きる確率が分かる
sample variance 標本分散 \begin{aligned} \sigma^2 = \frac{1}{N} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}

母集団から標本を取り出した時の分散
二乗和をNで割る

unbiased variance 不偏分散 \begin{aligned} s^2 = \frac{1}{N – 1} \sum_{n=1}^N \left( x_n – \overline{x} \right)^2 \end{aligned}

母集団の分散
二乗和をN-1で割る

N-1で割っているので、Nで割る標本分散より大きくなる
(標本は母集団の一部にしか過ぎないので母集団の方が分散が大きくなる)

population 母集団 たとえば、日本人の平均身長を調べる場合、母集団は全日本人
sample population 標本集団 全日本人の身長を計測するのは実質不可能
数日~数か月かけて調査している間に、調査対象の一部が死亡したり、新しく生まれた赤ちゃんが母集団に加わったりする。
また、調査初日と最終日で身長が変わっている人もいる。
そこで、たとえば0歳~100歳まで100人ずつサンプルを抽出する。
このときサンプルとして抽出されたものが標本集団。
standard deviation 標準偏差 分散の平方根
correlation coefficient 相関係数
supervised learning 教師あり学習
unsupervised learning 教師なし学習
reinforcement learning 強化学習
centering 中心化 単回帰分析で入力と出力の平均がともに0になるように
入力と出力の値をちょうせいすること
inference 推論
1-hot vector ワンホットベクトル
1か所だけ1で、それ以外の成分が0のベクトル
たとえば、
数字の3=[0,0,0,1,0,0,0,0,0,0]
数字の9=[0,0,0,0,0,0,0,0,0,1]
のように何番目の要素が1かで分類を表す
gradient descent 勾配降下法
stochastic
gradient descent
確率的勾配降下法 SGD
perturbation 摂動 「ノイズ・ずれ」のこと

摂動とは、惑星の引力により彗星の軌道がずれること
機械学習においては、入力を意図的改変してノイズを含む入力を発生させることを摂動という

クラッカー的手法で
「AI自動運転車のセンサーにノイズを読み取らせて事故を起こさせる」
みたいなテロが可能かもしれない

現実世界ではありえないようなデータを入力として与え、モデルがどういう出力をするか実験が必要

統計学に出てくる記号の読み方
統計学に出てくる記号の読み方記号読み方メモ∂デル、ラウンドデルタ偏微分∇ナブラ偏微分を並べたベクトル≈ニアリーイコール≒と同じ≡合同左辺と右辺が同一の場合に使う=は特定の変数で成り立つとき≡はどの変数に対しても常に成り立つとき(恒等式)∼比...

コメント

タイトルとURLをコピーしました