G検定対策に役立つ用語集

G検定

G検定 用語集

【早い者勝ち!】.com/.net/.jp ドメイン取るならお名前.com

G検定に役立つ用語集を作りました。
G検定に是非、役立ててください。
お名前.com

お名前.com
ムームードメイン
独自SSL 詳細はこちら

スポンサーリンク
  1. アシロマAI原則
  2. アジャイル型
  3. アンサンブル学習
  4. 鞍点
  5. 一気通貫学習
  6. イテレーション
  7. 意味解析
  8. 意味ネットワーク
  9. インスタンスセグメンテーション
  10. エキスパートシステム
  11. オートエンコーダ
  12. オントロジー
  13. カーネル関数
  14. カーネルトリック
  15. 過学習
  16. 確率的勾配降下法
  17. 隠れマルコフモデル
  18. 活性化関数
  19. 機械学習
  20. 記号接地問題
  21. 強化学習
  22. 教師あり学習
  23. 教師なし学習
  24. 局所コントラスト正規化
  25. 協調ベースフィルタリング
  26. 局所最適解
  27. クラスタリング
  28. 決定木
  29. コスト関数
  30. 行動価値関数
  31. 勾配降下法
  32. 勾配消失問題
  33. 誤差逆伝搬法
  34. 混合 正規分布
  35. 再帰型ニューラルネットワーク
  36. サーベイランス・キャピタリズム
  37. 自己アテンション機構
  38. シソーラス
  39. サポートベクターマシン
  40. シグモイド関数
  41. 次元削減
  42. 次元の呪い
  43. 自己符号化器
  44. シンギュラリティ
  45. 人工知能学会の倫理指針
  46. スタッキング
  47. 正規化線形関数(ReLU関数)
  48. 積層オートエンコーダ
  49. 線形回帰
  50. ソフトマックス関数
  51. 畳み込みニューラルネットワーク
  52. ダートマス会議
  53. 知識グラフ
  54. 第1次AIブーム
  55. 第2次AIブーム
  56. 第3次AIブーム
  57. データサイエンス
  58. データバイアス問題
  59. トイプロブレム
  60. ドロップアウト
  61. ディープニューラルネットワーク(DNN:Deep Neural Network)
  62. ナレッジエンジニア
  63. 内部共変量シフト
  64. ニューラルネットワーク
  65. ノーフリーランチ定理
  66. 内容ベースフィルタリング
  67. 内部共変量シフト
  68. バーニーおじさんのルール
  69. バギング
  70. 秘密計算
  71. ファインチューニング
  72. ホールドアウト法
  73. ファインチューニング
  74. 物体セグメンテーション
  75. フレーム問題
  76. 汎化誤差
  77. ラッソ回帰
  78. ランダムフォレスト
  79. リッジ回帰
  80. リストワイズ法
  81. 醜いアヒルの子の定理
  82. AI OCR
  83. Adagrad
  84. AlphaGo
  85. AlexNet
  86. CNN(畳み込みニューラルネットワーク)
  87. Cycle-GAN
  88. DeepFace
  89. ENIAC
  90. GAN
  91. GDPR
  92. ILSVRC
  93. k-means
  94. kNN法
  95. LASSO
  96. L2正則化
  97. Numpy
  98. NOLS
  99. TF-IDF
  100. Ridge関数
  101. PARRY
  102. PCA(主成分分析)
  103. Pytorch
  104. Q学習
  105. RNN(リカレントニューラルネットワーク)
  106. TensorFlow
  107. VAE
  108. YOLO

アシロマAI原則

研究目標や研究文化における研究課題の他、AIの短期的、長期的な課題について公開したもの。

安全性の検証や透明性の確保など23項目で構成される。

https://futureoflife.org/ai-principles-japanese/?cn-reloaded=1



アジャイル型

開発の手法
開発着手時点で、ゴールを厳密に定義できない開発に適する。仕様変更に柔軟に対応可能な反面、プロジェクト管理が難しい欠点もある。

独自SSL 詳細はこちら

アンサンブル学習

簡単に言えば多数決をとる方法で、個々に別々の学習器として学習させたものを、融合させる事によって、未学習のデータに対しての予測能力を向上させるための学習です。
複数のモデルを使用し、全体の汎化性能をあげる手法

【アンサンブル学習】



鞍点

ある次元から見れば極小であるものの、別の次元から見ると極大になってしまっているもののこと。

【鞍点】

一気通貫学習

ロボットの一連の動作を一つのニューラルネットワークで実現しようとする学習。

【一気通貫学習】



イテレーション

Iteration(イテレーション)とは、日本語訳で「反復、繰り返し」などの意味がある。

【イテレーション】

シリコンバレーにおける定義としては、おもにアジャイル開発で用いられる短期間で反復しながら効率的に開発を進めるサイクルの1つの反復である。
独自SSL 詳細はこちら

意味解析

目的プログラム生成行程プログラミング言語において、コンパイラーがソースコードを解析し目的プログラムを生成する際の処理工程のひとつ。

【意味解析】

意味ネットワーク

言語の意味あるいは一般的な知識を人間の直観に即して効率よく表現しようとする試みである。そのいくつかは 認知科学的視点にもとづいて提案されている。

【意味ネットワーク】



インスタンスセグメンテーション

物体認識で、個々の物体ごとに認識させる場合に使用する手法。
物体1つ1つの位置を検出し、かつ物体を画素(pixel)単位で『分類』したいときに使う物体検出。

エキスパートシステム

「知識ベース」と「推論エンジン」から構成。知識が豊富になると蓄積/管理の手間が膨大。

オートエンコーダ

オートエンコーダとは、ニューラルネットワークの構造を使った次元圧縮手法です。

オートエンコーダはニューラルネットワークの仕組みの1つです。入力されたデータに次元削減の処理をして、特徴抽出するものです。



オントロジー

「語彙」「意味」「関係性」を他者と共有できるように定められた概念化の仕様。
独自SSL 詳細はこちら

カーネル関数

カーネル関数は、特徴空間中のデータの座標の明示的な計算を経由せずに、特徴空間における内積をデータから直接計算する手段を与える。内積を評価するためにカーネル関数を使うと、明示的な座標の計算を経るよりもしばしば計算量が少なくて済む。カーネル関数を使って、計算複雑度の増大を抑えつつ内積にもとづく解析手法を高次元特徴空間へ拡張するアプローチを、一般にカーネルトリックと呼ぶ。カーネル関数はベクトルのみならず、系列データ、テキスト、画像、グラフなどに対しても導入されている。

カーネルトリック

カーネルトリック
カーネルトリック

過学習

「過学習(過適合)」とは、学習(訓練)データにあまりに適合しすぎて、学習(訓練)データでは正解率が高いのに学習(訓練)データとは異なるデータ(例えば、評価データ)では正解率が低くなってしまう、つまり、学習(訓練)データだけに最適化されてしまって汎用性がない状態に陥ることです。

確率的勾配降下法

勾配法という最適化手法において必要な勾配の計算を、確率を使うことで高速に行う方法です。

隠れマルコフモデル

「確率的な状態遷移と確率的な記号出力を備えたオートマトン」と言えます。主な使用目的は「観測された記号系列の背後に存在する状態の遷移系列を推測する」ことです。

活性化関数

ニューラルネットワークにおいて、線形変換をした後に適用する非線形関数もしくは恒等関数のことである。
活性化関数のまとめ(ステップ、シグモイド、ReLU、ソフトマックス、恒等関数)

機械学習

機械に大量のデータからパターンやルールを発見させ、それをさまざまな物事に利用することで判別や予測をする技術

独自SSL 詳細はこちら



記号接地問題

人工知能において、実世界にある事物の名称と、コンピューター内部で扱う記号との結びつけに伴う問題。シンボルグラウンディング問題。
人間は、「リンゴ」という文字列と実物のリンゴとの結びつき、さらに、切って皿に盛りつけたリンゴや、リンゴの菓子、リンゴジュースなどとの関係も理解できる。しかし、コンピューター内部の記号処理では、「リンゴ」と「apple」という文字列は容易に結びつけられるが、実物のリンゴと結びつけることは困難である。つまり、コンピューター内部で扱う記号に本質的な意味を与えることができるのか、記号と事物をどのように結びつけるのかという問題といえる。

独自SSL 詳細はこちら

強化学習

強化学習とは、試行錯誤を通じて「価値を最大化するような行動」を学習するものです。

独自SSL 詳細はこちら



教師あり学習

「教師あり学習」とは「入力データ」と「正解データ」がセットになった訓練データです。コンピュータに対して大量の「入力データ」と「正解データ」を投入することでコンピュータが入力データの特徴を読み取り、正解データを学習します。

教師なし学習

「教師なし学習」とは教師あり学習と異なり「正解データ」が与えられていません。コンピュータ自身がクラスタリングとよばれる共通項をもつクラスタに分けたり、頻出パターンを見つけ出す学習方法です。

局所コントラスト正規化

画像処理の分野で異なるスケールの特徴量を同時に扱えるようにするため、減算正規化と除算正規化を行う

CNN (畳み込みニューラルネット)
See detail on the site.

協調ベースフィルタリング

ユーザーの購買履歴からおすすめを表示するアプローチ。

局所最適解

・勾配降下法において、誤差は最小ではないが勾配が非常に小さくなる値(極小値)に収束してしまう問題
・このような値を停留点・鞍点と呼ぶ

独自SSL 詳細はこちら



クラスタリング

クラスタリング (clustering) とは,分類対象の集合を,内的結合 (internal cohesion) と外的分離 (external isolation) が達成されるような部分集合に分割することす.統計解析や多変量解析の分野ではクラスター分析 (cluster analysis) とも呼ばれ,基本的なデータ解析手法としてデータマイニングでも頻繁に利用されています.

独自SSL 詳細はこちら

決定木

決定木は条件による分岐を「根」からたどることで、最も条件に合致する「葉」を検索するアルゴリズムです。学習データをもとに説明変数から成る条件式をノードとして作成し、「葉」の部分で予測結果を導き出せるようなモデルを自動作成します。分類問題、回帰問題、どちらにも対応が可能でそれらは各々回帰木・分類木と呼ばれています。

コスト関数

機械学習における学習とは? – Miidas Research
ニューラルネットワークのコスト関数とバックプロパゲーション - Qiita
最近数学をやり直していてふと機械学習がどういう仕組みなのか知りたくなって、Courseraでスタンフォード大学が提供している機械学習講座を受けている。第6週まで終わったので思い出しながら軽くまとめる。講座はこちら Coursera M...

行動価値関数

勾配降下法

訓練テストに対してコストが最小になるように、モデルパラメータを少しづつ操作し、モデルを訓練テストに対して適合したパラメータに収束させる方法です。
https://qiita.com/YudaiSadakuni/items/ece07b04c685a64eaa01

勾配消失問題

勾配消失問題とは、機械学習手法のひとつであるニューラルネットワークの設計において、勾配が消失することで学習が進まなくなる技術的な問題のことです。

ニューラルネットワークによる学習を行う際、最もシンプルなモデルである単純パーセプトロンでは線形分離可能な問題しか学習できませんでした。
したがって、非線形分離が必要となる問題では、パーセプトロンを多層化する必要があります。
多層化する場合に新たに問題になるのは、予測値と実際の値の差分である誤差を最小化する、いわゆる最適化問題が複雑化することです。

勾配消失問題 | AI研究所 - 人工知能に脅かされないために、人工知能を作る側の人間になる
勾配消失問題とは 勾配消失問題とは、機械学習手法のひとつであるニューラルネットワークの設計において、勾配が消失することで学習が進まなくなる技術的な問題のことです。 ニューラルネットワークによる学習を行う際、最もシンプルなモデルである単純パーセプトロンでは線形分離可能な問題しか学習できませんでした。 したがって、非線形分...

誤差逆伝搬法

誤差を最小化して任意関数を近似することが出来る。 そのアルゴリズムは次の通りである:

ニューラルネットワークに学習のためのサンプルを与える。
ネットワークの出力を求め、出力層における誤差を求める。その誤差を用い、各出力ニューロンについて誤差を計算する。
個々のニューロンの期待される出力値と倍率 (scaling factor)、要求された出力と実際の出力の差を計算する。これを局所誤差と言う。
各ニューロンの重みを局所誤差が小さくなるよう調整する。
より大きな重みで接続された前段のニューロンに対して、局所誤差の責任があると判定する。
そのように判定された前段のニューロンのさらに前段のニューロン群について同様の処理を行う。
このアルゴリズムの名が暗示するように、エラー(および学習)は出力ノードから後方のノードへと伝播する。技術的に言えば、バックプロパゲーションはネットワーク上の変更可能な重みについて、誤差の傾斜を計算するものである。この傾斜はほとんどの場合、誤差を最小にする単純なアルゴリズムである確率的最急降下法で使われる。「バックプロパゲーション」という用語はより一般的な意味でも使われ、傾斜を求める手順と確率的最急降下法も含めた全体を示す。バックプロパゲーションは通常すばやく収束して、対象ネットワークの誤差の局所解を探し出す。

バックプロパゲーションを行う場合、ネットワークは少なくとも三層以上でなければならない(入力層、中間層、出力層)。また、多層ネットワークの中間層が意味のある関数を表すには、非線形の活性化関数でなければならない。線形な活性化関数の多層ネットワークは、単層ネットワークと等価である。非線形の活性化関数としては、ロジスティック関数(中でも tanh などのシグモイド関数)、ソフトマックス関数、ガウス関数などが一般的であったが、中間層の活性化関数としては現在はmax(x, 0) が最善であるとされている。

バックプロパゲーションのアルゴリズムは何度か再発見されており、逆積算モードにおける自動微分という汎用技法の特殊ケースと見ることもできる。

また、ガウス・ニュートン法とも密接に関連する。



独自SSL 詳細はこちら

 

混合 正規分布

GMM(混合ガウスモデル)を用いて各データ点の分布のパラメータを推定できればその推定したパラメータを元に、あるデータ点がどんなガウス分布に属しているかを推定できる.

 

GMMって何?混合ガウス(正規)分布を超わかりやすく理解するコツ♪

再帰型ニューラルネットワーク

再帰型ニューラルネットワークの「基礎の基礎」を理解する ~ディープラーニング入門|第3回 - アイマガジン|i Magazine|IS magazine
 前回は、ディープラーニングの…

サーベイランス・キャピタリズム

独自SSL 詳細はこちら

監視資本主義(サーベイランスキャピタリズム)は、あなたの個人データが商品となり、このデータの収穫と生産がインターネットの大規模な監視に依存している市場主導型のプロセスを説明するものだ。監視資本主義という用語は、2014年にハーバード大学のショシャナ・ズボフ(Shoshana Zuboff)によって造語された。

監視資本主義(サーベイランスキャピタリズム)とは?
監視資本主義は、あなたの個人データが商品となり、このデータの収穫と生産がインターネットの大規模な監視に依存しているプロセスを説明するものだ。この用語は、2014年にハーバード大学のショシャナ・ズボフによって造語された。

自己アテンション機構

自然言語処理の巨獣「Transformer」のSelf-Attention Layer紹介
Transformer構造を過去の方法と比べた時の差、及びSelf-Attention Layer内のQuery, KeyとValueについての役割を説明してみました。

 

 

シソーラス

独自SSL 詳細はこちら

言葉や単語を同義語や意味上の類似関係、包含関係などによって分類した辞書、あるいはデータベースのこと。例えば、『日本』を表す表現として「日本」の他にも、「大和」、「倭」、「Japan」、「JPN」、「Nippon」など複数の表現があるが、シソーラスにこれらの言葉が登録されていれば、「Japan」と検索した場合でも「日本」をキーワードとした文書を検索することができる。逆に、シソーラスの処理が介在していないと、意味は同じ「日本」でも「Nippon」と表記している文書は検索から漏れてしまう。法人や個人なども同様に誤った情報の入力や欠落などによって、正しい情報と乖離するケースが生じてしまう。

AI技術とシソーラスナレッジを融合した顧客リストのAIマッチング&クリーニングサービス「Data-Master™」トライアル運用を開始 | NTTデータ



サポートベクターマシン

サポートベクターマシン(SVM)は、1995年頃にAT&TのV.Vapnikが発表したパターン識別用の教師あり機械学習方法であり、局所解収束の問題が無い長所がある。
「マージン最大化」というアイデア等で汎化能力も高め、現在知られている方法としては、最も優秀なパターン識別能力を持つとされている。
また、カーネル・トリックという魔法のような巧妙な方法で、線形分離不可能な場合でも適用可能になった事で応用範囲が格段に広がり、近年研究が盛んになっている。
しかし、データを2つのグループに分類する問題には優れているが、多クラスの分類にそのまま適用出来ず、計算量が多い、カーネル関数の選択の基準も無い等の課題も指摘され、一概に誤差逆伝播法等と比較して優れていると言い切れるものでもない。
SVMは厳密にはニューラルネットワークではないが、中間層から出力層への結合係数に該当するものを計算し、ニューラルネットワークと関連付けられる場合も多い。

シグモイド関数

シグモイド関数の意味と簡単な性質 | 高校数学の美しい物語
シグモイド関数の性質と簡単なグラフの書き方,工学的応用(ステップ関数,符号関数の近似)について解説します。

 

次元削減

データの情報を失わないようにデータを低い次元に圧縮する手法

次元の呪い

リチャード・ベルマン:「特徴量の数が増えれば増えるほど、指数関数的に問題が複雑になっていく」

自己符号化器

自己符号化器(auto encoder) とは,入力を訓練データとして使い,データをよく表す特徴を獲得するニューラルネットワークです.
教師データを使わない教師なし学習に分類され,ニューラルネットワークの事前学習や初期値の決定などの利用されます.

シンギュラリティ

シンギュラリティ(技術的特異点)とは、AIなどの技術が、自ら人間より賢い知能を生み出す事が可能になる時点を指す言葉です。米国の数学者ヴァーナー・ヴィンジにより最初に広められ、人工知能研究の権威であるレイ・カーツワイル博士も提唱する概念です。

レイ・カーツワイル博士は、「2029年にAIが人間並みの知能を備え、2045年に技術的特異点が来る」と提唱しており、この問題は2045年問題とよばれます。

2045年問題の根拠となっている理論が、「収穫加速の法則」です。

収穫加速の法則とは、「技術進歩においてその性能が直線的ではなく、指数関数的に向上する」という法則。一度、技術的な進歩が起きると、その技術が次の進歩までの期間を短縮させ、ますますイノベーションが加速する、という概念です。カーツワイル博士は、これによりシンギュラリティは2045年頃に来ると提唱しました。

人間以上の知性をもった「強いAI」が登場し、人間では予測不可能な変化が起こると言われています。





人工知能学会の倫理指針

①人類への貢献
②法規制の遵守
③他者のプライバシーの尊重
④公正性
⑤安全性
⑥誠実な振る舞い
⑦社会に対する責任
⑧社会との対話と自己研鑽
⑨人工知能への倫理遵守の要請

お名前.com
Xserver Business
エックスドメイン
WordPress専用クラウド型レンタルサーバー『wpX Speed』
ムームードメイン
独自SSL 詳細はこちら

スタッキング

タッキングとは言葉の通りモデルを積み上げていく方法です。上手く利用することによりバイアスとバリアンスをバランスよく調整する事が可能です。
https://www.codexa.net/what-is-ensemble-learning/

正規化線形関数(ReLU関数)

微分値が0以上の場合はそのままの値、0以下の場合は0となる。

積層オートエンコーダ

オートエンコーダを積み重ねて、逐次的に学習させる(事前学習)ことで重みを調整する

線形回帰

線形回帰は、教師あり学習のうち回帰を行う学習のひとつ。
説明変数の1次関数でで目的変数を予測する。

ソフトマックス関数

ソフトマックス関数とは、出力されたごちゃごちゃした数字を和が綺麗に100%(1.0)になる数字に変えてくれる関数



畳み込みニューラルネットワーク

畳み込みニューラルネットワーク



ダートマス会議

1956年、アメリカで開催
ジョン・マッカーシーが初めて「人工知能(AI)」という言葉を使った
世界初の人工知能プログラムといわれるロジック・セオリストのデモを実施


 

知識グラフ

知識グラフ

第1次AIブーム

推論・探索がその中心。
トイ・プロブレム(おもちゃの問題)は解けても、現実の問題は解けないことが判明。

第2次AIブーム

エキスパートシステムが流行し、ナレッジエンジニアが必要とされた。
第五世代コンピュータという大型プロジェクトを推進、エキスパートシステム等に取り組んだ。
知識の蓄積・管理は大変!ということに気づく。

エキスパートシステムとは、専門家(エキスパート)の知識をコンピュータに移植することにより現実の複雑な問題を人工知能に解かせようとするものです。

例えば、専門医の知識をコンピュータに移植すれば、患者の症状から病名を特定することができます。「頭が痛いですか?」、「倦怠感はありますか?」などといった質問をしていき、「頭が痛ければA~Eの病気の可能性がある」、「倦怠感がないのであればB、Dの二つの病気の可能性が高いだろう」といった具合です。

このエキスパートシステムによって人工知能の応用範囲をトイプロブレムのみでなく現実的な医療診断、会話アプリケーションなどにも及ぼせる事がわかってきたため、1980年代にはまた人工知能ブームが再燃していきます。これが第二次AIブームです。

独自SSL 詳細はこちら

第3次AIブーム

機械学習・特徴表現がその中心。
ビッグデータによる機械学習、特徴量によるディープラーニング(深層学習)が流行。

データサイエンス

データサイエンスは分野の専門知識、プログラミングのスキル、数学および統計の知識を組み合わた研究分野であり、データから有意義なインサイトを引き出します。データサイエンスのエキスパートは、数値、テキスト、画像、ビデオ、オーディオなどに機械学習アルゴリズムを適用して、通常は人間の知能を必要とするタスクを実行できる人工知能(AI)システムを構築します。これらのシステムでは、アナリストやビジネスユーザーによってビジネス上の目に見える価値に変えられるインサイトが生成されます。

データバイアス問題

データバイアス問題



トイプロブレム

迷路や数学の定理の証明と言った簡単な問題は解けても、現実世界に存在する複雑な問題は解けないという、人工知能が直面した問題です。

ドロップアウト

ディープラーニングの「過学習」を防ぐ技術。

お名前.com

 

ディープニューラルネットワーク(DNN:Deep Neural Network)

ニューラルネットワークをディープラーニングに対応させて4層以上に層を深くしたもののことである。従来のニューラルネットワークでは、基本的に、1つの入力層、1つの隠れ層、1つの出力層、の3層で構成されていた。ディープラーニング登場以前は、隠れ層を2つ以上に増やして合計4層以上のネットワークにすると、精度が出なくなる問題があった。そのため、ニューラルネットワークが登場してからも長らくは、4層以上が使われることは基本的になかった。しかし2006年、ディープラーニングの手法が考えられてから、その問題が克服された。さらに2010年ごろから、ビッグデータがより容易に扱えるようになったことや、GPUなどのコンピュータ性能の大幅な向上が重なったことがブレークスルーとなり、今では高度なDNNを誰でも実行できる時代になっている。

お名前.com



ナレッジエンジニア

人工知能(AI)を応用したシステム構築を専門とする技術者(エンジニア)のことである。

ナレッジエンジニアにより設計・開発された人工知能システムの事例としては、コンピュータをベースにした機械翻訳システム、医療診断システム、資源探査システム、あるいは原子力発電の故障診断システム等に代表されるエキスパートシステムなどを挙げることができる。

お名前.com

内部共変量シフト

大規模なニューラルネットワークを学習すると、ある層の入力がそれより下層の学習が進むにつれて変化してしまうことがある。これにより学習が止まってしまうことが考えられる。このことを内部共変量シフトと呼ぶ。
内部共変量シフトの対策はバッチ正規化が使用される。各層で出力を正規化することで、層が深くなっても入力の分布の変化が少なくなると考えられる。

ニューラルネットワーク

ニューラルネットワークは、脳機能に見られるいくつかの特性に類似した数理的モデルである。「マカロックとピッツの形式ニューロン」など研究の源流としては地球生物の神経系の探求であるが、その当初から、それが実際に生物の神経系のシミュレーションであるか否かについては議論があるため人工ニューラルネットワーク(artificial neural network、ANN)などと呼ばれることもある。また生物学と相互の進展により、相違点なども研究されている。

「ニューラルネットワーク(Neural Network:NN)」とは、人間の脳内にある神経細胞(ニューロン)とそのつながり、つまり神経回路網を人工ニューロンという数式的なモデルで表現したものだ。近年、人工知能(AI)領域がブームになっているが、ニューラルネットワークは機械学習や深層学習(ディープラーニング)などを学ぶ際に知っておくべき基本的な仕組みである。



お名前.com

ノーフリーランチ定理

全てのタスクに対して常に他よりすぐれている万能的なアルゴリズムは存在しないこと

お名前.com

内容ベースフィルタリング

アイテムの特徴をもとにおすすめを表示するアプローチ。

お名前.com

内部共変量シフト

入力の分布が学習途中で大きく変わってくる問題。
データの分布が訓練時と推定時で異なるような状態のことを言います。

バーニーおじさんのルール

学習に用いるデータ量の目安となる経験則



バギング

各学習器に使う学習用データをブースストラップサンプリングより取得し、その学習した学習器を予測に用いて多数決でクラス分類する方法。

バギングはBootstrap AGGregatINGに由来する命名で、学習データのブートストラップサンプルを利用して複数個の弱識別器の学習を行い、予測時にはそれら弱識別器の多数決で推論を行う手法です。弱識別器には決定木モデルがよく利用されます。

アンサンブル学習

独自SSL 詳細はこちら

 

秘密計算

秘密計算とは、データを暗号化したまま計算できる技術です。一般的な暗号はデータの通信・保存を保護しますが、秘密計算はさらにデータの計算過程も保護することができます。



ファインチューニング

ファインチューニングは、学習済みモデルの最終出力層を付け替えるのですが、入力層に近い部分と出力層のパラメータも変更します。例えば、犬と猫と人間を分類するモデルを柴犬とゴールデンレトリバーを分類するモデル、人間を年代毎に分類するモデルのように学習済みモデルと比べて全く異なるモデルへと学習することができるようになります。

ホールドアウト法

機械学習におけるデータのテスト方法の1種。教師データ(訓練データ)を「学習用」「評価用」に7対3などに割合で2分割して、学習済みモデルの精度を測定する方法。

データのテスト手法の一種。
教師データ(訓練データ)を、あらかじめ学習用と評価用に6対4などに分割しておき、学習させたモデルを評価データで把握し、モデルの精度を確かめる方法のこと。



ファインチューニング

積層オートエンコーダにロジスティック回帰層(あるいは線形回帰層)を追加し、仕上げの学習を行う。



お名前.com

物体セグメンテーション

対象とする物体とその周囲の背景を境界まで切り分けるようなタスクを行うもの.

フレーム問題

実行しようとしていることと関連がある事柄を選び出すことが難しいという人工知能研究最大の難問

汎化誤差

汎化誤差 (generalization error)とは,学習して獲得した識別器などの,サンプルの母集団に対する誤差.期待損失 (expected risk) ともいう.

お名前.com

ラッソ回帰

教師あり学習で用いられるモデルの一つ。線形回帰にL1正規化を加えた手法

お名前.com

ランダムフォレスト

着目する特徴量をランダムに決定してその特徴量ごとに決定木を生成する手法。

リッジ回帰

教師あり学習で用いられるモデルの一つ。線形回帰にL2正規化を加えた手法
独自SSL 詳細はこちら

リストワイズ法

欠損があるサンプルをそのまま削除する方法。
欠損に偏りがある場合はデータの傾向を変えてしまうので注意が必要。

お名前.com

醜いアヒルの子の定理

認知できる全ての客観的な特徴に基づくと全ての対象は同程度に類似している,つまり特徴を選択しなければ表現の類似度に基づく分類は不可能である,ということ

AI OCR

OCRにAI技術を加えたものです。AI技術を組み合わせることで、機械学習による文字認識率の向上や、帳票フォーマットの設計をせずに、項目を抽出することが可能になりました。

「AI OCR」とは~OCRとの違いと3つのメリット | リコー
「AI OCR」とはAI(人工知能)技術を取り入れた光学文字認識機能(OCR)のことです。「AI OCR」は、従来手作業で行っていた伝票入力作業を効率化することができ、生産性を高めるツールとして、注目されています。

お名前.com

Adagrad

 

オンライン学習で学習率を自動調整する手法の一つ。

お名前.com

AlphaGo

Deppmind社が開発した囲碁の対戦プログラム。囲碁のトップ棋士を破る。



AlexNet

AlexNet (Krizhevsky et al., 2012) は、Hinton 教授らのチームによって発表された物体認識のためのモデル(アーキテクチャ)である。AlexNet が、物体認識のために、初めて深層学習の概念および畳み込みニューラルネットワークの概念を取り入れたアーキテクチャである。当時の画像分類チャレンジコンテスト(ILSVRC)において、AlexNet が飛躍てきな性能を果たした。

お名前.com

CNN(畳み込みニューラルネットワーク)

:画像データに適したニューラルネットワーク

【前提と課題】
一般的な数値データと画像データとの違い
⇒縦横の2次元である点
厳密には、画像はRGBやHSVといった色情報を持つので、数値情報としては3次元

画像を通常のニューラルネットワークに入力すると、1列に分解して並べる事になる為、
縦横斜めの関係性が失われてしまう。

【解決策】
CNN(Convolutional Neural Network) 畳み込みニューラルネットワークという手法を使う
CNNでは画像をそのまま2次元で入力に用いる事が出来るモデル
・画像分野ではCNNを用いるのが常識
・ディープラーニングの中でも一番研究が活発な分野の一つ

G検定メモ⑫ ディープラーニング CNN編 - Qiita
G検定を受ける前に、公式テキストを読んでメモした走り書きがあったので公開するよ。 6-4 CNN:畳み込みニューラルネットワーク ディープラーニングの基本 隠れ層を増やしたニューラルネットワーク 一部の分野では、よりその分...

独自SSL 詳細はこちら



Cycle-GAN

Cycle-GAN

DeepFace

DeepFaceは画像内の顔から3Dモデリング技術で正面を向いた顔の画像を作り、これを1億2000万以上のパラメータを持つマルチレイヤーのデータにしてニューラルネットワークで共通ポイントを解析する。

お名前.com

顔認証技術: DeepFace と Pyramid CNN | Preferred Networks Research & Development
得居です。3月下旬とは思えない寒さに凍えています。 Facebook が CVPR2014 に投稿しアクセプトされていた顔認証に関する論文 が MIT Technology Review にて紹介されたことで注目を集めています。DeepFace

ENIAC

1946年、アメリカ ペンシルバニア大学
世界初の汎用電子式コンピュータ

お名前.com

GAN

生成モデル(generative model)の一つであり,生成ネットワークと識別ネットワークの 2 つのネットワークを対抗させるように学習させることで,得られる生成モデル(generative model)

GDPR

欧州議会、欧州理事会および欧州委員会が策定した新しい個人情報保護の枠組み。「EU一般データ保護規則」(GDPR:General Data Protection Regulation)が正式名称です。

IPアドレスやCookieのようなオンライン識別子も個人情報とみなされる。
企業は個人情報を取得する場合、自らの身元や連絡先、処理の目的、第三者提供の有無、保管期間などについてユーザーに明記し、同意を得なければならない。

大量の個人情報を扱う企業はデータ保護オフィサーを任命しなければならない。
個人情報を使用する目的を達成するために必要な期間以上に個人情報を保持してはならない。

独自SSL 詳細はこちら

ILSVRC

独自SSL 詳細はこちら

ILSVRCは2010年から始まった大規模画像認識の競技会です。
現在は参加しているチームの殆どがDeep Learningを使用しており、
画像認識Deep Learningの大きな競技会と言えます。



ImageNet Large Scale Visual Recognition Competition (ILSVRC)

k-means

教師なし学習。入力データからk個のグループ構造を見つけ出してまとめる手法

お名前.com

kNN法

KNN(K Nearest Neighbor)。クラス判別用の手法。
学習データをベクトル空間上にプロットしておき、未知のデータが得られたら、そこから距離が近い順に任意のK個を取得し、多数決でデータが属するクラスを推定する。

お名前.com

LASSO

いくつかのパラメータをスパースにする。

お名前.com

L2正則化

パラメータのノルムにペナルティを課す。

独自SSL 詳細はこちら

Numpy

お名前.com

NumPyは、Pythonで数値計算を効率的に行うためのライブラリです。NumPyはオープンソースで公開されており、個人/商用問わず、誰でも無料で利用することができます。

NumPyを使うと、ベクトルや行列などの多次元配列の処理を容易に行うことができるようになります。またPythonだけで数値計算を行うのと比較して、非常に高速に処理を行うことができます(NumPyの内部はC、及びFortranというプログラム言語で実装されています)。

機械学習は、多次元配列に対して演算を行いながらモデルを学習していきます。NumPyを使うとそのような処理が効率的に行えるようになるため、Pythonで機械学習を行うには、NumPyは必須のライブラリとなっています。



NOLS

画像認識 では、何かに遮られて直接見ることができない位置にある物体を、可視範囲の別の物体からの反射光などを利用して認識する。

お名前.com

TF-IDF

文書中に含まれる単語の重要度を評価する手法の1つであり、主に情報検索やトピック分析などの分野で用いられている。

独自SSL 詳細はこちら

Ridge関数

お名前.com

特徴量選択は行わないが、パラメータのノルムを小さく抑える。



PARRY

お名前.com

PARRY は、ELIZAと共に有名な初期の会話ボットである。1972年、精神科医の Kenneth Colby がスタンフォード大学にいたころに作った。ELIZA が来談者中心療法のセラピストのからかい半分のシミュレーションであったのに対して、PARRY は偏執病的統合失調症患者をシミュレートしようとしたものである。プログラムは偏執病的統合失調症患者の振る舞いを大雑把にモデル化したもので、概念、概念化、信念(概念化についての判断: 受容、拒絶、中間)などに基づいている。会話戦略も組み込まれていて、ELIZA よりもずっと真面目で進んだプログラムであった。

PARRY と ELIZA(DOCTOR)は何度か対話したことがある。最も有名な会話は ICCC 1972 でのもので、PARRY と ELIZA は ARPANET 上の別ノード上で動作し、通信によって会話を行った。



PCA(主成分分析)

線形結合からデータ内の分散が大きくなるような特徴量を見つける.

独自SSL 詳細はこちら

Pytorch

お名前.com

PyTorchとはPython向けのオープンソース機械学習ライブラリで、Facebookの人工知能研究グループにより初期開発されました。冒頭でも触れましたが、PyTorchは2016年後半に発表された比較的新しいライブラリです。

PyTorchの原型は「Torch(読み:トーチ)」と呼ばれる機械学習ライブラリです。Googleに買収されたDeepMind社もTensorFlow以前はTorchを利用していたと言われています。Torchは「Lua言語」で書かれていましたが、Pythonのサポートを行ったのがPyTorchです。

Q学習

お名前.com

Q値を学習するためのアルゴリズムのひとつがQ学習

RNN(リカレントニューラルネットワーク)

お名前.com

時間的構造をモデル化するもので、再帰的なつながりを持つネットワーク。
ここでいう時間的構造とは、単純な時系列だけでなく自然言語や音など、順序的な構造を含むデータである。
系列予測、姿勢制御、自然言語処理への応用が考えられている。
勾配消失、勾配爆発問題を回避する。



TensorFlow

「Tensor(テンソル)」とは、線形の量を表す概念で、多次元データ構造を表すものです。「TensorFlow」は、多次元データ構造を流れるように処理し、ディープラーニングを行います。

TensorFlowの特徴として、データフローグラフによる柔軟性、ローレベルオペレータも手書きできる汎用性、高いパフォーマンス、スケーラビリティ、研究レベルから実プロダクトまで扱える効率性などがあります。

利用方法例として、画像に写っているものを認識して文章化するアルゴリズム、各種数値計算、自然言語処理(翻訳)、など多岐におよび、新しい応用分野が広がり続けています。

コア部分はC++で実装されていて、ユーザ向けにPythonのインターフェースが用意されています。

独自SSL 詳細はこちら



VAE

ディープニューラルネットの生成モデル(generative model)の例として,自己符号化器の潜在変数に確率分布を導入した。

独自SSL 詳細はこちら

G検定(ジェネラリスト検定)に役立つ情報をまとめてみた

G検定:AI(人工知能)用語のまとめ集

 

YOLO

お名前.com

YOLO (You Only Look Once)はCVPR 2016で発表されたYou Only Look Once: Unified, Real-Time Object Detectionで提案された手法。

YOLO Watches Nature Part 2



タイトルとURLをコピーしました