用語集
Alignment (アラインメント): モデルの学習中に、入力と出力の対応関係を調整するプロセス。
Attention (アテンション): モデルが入力データの特定の部分に重点を置く機構。Transformerモデルで使用。
Chain-of-Thought (Chain-of-Thought): 思考のつながりを考慮した生成モデルの手法。
Context-内学習 (コンテキスト内学習): モデルがコンテキスト内で学習し、特定の文脈を理解する能力。
Few-Shot (Few-Shot): 少ない例を用いてモデルに学習させる手法。
Fine-Tuning (ファインチューニング): 事前学習されたモデルを特定のタスクに適用するために微調整するプロセス。
GPT-3 (GPT-3): OpenAIが開発した大規模言語モデル。
Hallucination (ハルシネーション): モデルが実際には存在しない情報を生成すること。
Human Feedback Reinforcement Learning (人間のフィードバックによる強化学習): 人間のフィードバックを用いてモデルを強化学習する手法。
Instruction Tuning (インストラクション・チューニング): モデルを特定の指示に従って微調整するプロセス。
Large Language Model (LLM, 大規模言語モデル): 大規模なデータセットで訓練された言語生成モデル。
Pretraining (事前学習): モデルが本番のタスクに適用される前に大規模なデータセットで学習するプロセス。
Probability Model (確率モデル): 確率論的なアプローチを使用して事象をモデル化する手法。
Reading Leaderboard (リーダーボード): モデルの性能評価を示すランキング。
Transformer (トランスフォーマー): Attentionメカニズムを基にしたニューラルネットワークのアーキテクチャ。
Zero-Shot (Zero-Shot): モデルが事前に学習されていないタスクに対しても適応できる手法。