- 生成AIパスポート シラバス:生成AIの学習と理解を目指すための教育プログラムのカリキュラムです。
- AI(人工知能):人間の知能を模倣するコンピュータシステム。学習、推論、知覚、自然言語の理解などのタスクを実行します。
- 生成AI (ジェネレーティブAI):既存のデータを学習し、その知識を基に新たな情報を創造するAIの一種です。
- ChatGPT:OpenAIによって開発された大規模なトランスフォーマーベースの言語モデルで、人間と自然な会話を行うことができます。
- ボルツマンマシン:エネルギーベースの確率的グラフィカルモデルの一種で、可視ユニットと隠れユニットの二つの層から成ります。
- 制約付きボルツマンマシン:ボルツマンマシンの一種で、層間の接続のみを許可し、同じ層内のユニット間の接続は許可しません。
- 自己回帰モデル:時系列データのパターンを捉えるための統計モデルで、過去のデータポイントを使用して未来のデータポイントを予測します。
- CNN(畳み込みニューラルネットワーク):画像認識タスクに広く使用される深層学習の一種です。
- VAE(変分自己符号化器):入力データを特定の潜在空間にマッピングし、その空間から新しいデータを生成する生成モデルの一種です。
- GAN(敵対的生成ネットワーク):生成器と判別器の二つの部分から成る生成モデルで、一方がデータを生成し、他方がそのデータが本物か偽物かを判断します。
- RNN(回帰型ニューラルネットワーク):時系列データを処理するためのニューラルネットワークで、過去の情報を記憶し、それを現在のタスクに利用します。
- LSTM (長・短期記憶):RNNの一種で、長期的な依存関係を学習する能力を持っています。
- Transformerモデル:自己注意メカニズムを使用して、入力データの全ての部分との関係を考慮に入れる深層学習モデルです。
- Attention Mechanism:モデルが入力データのどの部分に焦点を当てるべきかを学習する能力を提供します。
- GPT モデル:大量のテキストデータで事前にトレーニングされ、ユーザーの提示やクエリに基づいて明確で関連性のあるテキストを生成することができます。
- Open AI:人間全体に利益をもたらすようにAIを安全に開発し、広く配布することを目指す非営利のAI研究所です。
- BERTモデル:Transformerベースのモデルで、文脈による単語の意味の変化を理解する能力を持っています。
- MLM(Masked Language Model):一部の入力単語をマスクし、そのマスクされた単語を予測するタスクです。
- NSP(Next Sentence Prediction):与えられた二つの文が連続しているかどうかを予測するタスクです。
- RoBERTa:BERTモデルの改良版で、より大きなデータセットと長いトレーニング時間を使用しています。
- ALBERT(a Lite BERT):BERTのパラメータを大幅に削減しながらも性能を維持したモデルです。
- 自然言語処理(NLP):人間の言語を理解し、生成するためのAIの分野です。
- パラメータ:モデルの学習過程で調整され、モデルの振る舞いを決定する変数です。
- InstructGPT:指示に基づいてテキストを生成する能力を持つGPTモデルです。
- GPT-3.5:GPT-3の改良版で、より大きなデータセットと長いトレーニング時間を使用しています。
- GPT-4:GPTシリーズの最新版で、より大きなデータセットと長いトレーニング時間を使用しています。
- データセット:モデルのトレーニングに使用される一連のデータです。
- RLHF(Reinforcement Learning from Human):人間からのフィードバックを利用して学習する強化学習の一種です。
- アライメント(Alignment):AIの目標が人間の目標と一致している状態を指します。
- ファインチューニング:事前にトレーニングされたモデルのパラメータを微調整して、特定のタスクに適合させるプロセスです。
- ハルシネーション(Hallucination):モデルが存在しない情報や詳細を生成する現象を指します。
- マルチモーダル:複数の種類の入力(テキスト、画像、音声など)を処理する能力を指します。