ここでは言語モデルの学習と、事前学習済みLLMが事前学習で得ていない知識を含めた生成をする手法について解説する。

ニューラルネットワークの学習

RLHF

RLHF

Fine-tuning

temp: Fine-tuning

Fine-tuning

コンテキスト内学習

Few-shot Prompting

Few-Shot

Grounding

RAG

Document Retriever

RAG

おまけ

LLMを組み込んだシステムを作る場合のチートシート

究極的にデータソースが必要か、Fine-tuningすべきかが重要だよね

graph TD
	A["事実に基づいた生成をする?"] --"はい"--> B["絶対に間違えてはいけない?"]
	A --"いいえ"--> C["回答の形式は構造化されている?"]
	B --"はい"--> D["Good luck"]
	B --"いいえ"--> E["プロンプトに指示とデータソースが入りきる?"]
	C --"LLMは自由にしゃべる"--> F["特定のキャラクター性を期待する?"]
	C --"構造化データを出力する"--> G["One-shotで構造を示したプロンプトを使用する"]
  E --"はい"--> H["プロンプトに全投入"]
	E --"いいえ"--> I["指示には口調などの設定が含まれる?"]
	F --"はい"--> Fine-tuning
  F --"いいえ"--> それって素のChatGPTだよね
  I --"はい"--> Fine-tuning+RAG
  I --"いいえ" --> RAG