ここでは言語モデルの学習と、事前学習済みLLMが事前学習で得ていない知識を含めた生成をする手法について解説する。
LLMを組み込んだシステムを作る場合のチートシート
究極的にデータソースが必要か、Fine-tuningすべきかが重要だよね
graph TD
A["事実に基づいた生成をする?"] --"はい"--> B["絶対に間違えてはいけない?"]
A --"いいえ"--> C["回答の形式は構造化されている?"]
B --"はい"--> D["Good luck"]
B --"いいえ"--> E["プロンプトに指示とデータソースが入りきる?"]
C --"LLMは自由にしゃべる"--> F["特定のキャラクター性を期待する?"]
C --"構造化データを出力する"--> G["One-shotで構造を示したプロンプトを使用する"]
E --"はい"--> H["プロンプトに全投入"]
E --"いいえ"--> I["指示には口調などの設定が含まれる?"]
F --"はい"--> Fine-tuning
F --"いいえ"--> それって素のChatGPTだよね
I --"はい"--> Fine-tuning+RAG
I --"いいえ" --> RAG