要素 | 検討ポイント |
---|---|
タスクの複雑さ | 複雑なタスクには大規模モデルが適しています。 |
精度要件 | 大規模モデルほど高い精度が得られる傾向があります。 |
コストとリソース | 大規模モデルはコストや計算資源を多く消費します。 |
要素 | 説明 |
---|---|
ペルソナの定義 | モデルに特定の役割を割り当てる (例:「あなたはファイナンシャルアドバイザーです」) |
コンテキストの提供 | 背景情報を与えて回答の方向性を示す。 |
出力形式の指定 | JSON形式や箇条書きなど、応答形式を明示する。 |
ユースケースの記述 | インタラクションの目的を明確にする。 |
手法 | 説明 |
---|---|
In-context learning (文脈内学習) | 期待される出力例をプロンプトに含めることで出力を誘導する。 |
Chain-of-Thought (CoT; 思考の連鎖) プロンプト | 応答前に推論プロセスを言語化させることで、より確かな結論を導く。 |
role
(役割) とcontent
(内容) 持つ辞書として表現されます。
要素 | 説明 |
---|---|
role | メッセージの送信者を示す |
content | メッセージ本文 |
system
、user
、assistant
に分類されます。
ロール | 説明 |
---|---|
system | モデルに対する全体的な指示 |
user | ユーザーからの入力 |
assistant | モデルの応答内容 |
role
) やメッセージの本文 (content
) が含まれており、この構造によって、システムは複数ターンにわたる会話の流れを正しく把握できます。
以下は、Meta-Llama-3.1-8B-Instructを使用してマルチターン会話を行う例です。