ChatGPTと話してると「え、何でも知ってるやん…」って思う瞬間、ありますよね。
でも実は、AIの知識(ナレッジ)は人間の知り方とちょっと違う。
- 人間:経験や体験から、少しずつ理解が深まる
- AI:巨大データを一気に学習して、言葉のパターンを身につける
そして大事な前提がひとつ。
AIのナレッジは学習データの範囲内。
学習後に起きた出来事や、学習に含まれていない情報は、基本わかりません。
AIのナレッジの特徴(ここを知ると使い方がうまくなる)
- データベースっぽい:大量情報を一瞬で引き出すのが得意
- パターン認識:似た話を関連づけて、新しい組み合わせを作る
- 確率的:絶対の正解というより、「最もそれっぽい」答えを返す
つまり、ときどき自信満々に間違う(=ハルシネーション)。
だから人間側で要点チェック&確証取りは必須。ここを怠ると痛い目を見る。
ナレッジの限界(うまく付き合うコツ)
- 時間の壁:学習時点より新しい情報は弱い
- 文脈の壁:暗黙知・空気感はまだ苦手
- 正確性の壁:確率で話すので、重要判断は人間が検証
結論:AIは完璧な先生じゃなくて賢い相棒。
使いどころを決めて、最後は人が締める。
RAGってなに?──AIに「参考資料」を渡す仕組み
RAG(Retrieval-Augmented Generation)は、
AIが答える前に外部の資料を検索→参照してから回答を作る方式。
人間がレポート書くときに本を開くのと同じ。
RAGの流れ(超ざっくり)
- 質問を受け取る
- ベクトルDB(文章をベクトル化して保存した検索庫)から関連資料を探す
- 見つけた資料を踏まえて、AIが回答を生成
- 参照元(ソース)も一緒に出すことができる
どこで効く?
- カスタマーサポート:最新マニュアルを見ながら回答
- 社内ヘルプデスク:社内規定や手順を参照
- 技術サポート:専門ドキュメントをソース付きで返す
RAGのメリット
- 最新情報に追従(データベース更新=AIも最新)
- 組織の専門知を回答に反映
- 出典の透明性で信頼度アップ
- ハルシネーション軽減
例えるなら:辞書を引きながら話すAI。正確で、アップデートに強い。
ファインチューニングって?──AIに「体で覚えさせる」方法
RAGが辞書を引くなら、ファインチューニングは反復練習で覚えるに近い。
RAG vs ファインチューニング(違いを一言で)
| 方式 | たとえ | 強み | 弱み |
|---|---|---|---|
| RAG | レシピ本を見ながら料理 | 最新性・正確性・出典提示 | 検索が外れると弱い |
| ファインチューニング | レシピを身体で覚える | 反応が速く自然/口癖や文体を学習 | データ品質・更新コストが重い |
使い分けの実例
- 製品サポートAI
- RAG:マニュアルを都度参照 → 新製品にも即対応
- FT:過去QAを学習 → 自然な受け答えや言い回しが上手になる
ファインチューニングの進め方(授業っぽく)
- 教材準備:高品質なQ&A/対話ログ/スタイルガイド
- 反復学習:例を何度も食わせる
- テスト:未知の質問で挙動確認
- 修正:間違いや偏りを追加学習で補正
注意点
- データは正確・一貫・網羅が命(ゴミを入れたらゴミが出る)
- 専門に寄せすぎると一般会話が劣化することも
- 定期更新の運用計画をセットで
まとめ:まずはRAGで土台、必要なら一部をFTで磨くのが現実解。
実務での最適コンボ早見表
| 用途 | 推奨アプローチ | メモ |
|---|---|---|
| 社外FAQ/ナレッジ回答 | RAG中心 | 最新情報・改定履歴を拾える。出典表示で安心。 |
| 社内ヘルプデスク | RAG + 少量FT | 社内言い回し/略語の自然化をFTで。 |
| 営業トーク/返信テンプレ | FT | 文体・口癖・ブランドトーンの再現が効く。 |
| 高リスク領域(法務/医療) | RAG + 人の最終承認 | 出典必須・自動確定は避ける。 |
導入前チェックリスト(5つ)
- どの業務で“何を減らしたいか”が決まっている
- 資料は最新・正確で権限管理OK
- RAGかFTか、それとも併用かの方針がある
- 出典提示と誤り時の責任分界点を決めた
- 運用(更新・再学習・監査)の担当がいる
今日のまとめ
- AIのナレッジは確率的。だから検証を前提に使う。
- RAG=辞書を引くAI。最新・正確・出典つき。
- ファインチューニング=覚えるAI。速い・自然・ブランドトーンに強い。
- 現場ではRAGを土台に、要所だけFTで磨くのがコスパ最強。
AIは全部知ってる先生じゃない。
よく働く相棒にするのは、こっちの設計次第ってこと。

コメント