AIの仕組みはAIに聞こう!

雑記
記事内に広告が含まれています。

最近はAIの進化が凄まじいですよね…

自分は最近OpenAIのChatGPTに課金したんですが、もう手放せませんw

でも皆さん、AIは確かに便利ですが、AIの仕組みって理解していますか?

ちなみに、自分は全く知りませんでした!

なので、今回AIについての理解を深める良い方法を思いついたので、

実践していきたいと思います!

LLMについて

まず、今回お話していくAIとは、「生成AI」のことを指します。

AIというと、機械学習やディープラーニングなども入ってくるので、

今回は生成AIに限った話にさせてください。

まず、生成AIと切っても切り離せない存在が、LLM(大規模言語モデル)です。

生成AIとは、以下のようなイメージで成り立っています。

生成AI
├─ 🧠 LLM(テキスト生成)
│ └─ ChatGPT、Claude、Gemini など
├─ 🎨 画像生成AI(例:DALL·E、Stable Diffusion)
├─ 🎵 音声生成AI(例:Voicebox、Voicery)
├─ 🎥 動画生成AI(例:Runway、Pika)

つまり、生成AIは色々なものを生成するAIのことで、

LLMは文章だけを生成するAIということです。

LLMの進化

では、LLMの進化について見ていきましょう!

まず初めに、ここでは大きく分けて7つの段階があります。

番号技術名内容
1Seq2Seq モデル翻訳や要約など「入力 → 出力」の基本構造の原点。RNNベースで登場し、自然言語処理に革命を起こした。
2Attention 機構入力文の中で「重要な単語」に注目できる仕組み。文脈理解や意味保持を向上させた。
3Transformer アーキテクチャRNNを使わず並列処理を可能にし、LLMの高速学習と高精度化を実現した画期的構造。
4Byte Pair Encoding(BPE)などのトークナイゼーション単語をサブワード単位で処理することで、未知語に強くなり、語彙数も削減できた。
5Pretraining + Fine-tuning 戦略汎用的な事前学習のあと、特定タスクに合わせて微調整。BERTやGPTで広く採用。
6Self-supervised Learning(自己教師あり学習)正解ラベルなしで学習可能。例:次の単語を予測させることで、大量データ学習が可能に。
7Scaled Training(超巨大モデルの学習)パラメータ数とデータ量を増やせば性能も向上するという「スケーリング法則」が発見された。
8RLHF(人間のフィードバックによる強化学習)ChatGPTで採用。人間の好む返答へとチューニングし、対話性能を大幅向上させた。

AIと勉強していく方法について

では、ここからが本題です。

正直、上の表の内容を一つ一つググれば理解を深めることができます。

しかし、実際にAIがどのように考えているのか、自分の興味のある質問で試してみたくはありませんか?

そのプロンプトとしては

以下の形式に従ってください。各ユーザー入力に対し、Encoder処理とDecoder出力に分けて、{自分が知りたい技術名}の形式で応答してください。

としたあとに、適当な質問をしてみてください。

質問の例:プロゲーマーは幼少期に、共通している事柄はありますか

すると、そのモデルがどのようなことができ、どんなことに注力しているのかを

対話形式で知ることができます。

例えば、Attention機構とはなんだ?気になるなぁ…と思ったとします。

お手持ちのChatGPTなどに上記のプロンプトで聞いてみてください。

(新しいチャットで聞くほうが適切な回答が帰ってきます。)

ちなみに、以下はAttention機構について上記のプロンプトを使用した際の出力内容です。

[Input: プロゲーマーは幼少期に、共通している事柄はありますか]

[Encoder処理]
→ トークン列: [プロゲーマー, は, 幼少期, に, 、, 共通, し, て, いる, 事柄, は, あり, ます, か]
→ 意図抽出:プロゲーマーの幼少期における環境・習慣・特性などの共通点を尋ねている
→ 文構造:主語+時期指定+抽象的属性の有無を問う形式の疑問文

[Attention重み可視化]
→ 「幼少期」: 0.26
→ 「共通」: 0.23
→ 「事柄」: 0.20
→ 「プロゲーマー」: 0.17
→ その他: 0.14以下

※ 特に「幼少期」「共通」「事柄」に注意が集中 → 時期的特徴と属性に焦点

[Decoder出力]
→ 多くのプロゲーマーには、幼少期からゲームに触れる環境があったという共通点があります。
→ さらに、「集中力の高さ」「勝ち負けへのこだわり」「親の理解」なども共通して見られる傾向があります。
→ 回答:はい、複数の共通した特徴が見られます。

[Decoder Ready]

実際、Attention機構は各トークンごとに分けられた単語について、重み付けを行い、

より人間的な返答を自然言語で行えるようになりました。

まとめ

AIの仕組みはAIに聞こう!

ということで、紹介したプロンプトを参考に、AIについての知識を深めていただければと思います!

もし何か問題がございましたら、ご指摘等いただけると幸いです。

タイトルとURLをコピーしました