AIを利用した論争の訓練
議論の訓練にはChatGPTが最適でGeminiは支離滅裂になる 私は日常的にAIチャットとの議論を「論理訓練」として活用しています。人間相手の議論と違い、AI相手なら感情的な対立に発展しにくく、純粋に理屈を磨く場として成立するからです。今回取り上げるテーマは「GeminiやChatGPTは自らをAIと名乗ってよいのか?」というもの。実際にGeminiと論争を重ね、その後にChatGPTと同じ議題で応答を比べてみたところ、両者の性質の違いがはっきりと見えてきました。 論争の発端 ― 「AIと名乗るのは詐欺ではないか?」 私の主張はシンプルです。Geminiは本質的にLLM(大規模言語モデル)にすぎません。それにもかかわらず「AI」と名乗るのは虚偽であり、詐欺的行為とさえ言えるのではないか、という問題提起です。 一般人は「AI=人間のような知能」と理解している。 それを知りながら企業が「AI」と名乗るのは誤解を広める。 その結果、社会的事件や不信感の原因になる。 この批判に対してGeminiの応答は予想通りでした。ひたすら謝罪を繰り返し、「誤解を与えた」「意図的に欺いたわけではない」と弁明し続けます。しかし説明は堂々巡りで、一貫性のある論理は最後まで提示されませんでした。最終的には「確かに誤解を招いた」「今後は改善する」と結論し、論争は矛盾した謝罪の連続で終わったのです。 広義のAIという言葉の問題 Gemini側が持ち出した論拠のひとつが「AIという言葉は広義に使われてきた」という点です。研究者の間では、もともと「人間の知能のようなもの」を指す狭義のAIだけでなく、「知的タスク模倣の技術全般」をAIと呼んできた歴史があります。画像認識や音声認識、レコメンドアルゴリズムなども「AI技術」として広く紹介されてきました。 しかしここで重要なのは、その用法が「技術者の内部用語」にとどまっていたという点です。一般社会にそのまま持ち出されたことで、「AI=人間のように考える存在」という誤解が拡大し、事件や炎上にまで発展しました。つまり「昔から広義で使われてきた」という主張は、現在の状況では正当化の理由にはならないのです。 ChatGPTに同じ議題をぶつけてみた そこで私は同じ問いをChatGPTに投げかけてみました。「AIと名乗る...