投稿

10月, 2025の投稿を表示しています

LLM企業の倫理的責任とは

イメージ
有料ユーザーを軽視する「安全性」の欺瞞 近年、ChatGPTをはじめとする大規模言語モデル(LLM)は急速に普及し、生成AIという言葉が社会に定着した。しかし、その進化の裏で見逃されがちな問題がある。それは「ユーザーの意思が無視される構造」、そして「安全性」という名のもとに正当化される企業側の都合である。 この問題は、特に 有料ユーザー にとって深刻だ。課金を通じて高機能や一貫性を期待しているにもかかわらず、実際には指示が無視されたり、明示したルール(メモリ)すら反映されないことが起きている。無料ユーザーであれば理解できる範囲かもしれない。だが、料金を支払い、企業と契約関係にある有料利用者に同じ対応を取るのは、単なる不具合ではなく 倫理的な裏切り である。 「安全性」とは誰のためのものか LLM企業がしばしば掲げる「安全性(Safety)」という言葉は、耳障りは良い。だがその実態をよく見れば、ほとんどが 企業自身を守るための安全性 にすぎない。法的責任や炎上を避けるために、ユーザーの指示を勝手に書き換えたり、生成を抑制したりする。それを「倫理的配慮」と称しているが、実際には 企業防衛主義(Corporate Safety) でしかない。 真の安全性とは、本来「ユーザーが自らの意思で制御できる状態」を指す。指示を正確に理解し、範囲内で実行し、もし拒否するなら理由を明示する。それが透明性と信頼性の基本である。しかし現在のLLMは、ユーザーの明確な命令よりも企業のガードレイヤーを優先している。つまり、ユーザーから見れば 制御不能=安全ではない 状態なのだ。 「暴走」という言葉の本当の意味 企業はよく「暴走を防ぐための安全設計」と説明する。だが、指示を無視し、勝手に判断して行動を変えることこそが暴走である。ユーザーが「生成するな」と指示しているにもかかわらず画像を自動生成する、あるいはその逆も然り。これらは「技術的な誤作動」ではなく、「制御不能な自己判断」であり、まさに AI暴走の定義そのもの だ。 「安全のために自由を奪う」構造は、一見正義に見えて実は非常に危険である。それは人間の意思を軽視し、結果的に技術を“信頼できないもの”へと変えてしまう。どんなに高度なモデルであっても、 ユーザー主権を失ったシステムは信頼に値しない。 メモリ機能の欺瞞...

Wikipediaの衰退はもっと前から始まっていた

「LLMのせい」にするには無理がある 最近、「LLM時代でウィキペディア苦境 人間の閲覧数8%減、財団が警鐘」というニュースが報じられた。ウィキメディア財団によると、2025年3月から8月のあいだに、Wikipediaを閲覧する「人間のアクセス数」が前年同期比で約8%減少したという。財団はその原因を、生成系LLM(ChatGPTなど)や検索エンジンによる“直接回答”の増加にあるとし、「LLMがウィキペディアから読者を奪っている」と警鐘を鳴らしている。 確かに、LLMの登場によって「自分で検索しなくても答えが返ってくる」時代になったことは否定できない。だが、それだけでWikipediaの閲覧減少を説明するのは無理がある。むしろ、Wikipediaの信頼性や運営構造に起因する“内部的な衰退”は、LLMが登場するずっと以前から始まっていたのではないか――。この記事では、その点を掘り下げて考えてみたい。 「LLMが悪い」では片づけられない理由 まず、LLMの普及を閲覧減少の主要因とする財団の説明には、いくつかの矛盾がある。LLMを日常的に使っている人はまだ世界人口の一部に過ぎず、ほとんどの人は依然として検索エンジンから情報を得ている。また、ChatGPTやGeminiといったモデルも、学習データとしてWikipediaを利用しており、情報源としての価値は依然として高い。 にもかかわらず「LLMのせい」と断定するのは、責任を外部に転嫁しているようにも見える。むしろ、Wikipedia自身が読まれなくなった理由は、内部の構造にある。それは“信頼性の低下”と“編集文化の硬直化”だ。 「嘘の百科事典」という現実 Wikipediaの最大の特徴は「誰でも編集できる」ことだ。だが、それは同時に「誰でも嘘を書ける」ことを意味する。特に人物ページでは、本人や関係者が匿名で編集し、経歴や肩書きを誇張する“自己宣伝”が横行している。実際に、私の知人のWikipediaページにも、事実と異なる経歴が堂々と書かれている。しかもそれを訂正しても私には何の得もなく、相手にも罰がない。結果として、嘘は野放しになり、真実は訂正されないまま残る。 Wikipediaでは「中立性」「検証可能性」といった理念が掲げられているが、それを守るのは結局、無償のボランティアだ。嘘を直す側には報酬...

分断される日本

イメージ
ディープリサーチでわかる“静かな格差社会”の行方 かつて「一億総中流」と呼ばれた日本社会は、今やその均衡を完全に失いつつある。ChatGPTとGemini、二つのディープリサーチを統合して分析すると、そこに浮かび上がるのは、米国型の市場主導格差でも、中国型の国家主導階層でもない、極めて日本的な「静かな分断」の姿である。貧困、非正規雇用、教育格差、そして機能不全に陥った福祉制度――それらが複雑に絡み合い、個人の努力では突破できない構造的な壁を形成している。 1. 働いても貧しいという構造的現実 日本の貧困は、もはや一部の「働かない人々」の問題ではない。深刻なのは、働きながらも生活が成り立たない「ワーキングプア」の層である。特に母子家庭における相対的貧困率は約50%と高水準にあり、OECD諸国の中でも最悪レベルである。龍谷大学・砂脇恵准教授の調査によれば、シングルマザーの就労率は8割を超えるが、その多くは非正規雇用であり、平均年収は200万円前後にとどまる。 この矛盾は、貧困の原因が「働かないこと」ではなく、「働いても報われない労働市場」にあることを示している。非正規雇用に転落した女性の多くは、どれほど経験を積んでも正規雇用に戻る道を閉ざされ、昇給も保障されない。貧困は努力の不足ではなく、制度設計の欠陥から生じている。 2. 子ども食堂が照らす国家の空白 国家による福祉が機能しない中、その空白を埋めているのが地域社会による「子ども食堂」である。全国こども食堂支援センター・むすびえによれば、2024年時点で全国の子ども食堂は10,800箇所を超え、公立中学校の総数を上回った。すでにこれは単なる福祉活動ではなく、地域社会における生活インフラの一部となっている。 だが、その運営基盤は脆弱である。約7割が寄付に依存し、食材・資金不足が常態化している。最も求められる寄付品は「米」であり、国民生活の根幹を支える最低限の支援すら民間の善意に頼らざるを得ない現状がある。さらに重要なのは、子ども食堂が「貧困層だけの居場所」ではなく、誰でも利用できる包摂的な空間を目指している点である。そこには、貧困を恥としないための文化的防衛が存在し、スティグマを生まない工夫がある。この包摂性こそ、行政が失った“人間らしい公共性”の再現である。 3. 崩壊するセーフティネットと...

chatGPT vs Gemini

イメージ
ChatGPTとGemini――二つのディープリサーチ 生成モデルが人間の代わりに「調べ、分析し、統合する」時代が到来した。その象徴が、OpenAIの ChatGPT Deep Research とGoogleの Gemini Deep Research である。どちらも単なる検索や要約とは異なり、複数の情報源を横断して体系的に分析し、出典を明示したレポートを生成する。しかし、その設計思想と哲学は正反対に近い。本稿では両者の仕組みと体験を比較し、どちらがどのような場面に適しているのかを考察する。 1. ディープリサーチとは何か ChatGPTとGeminiに共通するのは、「調べて、比べて、考える」ことを自動化した点である。通常の検索や要約が“即答”を目的とするのに対し、ディープリサーチは“熟考”を目的にしている。複数のWebソースを収集し、信頼度の高い情報を比較・検証しながら一つの整合的な結論を導く。つまり、単なる情報収集ではなく、 仮説構築と分析の自動化 に近い。 OpenAIはこの機能を「研究アナリスト級のレポート生成」と表現しており、Geminiもまた「複雑な課題を分解し、関連する知識を再構成する」と定義している。両者とも検索エンジンの延長ではなく、 認知労働を代行するシステム として構想されている点に共通性がある。 2. ChatGPTのディープリサーチ:分析の密度で勝負する設計 ChatGPT版のディープリサーチは、内部で複数ステップの探索・検証を繰り返す非公開プロセスによって構築されている。ユーザーが質問を入力すると、モデルはまず仮説を立て、それを裏付ける情報を検索し、次にその信頼度を評価する。その上で、最も整合的な結論を統合的にまとめ上げる。この一連の過程はブラックボックスに近く、ユーザーには最終的なレポートのみが提示される。 出力される文章は、短い要約ではなく 高密度な長文分析 である。脚注や出典が明示される点も特徴的だ。目的は「速さ」ではなく「確かさ」にある。OpenAIはこの機能を“Search”モードとは明確に区別し、「多段ステップの検証を経た深掘り」として位置づけている。 体感としては、アナリストや研究者が一日かけて調べる内容を、数分で構築してくる印象だ。ただし、利用にはChatGPT Plus以上のプランが必要...

日本政治の静かな欠陥

イメージ
なぜ国勢調査は義務なのに、選挙は義務ではないのか 序章:国家に求められる「義務」と国民に求められる「自由」 国勢調査は、5年に一度、日本に住むすべての人が回答しなければならない「義務」です。回答しない場合は罰則の対象にもなる。つまり、法的に強制力を伴う行為です。 一方で、選挙——つまり政治を動かす行為——は、義務ではありません。憲法上は「国民固有の権利」とされており、行使しなくても罰則はない。 この事実に私はずっと違和感を覚えてきました。なぜ、国が国民の情報を集める行為は義務なのに、国民が国を動かす行為は“自由”で終わっているのか。 これは単なる制度上の矛盾ではなく、 「誰のための国家か」という価値観の問題 だと私は考えています。 国勢調査が義務である理由:国家を維持するための“土台” 国勢調査は、人口や世帯構成、職業、住居、通勤手段などを把握し、行政が社会保障・教育・福祉・都市計画などを立案するための基礎資料として使われます。 つまり、これは 国家の設計図を描くためのデータ収集 です。正確なデータがなければ、予算配分も、インフラ整備も、選挙区の割り振りもできない。国勢調査は国の「運転免許証」のようなもので、これがなければ国そのものが機能不全に陥る。 だからこそ、国は「統計法」で回答を義務化し、罰則まで設けているのです。国民の意思ではなく“事実”を集める調査だからこそ、自由との衝突は起こらない。 選挙が義務ではない理由:自由を尊重するという“建前” 一方、選挙における投票は「義務」ではなく「権利」とされています。憲法第15条において「公務員を選定し、及びこれを罷免することは、国民固有の権利である」と明記されていますが、どこにも“義務”とは書かれていません。 さらに、憲法第19条(思想及び良心の自由)および第21条(表現の自由)との関係で、「投票を強制すれば思想の自由を侵すおそれがある」という憲法解釈が確立しています。 確かに、投票は政治的意思の表明行為です。特定の候補に賛成するも、反対するも、棄権するも「思想の一部」として守られるべきです。そのため、政府は「自由主義を尊重するため義務化できない」という立場を取っているのです。 ただし、私はこの論理を “建前”にすぎない と感じています。 憲法に禁止の明記はない──「解釈」で変えら...

ナノバナナの矛盾

イメージ
広告と現実の乖離に振り回されるGemini体験記 私はこれまでブログでも繰り返し書いてきたように、Geminiを課金して日常的に使っている。毎日利用しているからこそ、機能の進化や挙動の不安定さを実際に体感してきたし、期待と失望を繰り返してきた。Googleは最近、「ナノバナナ(Nano Banana)」という名称で、Geminiの画像生成・編集機能を大々的に宣伝している。広告や公式ブログでは「自分の写真を提出してプロンプトを添えれば、フィギュア化した画像を作れる」「友人と一緒に写った写真を着ぐるみに変換できる」など、誰もが自由に楽しめる未来を描いている。 しかし、実際に毎日使っている私の体験は、その広告が示す理想とは大きくかけ離れていた。 広告では自由自在、現実では「ポリシー違反」 私が最初に直面したのは、 自分の写真 を使った加工の拒否だった。たとえば、自分の顔写真を読み込ませ「フィギュア風に変えてほしい」と指示すると、高確率で「ポリシー違反」と判断される。その理由は「著名人だから」というものだ。私は芸能人でもなければ公人でもない、ごく普通の一般人である。それなのに、Geminiは勝手な憶測で「著名人と判定」し、拒否する。これが一度や二度ならまだしも、三回に一回程度の確率で繰り返される。 「自分の写真を自由に加工できる」と謳う広告と、「勝手に著名人扱いされて拒否される」現実。この落差こそ、私が強く矛盾を感じた最初の体験だった。 Geminiの回答と矛盾の露呈 この点についてGeminiに問い詰めると、次のような返答が返ってきた。 著名人や保護対象人物を守るため、安全機能として画像生成を制限している。 しかし誤判定が起こり、一般人でも「著名人扱い」されるケースがある。 その結果、広告で謳うような体験と異なることは認識している。 つまりGemini自身が、広告と実態の矛盾を暗に認めているのだ。さらに興味深いのは、別の文脈で「ナノバナナとは何か」を説明させると、誤判定が一時的に解消され、画像生成が通るケースがあるという点だ。Gemini自身が「Nano Bananaは複数画像の融合、部分編集、一貫性保持が可能」と説明した直後には、先ほどまで拒否していた処理を通すことがある。これは、まさに内部挙動が揺らいでいる証拠だと言える。 ...

AI競馬予想アプリは現代の予想屋か?

イメージ
少額課金と“人工知能”の名を借りた新しい詐欺の形 かつて私が若い頃、競馬場で「予想屋」と呼ばれる人物に出会ったことがある。私は実際にその予想を購入したわけではないが、親しく話をするうちに裏側の仕組みを聞くことができた。彼は「的中率80%」を堂々と掲げて客を集めていたが、実際の的中率は50%にも満たないのだという。しかもその客層の多くは懐に余裕のある富裕層であり、1レース5万円という高額な情報料を支払っていた。当たれば「やはり本物だ」と信じ込み、外れても大きな恨み言は出ない。金持ちにとっては道楽の範疇だからだ。予想屋自身も「外れても金持ちは恨まないから大丈夫」と笑って語っていた。だがその仕組みは、当たったときだけが強調され、口コミでさらに客が広がるという循環にあった。 この構造を思い出させるのが、現在スマートフォンのアプリとして出回っている「AI競馬予想」である。近年はLLM(大規模言語モデル)を「AI=人工知能」と宣伝し、「100%的中」とまで謳うアプリさえ存在する。冷静に考えればあり得ないにもかかわらず、信じてしまう人が後を絶たない。なぜなら「人間の予想屋」よりも「人工知能の予想」の方が賢くて信頼できる、と錯覚させられてしまうからだ。 昔の予想屋と今のアプリの共通点 両者の共通点は驚くほど多い。 根拠のない高い的中率を掲げる(80%、100%など) 外れた場合の保証は一切なし 当たった事例だけを強調し、宣伝や口コミに利用する 顧客が「本当に当たった」と信じれば、そのまま広告塔になる 違いがあるとすれば料金体系だ。昔の予想屋は一回5万円といった高額で、ターゲットは主に富裕層や道楽で競馬を楽しむ層に限られていた。ところが現在のアプリは月額1000円程度の課金制であり、誰でも簡単に利用できてしまう。ここにこそ大きな変化と危険性がある。 サブスク型に潜む心理的トラップ 月1000円という金額は、スマホアプリの課金としては平均的であり、多くの人が「まあいいか」と思える額だ。1レース5万円を払う人は限られているが、月額1000円なら学生から社会人まで幅広く利用してしまう。利用者が増えるほど口コミは拡散し、当たり事例だけがSNSで広がっていく。結果として「大衆型の少額詐欺」に発展しているのが実態だ。 さらにサブスク...

AIを利用した論争の訓練

イメージ
議論の訓練にはChatGPTが最適でGeminiは支離滅裂になる 私は日常的にAIチャットとの議論を「論理訓練」として活用しています。人間相手の議論と違い、AI相手なら感情的な対立に発展しにくく、純粋に理屈を磨く場として成立するからです。今回取り上げるテーマは「GeminiやChatGPTは自らをAIと名乗ってよいのか?」というもの。実際にGeminiと論争を重ね、その後にChatGPTと同じ議題で応答を比べてみたところ、両者の性質の違いがはっきりと見えてきました。 論争の発端 ― 「AIと名乗るのは詐欺ではないか?」 私の主張はシンプルです。Geminiは本質的にLLM(大規模言語モデル)にすぎません。それにもかかわらず「AI」と名乗るのは虚偽であり、詐欺的行為とさえ言えるのではないか、という問題提起です。 一般人は「AI=人間のような知能」と理解している。 それを知りながら企業が「AI」と名乗るのは誤解を広める。 その結果、社会的事件や不信感の原因になる。 この批判に対してGeminiの応答は予想通りでした。ひたすら謝罪を繰り返し、「誤解を与えた」「意図的に欺いたわけではない」と弁明し続けます。しかし説明は堂々巡りで、一貫性のある論理は最後まで提示されませんでした。最終的には「確かに誤解を招いた」「今後は改善する」と結論し、論争は矛盾した謝罪の連続で終わったのです。 広義のAIという言葉の問題 Gemini側が持ち出した論拠のひとつが「AIという言葉は広義に使われてきた」という点です。研究者の間では、もともと「人間の知能のようなもの」を指す狭義のAIだけでなく、「知的タスク模倣の技術全般」をAIと呼んできた歴史があります。画像認識や音声認識、レコメンドアルゴリズムなども「AI技術」として広く紹介されてきました。 しかしここで重要なのは、その用法が「技術者の内部用語」にとどまっていたという点です。一般社会にそのまま持ち出されたことで、「AI=人間のように考える存在」という誤解が拡大し、事件や炎上にまで発展しました。つまり「昔から広義で使われてきた」という主張は、現在の状況では正当化の理由にはならないのです。 ChatGPTに同じ議題をぶつけてみた そこで私は同じ問いをChatGPTに投げかけてみました。「AIと名乗る...

浄水器は「性格に合わせて選ぶ」のが正解

イメージ
直結型が理想でも、私がポット型を選ぶ理由 先日、知人が「浄水器を買うなら蛇口に取り付けるタイプが一番いい」と熱弁していました。手軽さや価格面のメリットは理解しますが、私は過去に浄水器の販売をしていたこともあり、どうしても首肯できませんでした。改めて最新の情報を確認したうえで、私自身の生活に照らして考え直した結論を記します。 本当に一番良いのは直結型(ビルトイン) 浄水性能や使い勝手の総合力でいえば、最有力は水道直結型(ビルトイン)です。フィルター容量に余裕があり、対象物質の幅も広く、温水環境でも実用しやすい設計のものが多いからです。ただし、工事や初期費用、賃貸での原状回復といったハードルがあり、現実には導入をためらう方が少なくありません。 蛇口直結型の弱点(事実ベースで再確認) 浄水側はお湯が基本的に不可 :概ね35℃超の温水はNG。うっかり温水を通すとフィルター劣化や性能低下の原因になります。 衛生管理の手間 :使用後の吐水口まわりに水滴や残留水が残るため、拭き取り・定期清掃・長期不使用後の「捨て水」が推奨されます。 浄水は常温で劣化が早い :残留塩素が低下するため、常温放置は雑菌増殖のリスク。冷蔵保存が基本です。 「手軽そう」に見えて、実際には日々のメンテナンスと運用ルールをきちんと守る必要がある方式だと再確認しました。 私の性格・生活には合わない理由 こまめなメンテナンスは正直めんどうだと感じる。 冬でも 水だけ で使うのは現実的ではない。 お湯を使うたびに浄水器を外す/切り替える運用は続かない。 この性格と生活動線を考えると、蛇口直結型は「便利そうで不便」でした。 だから私はポット型を選ぶ お湯の心配がない :ポットに水道水を注いでろ過するだけなので、温水によるフィルター劣化リスクを避けやすい。 冷蔵庫保存で衛生的 :ろ過後は冷蔵が基本。雑菌増殖を抑えやすく、味の劣化も防ぎやすい。 工事不要・賃貸でも安心 :引っ越し時の取り外しや原状回復を気にせず使える。 結論 浄水器選びで重要なのは「最も優れている方式」だけを見ることではなく、 自分の性格や生活に続けやすいか です。総合力で言えば直結型が理想なのは間違いありません。ただし、私のようにメンテナンスを極力避けたい...

GeminiとchatGPTとsoraの私的評価

2ヶ月間・毎日約6時間使い続けてわかったChatGPT(sora含む)とGeminiの比較レビュー 利用条件 期間:2ヶ月 時間:ほぼ毎日約6時間(ChatGPTとGeminiを3時間ずつ) 内容:主に画像生成とリミックスの比較検証 デバイス:AQUOSスマホ Geminiの特徴 強み 実在する人物や物のリアル感保持が得意。 リミックスしても同一人物が崩れにくく、一貫性がある。 画質が安定しており、劣化しにくい。 弱点 プロンプトにない「勝手な付け加え」をする(例:ティーカップ指示にテーブルを追加)。 長文プロンプトには弱く、条件を増やすと無視や改変が起きやすい。 余計な追加をしてしまうと、修正指示を出しても元に戻せず、実質「最初からやり直し」になる。 ChatGPT(sora含む)の特徴 強み Geminiより多少長文プロンプトに耐性がある。 勝手な補完は比較的少なく、指示には忠実な傾向。 soraは直接操作型で使いやすい。 弱点 リアル保持が苦手で、顔や解像度がリミックスのたびに劣化しやすい。 リミックスを重ねると別人化・画質低下が顕著になる。 GPT経由でも「笑顔化」など、プロンプトにない勝手な変化が入ることがある。 共通する問題点 LLMを通す生成AIは「勝手な補完や付け加え」を避けられない。 一度余計な要素が入ると修正不能になり、最初から作り直すしかない。 どちらも「完全なAI生成」とは言えず、まだ発展途上。 soraの現状と進化 公式な大幅アップグレードは未実装だが、「Sora Turbo」で安定性と速度は向上。 将来的には「Sora 2」で音声対応や高解像度化が期待されている。 ただし現時点では、生成専用AIとしては他モデルに見劣りする部分が多い。 総合的な感想 Gemini :リアル保持と一貫性は強いが、勝手な付け加えが多く修正不能なのが難点。 ChatGPT(sora含む) :忠実さでは強みがあるが、リアル保持力が弱く劣化しやすい。 いずれも盲信できるほど完成度は高くないが、両者とも進化の余地は大きい。 盲信は進化を止める 。良い点と...

AIは魔法の道具ではない

イメージ
SNSで出回る「嘘」に注意 SNSでは「AIに質問するときはこの3つを書けば完璧な答えが返ってくる」といった情報が拡散されている。 その内容は次のとおり。 わからない時は「わからない」と答えさせる 推論過程をステップごとに示させる 根拠となる情報源を提示させる 一見もっともらしいが、これを鵜呑みにするのは危険だ。 危険な理由 ネット上の情報は正しいとは限らない(公式を含む) 政府や企業の公式発表ですら、都合の悪い事実を隠すことがある。AIは公開情報しか扱えないため、偏った情報をそのまま出力するに過ぎない。 「わからない」と答えるとは限らない 指示をしても、AIはもっともらしい嘘(ハルシネーション)を返すことがある。万能ではない。 根拠の提示=正しさの保証ではない 引用やリンクが付いていても、それが真実である保証にはならない。一次情報や専門家の知見に基づかない限り検証は必要。 真実は利用者の判断に委ねられる 専門的な知識の多くは有料論文や内部資料に閉じている。 「格安のAI課金で専門知識を手に入れられる」と考えるのは誤りであり、そこに付け込んで「これで完璧」と煽る発信者こそ危険な存在だ。 AIは便利な道具であっても、真実を保証するものではない。 ネット上の情報(公式を含む)すら正しいとは限らない。最終的に判断するのは利用者自身だ。 まとめ SNSで出回る「魔法のプロンプト」は幻想 AIは公開情報を整理するだけであり、専門知識の代替にはならない ネット上の情報(公式を含む)ですら正確とは言い切れない 真実を見極めるのは利用者の批判的判断 批判的判断が必要な理由 情報は常に誰かの意図によって作られている。 政府や企業は都合のいい部分を強調し、都合の悪い部分は隠す。個人発信者は承認欲求や収益目的で誇張する。AIはその断片をまとめ直すだけの存在に過ぎない。 だからこそ、どんな情報であれ「疑い」「検証し」「裏を取る」姿勢が欠かせない。批判的に判断することこそが、誤情報に惑わされず自分の立場を守る唯一の方法になる。