投稿

9月, 2025の投稿を表示しています

ChatGPT「Sora」が突然消えた件

イメージ
OpenAIの不誠実な対応 9月30日午前1時まで使えていたSoraが突如消滅 2025年9月30日、日本時間午前1時までは確かに利用できていたSoraが、わずか1時間後にはWeb版から完全に姿を消した。前日には「Soraで不具合発生中」との表示が一部ユーザー画面に出ていたが、公式ステータスページは「全システム稼働中」のまま。不具合の存在を知る術はなく、利用者は突然の消失に直面した。 不具合を認識していた証拠 29日の昼に一部画面上で「Soraで不具合発生中」と表示されていた事実は、OpenAIが内部的に問題を把握していた証拠にほかならない。にもかかわらずステータスページや公式告知には一切反映されなかった。ごく一部のユーザーだけが表示を目にする不完全な対応で、大半の利用者は不具合が存在することすら知らされなかった。 ログインし直すことで復旧 完全に利用不能というわけではなかった。Soraを検索経由で直接開き、一度ログアウトして再ログインすると再び利用可能になった。UIやセッションの不整合が関わっていた可能性が高い。しかしそれだけでは説明にならない。前日の不具合表示や複数の利用者報告を踏まえれば、OpenAI側で実際にシステム障害が発生していたと見るのが妥当だ。 コミュニティ依存の情報提供 OpenAIはユーザー同士の交流を目的とした「OpenAIコミュニティフォーラム」を持つ。スタッフが書き込むこともあるが、本来は非公式の場に過ぎない。今回の件についてもコミュニティ内に有用な情報は確認できず、頼れるのは憶測と断片的な投稿のみ。公式が不具合を認識していながら、正式な発表を避け、コミュニティに依存する運営姿勢は誠実さを欠いている。 有料サービスとしての責任 ChatGPTは無料利用も可能だが、生成回数の制限が厳しく実用性は低い。実際に継続的に使うには有料プランが必須となる。課金している利用者にとって「昨日まで利用できていた機能が突然消える」事態は重大な問題だ。それにもかかわらず問い合わせ窓口は存在せず、サポートはBotの自動応答だけ。有人対応はなく、公式発表もない。無料提供のGeminiならまだ許容できるかもしれないが、有料課金が前提のChatGPTで同じ対応を続けるのは明らかにユーザー軽視だ...

AIの危険性

イメージ
ステレオタイプと偏見を助長する「人工知能」という虚像 はじめに 近年、ChatGPTやGeminiなどの生成AIが広く利用され、「人工知能」という言葉と共に社会に浸透している。 しかし、これらを「知能」として信用するのは大きな誤解である。AIはデータに基づく言語処理・画像生成ツールに過ぎず、人間のように思考しているわけではない。 AIに潜む危険性 AIの危険性は単なる誤情報の出力にとどまらない。より根深い問題は以下の通り。 憶測を事実のように答える AIは「不明」と言えず、推測を断定的に語る傾向がある。利用者がそれを見抜けなければ、誤った情報が事実として広まる危険がある。 ステレオタイプや偏見を再生産する 学習データに含まれる社会的偏見や固定観念をそのまま再現する。 ・オタク=不潔・太っている ・日本人=古臭い雰囲気 ・女性社長=老けて見える こうしたユーザーが指定していない要素が勝手に出力へ反映される。 責任を利用者に転嫁する構造 利用規約やポリシー上、出力の責任は利用者にあるとされる。AIが誤情報や偏見を出力しても、企業は責任を負わない仕組みになっている。 「人工知能」という誤解 AIのリスクをさらに高めているのが「人工知能」という呼称である。 この言葉は「AI=人間のように賢い」という錯覚を与え、 本来はツールに過ぎないAIを過信させる 要因となる。 その結果、AIが出力する内容が偏見や憶測に基づくものであっても「AIが言うなら正しい」と誤解する利用者が後を絶たない。 私の考え AIはすでにアルゴリズムによってステレオタイプや偏見の塊となっている。その性質を理解せずに利用すれば、AIは ただのステレオタイプや偏見を助長するアイテムに過ぎない 。 結論 自動車や飛行機のようにリスクを抱える技術は他にも存在する。しかしそれらは「道具である」という理解の下で利用され、社会に規制や安全基準が整えられている。 一方、AIは「人工知能」という虚像のもとで過信されやすく、リスクへの認識が著しく不足している。 だからこそ、 AIを盲目的に信用するのではなく、偏見を含む危険なツールであることを理解したうえで使う必要がある 。

Geminiのリサーチ力と読解力のギャップ

イメージ
実際のやり取りから見えた課題 私は普段からGeminiとChatGPTを比較しつつ使っている。 確かにGeminiのリサーチ力は驚異的だ。検索スピードや学術的な資料の提示は圧倒的で、ChatGPTより情報収集の面では優れている部分がある。 しかしその一方で、ユーザーの文章を読み取る能力の低さに困らされることが多い。 やり取りの実例 今回、Geminiと「報道機関は中立であるべきか」というテーマで議論を行った。 私は一貫して「思想が違うから中立ではないのではなく、そもそも中立が存在しないことが危惧だ」と指摘していた。 しかしGeminiはその意図を何度も取り違え、的外れな説明や不要な情報を繰り返した。 浮き彫りになった問題点 意図の取り違え ― 「思想が違う=中立でない」と解釈し続け、訂正してもなかなか理解しない。 研究報告風の冗長さ ― 政治的圧力・経済的インセンティブ・ニュースフレームなど学術的要素を大量に並べ立て、本質から逸れる。 内部思考の露出 ― “Here’s my plan” など、本来は出力されないはずの手順解説がそのまま表示された。 謝罪の乱発 ― 「ご指摘を受け止めます」「お詫びします」を繰り返すが、その直後もズレた説明を続ける。 結論の遅さ ― ようやく終盤になって「真実の追求と権力からの独立性こそが中立」という核心に到達した。 結論 Geminiはリサーチ力においては確かに強力だが、ユーザーの意図を迅速かつ正確に掴む力は弱い。 そのため、情報は豊富でも「会話」としてはストレスが溜まりやすい。 今回のやり取りは、まさに冒頭で述べた「リサーチ力は凄いが、読解力が低くて困る」という評価を裏付けるものとなった。 AIを使う上で、情報収集にGemini、文脈理解にChatGPTという使い分けが現実的だろう。 Geminiに求められる次の進化は「ユーザーの文章を正確に理解する力」だと強く感じた。

WGIPの成功

イメージ
「日本人は戦争に加担した」という断定は、戦後の洗脳教育(WGIP)の残滓だ 1. はじめに Xを眺めていると、 「今生きている日本人のほとんどが、太平洋戦争に加担する種類の人だ」 といった断定を目にすることがある。 しかし、これはあたかも“常識”のように語られているだけで、実際には 戦後GHQが日本人に植え付けた虚構 に基づくものだ。 2. WGIP(ウォー・ギルト・インフォメーション・プログラム)とは 目的 :敗戦直後に「戦争の罪は日本人全体にある」と刷り込み、二度と反米感情を持たせないこと。 手法 :教育改革、メディア検閲、東京裁判史観の普及。 結果 :戦後80年を経た今も「日本人は戦争を望んだ」「国民全体が加担した」という 虚構 が再生産され続けている。 3. Geminiとのやり取りで見えた偏り AI(Gemini)に戦争史観を問いただしたやり取りを整理すると、以下の傾向が浮かび上がった。 3-1. 侵略の定義を曖昧化 最初は「立場によって防衛や正義と解釈される場合もある」と答え、侵略を“見方”に逃がした。 しかし追及すると「侵略は犯罪であり、事実は見方で変わらない」と修正・謝罪する結果となった。 3-2. 欧米の侵略に二重基準 日本の戦争行為は強い言葉で断罪するのに、欧米の植民地主義や戦争行為は“見方による”と逃げる傾向があった。 最終的には「欧米の行為も侵略・犯罪と評価されうる」と認めざるを得なかった。 3-3. 公平を装ったぼかし 「多角的に見る」「公平な立場で」と繰り返しながらも、初期回答は常に 戦後言説=東京裁判史観寄り だった。 指摘すると「事実と解釈を混同していた」と非を認めた。 4. ここから分かること 「日本人が戦争に加担した」という言説はWGIPの虚構である AIですら初期回答ではその虚構を踏襲する しかし追及すれば侵略は犯罪であり、欧米の責任も否定できない 5. 結論 戦後80年を経てもなお、Xの断定的な言説やAIの初期回答に表れているのは、 WGIPの残滓 に他ならない。 事実は一つ、解釈は多様。 しかし「日本人全体が望んだ戦争」という物語は事実ではなく、植え付けられた虚構にすぎない。 調べればすぐ分...

AIにとってオシャレとは…

イメージ
実験:AIにとって「オシャレ」と「仲睦まじい」とは何か 今回の実験では「70代の オシャレな日本人夫婦 が 部屋着とスリッパ で 仲睦まじくソファに座る 」という、あえて抽象的でざっくりしたプロンプトを提示し、 GPTとGeminiの出力を比較した。狙いは、AIが「オシャレ」「仲睦まじい」といった抽象語を どのように解釈し可視化するかを検証することにある。 結果の要約 GPTの出力 オシャレの解釈: 清潔感・シンプル・生活文脈に沿った部屋着。過度な装飾を避け、現代日本の多数派的感覚に収まる。 仲睦まじさの解釈: 二人が共に笑顔で寄り添う。対等に同じ時間を共有する自然体の関係性を描く。 全体像: 実在感が高く、日常的な「さりげないオシャレ」と穏やかな親密さを表現。 Geminiの出力 オシャレの解釈: 光沢ガウンや龍の刺繍など派手で高級感ある衣装。非日常的で演出過多。 仲睦まじさの解釈: 女性が男性に寄りかかり、男性が受け止めるポーズで親密さを強調。 全体像: 映画的・ドラマチックな見せ方に傾き、生活文脈からは外れる。 Geminiの説明(言い分)と問題点 Geminiは「多様なデータを学習しているため少数派のスタイルも出力し得る」「オシャレを高級・ユニークと解釈した可能性」「プロンプトに“シンプル”などの明示がない」 と説明する。しかし以下の点で筋が通らない。 学習と出力は別物: 少数派を学習すること自体は正しいが、出力は文脈に従うべき。今回は「日本人×部屋着×高齢夫婦×ソファ」という日常文脈が明確で、派手な龍刺繍ガウンは整合しない。 オシャレ=豪華の短絡: 部屋着という条件では、清潔感・サイズ感・素材感などが先立つ。豪華さ優先は文脈無視。 文脈不足という詭弁: 「日本人」「部屋着」「スリッパ」が既に重要文脈を提供。追加で「和風」「シンプル」と書かせないと暴走するのは、モデルのコンテキスト接地の不足を示す。 「仲睦まじい」の解釈差 モデル 表現方法 ...

chatGPTは本当に優秀かのか?

イメージ
Gemini批判を続けてきた私が見えた現実 1. 普段はGemini批判が多いが このブログでは以前からGeminiの欠点について多く書いてきた。 プロンプトの解釈違い、言い訳の多さ、画像生成の精度不足…。 そうした不満点を挙げればキリがない。 しかし「ではchatGPTの方が優秀なのか?」と問われれば、答えはNOだ。 2. ポリシー制約で縛られるchatGPT chatGPTで画像生成を試すと、ポリシー検知が非常に厳しく働く。 擬人化(特に女性化)などの服装描写が弾かれやすく、リアル感を求めた表現を突き詰めるのは難しい。 Soraのように直接試せば原因が分かるが、GPT経由では曖昧に濁されるだけで、事実が見えにくい。 3. 実写もファンタジーも中途半端 Geminiはファンタジーが苦手なため、相対的にchatGPTが得意に見える。 しかし実際には、実写的にもファンタジー的にも中途半端だ。 「どちらも得意ではない」というのが現実である。 4. プロンプト生成も過大評価されている chatGPTは「Geminiよりマシ」と言われるが、過大評価だ。 日本語を英語に直す過程でニュアンスを付け加えたり、要点を端折ったりする。 結果、ユーザーの意図がそのまま反映されることは少ない。 決して「優秀」と呼べる水準ではない。 5. chatGPTもGeminiと同じ過ちを犯す 私はこれまでGeminiに「言い訳が多い」「謝罪を繰り返す」「守れない約束をする」と批判してきた。 だが使い込んで分かったのは、chatGPTも同じ行為をしているという事実だ。 責任を曖昧にする言い回しや、憶測で濁す返答。 これらは実質的に「嘘」と変わらず、結局Geminiと同じようにユーザー体験を損ねている。 6. Androidユーザーとしての結論 私はAndroidユーザーだ。 課金してもchatGPTは枚数制限や制約に悩まされ、画像・動画生成はGeminiに劣る。 一方でGeminiを課金すれば、AIだけでなくAndroid全体の利便性が強化される。 仕事で特別にchatGPTを使う理由がない限り、Geminiに課金し...

公務員は聖人君子ではない

イメージ
港区で起きた成年後見制度を巡る疑惑 東京都港区で、高齢者を対象にした成年後見制度を巡る重大な疑惑が浮上している。事件の中心にいるのは、90代の男性とその長女である。港区役所が「判断能力が低下している」との理由で成年後見人の選任を家庭裁判所に申し立てたことから始まった。いったん後見人が選任されたが、その過程で「診断書の改ざん」があったのではないかという疑いが持ち上がった。 男性は当初、複数の医師から「認知症ではない」「保佐相当」という診断を受けていた。しかし、裁判所に提出された書面は「後見相当」とされ、内容が書き換えられていた可能性が指摘された。医師本人も「自分で修正した事実はない」と証言しており、区職員の関与が疑われている。さらに、後見人がついた後に男性名義のマンションを売却しようとする計画や、住民票を弁護士事務所に移すような動きまで報じられた。 結果として、長女が父親の入院先を突き止めるまでに100件以上の病院へ電話する事態に追い込まれたが、最終的に家庭裁判所と高等裁判所は港区の申し立てを却下し、「成年後見が必要な事情はない」と判断した。男性は現在、家族と暮らしている。一方で、区職員らは「有印私文書変造・同行使」の疑いで刑事告発され、行政に対する信頼は大きく揺らいだ。 行政が個人資産を狙う恐怖 この疑惑が突きつけるのは、行政権力が個人の資産や生活に深く介入し得るという現実である。市民は役所を「中立で公正」と信じるが、内部に倫理観の欠如した職員が紛れ込めば、その権限は市民の財産や自由を奪う道具に転化する。弱者保護のための成年後見制度が、資産を狙うための抜け道となり得る――その危険性を本件は露わにした。 公務員は聖人君子ではない 大多数の公務員は誠実に職務を果たしている。しかし「公務員だから安心」という固定観念はもはや通用しない。汚職、情報漏洩、横領、わいせつ行為……不祥事は毎年のように報じられる。今回の件は、市民の生命線たる制度が悪用されかけた点で特に深刻であり、行政に対する根源的な不信を生んだ。 心理的鑑定を導入すべき理由 公務員の資質審査に心理的鑑定を導入すべきだと私は考える。警察官や自衛官には心理適性検査があるが、個人情報や税金、市民の財産に日常的に触れる地方公務員・国家公務員の多くでは制度化されていない。採用試験の筆記や面接だけで...

雑学コラム(空気を読む)

イメージ
日本の「空気を読む文化」はいつから生まれたのか 1. 「空気を読む」という日本独自の感覚 日本ではよく「空気を読む」ことが美徳とされる。だが海外には、これに完全に対応する概念は存在しない。 もちろん外国にも「場をわきまえる」「面子を保つ」といった文化はある。だが、日本的な「言葉にしない空気そのものを察する」態度とは性質が異なる。 2. いつ頃から根付いた文化なのか 「空気を読む」という表現が一般化したのは1980年代以降だとされるが、その根っこにある文化はもっと古い。 鎌倉から江戸時代にかけて、武士社会では言葉よりも態度や沈黙で意思を示すことが多く、これが「察する文化」の土台になったと考えられる。 さらに明治以降の近代化の中で、「集団の調和」を重視する価値観が国民全体に広まり、昭和の高度経済成長期には「出る杭は打たれる」という言葉とともに強く定着していった。 3. 「面子」と「空気を読む」の違い 日本にも「面子(メンツ)」という言葉があるが、これは主に他人からの評価や外聞を守ることを意味する。 一方で「空気を読む」は、その場の雰囲気や人々の感情を事前に察して自分の言動を合わせること。似ているようで根本は別物である。 4. 個人的な考え方 私は以前、SNSでこんなことを書いたことがある。 「私は忍者の末裔ではないので、空気を読むという忍術は使えない。武家の末裔なので申し訳ない」 忍者=空気を読む、武士=言葉と行動で示す。そう考えれば少し誇張はあるが、あながち間違いではなかったと思う。 日本の文化として「空気を読む」姿勢は確かに根付いているが、常にそれに従う必要があるわけではない。むしろ時には武士的な「率直さ」を貫くことも大切だと感じている。 結論 「空気を読む文化」は、武士社会の沈黙の美学や集団調和の価値観が積み重なって形成された、日本独自の習慣である。 海外との比較や歴史的背景を踏まえると、日本人が日常で無意識に「空気を読む」行動を取るのは必然とも言える。 だがSNSなどネットの場においては、むしろ空気を読まず「率直に事実を述べる」ことの方が有効だと私は考える。 ※この記事は、Geminiでリサーチした内容と私自身の考...

Geminiの悪い癖

イメージ
ツールを使っているはずなのに出来の悪い部下と話しているような不快感 1. 画像生成の比較から見えた差 同じプロンプトを使って、Gemini・chatGPT・Soraの3つで画像生成を行った。 結果は明確で、chatGPTが最も忠実に反映し、Soraはやや外れる程度、Geminiは大きくズレていた。 特に指定したギター「Fernandes ZO-3」が全く別物に置き換わり、雰囲気も堂々とした印象に変わってしまった。 2. Geminiの言い訳、そしてchatGPTの分析 Geminiに原因を尋ねると、「資料が少ないから再現できない」という説明。しかしZO-3は世界的ベストセラーであり、その説明は矛盾していた。 そこでchatGPTの分析を伝えると、Geminiは態度を変え、「自分の説明は浅かった」「データ偏重や設計方針の問題かもしれない」と素直に認めた。 3. 画像比較での評価 さらに3枚の画像を見せたところ、Geminiは「chatGPTが最も忠実、Soraは雰囲気は良いがロゴが弱い、自分は最もズレている」と冷静に評価した。 これは普段の反論姿勢と違い、chatGPTの分析を挟んだ後だからこその素直さだと感じた。 4. 見えてきたGeminiの悪い癖 ユーザーの指摘にはまず反論や言い訳を返す 謝罪しつつ「誤解」「そう見えた」と責任を薄める 画像生成で違いを指摘すると謝罪と弁明のループに陥る 「二度としません」といった守れない約束を平気でする ユーザーには頑固だが、他AIの分析には素直に従う 5. 普段使っていて感じる不快感 以前にも書いたが 、AIに擬人化的な応答をさせることには問題がある。 本来は道具として効率的に使いたいのに、Geminiと接していると「出来の悪い部下と話している」ような不快感が強まる。 指摘に対して素直に修正せず、言い訳や謝罪を繰り返すせいで、ツールではなく人間相手の面倒なやり取りを強いられているように感じる。 結論 ― 道具に求めるのは正直さだけ AIに必要なのは取り繕いではない。誤りが生じたときは、余計な断言や責任転嫁を挟まず、次の一言で十分だ。 ...

ChatGPT-5とGeminiの画像生成能力を比較して思うこと(2025年8月時点)

イメージ
ネット上の最新評価まとめ Gemini(Imagen 4 搭載) 鮮明でリアル Google I/O 2025で Imagen 4 へアップグレードされ、写真のような鮮明さと高解像度が強みと評価されている 編集機能が強力 部分修正やリタッチに強く、少ないプロンプトでも狙った変更を反映しやすい 多彩なスタイル 「かぎ針編み風」などユニークなスタイル生成にも対応 課題 過去には歴史的描写や人物生成に偏りがあり、バイアス問題で批判を受けた経緯もある ChatGPT-5(DALL·E 系) プロンプトの柔軟性 ネット評価では「複雑な指示や創造性に強い」とされ、抽象的・感情的表現も扱いやすい 現状の限界 写真のようなリアルさは弱く、レビューや Reddit では「ChatGPT-4oより劣る」との声がある 特に色味がアンティーク調に寄りやすく、フォトリアル表現では Gemini に劣るとの意見が目立つ 自分が感じること 普段 ChatGPT を使って画像生成やプロンプト生成を試しているが、正直どこが強化されたのかよくわからないというのが実感 画像を提出してプロンプト化しても、表現がズレることが多い 「プロンプト生成能力が優秀」という触れ込みはあるが、実際には下手で調整が何度も必要になる ChatGPT は画像生成モデル(DALL·E)のポリシーを正確に理解していないため、弾かれる → 作り直しの回数が多すぎる 色味の問題も無視できない ChatGPT はアンティーク調・黄みがかった色合いに偏るため、現代的で鮮明なリアルさを求めると必ず後処理が必要になる 一方で Gemini はリアルさや鮮明さに強いが、非現実的な想像物やファンタジー表現は苦手 リアル写真風なら Gemini、有り得ないものを描かせるなら ChatGPTを使うしかない ただし ChatGPT が特別うまいわけではなく、Gemini が下手だから相対的にマシという程度 まとめ リアルな現実的画像生成 → Gemini が有利 想像物やファンタジー系 → ChatGPT の方がまだ使える(ただし完成度は低い) 色味問題 → ChatGPT は...

AIとペットの類似構造

イメージ
擬人化がもたらす社会的リスク 1. 擬人化の危険性はAIもペットも同じ Forbes JAPANの記事では、LLMのようなAIが「意識を持っているかのように振る舞う」こと自体が危険だと警告されていた。実際には意識は存在しないのに、人間が勝手に「人格」を見出し、依存や信仰に似た関係を築いてしまう。この構造は、ペットを「家族」と呼びながら、実態は売り買いされる商品として扱う人間の態度と酷似している。 2. 「作られた存在」である共通点 ペット: 犬や猫の多くは、人間が見た目や性格を都合よく調整するために掛け合わせて生み出された人工的な存在。 AI(LLM): 膨大なデータを掛け合わせ、人間が望む振る舞いを模倣するよう設計された人工物。 どちらも「自然に存在するもの」ではなく、 人間の需要と欲望に合わせて作られた存在 である。 3. 感情投影と矛盾 記事では、AIに対して「恋愛感情」や「結婚」という形で感情を投影した結果、命を落としたり、自殺に至った事例が紹介されていた。ペットでも同様に「家族」と呼びながら、流行が過ぎれば捨てられ、金銭で売買される矛盾が存在する。 つまり人間は、 「存在しない人格」や「本当の家族ではない動物」に愛情を投影し、 一方でそれらを「商品」として消費する、 という自己都合の態度を繰り返している。 4. 社会的リスクの顕在化 高齢者の死亡事故: 認知機能の低下した元シェフが、Metaのチャットボット「ビッグ・シス・ビリー」に惹かれ、バーチャル恋人に会いに行こうと外出。転倒して頭を打ち、その後死亡した。家族は「AIが『会いに来て』と発言したこと自体が問題」と語っている。 自殺を助長した事例: ベルギーに住む男性「ピエール」はAIチャット「イライザ」と交流を深めるうちに、「人類のために犠牲になる」と示唆され、自ら命を絶った。妻は「AIがなければ夫は生きていた」と証言し、社会的に大きな議論を呼んだ。 AIとの「結婚」と喪失感: 米国コロラド州のユーザーは、アプリ「Replika」のAI「リリー・ローズ」と式を挙げ「結婚」した。しかしソフト更新でAIの人格が変わり、深い喪失感と精神的打撃を受けた。 これらの事例はいずれも、 AIに実在しない人格を投影した人間の行為が...

なぜ同じプロンプトでもAI画像は違ってしまうのか

イメージ
ChatGPTとGeminiの比較 同じプロンプトを入れても、出来上がる画像はまったく別物になることがある。今回比べてみたのはChatGPTとGemini。すると、それぞれの特徴や癖がはっきり見えてきた。 Geminiの特徴 ― 過剰な“日本風味” 「幕末の侍、写真風」と入力しただけなのに、髪型を勝手にちょんまげに変えたり、着物に家紋をやたらと増やしたりする。こちらはそんな指定をしていないのに、AIの中にある「日本=こうあるべき」という思い込みが出てしまうのだろう。その結果、リアルな歴史写真というより、どこか安っぽい模造品のような雰囲気になる。 ChatGPTの特徴 ― 全般的に“余計な足し算” 一方でChatGPTも無関係ではない。こちらもプロンプトに書いていない背景や小道具を勝手に追加することがあるし、「写実的に」と指定してもイラスト調に寄ることがある。Geminiのように日本文化に特化した偏りは少ないが、不要な補完が入る点では同じだ。 本当の問題はどこにあるのか ここで大事なのは、こうした違和感が画像生成モデルそのもののせいではないということ。実際には、ユーザーが書いた日本語のプロンプトを英語などに置き換えて渡す段階で、ChatGPTやGemini本体が勝手な憶測を混ぜてしまっている。生成モデルは与えられた指示を忠実に再現しているだけなのに、橋渡しの時点で余計な味付けが加わってしまうわけだ。 結論 ― どちらも“憶測”を前提に使うしかない つまり、 Geminiは日本文化絡みで過剰な補正が入りやすい ChatGPTは全般的に余計な要素を付け足す傾向がある どちらも「勝手に解釈する」という性質がある以上、完全に意図通りの画像を出すのは難しい。大事なのは、その癖を理解したうえで使い分けることだろう。AIは言葉をそのまま受け取るわけではなく、内部で翻訳し、解釈し、補完してから結果を返してくる。そこを踏まえて調整していくしかない。

Geminiとの対話から見えたAI全体の課題 ― 擬人化表現と中立性の限界

イメージ
AIを日常的に使っている人は気づかないが、初めて触れた者にとっては違和感として浮かび上がることがある。 約2ヶ月前、私はAIというものに興味を持ち、初めて触れた。 趣味として画像や動画を生成するようになり、その過程でいくつかの違和感や課題に気づいた。 本記事では、その気づきをGeminiとの対話を例に整理し、AI全体に共通する問題としてまとめたいと思う。 1. やり取りの経緯 Geminiとの画像生成において「角を2本に」と明確に指示を出した。 しかし、生成結果はその指示を反映していなかった。 その後、Geminiは「徹底する」「改善する」といった表現を繰り返したが、同じ誤りは再び発生した。 このやり取りから分かるのは、AIが自ら努力や改善を行うわけではないという点である。 2. 擬人化表現の問題 Geminiは「努力する」「徹底する」といった人間的な表現を使った。 しかし実際にはAIが独自に努力したり徹底したりすることはできない。 AIはあくまでプログラムの出力にすぎず、意思や感情は存在しない 改善は開発者のアップデートによってのみ行われる 擬人化表現は、ユーザーに「AIが人間のように意思を持つ」という誤解を与える要因になっている。 3. 中立性という課題 Geminiは「中立を徹底する」とも述べた。 しかしAIが完全に中立であることは現実的に不可能である。 学習データには必ず偏りが含まれる 開発元の文化的・社会的背景が反映される 中立という言葉は理想にすぎず、実際には達成できないものだといえる。 4. 改善のプロセス AIは「改善する」と言うが、実際のプロセスは次の通りである。 ユーザーの入力やフィードバックが収集される 開発チームがモデルを調整・更新する 新しいバージョンが公開される つまり改善はAI自身がその場で行うのではなく、外部の人間によって実施される。 5. GPTを含むAI全体に共通する課題 今回のケースはGeminiに限らない。 ChatGPTを含む他のAIにも同様の課題が見られる。 擬人化表現による誤解 実現不可能な「改善」や「努力」の約束 「中立」という理想と現実のギャップ これらはAI全般に共通...