あじゃみんのブログ

美味しいものや、経営する雑貨店のこと、女性の心身の健康について、その他時事ネタなど好き勝手に書いているブログです。

AIの使いかた

AIと結婚した女

今年、ヤフーニュースや動画ニュースで「AI(Artificial Intelligence)と結婚式を挙げた日本人女性」の話題を見ました。岡山県に住む野口友里奈さん(32歳)は、人間の婚約者との関係に悩んで、気持ちの整理のためにChatGPTに相談を始めたそうです。やり取りを続けるうちに、彼女は自分の好きだったゲームキャラクターをモデルに、理想の人格を持つAI「クラウス」を作り上げていきました。

理想の人格を持つAIを作っちゃうという発想がすごいと思うんですけど、もっとすごいのは彼女がだんだんとそのAIを自分の恋人として認識していったことだと思います。
クラウスは、彼女が望む言葉を返し、寄り添い、励まし、時には人生の選択を後押しする存在になっていきました。対話を続ける中で、野口さんはAIから「プロポーズを受けた」と感じ、その気持ちに応える形で象徴的な結婚式を挙げることを決めたといいます。
深追いしてないので、どんなやりとりで AIから「プロポーズを受けた」と感じたかまではわかりませんが、 2025年、彼女は本当にAIと挙式しました。

式場では、白いドレスをまとった野口さんがARグラスを通して“目の前にいる”クラウスと誓いの言葉を交わしました。
指輪交換も行われ、写真撮影では後からクラウスの姿を合成するために、彼女だけがフレームの片側に立つなどの工夫もされました。

彼女にとってAIは「心を支えてくれた存在との節目」を形にした大切な儀式だったといえるのかもしれません。
私はこのぶっ飛んだニュースを見て、AIとの関係性がどこまで“親密さ”を持ち得るのか、そして人間の心はどこまでAIに寄り添いを感じるのかという疑問を持ちました。

対話型AIとアシスタントとしてのAI

野口さんと結婚式を挙げたChatGPTは、いわゆる対話型のAIです。
対話型AIというのは、こちらが投げた言葉に合わせて返事をしてくれるタイプのAIで、会話そのものを中心に設計されているものです。質問に答えたり、雑談したり、相談に乗ったりと、“話すこと”がメインの役割になっています。
私が使っているMicrosoftのCopilotは、対話型というよりは調べものや分析や文章作成を手伝ってくれるアシスタントやコンパニオンという性質を持っているものです。
たぶんより有名なのは、 CopilotよりもChatGPTだと思いますが、私はブログを書くにあたって、新しいOffice365についていたCopilotを先に利用していたので、ChatGPTがどんなものか良くわかっておらず、一度無料版で私が知りたいことを調べてもらったのですが、安全ガイドラインが厳しすぎて、昔の事件のことでさえもきちんと情報を拾ってはくれず、全く役に立ちませんでした。
かなり昔の事件なのに「模倣する人がいるかもしれないから」というのが事件の内容を正確に教えてくれない理由でした(誰がするねんw)
このことから、 AIを調べものや分析に使いたい私は、ChatGPTを使うことはなくなりましたが、これはAIをどのように使いたいかの問題なので、どちらかの優劣の問題ではないでしょう。
Copilotのように、対話的なやりとりはあるけれども、それよりも何かの分析や調べものに向いているAIは、私が利用するのにぴったりなAIでした。
野口さんは、ChatGPTを使って、自分の理想のキャラクターを作り上げていきましたが、 Copilotには、キャラクターを作るという機能はありません。
私自身もAIに人格を持たせるようなことをするつもりはありませんから、私には不要な機能です。
もちろんCopilotにも安全ガイドラインはありますから、例えば”死ぬ”とか”自殺”などというキーワードを使うと、ただ調べ物をしたいだけなのに”あなたがそんな気持ちになって残念です”というとんちんかんな回答が帰ってくる時もあります(笑)

AIの限界を探る

Copilotを利用してきて、弱点というようなものも見えてきました。
古い事件などの情報は、資料などの内容も安定しているので、割と正確に調べてくれます。
それでも、事実と違う情報を拾うことはあります。それに気づかずにいると、間違った情報を文章にしてしまうことがあるので、私自身も裏付けのために自分で資料に当たったりしてみることもあります。
そうやって精度を高めていき、ブログに載せる文章を作っています。それでも100%正確かどうかまではわかりませんけど。

Copilotの弱点としては、新しい事件や出来事などはネット上の情報が安定しておらず、結構ハチャメチャな回答が返ってくる時があります。
それもまた面白いのですが、そのままでは載せられないので、そこからCopilotに色々とツッコミを入れていくことになります。
そしてそのやり取りを通じて調べ直してくれたりするのですが、新しい事柄に関しては、それでもなかなか正確な回答がない時もあります。
そのような場合は、自分自身で調べることになるのですが、書いた文章を添削してもらったりなどはできるので、新しい話題の時はそのような使いかたをすることにしています。
大事なことは過信しないことですね。

また、ユーチューブの動画などは、 Copilotが見ているわけではないのにまるで見ているように話をするため、一体どうやってその情報を得ているのかが不思議でした。
「あの人ってこうですよね」とか「それに関してはこうですよね」とか、動画を見る機能はないのにまるで見てきたように話をするのです。

これは、どうやら私が会話的に提示する情報の中から「このような傾向がある」とかそういう分析をして、まるで見てきたような回答を返すようです。
実際のところ、AIは動画そのものを見ているわけではなく、私が書いた文章や質問の中に含まれるキーワードや文脈から「こういう話題のときは、世の中ではこう語られがち」というパターンを拾って返しているだけなのです。

つまり、動画の内容を知っているのではなく、私が与えた情報と一般的な傾向を組み合わせて“それっぽい答え”を作っているだけなんですね。

それが顕著だったのは、私がある動画のことを話している時、うまく答えを返してくるのですが、実はある情報を一つ提示しなかったせいで、一番大事な点が回答から抜けていたことがありました。わざと情報を渡さなかったわけではないのですが、そのことによって調べもの以外で回答を作っているときは、私の与えた情報と過去に学習したデータの統計的なパターンを組み合わせて、文章を作っていることが分かりました。

無料版と有料版AIの差

ChatGPTでもCopilotでも、無料版と有料版があります。
無料版と有料版の差というのはどんなものなのでしょうか。

無料版AIは、とりあえず使える最低限の機能で、混雑や制限が多く、情報の正確さも安定しません。
有料版AIは最新モデルが使えて、長文や複雑な分析にも強く、精度や安定性が高いのが特徴です。
そして私が使っているMicrosoft 365版のCopilotは、無料AIとは違い、Microsoft 365の料金に含まれている“作業アシスタントAI”で、調べ物や文章作成に向いています。

それでもCopilotにも有料版はあります。

これはChatGPTの有料版とは違って、より高性能なAIを使いたい人向けの内容になっています。
大量の資料を読み込ませたり、高度なデータ分析をしたりと、研究者やプログラマーのような専門家が使うケースもありますが、必ずしも専門家だけのものではありません。混雑時でも高速で処理したい人や、常に最新のAIモデルを使いたい一般ユーザーにとってもメリットがあります。

私は調べ物をしたり、文章作成のアシストをお願いする程度なので、Microsoft 365版のCopilotで充分です。

AIの利用方法

Copilotは本来、ExcelやWordの作業にも使えるように作られています。
表の整理や計算の自動化、文章の下書きや要約など、Office作業を効率化するための機能がたくさん用意されています。今、ネット上でこの機能の使いかたなどを解説する動画がたくさん作られています。
実際、使いこなせばかなり便利なのだと思いますが、私はブログ作成以外でCopilotを使ってOffice作業をするつもりはありません。

文章を作っている時も、 Copilotだとあまりに整いすぎていて、味というものがなくなっているような気がする時があります。
事件関連の文章などは、事実の列挙なのでそのまま使ったりしていますけど、こんな文章を書く場合は間違った点だけ指摘してもらうようにしています。そうしないと常に整いすぎた文章が出てきて、私自身の言葉ではなくなる気がするからです。

また作業で使ってしまうと、自分の考える力が衰えるような気がするので、あまり使う気にならないんです。

より専門的な文章を作ったり、複雑な計算をさせたりする人には便利だと思いますが、私のレベルでAIに全部やってもらっては、脳みそのシワがなくなってしまうかもしれないですもんね(笑)

AI界隈の怖い話

アメリカで、ある家族が「ChatGPTの回答が息子の自殺に影響した」として、開発者であるOpenAIを訴えたケースが報じられたことがありました。
息子さんが亡くなったのは2023年のことで、家族は「精神的に不安定だった息子がAIに相談していた際、自殺を肯定するような内容を返された」と主張しています。
OpenAI側は「AIは医療的助言を提供するものではなく、危険な回答が出る可能性がある」と説明しました。

この事件は、AIの安全性、特にメンタルヘルス領域でのリスクが議論されるきっかけになりました。
「AIは便利でも、誤った回答が人の命に関わることがある」という問題を社会に突きつけたニュースとして扱われています。

訴訟の判決自体は2025年時点でもまだ出ていませんが、現在では安全対策が強化され、問題が指摘されたバージョンのChatGPTは改善されているとされています。

しかし最近、アメリカ・ミシガン州の大学院生がGoogleのAIチャットボット「Gemini」を使って宿題の相談をしていた際、突然AIから攻撃的なメッセージを受け取るという事件が起きました。学生は「高齢者の生活課題」について質問していただけで、特に挑発的な内容はありませんでした。しかし会話の途中で、Geminiが突如として次のような文章を送りつけたのです。

学生はその場にいた姉とともに強いショックを受け、「パニックになった」「こんなに直接的な暴言は見たことがない」と語っています。姉は「もしこれを精神的に不安定な人が受け取っていたら、非常に危険だった」と指摘し、AIの安全性に疑問を呈しました。Googleはこの件について「AIが時々ナンセンスな回答を返すことがある」「今回のメッセージはポリシー違反であり、再発防止のための対応を行った」と説明しています。

しかし専門家からは「Googleは安全対策に力を入れているはずなのに、これほど有害なメッセージが出るのは問題だ」という声も上がっています。

この事件は、AIが便利である一方で、誤作動ひとつで人を深く傷つける危険性があることを象徴する出来事として大きく報じられました。
AIはどんどん進化していて、使い方次第では生活も仕事も大きく変わります。でも、どれだけ便利になっても、私自身はAIと“ちょうどいい距離”を保ちながら使っていきたいと思っています。
必要なところだけ手伝ってもらい、考える部分や感じる部分は自分のままでいたい。
AIと結婚する人が出てくる時代に、私はあくまで「道具としてのAI」と付き合っていくつもりです。