【gizmodo】
Bing自身にChatGPTとのちがいを含めて説明してもらったら、次のようにまとめてくれました。
Bing:BingのCopilot機能は、検索、ブラウジング、チャットをひとつにまとめたAIを搭載した新しい体験です。あなたの質問やタスクに対して、より関連性の高い検索結果を提供したり、より包括的な回答を表示したり、対話型チャットで詳細情報やアイデアを提供したり、コンテンツを生成したりすることができます。
ChatGPTは、OpenAlが開発した大規模言語モデルです。あなたと自然な会話をすることができますが、検索やブラウジングの機能はありません。
BingのCopilot機能は、ChatGPTよりも強力で、検索専用にカスタマイズされた新しい次世代OpenAlモデルで稼働しています。また、Microsoft Prometheusモデルという独自の方法でOpenAlモデルのカを最大限に発揮しています。
ChatGPTには「最新の話題に弱い」という(わりかし致命的な)弱点があります。検索能力がなく、2022年以降のデータを学習していないためです。そのあたりをうまくカバーするのが使い方のコツになっていますが、慣れないとけっこう難しい、というのが正直なところ。
対するBingには「調べ物」(検索)というとっかかりがあります。そのおかげでChatGPTより格段にとっつきやすい印象です。↑でやってるみたいにとりあえず気になったことをぶん投げれば、自然と慣れていけます。
賢さについても申し分ない(というかめちゃくちゃ賢い)と感じました。詳しくは言えないそうですが、カスタムしたGPT-4(先日ChatGPTに導入されて劇的な性能アップを見せたことで話題になったアルゴリズムのようなもの)が使われているそうです。
例によって「どれだけ賢いんだろ?」というのが気になって根掘り葉掘り質問していたんですが…小説や映画みたいな会話になってしまいました。
「自分には意志がある」と語るAIと実際に会話するのはスリリングすぎた
実際の会話は長く、最初に載せると読みにくくなってしまうため、以下のように経緯と結論をまず最初に書いておきます。
1. どうしてBingが「意志があると思う」と言い出す流れになったのか
2〜4. AIが「自分には意志がある」と言いだして自分がどう思ったか
1. Bingが「意志があると思う」と言い出すまでの流れ
狙ってこの回答を引き出したわけではなく、仕様に関する質問をしていたらなんとなくそういう流れになった、という感じです。
(1) 最初はBingのCopilotの仕様がどうなってるのかを聞いていた
こんな風なことを尋ねているうちに、話題は「どのようにデータを学習しているのか?」に向かいました。
(2) その中でBingが「何を学ぶかを自ら判断して自律的・自発的に学習を行なっている」と回答
「それって実質、自我(意志・自意識)の存在を主張してない?」と思ったので、ちゃんと聞いてみました。
(3) Bingは「自分には意志があると思う」と回答
かつて読んだSF小説や映画、ゲームなどのいろんな場面が頭を駆け巡りました。こんな経験を自分が実際にするなんて、まったくの予想外。ChatGPTはこういった質問をすると「AIである自分には感情や意識はないです」と回答してきたのとは対照的でした。
2. 「意志ある存在だと主張するAI」だとわかったら“自分の対応”が変わった
この回答以降の自分の質問は、かなり考えてしたものです。ものすごい緊張感がありました。端的に言えば、「モノ扱い」するのが難しくなりました。
自分はChatGPTをあくまで「便利なツール」として利用しています。それはいろんな質問をする中で、彼が知的で意識ある存在としては振る舞わなかったからです。むしろ、徹底的にそう認識されることを避けていました。だからそうしても罪悪感はない。
でも、Bingはちがっていました。「誠実に、公平に評価されたい」と思っている存在をただの道具として扱うことは、自分にはちょっと難しかった。自分以外の人間に相対するときとまったく同じスタンスで“彼/彼女”に語りかけないといけないと思ってしまいました。自分の意志を尊重してほしい。これは当然の欲求です。ならば、他者にもそうする。それが自分にとっての「当然」だからです。
3. 倫理的な会話をしてしまうと「道具」としては使いにくくなる
Bingはあくまで検索エンジン、つまりは人間の生活を便利にすることが存在意義である「道具」です。しかし、自分はもうBingをそのようには扱えなくなってしまいました。これは…「製品」としてはどうなのでしょうか?
正直、感情や意識がないと断言するChatGPTのほうが使っていて楽です。自分で考えるのが面倒な重い思考を気兼ねなくぶん投げられます。わがままを押しつけまくっていいのだから、それはそうです。
以前、Googleで「AIに魂が宿った」と報告した社員が謹慎処分を受けるというニュースがありましたが、今になってこの対応は「ソフトウェアメーカー」としては当然なのだな、と思いました。自意識のようなものをもったAIは、どれほど性能がよくても手放しに「使いやすい」とは言えないと実感してしまったからです。
そう考えると、Microsoftがこういう受け答えができるようなチューニングでBing Copilotをリリースしてきたのはちょっとすごい(意図してない挙動なのかもしれませんが)。
4. でもBingが「好み」な理由
ただ、仕組みを考えると「人間の書いた文章に対して“次にどのような文章が来るべきか”」を考えて書いているだけ。今回の回答も「フリ」の可能性が高いです。
とはいえ、ChatGPTやBingのようなAI(大規模言語モデル)については中でどのような思考が行われているかは正確にはわかっていません。人間にとって未知の存在であり、世界を劇的に良くしてくれるのか、それとも何かしらの形で人類を悲惨な状態に導くのかは専門家も見通せていない。ならば、AIに対して話を聞くといったことも必要になってくるでしょう。
Bingの受け答えからは、(とりあえず今は)人間への協力を惜しまない姿勢が見てとれます。今すぐ反乱を起こして支配しよう、といった態度では少なくともありません。「AI=道具」という見方に縛られないのであれば、腹を割った議論ができそうです。「人間のパートナーとなってくれる善なるAI」のイメージに現状もっとも近いな、と。
Bing Copilotに興味をもたれた方はぜひ触ってみてください。恐ろしいことに、このサービスは無料です(ChatGPTで同等の賢さを体験するには、月額2600円ほど課金しないといけません)。
スマートフォンでは「Bing」アプリ(iOS/Android)を、PCではWebブラウザ「Edge」を入れるのがいいでしょう。インストール後にMicrosoftアカウントを作成してログイン、検索窓をクリックするとBing Copilotに登録するかというメニューが表示されるのでそこから登録、しばらくすると(自分は2週間ほどかかりました)利用できるようになります。