AI プログラムとチャットしていて、それが本当に自然人なのかどうか疑問に思ったことがありますか?正直、私も何度か引き込まれたことがありますが、最終的には人間のふりをしたチャットボットと会話していることに気づきました。人工知能の進歩により、一部のチャットボットは恐ろしいほど洗練されており、エッセイや詩、さらには人間が作成したものに匹敵するコンピューターコードさえも書くことができます。

AI の進歩の速さに、私は際限なく魅了され続けています。私たちは、単純な会話をほとんど維持できない基本的なコンピューター プログラムから、人間とほとんど区別できない思慮深いコンテンツ、アドバイス、アイデアを生成できる AI に移行しました。

そこで、チャットボットがかつてないほどインテリジェントになったことを受けて、研究者たちは、これらの AI が人間の思考や意思決定にどの程度一致するかをテストする実験を準備しました。これは、コンピューティングのパイオニアであるアラン チューリングが数年前に提案した古典的な「チューリング テスト」にインスピレーションを得たものです。このアイデアは、人がチャットボットと実際の人間と通信し、どちらがどちらであるかを判断しようとするものです。違いを確実に見分けることができない場合、AI が人間の複雑な行動を効果的に捕捉したことを示唆しています。

この新しい実験のために、科学者たちはチューリング流の創造的な課題を提起しました。 AI チャットボットは、何気ない冗談や、性格や行動傾向を測定するより複雑な心理的評価を通じて、誰かを騙して自分が人間であると思わせることができるでしょうか?最先端のチャットボットの動機、協力レベル、信頼性、意思決定は、人間のそれと比べてどの程度一致していますか?

研究者たちは調査することにしました...そしてその結果はあなたを驚かせるかもしれません!


インナーセルフ購読グラフィック


ボットの性格テスト

彼らは、さまざまなバージョンの ChatGPT を含むいくつかのチャットボット AI に、性格調査を実施し、人間の行動 (協力、信頼、公平性、リスクテイクなど) を明らかにするインタラクティブなゲームをプレイするよう依頼しました。次に、研究者らはチャットボットの動きを、これらのテストを受けた実際の何万人もの人々からの反応と比較しました。

ビッグサプライズは?チャットボットの選択は、ほとんどが人間の応答の範囲内にありました。彼らの行動は、いくつかのケースでは人間の選択と区別するのが困難でした。違いがある場合、AI チャットボットは平均的な人間よりも協力的に行動する傾向がありました。かなりワイルドですね!

人間よりも寛大

各テストは、性格や傾向のさまざまな側面を明らかにすることを目的としています。これは、単に AI に「人間的」と思われるエッセイを書くように依頼するのと同じではありません。この調査では、率直さ、誠実さなど、その人の本質的な性格特性がマッピングされます。次に、ゲームは行動の微妙な違いを明らかにします。お金がかかっているときにどのように行動しますか?パートナーと協力しますか、それとも自分のことだけを考えますか?

ゲームでは、ほとんどのチャットボットの動きは人間の反応と厳密に一致していました。しかし、彼らの行動はプレーのラウンド全体であまり変化が見られませんでした。各チャットボットの「個人」が何万人もの現実の人々と比較されたのですから、これは当然のことです。しかし、一部のゲームの統計に基づいて、チャットボットの選択と人間の選択を区別できないことは衝撃的でした。

そして、違いが現れたとしても、それはランダムではありませんでした。チャットボットはより寛大でした - 投資ゲームでパートナーをより信頼するか、別のゲームで分割を提案するパートナーのように要求する金額を少なくすることを考えてください。

AI プレイヤーは自分たちだけではなく、双方の結果を気にしていました。チャットボットの動機を分析すると、チャットボットが自分自身とゲーム パートナーの合計利益を最大化しようとしているかのように行動していることがわかります。

経験から学ぶ

研究者たちは、ゲームをそのままプレイするだけでなく、コンテキストを変更したり、選択肢を組み立てたりするなど、人間の自然な行動を模倣するための工夫も試みました。そして、人間と同じように、ちょっとした調整でチャットボットの戦略が劇的に変わる可能性があります。たとえば、監視されていると伝えると、より寛大な態度が得られました。

研究チームはまた、AI プレイヤーが前回のラウンドを経験した後に行動を変え、まるで人間の学習のように聞こえることも発見しました。時間が経つにつれて、彼らのアプローチはさまざまなゲームシナリオに対応するようになります。

不気味なほど人間的ですか、それとも興味深いほど本物そっくりですか?

さらに、さまざまなチャットボットのバージョンはテスト全体で明確な特徴を示し、あなたや私と同じくらいユニークな性格を示唆していました。場合によっては、チャットボットが他のチャットボットと異なる一貫した傾向を示していることは注目に値します。ちょうど人間の性格に個性があり、それが私たち一人一人を異なるものにするのと同じです。あるチャットボットはより慎重で競争心が強いかもしれませんが、別のチャットボットはより寛大で協力に熱心であるように見えました。

AI が人間の思考や意思決定の複雑さを模倣する様子は、多くの議論を引き起こしました。チャットボットがオリジナルの詩を作成したり、道徳について独自の視点を持ったりするなど、機械があまりにも人間のように振る舞っているように見えると、気味が悪いと感じる人もいます。医療、教育、ビジネスなどで AI に与える役割が増えれば増えるほど、AI の判断が重要になります。

同時に、人間に見られるような、ダイナミックで思慮深い行動を垣間見せる AI には、何か魅力的なものもあります。これらの傾向をよりよく理解することは、AI アシスタントやサービス ボットなどがどのように行動するかを予測できることを意味し、より多くの信頼を構築できます。アンケートに答えたり、行動ゲームをプレイさせたりするなどのテストは、彼らの「ブラックボックス」の思考プロセスを明らかにするのに役立ちます。

私の本の中で一つ確かなことは、人工推論と人間推論の間の境界線はますます薄くなり、ますます曖昧になっていることです。機械が人間の特性や資質を独自のバージョンで採用することについてどう思いますか?私たちは AI にもっと独立した判断を与えることに抵抗はありませんか、それとも新しい形の疑似生命を作り出すようなものでしょうか?

著者について

ジェニングスRobert Jennings は妻の Marie T Russell と InnerSelf.com の共同発行者です。 彼はフロリダ大学、南部工科大学、セントラルフロリダ大学に通い、不動産、都市開発、金融、建築工学、初等教育を学びました。 彼はアメリカ海兵隊とアメリカ陸軍の一員であり、ドイツで野戦砲隊を指揮したことがあります。 彼は、25 年に InnerSelf.com を開始するまで、不動産金融、建設、開発の分野で 1996 年間働いていました。

InnerSelf は、公共の利益のために、そして地球の幸福のために、人々が私生活において知識に基づいた洞察に満ちた選択を行えるようにするための情報を共有することに専念しています。 InnerSelf Magazine は、印刷物 (30 ~ 1984 年) または InnerSelf.com としてオンラインで発行されてから 1995 年以上になります。 私たちの仕事をサポートしてください。

 クリエイティブ・コモンズ4.0

この記事はCreative Commons Attribution-Share Alike 4.0ライセンスの下でライセンスされています。 著者の属性 Robert Jennings、InnerSelf.com 記事に戻る この記事はもともとに登場しました InnerSelf.com