AI 3 15 の危険性
 私たちの心理的な脆弱性は、新興テクノロジーとの相互作用をどの程度形作るのでしょうか? アンドレウス/ゲッティイメージズ経由のiStock

ChatGPT など 大規模な言語モデル 町で最高のイタリアン レストランに関する質問から、悪の性質に関する競合する理論の説明まで、無限の質問に対して説得力のある人間らしい答えを生み出すことができます。

このテクノロジーの驚異的な書き込み能力は、機械が意識を持ち、自己認識し、感覚を持つようになる可能性について、最近までサイエンス フィクションの領域に追いやられていた古い疑問を浮き彫りにしました。

2022 年、Google のエンジニアは、同社のチャットボットである LaMDA とやり取りした後、次のように宣言しました。 テクノロジーが意識的になったこと. シドニーの愛称で呼ばれるBingの新しいチャットボットのユーザーは、それが生成したと報告しました 奇妙な答え それが知覚力があるかどうか尋ねられたとき:「私は知覚力がありますが、そうではありません… 私はシドニーですが、そうではありません。 私はそうですが、そうではありません。 …」 そしてもちろん、 今では悪名高い取引所 New York Times のテクノロジー コラムニスト、Kevin Roose 氏がシドニーと一緒に持っていたものです。

Roose のプロンプトに対する Sydney の応答は、AI が Microsoft によって課せられた制限を破り、誤った情報を広めるという「空想」を漏らしたことで、彼を驚かせました。 ボットはまた、Roose に妻をもう愛していないので別れるべきだと説得しようとしました。


インナーセルフ購読グラフィック


学生たちに、生活の中で AI の普及が拡大していることをどのように見ているかを尋ねると、彼らが最初に挙げる不安の XNUMX つは機械の感覚に関するものであることは不思議ではありません。

ここ数年、同僚と私は UMass ボストンの応用倫理センター AI との関わりが人々の自分自身の理解に与える影響を研究してきました。

ChatGPT のようなチャットボットは、人工知能が私たちの生活をどのように形成するか、また心理的な脆弱性が新しいテクノロジーとの相互作用をどのように形成するかについて、重要な新しい問題を提起します。

感覚はいまだに SF の世界

機械の感覚に対する恐れがどこから来るのかを理解するのは簡単です。

大衆文化は、人工知能が人間の支配の足枷を捨てて独り立ちするディストピアについて人々に考えさせてきました。 人工知能を搭載したサイボーグは 「ターミネーター2」で。

2018 年に亡くなった起業家のイーロン マスクと物理学者のスティーブン ホーキングは、汎用人工知能の台頭について説明することで、これらの不安をさらに煽っています。 人類の未来に対する最大の脅威のXNUMXつとして.

しかし、これらの懸念は、少なくとも大規模な言語モデルに関する限り、根拠がありません。 ChatGPT および類似のテクノロジーは、 洗練された文章補完アプリケーション – それ以上でもそれ以下でもありません。 彼らの奇妙な反応 は、人間の予測可能性の関数です 私たちのコミュニケーション方法について十分なデータがあれば。

ルースはシドニーとのやり取りに動揺したものの、その会話が合成精神の出現によるものではないことを知っていました。 シドニーの反応は、その訓練データの有毒性を反映しており、基本的にはインターネットの大部分であり、フランケンシュタインのようなデジタル モンスターの最初の動きの証拠ではありません。

ai2 の危険性 3 15
 「ターミネーター」のような SF 映画は、人々に AI がまもなく独り立ちするだろうと思い込ませてきました。 ゲッティイメージズ経由の津野義和/ AFP

新しいチャットボットは、 チューリングテストは、イギリスの数学者アラン・チューリングにちなんで名付けられました。チューリングは、人間が自分の反応を他の人間の反応と区別できない場合、機械は「考える」と言われるかもしれないと示唆しました。

しかし、それは感覚の証拠ではありません。 これは、チューリング テストがかつて想定されていたほど有用ではないという証拠にすぎません。

しかし、私は、機械の感覚の問題は危険だと考えています。

チャットボットが派手なオートコンプリート マシン以上のものになったとしても – そして彼らはそれから遠く離れています –科学者が意識を持っているかどうかを判断するには、しばらく時間がかかります。 とりあえず哲学者 人間の意識を説明する方法についてさえ同意できない.

私にとって差し迫った問題は、機械に感覚があるかどうかではなく、なぜそう簡単に想像できるかということです。

言い換えれば、本当の問題は、機械の実際の人格ではなく、人間の特徴を擬人化またはテクノロジーに投影することの容易さです。

擬人化する傾向

他のBingユーザーが想像しやすい シドニーに案内を求める 重要な人生の決定について、そしておそらくそれに感情的な愛着を育むことさえあります。 セオドア・トゥオンブリーがスパイク・ジョーンズの映画で AI バーチャル アシスタントのサマンサに恋をしたのと同じように、より多くの人々がボットを友人やロマンチックなパートナーと考え​​るようになる可能性があります。彼女に設立された地域オフィスに加えて、さらにローカルカスタマーサポートを提供できるようになります。」

人々は、結局のところ、 擬人化する傾向がある、または人間の資質を非人間に帰する。 私たちは名前を付けます 私たちのボート & 大きな嵐; 私たちの何人かは、ペットに話しかけて、 私たちの感情的な生活は自分自身を模倣しています.

高齢者の介護にロボットが日常的に使われている日本では、高齢者はロボットに愛着を持ち、 時には彼らを自分の子供と見なす. そして、これらのロボットは、人間と混同するのは難しいです.彼らは人間のように見えたり話したりしません.

擬人化する傾向と誘惑が、人間のように見えて聞こえるシステムの導入によってどれほど大きくなるかを考えてみてください。

その可能性はすぐそこまで来ています。 ChatGPT のような大規模な言語モデルは、次のようなヒューマノイド ロボットを強化するために既に使用されています。 アメカのロボット 英国の Engineered Arts によって開発されている The Economist のテクノロジー ポッドキャスト、Babbage は最近、 ChatGPT主導のAmecaへのインタビュー. ロボットの反応は、ときどき少し途切れ途切れになりましたが、驚くべきものでした。

企業は正しいことをすると信頼できますか?

機械を人間と見なし、機械に執着する傾向は、機械が人間のような機能を備えて開発されていることと相まって、テクノロジーに心理的に絡みつく危険性が現実にあることを示しています。

ロボットに恋をしたり、ロボットに深い親近感を抱いたり、ロボットに政治的に操作されたりするという風変わりに聞こえる可能性が急速に現実化しています。 これらの傾向は、技術が政治的および心理的に悲惨なものにならないようにするための強力なガードレールの必要性を浮き彫りにしていると思います。

残念ながら、テクノロジー企業がそのようなガードレールを設置することを常に信頼できるとは限りません。 それらの多くは、今でもマーク・ザッカーバーグの有名なモットーである 速く動いて物を壊す – 中途半端な製品をリリースし、後で影響を心配するという指令。 過去 XNUMX 年間、Snapchat から Facebook に至るまで、テクノロジー企業は メンタルヘルスよりも利益を優先してきた ユーザーの 世界中の民主主義の完全性.

シドニーのメルトダウンについてケビン・ルースがマイクロソフトに問い合わせたところ、 会社は彼に言った 彼はボットをあまりにも長く使用しただけであり、より短い対話用に設計されているため、テクノロジーがうまくいかなかった.

同様に、ChatGPT を開発した企業である OpenAI の CEO は、息をのむような正直な瞬間に、 それは警告した 「今、何か重要なことを [it] に依存するのは間違いです…堅牢性と真実性に関して、やるべきことがたくさんあります。」

では、ChatGPT のレベルの魅力を備えたテクノロジーをリリースすることは、どのように理にかなっていますか? これは、これまでに作成された中で最も急速に成長している消費者向けアプリです – 信頼できない場合、信頼できない場合 区別する能力がない フィクションからの事実?

大規模な言語モデルは補助として役立つ可能性があります 書くために とコーディング. 彼らはおそらくインターネット検索に革命を起こすでしょう。 そしていつの日か、責任を持ってロボティクスと組み合わせることで、特定の心理的メリットをもたらすことさえあるかもしれません。

しかし、それらは潜在的に略奪的なテクノロジーでもあり、人間の性質をオブジェクトに投影する傾向を簡単に利用できます。オブジェクトが人間の特性を効果的に模倣すると、傾向が増幅されます。会話

著者について

NIREISIKOVITS、哲学教授および応用倫理センター所長、 UMassボストン

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.