AIの危険性 7 11
AI が人類を奴隷にする可能性は低いですが、私たちの生活の多くの側面を乗っ取る可能性があります。 elenabs/iStock(ゲッティイメージズ経由)

ChatGPT および同様の人工知能システムの台頭は、急激な変化を伴いました。 AIに対する不安の増大。 過去数か月間、経営者や AI の安全性研究者は、「」と呼ばれる予測を提供してきました。P(ドゥーム)」AIが大規模災害を引き起こす確率について。

懸念は2023年XNUMX月にピークに達し、非営利の研究・擁護団体Center for AI Safetyが次のようなリリースを発表した。 一文のステートメント:「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきです。」 この声明には、OpenAI、Google、Anthropic のリーダーに加え、AI のいわゆる「ゴッドファーザー」の XNUMX 人を含む、この分野の多くの主要人物が署名しました。 ジェフリーヒントン & ヨシュア・ベンジオ.

そのような実存的恐怖がどのように展開するのか疑問に思うかもしれません。 有名なシナリオの XNUMX つが「ペーパークリップマキシマイザーオックスフォードの哲学者が明確にした思考実験 ニックボストロム。 その考えは、できるだけ多くのペーパークリップを生産する任務を負った AI システムが、工場を破壊したり自動車事故を引き起こしたりするなど、原材料を見つけるために並外れた労力を費やす可能性があるということです。

A リソースをあまり消費しないバリエーション では、人気レストランの予約を獲得する任務を負った AI が、他の客がテーブルに着くのを防ぐために携帯電話ネットワークと信号機をシャットダウンさせています。


インナーセルフ購読グラフィック


事務用品でもディナーでも、基本的な考え方は同じです。AI は急速にエイリアンの知性になりつつあり、目標を達成するのは得意ですが、作成者の道徳的価値観と必ずしも一致しないため危険です。 そして、最も極端なバージョンでは、この議論は AI に対する明らかな不安に変わります。 人類を奴隷化または破壊する.

ペーパークリップ作成 AI の暴走は、AI 黙示録シナリオの変形の XNUMX つです。

 

実害

ここ数年、同僚と私は UMass ボストンの応用倫理センター 彼らは AI との関わりが人々の自己理解に及ぼす影響を研究しており、これらの壊滅的な不安は次のようなものであると考えています。 誇張され、方向が間違っている.

確かに、説得力のあるディープフェイクのビデオや音声を作成する AI の能力は恐ろしいものであり、悪意のある人々によって悪用される可能性があります。 実際、それはすでに起こっている:ロシア工作員はクレムリン批判者を当惑させようとした可能性が高い ビル・ブラウダー 元ウクライナ大統領ペトロ・ポロシェンコのアバターとの会話に彼を閉じ込めることによって。 サイバー犯罪者は、さまざまな犯罪に AI 音声クローンを使用してきました。 ハイテク強盗 〜へ 普通の詐欺.

AI 意思決定システム ローンの承認と雇用の推奨を提供する それらが実行するトレーニング データと意思決定モデルには長年の社会的偏見が反映されているため、アルゴリズムによるバイアスのリスクが伴います。

これらは大きな問題であり、政策立案者の注意を必要とします。 しかし、それらはしばらく前から存在しており、大惨事を引き起こすものではありません。

同じリーグに属さない

Center for AI Safety の声明では、文明に対する主要なリスクとして AI をパンデミックや核兵器と一緒にまとめています。 その比較には問題があります。 新型コロナウイルス感染症(COVID-19)の影響で、 世界中で7万人が死亡、によってもたらされた 大規模かつ継続的なメンタルヘルス危機 そして作成された 経済的課題慢性的なサプライチェーン不足や暴走するインフレなど。

核兵器はおそらく殺された 以上200,000人 1945年に広島と長崎で人類が犠牲となり、その後数年間にがんでさらに多くの命が奪われ、冷戦時代には数十年にわたる深刻な不安が生じ、1962年のキューバ危機では世界を滅亡の危機に瀕させた。 国家指導者の計算を変更した 現在ロシアのウクライナ侵攻で展開されているような国際的な侵略にどう対応するかについて。

AI がこの種の損害を与える能力を獲得するには程遠いです。 ペーパークリップのシナリオやそれに類するものは SF です。 既存の AI アプリケーションは、大まかな判断を行うのではなく、特定のタスクを実行します。 その技術とは、 決定して計画を立てることは程遠い レストランの席に着くために交通を遮断したり、クリップを欲しがる気持ちを満たすために自動車工場を爆破したりするために必要な目標と下位の目標。

このテクノロジーには、こうしたシナリオに関わる多層的な判断を行うための複雑な能力が欠けているだけでなく、この種の損害を引き起こし始めるのに十分な重要なインフラストラクチャの部分に自律的にアクセスすることもできません。

人間であることを意味するもの

実際には、AI の使用には実存的な危険が内在していますが、そのリスクは終末論的な意味ではなく、哲学的な意味での実存的なものです。 AI は現在の形でも、人々の自分自身に対する見方を変えることができます。 それは人々が人間であるために不可欠であると考える能力や経験を低下させる可能性があります。

たとえば、人間は判断する生き物です。 人々は合理的に詳細を検討し、仕事中や余暇の時間に、誰を雇うべきか、誰にローンを組むべきか、何に注目すべきかなどについて日々判断しています。 しかし、こうした判断はますます増えています。 自動化され、アルゴリズムに任せられる。 それが起こっても、世界は終わりません。 しかし、人々は徐々にこうした判断を自分で行う能力を失っていくでしょう。 作る人が減れば減るほど、作るのが下手になる可能性が高くなります。

あるいは、人々の生活における偶然の役割について考えてみましょう。 人間は偶然の出会いを大切にします。つまり、場所、人、または活動に偶然出会って、そこに引き込まれ、これらの意味のある発見において偶然が果たした役割を遡って感謝することです。 しかし、アルゴリズムによるレコメンデーション エンジンの役割は、 そういう偶然を減らす それを計画と予測に置き換えます。

最後に、ChatGPT の書き込み機能について考えてみましょう。 このテクノロジーは、高等教育において課題を書くという役割を排除する過程にあります。 そうなれば、教育者は生徒に教えるための重要なツールを失うことになる 批判的に考える方法.

死んではいないが衰退した

つまり、AI が世界を爆破することはありません。 しかし、さまざまな狭い文脈において、それがますます無批判に受け入れられることは、人間の最も重要なスキルのいくつかが徐々に侵食されることを意味します。 アルゴリズムはすでに、人々が判断を下し、偶然の出会いを楽しみ、批判的思考を磨く能力を蝕みつつある。

人類はそのような損失を乗り越えることができます。 しかし、その過程で私たちの生き方は貧しくなっていくでしょう。 来たるべきAIの大変動、シンギュラリティ、スカイネット、あるいはあなたがどう考えてもおかしくないことに関する素晴らしい不安が、これらのより微妙なコストを覆い隠しています。 TS エリオットの有名な最後のセリフ「」を思い出してください。中空の男性」:「これが世界の終わり方だ」と彼は書いた、「爆発ではなく、泣き声で」。会話

著者について

NIREISIKOVITS、哲学教授および応用倫理センター所長、 UMassボストン

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.