人工知能が人々の日常生活に深く浸透するにつれて、それに対する懸念も高まっています。最も憂慮すべきは AI に関する懸念です 悪党になる そして人間の主人を終わらせる。

しかし、その要求の背後には、 AIの開発を一時停止する これは、より具体的な社会悪の集合体です。その中には、AI が人々にもたらすリスクも含まれます。 プライバシーと尊厳 そして避けられない事実は、AI の内部にあるアルゴリズムは人間によってプログラムされているため、 偏った & 差別的な 私たちの多くと同じように。を投入してください 透明性の不足 AIがどのように設計されているかについて、そして 誰によって、そしてなぜ最近これほど多くの時間が費やされているのかを理解するのは簡単です。 そのリスクについて議論する そのポテンシャルと同じくらい。

だけど 自分の研究 心理学者として 人がどのように意思決定を行うかを研究する これらすべてのリスクは、ほとんど目に見えないものの、さらに腐敗をもたらす脅威によって影が隠れていると私は考えています。つまり、AI は、思慮深い意思決定に関して人々の規律やスキルをさらに低下させることを、キーを押すだけで回避できるのです。

思慮深い決断を下す

思慮深い意思決定を行うプロセスには 3 つのプロセスが含まれます 常識的な手順 それは、直面しているタスクや問題を時間をかけて理解することから始まります。何を知る必要があるのか​​、後で確実に自信を持って弁護できる決定を下すためには何をする必要があるのか​​を自問してください。

これらの質問に対する答えは、知識のギャップを埋め、これまでの信念や仮定に疑問を投げかける情報を積極的に探すかどうかにかかっています。実はこれなんです 反事実情報 – 人々が特定の思い込みの重荷を取り除くときに現れる別の可能性 – それは最終的に、批判されたときに自分の決定を守るための備えとなります。


インナーセルフ購読グラフィック


思慮深い決定には、自分の価値観を考慮し、トレードオフを比較検討することが含まれます。

2 番目のステップは、一度に複数のオプションを探して検討することです。生活の質を向上させたいですか?誰に投票するか、受け入れる仕事、または購入するものであっても、そこにたどり着く道は常に複数あります。少なくともいくつかのもっともらしい選択肢を積極的に検討し、評価することに労力を費やし、誠実な態度で、 あなたが喜んで行うトレードオフ 長所と短所を超えて、それは思慮深く防御可能な選択の特徴です。

3番目のステップは、意欲的に取り組むことです 閉店を遅らせる すべての決断が終わるまでは 必要な精神的な重労働。それは秘密ではありません。閉店は、難しい決断や重要な決断を忘れたことを意味するので、気分が良いものです。しかし、時期尚早に先に進むことの代償は、時間をかけて下調べをするよりもはるかに高くなる可能性があります。私の言うことが信じられないなら、自分の感情に任せて行動したときのことを思い出してください。 後悔を経験する もう少し真剣に考える時間をとらなかったからです。

意思決定を AI にアウトソーシングする危険性

これら 3 つの手順はどれも実行するのがそれほど難しいものではありません。しかし、ほとんどの人にとって、それらは 直感的ではない どちらか。思慮深く防御可能な決定を下す 練習と自制心が必要です。そしてここに、AI が人々をさらす隠れた害が現れるのです。AI はほとんどの「思考」を舞台裏で行い、文脈や熟慮を省略した答えをユーザーに提示します。さらに悪いことに、AI は人々が自分自身で思慮深く防御可能な決定を下すプロセスを実践する機会を奪います。

今日、人々が多くの重要な決定にどのように取り組んでいるかを考えてみましょう。人間はよく知られていますが、 幅広い偏見を抱きやすい なぜなら、私たちは精神的エネルギーの消費に関しては倹約する傾向があるからです。この倹約は、一見良いものや信頼できるものに見えると、人々に好まれます。 決定は彼らのために行われます。そして私たちは 社会的な動物 彼らは、自分自身の自主性を重視するよりも、コミュニティの安全と受け入れを重視する傾向があります。

そこに AI を追加すると、危険なフィードバック ループが発生します。AI がアルゴリズムを強化するためにマイニングしているデータは次のとおりです。 人々の偏見のある決定で構成されている それはまた、知恵の代わりに同調圧力を反映しています。 批判的推論。しかし、人々は自分のために決定を下してもらうことを好むため、これらの悪い決定を受け入れて次の決定に進む傾向があります。結局のところ、私たちも AI も賢くなることはありません。

AI時代の思慮深さ

AI が社会に何の利益ももたらさないと主張するのは間違っています。特に次のような分野では、そうなる可能性が最も高いです。 サイバーセキュリティー, ヘルスケア & ファイナンスでは、複雑なモデルと大量のデータを定期的かつ迅速に分析する必要があります。ただし、日常的な意思決定のほとんどには、この種の分析能力は必要ありません。

しかし、私たちが求めるかどうかに関係なく、私たちの多くはすでに、次のようなさまざまな環境で AI からアドバイスを受け、AI によって実行される作業を受けています。 エンターテインメント & 旅行 〜へ 学校の勉強, ヘルスケア & ファイナンス。デザイナーも一生懸命取り組んでいます 次世代AI これにより、私たちの日常的な意思決定をさらに自動化できるようになります。そして、これは私の考えでは危険です。

人々が何をどのように考えるかがすでに包囲されている世界では、 ソーシャルメディアのアルゴリズムAI が私たちに代わってあらゆる種類の決定を下せる高度なレベルに達することを許可すると、私たちはさらに危険な立場に陥る危険があります。実際、私たちには、AI のサイレンの呼びかけに抵抗し、人間であることの真の特権と責任、つまり自分で考えて選択できるという所有権を取り戻す義務があるのです。そうすれば気分も良くなりますし、重要なことに、もっと良くなります。会話

ジョー・アルバイ、ダナ・アンド・デイビッド・ドーンサイフ心理学教授、リグレー環境持続可能性研究所所長、 USC Dornsife College of Letters、Arts and Sciences

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.