男性 - そして国 - 戦争中
ナポレオンは過去から学ぶことができたはずです。 アドルフ・ノーザン/ウィキペディアによる絵画

歴史を知らなければ繰り返すというのは決まり文句です。 多くの人が指摘しているように、私たちが歴史から学ぶことは、歴史からほとんど何も学ばないということだけです。 人々が従事する アジアの陸戦 何度も。 彼らはまた、同じデートの間違いを何度も繰り返します。 しかし、なぜこれが起こるのですか? そしてテクノロジーはそれを終わらせるのだろうか?

問題の XNUMX つは物忘れと「近視」:展開パターンを見落として、過去のイベントが現在のイベントにどのように関連しているかはわかりません。 ナポレオンは、モスクワへの行進とスウェーデンの王との類似点に気付くべきだった チャールズXNUMX世の失敗した同様の試み 彼の約XNUMX世紀前。

我々はまた 勉強が苦手 物事がうまくいかないとき。 決定が間違っていた理由と、それが二度と起こらないようにする方法を判断する代わりに、恥ずかしい出来事の順番を無視しようとすることがよくあります. つまり、次に同様の状況が発生した場合、類似性が見られず、間違いを繰り返すことになります。

どちらも情報の問題を明らかにしています。 最初のケースでは、個人情報や歴史的情報を覚えていません。 XNUMX つ目は、利用可能な情報をエンコードできません。


インナーセルフ購読グラフィック


とはいえ、何が起こるかを効率的に推測できない場合にも、間違いを犯します。 状況が複雑すぎたり、考えるのに時間がかかりすぎたりする可能性があります。 または、何が起こっているのかを誤解するように偏っています。

テクノロジーの厄介な力

しかし、確かにテクノロジーは私たちを助けることができますか? 現在、私たちは脳の外に情報を保存し、コンピューターを使用してそれを取得できます。 それは学習と記憶を容易にするはずですよね?

情報を保存することは、それがうまく取り出せる場合に役立ちます。 ただし、記憶することは、既知の場所または日付からファイルを取得することと同じではありません。 思い出すには、類似点を見つけて思い出すことが必要です。

人工知能 (AI) はまた、自発的に類似点を私たちの心にもたらすことができる必要があります。 しかし、可能性のある類似点に気付くのが得意な場合 (結局のところ、すべてのインターネットとすべての個人データを検索できます)、誤った類似点にも気付くことがよくあります。

失敗した日付については、すべて夕食が含まれていることに注意してください。 しかし、問題になったのは食事ではありませんでした。 テーブルの上にチューリップがあったのはまったくの偶然でした。チューリップを避ける理由はありません。 私たちはしばしばデートの間違いを繰り返します。 

つまり、私たちが気にしないことについて、おそらく迷惑な方法で警告することを意味します. 感度を下げるということは、必要なときに警告を受け取れないリスクが高まることを意味します。

これは基本的な問題であり、どのアドバイザーにも同じように当てはまります。用心深いアドバイザーは頻繁に狼を鳴らし、楽観的なアドバイザーはリスクを逃します。

良きアドバイザーとは、私たちが信頼する人です。 彼らは私たちとほぼ同じレベルの注意を払っており、私たちが何を望んでいるのかを知っています。 これは、人間のアドバイザーでは見つけるのが難しく、AI ではなおさらです。

テクノロジーはどこで間違いを止めますか? ばか校正作品。 カッティング マシンでは、刃から手を離してボタンを押し続ける必要があります。 「デッドマンズスイッチ」は、オペレーターが無力になった場合に機械を停止します。

電子レンジはドアを開けると放射をオフにします。 ミサイルを発射するには、XNUMX 人が同時に鍵を回す必要があります。 ここでは、注意深い設計により、間違いを犯しにくくなっています。 しかし、重要度の低い状況については十分に気にかけないため、そこにある設計はばかげたものではありません。

テクノロジーがうまく機能すると、私たちはテクノロジーを信頼しすぎてしまうことがよくあります。 自動操縦システムの驚異的な効率により、今日の航空会社のパイロットの実際の飛行時間は、過去よりも少なくなっています。 自動操縦が失敗した場合、これは悪いニュースであり、パイロットは状況を修正するための経験が少ない.

最初の 新種の石油プラットフォーム (Sleipnir A) が沈没 エンジニアは、それに作用する力のソフトウェア計算を信頼していたからです。 このモデルは間違っていましたが、説得力のある方法で結果を提示したため、信頼できるように見えました。

私たちの技術の多くは驚くほど信頼性があります。 たとえば、インターネット上で失われたデータのパケットが舞台裏で常に発見されていること、エラー修正コードがノイズを除去する方法、ヒューズと冗長性がアプライアンスを安全にする方法に気づいていません。

しかし、複雑さのレベルを積み重ねると、非常に信頼性が低く見えます。 ズーム ビデオが遅れたり、AI プログラムが間違った応答をしたり、コンピューターがクラッシュしたりすると、私たちは気づきます。 しかし、50 年前にコンピューターや自動車を使用した人に、実際にどのように機能したかを尋ねてみると、能力と信頼性がどちらも劣っていることに気付くでしょう。

私たちはテクノロジーをより複雑にし、使用するのが煩わしくなったり安全でなくなったりします。 部品がより良くなり、信頼性が高まるにつれて、機能するものに固執するのではなく、新しくエキサイティングで便利な機能を追加することを選択することがよくあります. これにより、最終的にテクノロジーの信頼性が低下します。

間違いが起きます

これが、AI がミスを回避するためのもろ刃の剣である理由でもあります。 自動化は、うまくいくと安全性と効率性を向上させますが、失敗すると問題ははるかに大きくなります。 自律性とは、スマート ソフトウェアが私たちの思考を補完し、負担を軽減できることを意味します。

複雑になればなるほど、間違いはより素晴らしいものになる可能性があります。 非常に知的な学者を扱ったことのある人なら誰でも、彼らの常識が彼らの常識を覆すとき、彼らが素晴らしい創意工夫で物事をうまく台無しにすることができることを知っています.AIには人間の常識がほとんどありません.

これは、意思決定を導く AI について心配する大きな理由でもあります。 彼らは新しい種類の間違いを犯します. 私たち人間は人間の間違いを知っています。つまり、それらに注意することができます。 しかし スマートマシンは私たちが想像もしなかった間違いを犯す可能性があります.

さらに、AI システムは人間によってプログラムされ、訓練されます。 そして、そのようなシステムの例はたくさんあります 偏見になり、偏見にさえなる. 彼らは偏見を模倣し、関係者が明示的に回避しようとしても、人間の世界の過ちを繰り返します。

結局ミスは続きます。 私たちが世界について間違っていること、覚えておくべきことをすべて覚えていないこと、そして私たちのテクノロジーが問題を完全に回避するのに役立たないことには、根本的な理由があります。

しかし、間違いの結果を減らすために取り組むことはできます。 元に戻すボタンと自動保存により、数え切れないほどのドキュメントがコンピューターに保存されました。 ロンドンのモニュメント, 津波石 日本やその他のモニュメントは、特定のリスクについて私たちに思い出させてくれます。 優れた設計手法は、私たちの生活をより安全にします。

最終的に、歴史から何かを学ぶことは可能です。 私たちの目標は生き残り、過ちから学ぶことであり、過ちが起こらないようにすることではありません。 テクノロジーはこれに役立ちますが、テクノロジーから実際に何を求めているかを慎重に検討し、それに応じて設計する必要があります。

著者について

アンダースサンドバーグ, James Martin Research Fellow, Future of Humanity Institute & Oxford Martin School, オックスフォード大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.