動物を理解することが人工知能を最大限に活用する方法自律車はこれよりスマートではありません。 X posid

毎日無数の見出しが世界中の無数の情報源から出てくる 悲惨な結果の警告 & 有望なユートピアの先物 人工知能のおかげです。 AIは「職場を変えている」と ウォールストリートジャーナル一方、 フォーチュン 雑誌は「私たちの人生を変える」「AI革命」に直面していると伝えていますが、AIとのやりとりがどういうものか、それがどういうものなのかは分かりません。 会話

しかし、私たちがAIについて考えるときに使用できるコンセプトは既にあります。それは、動物についての考え方です。 AIをどのように使っているかを現在研究している旧来の動物訓練師(簡単に言えば)として、私は動物や動物の訓練が、人工知能をどう考えるべきか、今や未来。

動物の類推を用いる 一般の人々が人工知能の複雑な側面の多くを理解するのを助けることができます。 また、これらのシステムに新しいスキルを教えるための最善の方法や、おそらく最も重要なこととして、AIの新しい可能性を祝うときでさえ、自分たちの限界を正しく理解する方法について考えるのに役立ちます。

制約を見る

AIエキスパートとして マギー・ボーデン 説明して「人工知能は、コンピュータが心ができるようなことをするようにしています」AI研究者は、コンピュータを推論し、知覚し、計画し、移動し、関連付けるようにコンピュータを教える作業をしています。 AIは大規模なデータセットのパターンを見たり、発生する可能性を予測したり、ルートを計画したり、人の会議スケジュールを管理したり、戦争ゲームのシナリオをプレイすることさえできます。

これらの機能の多くは、それ自体は驚くべきことではありません。もちろん、ロボットは宇宙の周りを転がり、何かに衝突することはありません。 しかし、何らかの形でAIがコンピュータがタスクを達成するためにこれらのスキルをまとめ始めると、より魔法に思えます。


インナーセルフ購読グラフィック


例えば、自律型車を考えてみましょう。 運転手のない車の起源は、1980s時代の国防高等研究計画庁プロジェクト 自律陸上自衛隊。 このプロジェクトの目標は、コンピュータビジョン、知覚、計画、ロボット制御の研究を促進することでした。 2004では、ALVの取り組みが最初になりました グランドチャレンジ 自走車のために。 今、努力が始まってから30年を超えて、私たちは民間市場で自立型または自家用車の崩壊に瀕しています。 初期の年には、このような偉業は不可能だと思った人はほとんどいませんでした。コンピュータは運転できませんでした!

DARPA Grand Challengeは自律型車両の開発を推進しました。

{youtube}M2AcMnfzpNg{/youtube}

それでも、私たちが見たように、 彼らはできる。 自律車の能力は、私たちが理解するのが比較的簡単です。 しかし、我々はその限界を理解するのに苦労している。 後に 2015の致命的なテスラクラッシュ車のオートパイロット機能がトラクター・トレーラーが車線を横切ったことを検知できなかった場合、テスラーのオートパイロットの実際の重さを把握している人はほとんどいません。 同社とそのソフトウェアは 過失の是正 国道交通安全局によって、顧客が実際に車が何をすることができないのかを理解しているかどうかは不明である。

もしテスラのオーナーが、彼らが 自動操縦の「ベータ版」を運転する むしろ半自律型の ワームの精神的同等性? 「知性」と呼ばれる、フル・セルフ・ドライビング能力"実際には、オブジェクトを感知し、それらを避け、イメージ内のアイテムを認識し、限られた計画を立てることにかなり優れている巨大なコンピュータです。 それは、人間の入力や見落としがなくても、車がどれくらい実際にできるかというオーナーの見方を変えるかもしれない。

それは何ですか?

技術者は、AIの構築方法に関してAIを説明しようとします。 例えば、 深い学習。 これは、 多層ネットワーク タスクを実行する方法を学ぶ。 ネットワークは膨大な量の情報を処理する必要があります。 しかし、彼らが必要とするデータの量、ネットワーク内のアソシエーションとアルゴリズムの複雑さのために、人間が彼らが何をするかをどのように学ぶかは、しばしば人間には不明です。 これらのシステムはある特定のタスクでは非常に優れているかもしれませんが、実際には理解できません。

AIを超人的あるいは宇宙的なものとして考えるのではなく、私たちが経験の訓練を受けているインテリジェントな人間以外の動物に類推する方が簡単です。

たとえば、私が 強化学習 犬を座らせるように訓練するには、私が犬を褒めて、彼が命令で座っているときに彼に治療を与える。 時間が経つと、彼はその命令を治療と関連付けることを学ぶだろう。

犬を座らせるように教えることは、人工知能を訓練するようなものです。

{youtube}5-MA-rGbt9k{/youtube}

AIシステムのトレーニングは非常に同じです。 に 強化深い学習人間の設計者は、システムを構築し、欲しいものを見て、情報を与え、行動を観察し、フィードバック(賞賛など)を与えたいと思うものを想像します。 本質的に、私たちは訓練中の動物を治療するようにAIシステムを扱うことができます。

類推はより深いレベルでも機能します。 私は座っている犬が "愛"や "良い"のような複雑な概念を理解することを期待していません。私は彼に行動を学ぶことを期待しています。 犬を座らせたり、乗り越えたりすることができるように、私たちはAIシステムに公共道路の周りを車を移動させることができます。 しかし、それはあまりにも多くの車を期待する "解決する" 緊急時の運転で起こりうる倫理的問題.

研究者の支援

AIを訓練可能な動物と考えることは、それを一般の人に説明するのに役立つだけではありません。 この技術を構築する研究者やエンジニアにとっても役立ちます。 AIの学者がシステムに新しいスキルを教えようとしている場合、動物のトレーナーの視点からプロセスを考えれば、潜在的な問題や合併症を特定するのに役立ちます。

例えば、私が犬を座らせるように訓練しようとすると、「座って」と言われるたびに、ブザーがオーブンに鳴り、私の犬は私の命令だけでなく、オーブンのブザー。 本質的に、ブザーは、犬が座っていることを告げる別の信号になります。これは「偶発的な補強」と呼ばれます。AIシステムの誤った補強や信号が適切に機能していない場合は、間違っているだけでなく、特定の再訓練が最も効果的になるでしょう。

これは、私たちがAIトレーニング中にどのようなメッセージを伝えているのか、AIが周囲の環境で何を観察しているのかを理解することが必要です。 オーブンブザーは簡単な例です。 現実の世界でははるかに複雑になるでしょう。

私たちのAI大隊を歓迎し、私たちの生活や仕事をロボットに渡す前に、私たちが作り出している種類の知性について休止して考えるべきです。 彼らは特別な行動や仕事をするのがとてもうまくいくだろうが、概念を理解することはできず、何も知らない。 だからあなたが考えているとき 何千もの砲撃 新しいテスラ車の場合、オートパイロット機能は実際には非常に高速でセクシーなワームであることを忘れないでください。 あなたはあなたの人生とあなたの愛する人の命をワームにコントロールしてもらいたいのですか? おそらくそうではないので、あなたの手を車に乗せて眠りにつかないでください。

著者について

オックスフォード大学政治国際関係学部上級研究員、ヘザー・ロフ。 リサーチサイエンティスト、グローバルセキュリティイニシアチブ、 アリゾナ州立大学

この記事は、最初に公開された 会話。 読む 原著.

関連書籍

at InnerSelfMarketとAmazon