人工知能は人間の感情を理解するだろうか?

あなたはロボットから治療法を受けることについてどう思いますか? 感情的にインテリジェントなマシンは、そう遠くないかもしれません。 過去数十年にわたり、人工知能(AI)はますます人間の感情反応を読むことに優れています。

しかし、読書は理解と同じではありません。 AIが自分自身で感情を体験することができない場合、彼らは本当に私たちを理解することができますか? そして、そうでなければ、ロボットが持っていない財産を帰属させるリスクがあるのでしょうか?

最新世代のAIは、コンピュータの学習に利用できるデータが増加し、処理能力が向上したことによってもたらされました。 これらのマシンは、人間として常に認識されてきたタスクの競争が激化しています。

AIは、とりわけ、 顔を認識する, 顔のスケッチを写真に変える, スピーチを認識する & 遊ぶ.

犯罪者を特定する

最近、研究者は顔の特徴を見るだけで犯罪者であるかどうかを知ることができるAIを開発しました。 システムは、中国人のID写真のデータベースを用いて評価され、 結果 顎が落ちている。 AIは、犯罪者の6%の周りを首尾よく識別することができたのに対し、83%のケースでのみAIを犯罪者として間違って分類した。 これは、ほぼ90%の驚異的な全体的な精度につながります。

このシステムは、「深い学習」と呼ばれるアプローチに基づいており、顔認識などの知覚的なタスクに成功しています。 ここで、「顔回転モデル」と組み合わせた深い学習は、写真の間で照明や角度が変化しても、2つの顔写真が同じ個人を表すかどうかをAIが確認することを可能にする。


インナーセルフ購読グラフィック


深い学習 人間の脳に緩やかにモデル化された「ニューラルネットワーク」を構築します。 これは、異なる層に組織された数十万のニューロンで構成されています。 各層は、入力、例えば、顔画像を、特定の方向および位置でのエッジの集合のような、より高いレベルの抽象化に変換する。 これにより、特定のタスクの実行に最も関連する機能が自動的に強調されます。

深い学習の成功を考えれば、人工ニューラルネットワークが、犯罪者を非犯罪者と区別することができるのは驚くべきことではありません。 この研究では、3つのことが示唆されている。 1つは、鼻の先端と口の角との間の角度であり、犯罪者にとっては平均して19.6%小さい。 上唇の曲率も平均して23.4%であり、目の内側の角の間の距離は平均して5.6%狭い。

一見すると、この分析は、 時代遅れのビュー 犯罪者が身体的属性によって特定されることは完全に間違っているわけではない。 しかし、それは完全な話ではないかもしれません。 最も関連性の高い機能の2つが、最も表現力のある顔の特徴である唇に関連しているのは興味深いことです。 研究で使用されたものなどのID写真には中立的な表情が必要ですが、AIがそれらの写真に隠された感情を見つけることができた可能性があります。 これらは人間がそれらに気づくために苦労したかもしれないほど小さいかもしれません。

紙に表示されているサンプル写真を見てみるという誘惑に抵抗するのは難しいですが、これはまだピアレビューされていません。 確かに、慎重な外観は非犯罪者の写真にわずかな笑顔を示しています - 自分で見て。 しかし、ごくわずかなサンプル写真しか入手できないので、結論をデータベース全体に一般化することはできません。

感情計算の力

コンピュータが人間の感情を認識することは初めてではないでしょう。 いわゆる "感情的な計算"数年前からありました。 私たちが快適に生活し、ロボットと交流するためには、これらの機械が人間の感情を理解し、適切に反応できるはずであると主張されている。 この地域には多くの仕事があり、可能性は膨大です。

例えば、研究者は顔の分析を使用して スポット苦闘する学生 コンピュータ課外活動のセッションで。 AIはさまざまなレベルの婚約と欲求不満を認識するように訓練されていたため、生徒がいつ仕事が簡単すぎるのか難しいのかを知ることができました。 この技術は、オンラインプラットフォームでの学習経験を向上させるのに役立ちます。

AIはまた、 私たちの声の音に基づいて感情を検出する という会社が BeyondVerbal。 彼らは音声変調を分析し、人々が話す方法で特定のパターンを探し出すソフトウェアを作りました。 同社は80%の精度で感情を正しく識別できると主張している。 将来、この種の技術は、例えば、自閉症者が感情を識別するのを助けるかもしれない。

ソニーはロボットを開発しようとしています 感情的な絆を形成することができる 人々と。 彼らがどのようにそれを達成しようとしているのか、まさにロボットが何をするのかについての情報はあまりありません。 しかし、彼らは、彼らが "感情的に魅力的な体験を提供するためにハードウェアとサービスを統合する"。

感情的にインテリジェントなAIには、犯罪尋問から会話療法に至るまで、誰かに仲間を与えたり、特定のタスクを実行するのを手助けするなど、いくつかの潜在的な利点があります。

しかし、倫理上の問題やリスクも伴います。 認知症の患者にAIコンパニオンを依頼して、それが感情的な生活をしていると信じるのは正しいですか? あなたはAIに基づいて有罪判決を下すことができますか? 明らかにそうではありません。 代わりに、このようなシステムがさらに改善され、完全に評価されると、より有害でなく潜在的に有用な使用法は、AIによって「疑わしい」と考えられる個人のさらなるチェックをトリガーすることかもしれない。

だから私たちは、AIが今後どのようになると思いますか? 感情や感情などの主観的な話題は、AIが学習するのがまだ難しい.AIが客観的に分析するのに十分なデータにアクセスできないことがあるからです。 例えば、AIは皮肉を理解することができますか? 1つの文脈で話されているが、別の文脈ではない場合、与えられた文は皮肉なことがある。

しかし、データと処理能力の量は増え続けています。 したがって、いくつかの例外を除いて、AIは次の数十年で異なるタイプの感情を認識するのに人間とマッチすることができるかもしれません。 AIが感情を体験できるかどうかは、 議論の余地のある主題。 たとえ可能であったとしても、経験することのできない感情があるかもしれません。真にそれらを理解するのが難しくなります。

会話

著者について

Leandro Minku、コンピュータサイエンスの講師、 レスター大学

この記事は、最初に公開された 会話。 読む 原著.

関連書籍:

at InnerSelfMarketとAmazon