人工知能は今や人間の行動を模倣することができ、そしてそれはすぐに危険になるでしょうこれは単なるコンピュータビットの集まりなのでしょうか。 フォトクリオ・ミハル・ベドナレク/ Shutterstock.com

人工知能システムが創造的になり始めるとき、それらは素晴らしいものを作成することができます - そして怖いもの。 たとえば、次のようなAIプログラムを考えてみましょう。 Webユーザーが音楽を作曲 と一緒に バーチャルヨハンセバスチャンバッハ それらを一致させるためにバッハのような調和を生み出すプログラムにメモを入力することによって。

Googleで実行、 アプリ ドリュー 素晴らしい 称賛 画期的で、一緒に遊んで楽しいです。 それはまた引き付けました 批判そして、AIの危険性について懸念を表明した。

私の勉強方法 新技術は人々の生活に影響を与える 問題は、についての明らかに大きな懸念を超えていることを私に教えてくれました アルゴリズムかどうか 本当にできます 音楽を作る または芸術一般。 いくつかの苦情は小さいように見えましたが、実際はそうではありませんでした、GoogleのAIが 基本ルールを破る 作曲

実際、コンピュータに実際の人々の行動を模倣させる努力は混乱を招き、潜在的に有害になる可能性があります。


インナーセルフ購読グラフィック


偽装テクノロジ

グーグルのプログラムはバッハの音楽作品の306のノートを分析して、メロディーとハーモニーを提供したノートの間の関係を見つけました。 バッハは厳密な作曲の規則に従っていたので、プログラムはこれらの規則を効果的に学習していたので、ユーザーが自分のメモを提供したときにそれらを適用することができました。

 Google DoodleチームがBachプログラムについて説明しています。

{youtube}XBfYPp6KF2g{/youtube}

Bachアプリ自体は新しいものですが、基盤となる技術は違います。 訓練されたアルゴリズム パターンを認識する とmake 確率的決定 長い間存在しています。 これらのアルゴリズムのいくつかはとても複雑なので人々は いつもわからない 彼らがどのように決定を下すか、または特定の結果を生み出すか

AIシステムは完璧ではありません - それらの多くは依存しています 代表的ではないデータ 全人口の 人間の偏りの影響。 完全には明らかではありません 誰が法的責任を負うのか AIシステムでエラーが発生したとき、または問題が発生したとき

しかし今では、人工知能技術は、個人の文章や会話のスタイル、さらには表情にさえも近づけることができるほど十分に進歩しています。 これは必ずしも悪いことではありません。かなり単純なAIがStephen Hawkingに コミュニケーション能力 彼が最も使用する単語を予測することによって、他のユーザーとより効率的に

人間の声を模したもっと複雑なプログラム 障害者を支援する - しかし、リスナーを欺くためにも使用できます。 例えば、 Lyrebird、音声模倣プログラムは、 模擬会話 バラクオバマ、ドナルドトランプ、ヒラリークリントンの間。 それは本当のように思えるかもしれませんが、その交換は決して起こりませんでした。

良いから悪いへ

2月に2019で、非営利会社OpenAIはテキストを生成するプログラムを作成しました。 テキストとほとんど区別がつかない 人々によって書かれました。 それはのスピーチを「書く」ことができます ジョン·F·ケネディJRRトルキエンロード·オブ·ザ·リングまたは学生の執筆 アメリカ南北戦争に関する学校の課題.

OpenAIのソフトウェアによって生成されたテキストは、会社が選択したほど信じられます。 解放しない プログラム自体

同様のテクノロジで写真やビデオをシミュレートできます。 たとえば、初期の2018では、俳優兼映画製作者のJordan Peeleが、元米大統領のBarack Obama氏が次のように述べているように見えるビデオを作成しました。 オバマ氏が実際に言ったことのないもの これらの技術によってもたらされる危険について一般の人々に警告する。

どのビデオを信じるかに注意してください。

{youtube}cQ54GDm1eL0{/youtube}

初期の2019では、 偽のヌード写真 米国のアレクサンドリアオカシオ - コルテス議員のオンラインで回覧した。 製作したビデオしばしば「ディープフェイク「」 ますます 中古 選挙運動で。

議会のメンバー この問題を調べ始めました 2020選挙の前に。 米国国防総省は公衆に教えています ドクタービデオを見つける方法 そして音声。 ニュース組織が好き ロイター通信社 ジャーナリストにディープフォークの発見を訓練し始めている。

しかし、私の考えでは、さらに大きな懸念が残っています。人工知能技術がより洗練されるにつれて、ユーザーは偽のコンテンツを区別するのに十分なほど速く学ぶことができないかもしれません。 たとえば、一般大衆が深い偽物に気づき始めているので、AIはすでにさらに高度な詐欺に使用されています。 今生成することができるプログラムがあります 偽の顔 & 偽のデジタル指紋少なくとも企業または政府の記録として、人全体の作成に必要な情報を効果的に作成します。

機械は学び続ける

現時点では、これらのテクノロジには十分な潜在的エラーがあり、人々にデジタル製造を検出する機会を与えています。 Googleのバッハ作曲家 いくつかの間違いを犯した 専門家が検出する可能性があります。 例えば、私がそれを試したとき、プログラムは私が入ることを可能にしました パラレルファイブ、そのバッハという音楽の間隔 熱心に避けた。 アプリも 音楽のルールを破った 間違った鍵でメロディーを調和させることによる対抗点の解決。 同様に、OpenAIのテキスト生成プログラムは時折「水の下で起こる火災それは彼らの文脈では意味をなさない。

開発者が彼らの作品に取り組むにつれて、これらの間違いはより少なくなるでしょう。 効果的には、AI技術は進化し学びます。 パフォーマンスの向上は、AIプログラムが支援するように、より良い医療を含む、多くの社会的利益をもたらす可能性があります。 医学の実践を民主化する.

AIシステムからこれらの前向きな成果を追求するために研究者や企業に探求の自由を与えることは、詐欺やその他の社会問題を生み出すためのより高度な方法を開発するリスクを開放することを意味します。 AI研究を厳しく制限することで その進歩を抑える。 しかし有益な技術を与える 成長する余地 不正確な「バッハのような」音楽を作るか、数百万人を欺くかにかかわらず、誤用の可能性は、人々がまだ予想できない方法で成長する可能性があります。会話

著者について

Ana Santos Rutschman、法助教授、 セントルイス大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

関連書籍

at InnerSelfMarketとAmazon