人工知能が自分を表現する上でより良いものにする方法
シャッターストック
 

私たちの推論を他者に表現することを主張する能力は、それが人間であることを定義する特徴の1つです。

議論と議論は、文明社会と知的生活の礎石を形成する。 議論のプロセスは、政府を支え、科学的な努力をし、宗教的信念を構成します。 だから私たちは、人工知能の新しい進歩がコンピュータにこれらのスキルを装備するための措置をとっているのではないかと心配すべきですか?

テクノロジーが私たちの生活を変えるにつれ、私たちはすべて新しい働き方や新しいやり取り方法に慣れています。 ミレニアルは何も知らなかった。 政府や司法機関は、民主的かつ法的なプロセスで市民を関与させるための技術によってもたらされる可能性に目覚めています。 個々の政治家の中には、ソーシャルメディアが選挙プロセスで果たしている巨大な役割を理解する上で、ゲームよりも先行している人がいます。 しかし、深刻な課題があります。

1つはうまく Upworthy CEOのEli PariserがTEDの講演で語った。 その中で、彼は私たちが "フィルターバブル"に住み始めている様子を説明しています:Googleで特定の用語を検索するときに表示されるものは、同じ用語を検索するときに見られるものと必ずしも同じではありません。 フォックス・ニュースのメディア組織、最近ではBBCはコンテンツをパーソナライズしており、IDとログインを使って最も注目されている記事を選択しています。 その結果、私たちの議論はより片面化し、バランスが取れず、他の視点の理解が少なくなる一方で、同情の個人の反響室に自分自身を固定する危険性があります。

{youtube}https://youtu.be/4w48Ip-KPRs{/youtube}
TED / YouTube。

なぜ批判的思考が重要か

もう一つの関心事は、ニュースと情報が、より大量ではあるが信頼性が低くなってきていることである。これは、偽のニュース"今は普通のことです。


インナーセルフ購読グラフィック


このような課題に直面して、批判的思考のスキルは、エビデンスを迅速かつ効率的に判断し評価する能力、エコーチャンバーの外に出て、別の視点から物事を考える能力、統合する能力情報はしばしばチーム化され、いずれかの側で議論のバランスをとり、堅牢で防御可能な結論に達する。 これらはAristotle以来、2,000年以上にわたる哲学の学術研究の主題であった議論のスキルです。

  議論の中心 ダンディー大学のARG-tech(ARG-tech)は、人間がどのように主張し、どのように意見を異にし、どのように合意に達するのかを伝える哲学、言語学、心理学の理論を取り入れ、拡張し、人間の議論をモデル化し、認識し、教え、さらにはそれに参加する人工知能ツール。

近代的な研究の課題の1つは、十分なデータを得ていることです。 AIテクニック 深い学習 膨大な量のデータを必要とし、堅牢なアルゴリズムを構築するのに役立つ例を注意深く見直しました。

しかし、そのようなデータを取得することは本当に厳しいものです。高度な訓練を受けたアナリストは、ほんの数分間の議論から議論が組み合わされた方法を切り裂くために辛抱強く時間を費やしています。

10年以上前、ARG-techはBBC Radio 4プログラムに目を向け、 道徳的迷路「金標準」の議論の一例として、感情的、話題的な問題について厳密で緊密な議論を、慎重かつ測定された緩和で行っている。 非常に貴重な、そのデータは、論証技術に関する経験的に基礎を絞った研究のプログラムを供給した。

テクノロジー

このような要求の厳しいデータを扱うことは、哲学的理論から大規模なデータインフラストラクチャまですべてが試されたことを意味します。 2017年XNUMX月、BBC Radio Religion&Ethics部門でパイロットを実施し、XNUMX種類の新しい議論技術を展開しました。

最初のものは一連の「分析」でした。 私たちは、何千もの個別の発言と、それらすべての発話の内容間の何千ものつながりを含む、それぞれのMoral Mazeの討論の巨大なマップを構築することから始めました。 その後、各地図は一連のインフォグラフィックスに翻訳され、アルゴリズムを使用して最も中心的なテーマが決定されました(Googleの PageRankの アルゴリズム)。 私たちは自動的に最も分裂的な問題や参加者が立っている場所、紛争が沸点に達したときの議論の瞬間、サポートされている議論の程度などを自動的に特定しました。

その結果、at bbc.arg.tech Moral Mazeと共同で、議論の中で実際に何が起こるかを理解するエビデンスベースの方法を初めて発表します。

2番目のツールは "討論者"、これはMoral Mazeの椅子の役を引き受け、あなた自身のバージョンを実行することを可能にします。 それは、各参加者が提供する議論を取り入れ、自分の鼻に沿って適切な議論をするために、それらをナビゲートすることを可能にします。

ディーバーツールは、参加者が議論を行い、スキルをテストできるようにします。 (AIが私たちを自分自身を表現する上でより良くする方法)
ディーバーツールは、参加者が議論を行い、スキルをテストできるようにします。 BBC /ダンディー大学ARG-tech

どちらの側面も、洞察を提供し、より質の高い、より反映的な議論を奨励することを目指しています。 一方は片手、作品は 要約 論争のスキルをいかに向上させるか、実際に何が働いているかのデータの証拠によって推進されます。

もう1つは、これらのスキルを明示的に教える機会です。 あなたの議論を試してください BBC Tasterサイトに展開されたプロトタイプは、Moral Mazeの例を使用して少数の議論スキルを探索し、マシンに対して直接的に知恵を出すことができます。

チームの努力

結局のところ、目標は、議論で私たちを打ち負かす可能性のあるマシンを構築することではありません。 議論のタイプを認識し、それを批評し、代替の意見を提示し、理由を探ることは、現在AIの範囲内にあるすべてのことです。

また、インテリジェンス分析からビジネス管理に至るまで複雑で複雑な状況に対処するために、議員、人間、機械などが協力して真価を発揮しています。

会話そのような協調的な「複合イニシアチブ」の推論チームは、AIとのやりとりについての考え方を変え、集合的な推論能力をうまく変えようとしています。

著者について

クリス・リード教授(コンピュータ・サイエンス・アンド・フィリップス教授) ダンディー大学

この記事は、最初に公開された 会話。 読む 原著.

関連書籍:

at InnerSelfMarketとAmazon