AI を信頼する 7 20
 AI チャットボットはますます強力になっていますが、AI チャットボットがあなたの利益に沿って機能しているかどうかをどうやって知ることができるでしょうか? 

Amazon の音声アシスタント AI システムである Alexa に、Amazon は独占企業なのかと尋ねると、次のように答えます。 それは分からないと言う。 それを作るのにそれほど時間はかかりません 他のテクノロジー巨人を激しく非難する, しかし、自社の親会社の不正行為については沈黙している。

Alexa がこのように応答すると、ユーザーの利益よりも開発者の利益を優先していることは明らかです。 ただし通常、AI システムが誰にサービスを提供しているかはそれほど明らかではありません。 これらのシステムによる悪用を避けるために、人々は AI に懐疑的に取り組む方法を学ぶ必要があります。 それは、与えるインプットを意図的に構築し、そのアウトプットについて批判的に考えることを意味します。

新世代の AI モデルは、より洗練され、機械的な応答が少なくなっているため、発言時に誰が利益を得るのかを判断することが困難になっています。 インターネット企業が自分たちの利益のためにユーザーの目に映るものを操作することは、何も新しいことではありません。 Google の検索結果と Facebook フィードは、 有料エントリーでいっぱい. Facebook, TikTok 他の人はあなたのフィードを操作して、あなたがプラットフォームに費やす時間を最大化し、あなたの健康よりも広告の視聴回数を増やすことを意味します。

AI システムがこれらの他のインターネット サービスと異なるのは、AI システムがいかにインタラクティブであるか、そしてこれらのインタラクションがますます人間関係に似てくるかどうかです。 AI があなたのために旅行を計画したり、あなたに代わって交渉したり、セラピストやライフ コーチとして機能したりすることを想像するのに、今日のテクノロジーから多くの推測は必要ありません。


インナーセルフ購読グラフィック


彼らはおそらく 24 時間 7 日あなたと一緒にいて、あなたのことをよく知っており、あなたのニーズを予測できるでしょう。 Web 上のサービスとリソースの広大なネットワークへのこの種の会話インターフェイスは、ChatGPT などの既存の生成 AI の機能の範囲内です。 彼らは、次なる軌道に乗っています。 パーソナライズされたデジタルアシスタント.

として セキュリティの専門家 & データサイエンティスト、これらの AI に依存するようになった人々は、日常生活を営むために暗黙のうちに AI を信頼する必要があると私たちは考えています。 つまり、AIが誰かのために密かに働いていないかを確認する必要があるということだ。 インターネット上では、あなたにとってうまく機能しているように見えるデバイスやサービスが、すでに密かにあなたに不利に働いています。 スマートテレビ あなたをスパイ。 電話アプリ データを収集して販売する。 多くのアプリやウェブサイト 暗いパターンを通してあなたを操作する、デザイン要素 ウェブサイト訪問者を意図的に誤解させたり、強制したり、騙したりすること。 これは 監視資本主義そしてAIもそれに加わる形になりつつある。 AI は監視資本主義で役割を果たしていますが、これは要するに、あなたからお金を稼ぐためにあなたを監視することです。

暗闇で

AI が登場すると、さらに悪化する可能性があります。 AI デジタル アシスタントが本当に役立つためには、ユーザーのことを本当に理解する必要があります。 携帯電話があなたのことを知っている以上に。 Google 検索よりも優れた情報を得ることができます。 おそらく、あなたの親しい友人、親密なパートナー、セラピストよりもあなたのことをよく知っています。

今日の主要な生成 AI ツールを信頼する理由はありません。 それは置いといて、 幻覚、GPT およびその他の大規模な言語モデルが生成するでっち上げられた「事実」。 今後数年間でテクノロジーが進歩するにつれて、これらは大部分が解消されると予想されます。

しかし、AI がどのように構成されているのか、つまり AI がどのように訓練され、どのような情報が与えられ、どのような指示に従うように命令されているのかはわかりません。 たとえば、研究者は、 秘密のルールを暴いた Microsoft Bing チャットボットの動作を制御します。 これらはほとんどが良性ですが、いつでも変化する可能性があります。

お金を稼ぎます

これらの AI の多くは、最大規模の技術独占企業によって莫大な費用をかけて作成され、訓練されています。 これらは、無料または非常に低コストで人々に使用できるように提供されています。 こうした企業は何らかの方法で収益化する必要があるだろう。 そして、インターネットの他の部分と同様に、何らかの形で監視と操作が含まれる可能性があります。

チャットボットに次の休暇の計画を立てるよう依頼するところを想像してみてください。 特定の航空会社、ホテルチェーン、レストランを選んだのは、それがあなたにとって最適だったからですか、それともそのメーカーが企業からリベートを得たからですか? Google 検索の有料結果、Facebook のニュースフィード広告、Amazon クエリの有料掲載と同様、これらの有料の影響力は、時間の経過とともにさらに密かに現れる可能性があります。

チャットボットに政治情報を尋ねた場合、結果はチャットボットを所有する企業の政治によって偏っていますか? それとも最も多くのお金を支払った候補者でしょうか? それとも、モデルのトレーニングにデータが使用された人々の人口統計の見解でしょうか? あなたの AI エージェントは密かに二重スパイですか? 今のところ、それを知る方法はありません。

法的に信頼できる

私たちは、人々はテクノロジーにさらに多くの期待を寄せるべきであり、テクノロジー企業と AI はより信頼できるものになると信じています。 欧州連合の提案 AI法 AI モデルのトレーニングに使用されるデータの透明性、潜在的なバイアスの軽減、予見可能なリスクの開示、業界標準テストの報告など、いくつかの重要な措置を講じています。 欧州連合(EU)はAI規制を進めている。

既存のAIのほとんどは 遵守しない この新たなヨーロッパの使命にもかかわらず、 最近の煽り チャック・シューマー上院多数党院内総務は、米国はそのような規制に関してはるかに遅れていると述べた。

未来の AI は信頼できるものでなければなりません。 政府が AI 製品に対して強力な消費者保護を提供しない限り、また提供するまでは、人々は AI の潜在的なリスクと偏見を自分たちで推測し、AI による人々の体験に対する最悪の影響を軽減することになるでしょう。

したがって、AI ツールから旅行の推奨情報や政治情報を入手する場合は、看板広告や選挙ボランティアと同じ懐疑的な目で取り組んでください。 AI ツールは、あらゆる技術的な魔法を駆使しても、ほとんど同じかもしれません。会話

著者について

Bruce Schneier氏、公共政策の非常勤講師、 ハーバードケネディスクール & ネイサンサンダース、バークマン クライン センター フォー インターネット & ソサエティ、アフィリエイト、 ハーバード大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.