チャットGPT
著名なコンピューター科学者やその他のテクノロジー業界の著名人のグループが、人工知能技術の XNUMX か月間の一時停止を求めています。 (シャッターストック)

コンピューター科学者とテクノロジー業界のリーダーによる最近の公開書簡 人工知能開発の XNUMX か月間の禁止を求める 持っています オンラインで広く注目された. カナダのイノベーション大臣フランソワ・フィリップ・シャンパーニュでさえ Twitterで手紙に返信しました。

非営利の Future of Life Institute が発行した書簡は、ChatGPT の背後にあるモデルである GPT-4 よりも強力な AI システムのトレーニングを停止するよう、すべての AI ラボに求めています。 この書簡は、AI は「誰も — その作成者でさえ — 理解、予測、または確実に制御できない、これまで以上に強力なデジタルマインドを開発および展開するための制御不能な競争に閉じ込められている」と主張しています。

この書簡は、AI が「強力なデジタル マインド」になりつつある、またはなる可能性があることを前提としています。 AIの開発に関する長期的解釈 それ 将来の懸念の代わりに、今日の AI に関する重要な議論を無視する.

長期主義とAI

長期主義は、 人工知能が制御不能な超知能になることで、人類の未来に長期的または実存的なリスクをもたらすという信念.


インナーセルフ購読グラフィック


通常、超知能 AI に関する懸念は SF の話です。 AIファンタジー シリコンバレーの多くの恐怖のXNUMXつです につながる可能性があります 暗黒の予言. しかし、 トーメントネクサスミーム、これらの懸念は注意ではなく、大きな投資につながります。 ほとんどの主要なテクノロジー企業は、 責任ある AI チームを削減する.

ChatGPT は明らかにスーパーインテリジェンスへの道ではありません。 公開書簡は、ChatGPT のような AI 言語技術を、一般的なタスクで AI が人間と競争できるようにする認知的ブレークスルーと見なしています。 しかし、それはXNUMXつの意見にすぎません。

ChatGPT、その GPT-4 モデル、およびその他の言語学習モデルを 「確率オウム」 オンラインで学んだことを繰り返すだけなので、 現れる 人間にとって賢い。

超知能の盲点

長期主義は、次のような差し迫った問題よりもスーパーインテリジェンスを優先する直接的な政策的意味合いを持っています。 AIのパワーアンバランス. 長期主義の一部の支持者 気候の緊急事態に対処するよりも、スーパーインテリジェンスを停止するための規制の方が緊急であると考えることさえできます。

AI ポリシーへの影響はすぐに現れますが、そう遠くない問題ではありません。 GPT-4 はインターネット全体でトレーニングされており、明示的に営利目的であるため、 公正な取引と公正な使用について疑問を投げかける.

そもそもAIが生成したテキストや画像が著作権で保護されているかどうかはまだわかっていません、機械と 動物 著作権を保持することはできません。

また、プライバシーの問題に関しては、ChatGPT のアプローチは他の AI アプリケーションと区別するのが難しく、 クリアビューAI. どちらの AI モデルも、オープンなインターネットで収集された大量の個人情報を使用してトレーニングされました。 イタリアのデータ保護機関は、プライバシー上の懸念から ChatGPT を禁止しました.

これらの差し迫ったリスクは、私たちの目の前にある問題を無視して、野生の哲学と技術的解決策の間を行き来する公開書簡では言及されていません.

プラグマティズムをかき消す

この手紙は、私の共著者と私が AI ガバナンスに関するピアレビューの章が近日公開予定. AI を実存的リスクまたは平凡で技術的なものと見なす傾向があります。

この XNUMX つの両極端の間の緊張関係は公開書簡に表れています。 手紙は、「高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性がある」と主張し、「技術的なAIの安全性研究のための強力な公的資金」を要求することで始まります。 後者は、AI の社会的被害は解決すべき技術的プロジェクトに過ぎないことを示唆しています。

これら XNUMX つの両極端に焦点を当てることで、上記の AI の差し迫ったリスクと、 労働問題など.

公開書簡に注意が向けられていることは、カナダでは特に問題となっています。 アーティスト & 市民的自由団体、同じ量の注目を集めていません。 これらの書簡は、影響を受ける人々を保護するために、AI ガバナンスに対する改革とより強固なアプローチを求めています。

AI 法制化に対する不必要な気晴らし

公開書簡に対する政府の回答は、カナダには法律があることを強調している — 人工知能およびデータ法 (AIDA). AI の長期的なリスクは、現在 AIDA のように法制化を急ぐために利用されています。

AIDA は、適切な AI ガバナンス体制に向けた重要なステップですが、 AI の影響を受ける人々とよく相談する 実装前。 知覚された長期的な恐怖に急いで対応することはできません。

AI 法制化を急ぐようにとの書簡の呼びかけは、今日 AI 研究を推進している少数の企業に利益をもたらす可能性があります。 AIDA は、AI の説明責任と監査を AI の説明責任と監査の対象にするリスクを冒し、AI の恩恵を受けることができる体制をすでに確立している機関に任せ、新しい AI 監査業界の市場を生み出します。

人類の運命は当たらないかもしれませんが、AI の優れた統治は確かにそうです。会話

著者について

フェンウィック・マッケルビー, 情報通信技術政策准教授, コンコルディア大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.