4ルピ02z

R.クラッセン / シャッターストック

AI チャットボットは、電話または Web サイトで顧客に挨拶したり質問に答えたりするために、企業によってすでに広く使用されています。 一部の企業は、コールセンターの役割を人間に代わって機械にある程度置き換えることができることに気づきました。

しかし、入手可能な証拠は、医療や人事など、これらの最前線のツールの使用に関して細心の注意を払う必要があり、倫理的な監視が必要な分野があることを示唆しています。

最近、大きく報道された例としては、次のようなものがあります。 Tessa というチャットボットによって使用されました。 全米摂食障害協会 (NEDA) アメリカ合衆国で。 この組織は当初、サラリーマンとボランティアの組み合わせによって運営されるヘルプラインを維持していました。 これには、摂食障害に苦しむ脆弱な人々を支援するという明確な目標がありました。

しかし、今年の組織は、 ヘルプラインスタッフを解散した、それらを Tessa チャットボットに置き換えることを発表しました。 この理由については議論がある。 元従業員らは、この異動はヘルプラインの職員による組合結成の決定に従ったものだと主張している。 の NEDA副会長が引用 電話の数と待ち時間の増加、ボランティアスタッフの使用に関する法的責任。

いずれにせよ、非常に短期間の運用の後、チャットボットが摂食障害の助けを求める人々の症状を悪化させる可能性のある問題のあるアドバイスを行ったという報告により、テッサはオフラインになった。


インナーセルフ購読グラフィック


ということも報告されていました エレン・フィッツシモンズ・クラフト博士とC・バー・テイラー博士、Tessaの作成を支援したXNUMX人の高度な資格のある研究者は、チャットボットは決して既存のヘルプラインの代替として、または激しい摂食障害の症状に苦しんでいる人々に即時支援を提供することを意図したものではないと明言しました。

大幅なアップグレード

それでは、Tessa は何のために設計されたのでしょうか? 研究者らは同僚とともに、 観察研究 摂食障害を心配するユーザーと対話するためのルールベースのチャットボットを設計する際に直面した課題を強調しました。 これは、設計上の選択、運用、落とし穴、修正を説明した、非常に興味深い読み物です。

Tessa のオリジナル バージョンは伝統的なものでしたが、 ルールベースのチャットボット非常に洗練されたものではありますが、ロジックに基づいて事前に定義された構造に従うものです。 作成者によって調整された、標準化された事前にプログラムされた応答から逸脱することはできませんでした。

彼らの結論には、次の点が含まれています。「ルールベースのチャットボットは、情報や単純な対話を低コストで多数の人々に提供できる可能性がありますが、予期しないユーザーの応答を理解し、適切に応答する点では限界があります。」

これは、Tessa が適した用途を制限しているように見えるかもしれません。 では、どのようにして NEDA が以前に使用していたヘルプラインを置き換えることになったのでしょうか? 正確な一連の出来事についてはさまざまなアカウントが議論されているが、NPR によると、チャットボットのホスティング会社は Tessa を、事前にプログラムされた応答を備えたルールベースのチャットボットから、 「質疑応答機能の強化」.

Tessa の後のバージョンは、ChatGPT や同様の製品とよく似た、生成 AI を採用したものでした。 これらの高度な AI チャットボットは、より現実的で有用な応答を提供することを目的として、人間の会話パターンをシミュレートするように設計されています。 これらのカスタマイズされた回答の生成は、AI モデルがさまざまな技術プロセスを通じて「理解」するように訓練された大規模な情報データベースに依存しています。 機械学習, 深い学習 & 自然言語処理.

学習レッスン

最終的に、チャットボットは一部のユーザーの質問に対して潜在的に有害であると言われる回答を生成しました。 その後の議論により、責任はある機関から別の機関に移されました。 しかし、倫理的な監視を行う機関があり、「関与する人間」が存在し、テッサの当初の設計の明確な目的が遵守されていれば、その後の状況は潜在的に回避できた可能性があるという点は変わりません。

さまざまなシステムへの AI の統合が急がれる中、このような事例から教訓を学ぶことが重要です。 これらのイベントは米国で行われましたが、他の国でも同様のことを行おうとする人々への教訓が含まれています。

英国はこの問題に対していくぶん断片的なアプローチをとっているようだ。 データ倫理イノベーションセンター (CDEI) の諮問委員会 最近解散しました そしてそのテーブルの席は、新しく設立されたフロンティア AI タスクフォースによって占められました。 また、ヘルプラインの代替としてではないものの、労働者を支援するツールとして AI システムがすでにロンドンで試験的に導入されているという報告もあります。

これらの例はいずれも、倫理的配慮とビジネス上の利益との間に潜在的な緊張があることを浮き彫りにしています。 私たちは、最終的にはこの XNUMX つが調和し、個人の幸福と AI が提供できる効率性および利点のバランスを取ることを期待する必要があります。

しかし、組織が一般の人々と対話する一部の分野では、特に医療とメンタルヘルスの分野では、AI が生成した応答やシミュレートされた共感だけでは、真の人間性や思いやりに代わるのに十分ではない可能性があります。会話

マーク・ツァガス、講師、刑法、 イースト·ロンドン大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.