ブログ AI

生成AIの信頼性にはリスク軽減が不可欠

ルース・ベネット

4 2024年1月

シニアITリーダーの71%は、ジェネレーティブAIが自社のデータにセキュリティリスクをもたらすことに懸念を抱いている。それでも、調査対象の半数以上が企業内でジェネレーティブAIの実験(または導入)を行っており、84%がジェネレーティブAIは顧客により良いサービスを提供するのに役立つと考えている。

企業はデータの所在を把握する必要がある。データベースを使えば、細胞レベルまでアクセスをロックしてデータを安全に保ち、その使用方法を定義することができる。しかし、ジェネレーティブAIはそうはいかない。ジェネレーティブAIはデータを「保存」するのではなく、データを「学習」するのだ。これはまったく別の状況だ。

リスクの軽減は、自社のデータやシステムであれ、サードパーティのAIソリューションやインプットであれ、ジェネレーティブAIを使用する際のデータ・セキュリティにとどまらない。説明可能性と毒性も、この信頼の方程式に含まれる。説明可能性とは、ジェネレーティブAIがどのようにアウトプットを生成したかを理解し、それを検証できることである。毒性とは、生成AIが有害、ステレオタイプ、攻撃的、または誤解を招くような出力を作成する可能性のことである。

説明可能性と毒性はどちらも、生成AIの出力を信頼する能力に影響を与える。アウトプットを確認できなかったり、誤解を招いたりすると、その結果はブランドや顧客との関係、ビジネスにダメージを与えかねない。しかし、マッキンゼーの調査では、回答者の39%が説明可能性のリスクを関連性があるとみなしているにもかかわらず、このリスクの軽減に取り組んでいるのはわずか18%だった。

アリアでは、生成的AIを使用してエンドツーエンドの顧客体験に影響を与えることに大きな可能性を感じています。CRMや課金プラットフォームから独自のデータを使用することで、その可能性はさらに広がります。エグゼクティブの74%は、ジェネレーティブAIのメリットが関連するリスクを上回ると考えていますが、私たちは、企業が安全に始める方法を理解するのを支援することの重要性も知っています。セキュリティと信頼性のレイヤーが組み込まれたジェネレーティブAIソリューションを選択すれば、企業はより容易に前進することができます。従業員はより生産的になり、業務に関連した信頼できるアウトプットのみを使用できるようになります。

セキュリティとトラスト・レイヤーがリスクを軽減するために対処する重要な要素について学び、生成的AIを使用してエンド・ツー・エンドの顧客体験を変革する際に、人間が優れた「副操縦士」になる理由を理解するためにお読みください。

データを漏らすことなく生産性を向上

最速かつ最良の方法は、データをコントロールできるように設計されたプラットフォームを持つパートナーを利用することだ。これは、あなたのデータとデータを学習または処理するモデルの間に信頼レイヤーがあることを確認することを意味する。信頼レイヤーは、適切なタスクに適切なモデルを選択することを可能にし、柔軟性と幅広いユースケースを提供する。

個人を特定できる情報(PII)がクラウド上を移動しないようにデータをマスキングすることと、「学習」されないようにプロンプトを削除することは、大規模な言語モデル(LLM)を扱う際に考慮すべき2つの重要事項です。動的な接地と、データが漏れないことを保証する監査証跡は、さらに考慮すべき事項です。

信頼を損なうことなく、適切なアウトプットを得る

モデルのトレーニングについて多くのことが語られているが、これはもっと単純なことだ。その答えはプロンプト、つまりLLMに質問を投げかけることでLLMに与える基礎です。プロンプトはLLMを訓練するために使用され、LLMはあなたが与えた構文をよりよく理解できるように学習します。プロンプトがより良く、より深いものであればあるほど、アウトプットはより良く、より適切なものになります。

これをうまくやるということは、データセットの中に独占的で保護されるべき情報を含めるということだ。しかし、多くのモデルを使用する場合、この情報をモデルに公開して学習させることになり、コンプライアンス違反のリスクを負うことになる。さらに悪いことに、個人情報や知的財産(IP)を漏らしてしまうこともある。

これが、安全なデータ検索や、コンテキストのゼロ保持(別名マスキング)など、ガードレールが組み込まれたプラットフォームを選択することが重要であるもう一つの理由である。これには、プロンプト、プロンプトのエンリッチメント、および提供された回答が忘れられるようにLLMを設定することも含まれます。

ダイナミック・グラウンディング(生成AIの出力を意図された文脈や目的に合わせ、その正確性と関連性を高めるプロセス)は、出力の妥当性に対する信頼性を構築する信頼レイヤーのサービスである。説明可能性はまだ発展途上の分野であり、ジェネレーティブAIの進化とともに重要性を増しているが、ダイナミック・グラウンディングは信頼を損なうことなく関連性を確保するための一歩である。

人間を「副操縦士」席に座らせ続ける

多くのユースケースにおいて人間の介入は必要であるが、その程度やプロセスのポイントは様々である。これは、ファクトチェックから、単にアウトプットを受諾するか拒否するかまで多岐にわたる。一方、共感や推論、事実確認が必要な、よりニュアンスの異なるタスクは、より多くのインプットを必要とする。また、AIテクノロジーに毒性検出機能があれば、偏見やステレオタイプの潜在的な表現にフラグを立て、ブランドに影響を与える前にレビューすることができるため、さらに効果的です。

副操縦士」的なアプローチは、手始めとして最適なモデルだ。例えば、生成的AIが人間の役割を補強し、生産性を加速させながら、よりパーソナライズされた、心に響く顧客体験を生み出すことを支援する能力は、人間のレビューという必要な安全装置を提供しながら、具体的な価値をもたらす。実際、このシナリオでは、生産性の向上は非常に有利に見積もられている。AIに反復的な仕事をさせる一方で、共感や推論能力を必要とする複雑な問題をAIにさせるときは、人間をフローに参加させる。

副操縦士」アプローチの利点の一例として、契約している顧客に契約を継続するよう説得することが挙げられる。人間のエージェントが顧客の状況に共感している間、ジェネレーティブAIは顧客の請求情報にアクセスし、代替案を勧めたり、顧客生涯価値に基づいて、顧客を有益に維持するために計算された割引を提供したりすることができる。

AIの信頼格差を埋める

AIの信頼ギャップを埋めることは、従業員や顧客が責任を持ってAIを使用していることを保証することでもある。従業員がワークフローでジェネレーティブAIを使用し、そのアウトプットを使用する際のガードレールを確保するためには、透明性、ガイドライン、スキルアップが重要です。ジェネレーティブAIへの信頼が高まれば、コンセプトからケアまでのプロセス全体を通じて、より適切でパーソナライズされた新しい方法で顧客とつながることに集中できるようになる。

ジェネレーティブAIによるエンド・ツー・エンドのカスタマー・エクスペリエンスの変革に関するeBookをお読みください。

ルース・ベネット

Aria Systems、コンテンツ&デジタル・マーケティング・ディレクター。ルースはアリアのコンテンツ戦略をリードし、さまざまなデジタルチャンネルを通じたコンテンツの配信を監督している。ルースは課金と収益化の分野で約10年の経験を持ち、以前は出版と教育業界で数年を過ごした。

ルースのLinkedInプロフィールを見る