従業員がAIチャットボットに機密データを漏らすことを止められるプラグイン
本記事は、fastcompanyの文章より翻訳されたものです。
サンフランシスコを拠点とするスタートアップPatented.aiは、OpenAIのChatGPTやGoogleのBardなどのAIチャットボットと機密情報や専有情報を共有しようとする際に、企業の従業員に警告を発するためのプラグイン「LLM Shield」をリリースしました。
社員がチャットボットに会社のデータを入力すると、そのデータはチャットボットを動かす大規模言語モデル(LLM)のトレーニングに利用できるそうです。さらに、そのデータを共有することで、学習用データセットを構築する人たちに対して、ネットワーク上の同じ場所でさらに多くのデータを検索するように合図することができるとしています。
「AIは信じられないほどパワフルであり、企業はアクセスを禁止する必要はありません。」Patented.aiを設立した投資家のWayne Changは、声明の中でこう述べています。「可視化とコントロールにより、企業は従業員とLLMの使用に対してより自信を持つことができるはずです。」
LLM Shieldは、企業秘密や個人を特定できる情報から、HIPPAで保護された健康データ、軍事機密まで、あらゆる種類の機密データを認識できるように設計されたAIモデルを搭載しています。
Patented.aiの広報担当者は、このモデルは、さまざまな業界の企業の知的財産を保護するため、いろんな製品に使用されると述べています。サムスンなどの企業における情報漏洩の話もあって、最近の需要が高まっているため、同社はLLM Shieldの開発を加速させました。
チャットボットのウィンドウ内で動作するプラグインで、チャットボットのテキストウィンドウに機密情報を入力した従業員にアラートを表示することができます。
Patented.aiは、「LLM Shield」を今月20日より販売開始し、個人向けプラグイン版を含め、AIモデルを搭載した新しいタイプのセキュリティ製品を今年中に展開する予定であると述べています。
ジェネレーティブAIモデルを使うことで、企業内で便利で時間節約になるアプリケーションを見つける可能性を高くなりますが、多くの企業は、内部構造がまだ完全に理解されていないモデルによって、機密情報や個人情報がどのように使用されるかを懸念するようになっています。バンク・オブ・アメリカ、ゴールドマン・サックス、シティグループ・インク、ドイツ銀行、ウェルズ・ファーゴは、漏洩の可能性を最小限に抑えるため、ChatGPTを禁止しています。
これとは別に、木曜日、コンサルティング会社ガートナーのアナリスト、アビバ・リタンは、確かに、「従業員は、生成的なAIチャットボット・ソリューションと対話する際に、機密かつ独自の企業データを容易に暴露できる 」と述べました。
彼女はこう続けました:「ジェネレーティブAIモデルをホストするユーザーと企業の間のデータやプロセスの流れを管理する、新しいクラスのAI信頼・リスク・セキュリティ管理ツールが急務となっています。」
Discussion