ダークトレース、企業内AI導入を監視する新製品 Darktrace / SECURE AIを発表 - PR TIMES|RBB TODAY

ダークトレース、企業内AI導入を監視する新製品 Darktrace / SECURE AIを発表

<<報道資料>>

ダークトレース、企業内AI導入を監視する新製品 Darktrace / SECURE AIを発表
- Darktrace / SECURE AI(TM)は人間とAIエージェントの相互動作について、その振る舞い、意図、リスクを理解することにより、組織の安全なAI導入を支援します
- この新しいソリューションはダークトレースがビヘイビアAI領域で長年培った専門技術を適用し、AIライフサイクル全体にリアルタイムの可視性とコントロールを提供します
- SaaSアプリケーションに組み込まれたAI、ハイパースケーラー環境で開発されたAIエージェント、そして従業員によるシャドーAIの利用に対する保護を提供します
- AIシステムがどこで運用されているのか、どのような情報やシステムにアクセス可能か、そしてそれらの動作の状況を理解することができます
- ダークトレースの最新の調査では、サイバーセキュリティプロフェッショナルの3/4以上が、AIエージェントやサードパーティ製生成AIツールの普及によるセキュリティ上の影響に懸念を示しています
- ダークトレースは5か月間に、平均して約4,700ページの文書が普段とは異なるまたは異常なデータアップロードにより生成AIサービスに送信されていることを観測しました。一部のアカウントでは平均20万ページ以上の異常なアップロードが確認されています1



AIサイバーセキュリティの世界的リーダーであるダークトレース(本社:英国ケンブリッジ、臨時CEO:チャールズ・グッドマン)は本日、AIシステムがどのように振る舞い、他のシステムや人間と相互動作し、経時的に変化していくかを理解することにより、企業のAI導入と拡大を支援する新たなビヘイビアAIセキュリティ製品、 Darktrace / SECURE AI(TM) を発表しました。ダークトレースのビヘイビアAIにおける長年の研究と実績を基に開発され、意図を理解し逸脱を検知する Darktrace / SECURE AIは、AIシステムが異常な動作をする、意図された行動から逸脱する、許可されたアクセス権限を超える、ポリシーに違反する、あるいは許可されていない行動をとるように操作されているように見えるなどの場合に介入することを可能にします。

多くの企業がAIの試験的導入から本格運用に急速に移行するなかで、動的に変化する言語駆動のシステムを管理するには従来のセキュリティコントロールでは不十分であることが証明されつつあります。Darktrace / SECURE AI では、ダークトレースはこの問題に対して実証済みの同社のビヘイビアAIアプローチを適用します。静的なガードレールやポリシーベースのアプローチとは異なり、ビヘイビアAIは生成AIやエージェント型ワークフローが実際の環境でどのように動作するかを監視します。Darktrace / SECURE AI は企業内全体でAIがどのように相互動作しているかを分析します。これにはプロンプトの言語やデータアクセスのパターンが含まれ、従来のセキュリティツールや静的なガードレールではしばしば見逃されてしまうリスクの発生を、異常なアクティビティに基づいて検知します。

ダークトレースの最高情報セキュリティ責任者(CISO)、マイク・ベック(Mike Beck)は次のように述べています。「AIシステムは従来のソフトウェアのような故障の仕方をしません -逸脱し、適応し、時には予想もできないような振る舞いをします。ダークトレースは10年以上にわたり、非構造的で予測不可能な人、データおよびテクノロジーの企業内エコシステムを理解し、保護するためにビヘイビアベースのアプローチを適用してきました。私たちは Darktrace / SECURE AI によりこのビヘイビアベースのアプローチを適用し、AIが何を許可されているかだけではなく、実際に何をしているかをセキュリティチームが確認できるようにし、企業が自信を持ってイノベーションを推進できるよう支援します」

Darktrace / SECURE AI は、AIの導入を妨げることなくAIを監督する実用的な手段を提供します。この製品は既存のセキュリティオペレーションに組み込むことができ、新規のスタンドアロンユーザー、および既存のDarktrace ActiveAI Security Platform(TM)のユーザーの両方に対してアクション可能な情報を提供します。Darktrace / SECURE AI は、組み込みSaaSアプリケーション、クラウドでホスティングされるモデル、およびハイコードまたはローコード開発環境で開発された自律的または半自律的なエージェントでAIを運用する企業のために設計されています。機密性の高いデータの露出を防止し、社内のアクセスおよび利用ポリシーを徹底し、企業内AIアシスタントおよびエージェントによる自律的AIのアクティビティをコントロールし、またAIの開発と展開を管理するのにも役立ちます。
ダークトレースの最高技術責任者(CTO)、ジャック・ストックデール(Jack Stockdale)は次のように述べています。「セキュリティとは、これまでも常にビヘイビアの問題でした。AIがエージェント型になるにつれ、プロンプトがビヘイビアレイヤーとなり、意図、コンテキスト、下流のアクションをコード化します。プロンプトの言語をランタイムで監視し理解できなければ、逸脱、不正使用、新たに発生した振る舞いを検知できません。プロンプトに対する可視性を持たずにAIを保護しようとすることは、メッセージ本文を読まずにEメールを保護しようとするようなものです。AIにとってプロンプトとは、ネットワークに対するトラフィック、ユーザーに対するアイデンティティのようなものです」

組織全体で生産性、成長力、競争力を高めるためにAIツールの大規模な利用が進む現在、AIの導入は経営会議レベルの重要な問題となりました。ダークトレースの顧客ベースにおいても、70%以上がすでに生成AIツールを利用しています1。導入が進むにつれ、ますます多くの組織が、各種システムにログインし、データにアクセスし、従業員に代わってアクションを実行することができるAIエージェントを展開しつつあります。しかし承認済みのツールはAI利用全体の一部にすぎません。承認済みのメインとなる生成AIツールを導入している顧客において、91%では従業員がさらに他のAIサービスを利用しており1、これらはシャドーAIツールである可能性が高く、セキュリティチームはどのAIサービスが使用されているか、どこに展開されているか、そして組織からどのデータがどこへ送出されているのか、明確に把握することができていません。

この可視性とデータの損失はすでに現実のビジネスリスクとなりつつあります。ダークトレースは5か月間に、平均して1アカウントあたり75MBのデータ(約4,700ページの文書に相当)が普段とは異なるまたは異常なアップロードにより生成AIサービスに送信されていることを観測しました。一部のアカウントでは平均20万ページ以上の異常なアップロードが確認されています 。機密性が高い可能性のあるデータが組織内からAI環境へと大規模に送信されており、そこでは組織の支配の及ばない保管、再利用、開示が行われる可能性があります。脅威アクターの手に渡れば、1回のアップロードから標的型ソーシャルエンジニアリング、なりすまし、IP盗難、AIエージェント操作につながる可能性があります。
- Darktrace / SECURE AI の概要

Darktrace / SECURE AI はセキュリティチームが企業全体のAIの使用を安全に実現し管理するためのソリューションです。Darktrace ActiveAI Security Platform(TM)の一部として、生成AIツール、自律的エージェント、AI開発環境、シャドーAIツールに入出力される情報およびデータの可視化と分析を行い、AIシステムがどこで運用されているのか、どのような情報やシステムにアクセス可能か、そしてそれらの動作の状況を理解することができます。

Darktrace / SECURE AI によりセキュリティチームは次を行うことができます:

企業内AIアシスタント、ローコード、ハイコード、およびSaaS環境内での生成AIの利用をリアルタイムに監視およびコントロールする:ChatGPT EnterpriseやMicrosoft Copilot等のツール、SalesforceやM365等の業務アプリケーションに組み込まれたAI機能、Microsoft Copilot Studio等のローコードエージェントビルダー、Amazon Bedrock等のハイコードAI開発プラットフォームで使用されるプロンプト、セッション、モデル応答に対する可視性を得ることができます。プロンプトや対話がどう変化していくかを理解することにより、セキュリティチームは機密性の高いデータの露出、通常とは異なるプロンプトの振る舞い、AIシステムを操作しようとする試み等を特定することができます。

AIエージェントおよびそれらのアクセス権限を追跡しコントロールする: クラウドプラットフォーム、社内システム、およびサードパーティ環境内で運用されているアクティブなAIエージェントを自動的に見つけ出します。それらがアクセスできるシステムおよびデータをマッピングし、MCP(Model Context Protocol)サーバーを含む他のサービスとそれらがどのように相互動作するかを監視します。これによりセキュリティチームは、過剰な権限を持つエージェント、予期しない相互動作、不正使用の兆候や意図された動作からの逸脱等を識別し、エージェントが安全でないまたは許可されていないアクションを実行しようとしたときに介入することができます。

AIのリスクを開発時と展開後の両方で評価:AIのアイデンティティおよびローコードツール、SaaSプラットフォーム、ハイパースケーラー環境、社内ラボへのアクセスを可視化します。セキュリティチームはアイデンティティ、権限、データがどのように設定され、AIコンポーネントがどのように重要システムに接続しているかを確認することができ、設定ミス、過剰なアクセス権限、通常と異なるビルド動作などを見つけ出すことができます。これらのデータは直接プロンプトの監視機能に伝達され、AIシステムがどのように作成されているかという情報と、展開後どのように振る舞っているかをリンクさせます。アイデンティティの作成、ビルドイベント、新しいエージェントの機能等を、エージェントのロジックを定義するプロンプトと相関付けることで、リリース前の段階と、エージェントが本番環境で動作を始めた後の両方の段階でリスクを検知することが可能になります。

シャドーAIを見つけ出し、管理:承認されていないAIツール、承認されていないエージェント開発、予期されていなかったAI関連アクティビティを組織全体から見つけ出します。これにより、セキュリティチームは管理されていないAIの使用がどこで発生しているか、データが外部のAIサービスにどのように流れているか、そして正規のツールがリスクのあるまたは一貫性のない方法で使用されていないかを調べることができます。ユーザーの活動をクラウド、ネットワーク、エンドポイントの動作と相関付けることで、セキュリティチームは未承認のツールの使用を制限し、ポリシーを徹底し、むやみな導入がリスクを生む前にユーザーを承認されたAIサービスへと導くことができます。

同じく本日発表されたダークトレースの「2026年版AIサイバーセキュリティの現状」レポートによれば、調査に参加したサイバーセキュリティプロフェッショナルの3/4以上が、AIエージェント(76%)およびサードパーティ製生成AIツール(76%)がもたらすセキュリティへの影響を懸念しており、機密製の高いデータの露出と規制上のリスクを最も大きな問題点として挙げています。セキュリティエグゼクティブの半数近く(47%)が、きわめて大きな懸念あるいは大きな懸念があると回答しており、AIのもたらすリスクがどれほど急速に主要なセキュリティ優先事項になりつつあるかを示しています。

その他のリソース:
「2026年版AIサイバーセキュリティの現状」レポートおよび主要な調査結果についてのプレスリリースをここからご確認ください。
AI がサイバーセキュリティの現状をどのように変革しているのか、さらに詳しく知りたい方は、来る3月10日(火)開催のウェビナーに是非ご参加ください。
詳細・お申し込みはこちら

ダークトレースについて
ダークトレースはAIサイバーセキュリティのグローバルリーダーであり、日々変化する脅威ランドスケープに立ち向かう組織を支援しています。2013年に設立されたダークトレースは、それぞれの顧客固有の生活パターンからリアルタイムに学習する独自のAIを使用して未知の脅威から組織を保護する、必要不可欠なサイバーセキュリティプラットフォームを提供しています。Darktrace ActiveAI Security Platform(TM) はサイバーレジリエンスに対するプロアクティブなアプローチを提供し、ネットワークからクラウド、Eメールに至るまでデジタルエステート全体でビジネスを守ります。顧客のセキュリティ体制に対する先制的可視性を提供し、Cyber AI Analyst(TM)でオペレーションを変革し、脅威を検知しリアルタイムに自律遮断します。英国のケンブリッジおよびオランダのハーグに所在するR&Dチームが生み出す画期的イノベーションにより、200件以上の特許申請がなされています。ダークトレースのプラットフォームおよびサービスは世界で2,300名を超える従業員により支えられ、世界でおよそ10,000社の主要なすべての産業分野にわたる組織を保護しています。詳細はhttps://www.darktrace.com/ja をご覧ください。

以上

企業プレスリリース詳細へ
PRTIMESトップへ