Googleの脅威情報グループ(GTIG)は、再びAIのリスクについて警鐘を鳴らし、危険な国家支援ハッカーによる人工知能の利用方法について最新レポートを公開しました。 このチームは、モデル抽出攻撃の増加を確認しています。これは、AIモデルを繰り返しクエリし、その内部ロジックを学習して新たなモデルに複製しようとする知的財産の窃盗手法です。
当社の新しいGoogle脅威情報グループ(GTIG)のレポートでは、脅威アクターが高度な偵察からフィッシング、そして自動マルウェア開発まで、AIをどのように利用しているかを詳述しています。
それに関する詳細と、私たちがどのように脅威に対抗しているかは↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 2026年2月12日
これは懸念すべき事態ですが、Googleが特に懸念を示している主なリスクではありません。レポートは、政府支援の脅威アクターが大規模言語モデル(LLM)を技術研究やターゲットの特定、微妙なフィッシング誘導の迅速な生成に利用していることも警告しています。 レポートは、北朝鮮、イラン、中国、ロシアに対する懸念を強調しています。 Geminiとフィッシング攻撃 これらのアクターは、GoogleのGeminiなどのAIツールを偵察やターゲットのプロファイリングに利用し、オープンソースの情報収集を大規模に行うとともに、超個別化されたフィッシング詐欺を作成しています。 「この活動は、LLMの速度と精度を活用したAI支援のフィッシング促進へのシフトを示しており、従来のターゲットプロファイリングに必要だった手作業を凌駕しています」とGoogleのレポートは述べています。 「ターゲットは長い間、誤った文法や不自然な構文、文化的背景の欠如といった指標を用いてフィッシングの試みを見分けてきましたが、今や脅威アクターはLLMを活用し、ターゲット組織の専門的なトーンを模した超個別化された誘導を生成しています。」
例えば、Geminiにターゲットの経歴を入力すれば、適切なペルソナを生成し、効果的に注意を引くシナリオを作り出すことが可能です。AIを利用することで、これらの脅威アクターは現地語への翻訳や逆翻訳もより効果的に行えるようになります。 また、AIのコード生成能力が向上したことで、悪意のあるツールの作成やトラブルシューティングも可能となり、AIのコーディング機能を悪用した悪質なツールの生成も進んでいます。 レポートはさらに、エージェント型AIの実験に対する関心の高まりについても警告しています。これは、ある程度の自律性を持ち、マルウェアの開発や自動化といったタスクを支援する人工知能の一形態です。 Googleは、この問題に対抗するためにさまざまな取り組みを行っていると述べています。年に複数回の脅威情報レポートの作成に加え、常に脅威を監視するチームを配置しています。さらに、Geminiを悪用できないモデルに強化する措置も進めています。 Google DeepMindを通じて、これらの脅威を事前に特定し、悪意のある機能を検出して排除しようとしています。 レポートからは、AIの脅威の利用が増加していることは明らかですが、Googleは現時点で画期的な能力の進展はなく、ツールの使用とリスクの増加が主な動きであると指摘しています。