AIエージェントの自律性が新たな脅威に🤖 今日のセキュリティニュースまとめ(2026年2月19日ニュース)
今日のセキュリティニュースは、AI、特に「AIエージェント」がもたらす新たな脅威と、それに対する防御策に焦点が当たっています。MicrosoftがAIエージェントの具体的な悪用シナリオを解説し、AnthropicはAIにどこまで権限を委ねるべきかという実態調査を報告。大手テック企業が自律型AI「OpenClaw」の使用を制限し始めるなど、AIの自律性がもたらすリスクが現実の課題として浮上しています。一方で、ランサムウェア攻撃は「暗号化しない」手法へと進化し、VPN装置の脆弱性を突く古典的な手口も依然として猛威を振るっています。こうした複雑化する脅威に対し、企業や研究機関はどのように立ち向かおうとしているのでしょうか。今日のニュースから、未来のセキュリティの輪郭を探ります。
AIエージェントが悪用される3つの深刻なシナリオ、Microsoftが解説
Microsoftは、自律的に動作するAIエージェントがもたらす新たなセキュリティリスクについて、3つの具体的なシナリオを解説しました。第1に、AIエージェントが機密情報にアクセスし、意図せず外部に漏洩させてしまうリスクです。正規の業務トラフィックに紛れ込むため検知が困難になります。第2に、外部データに悪意のある指示を埋め込む「間接的プロンプトインジェクション(XPIA)」攻撃により、AIエージェントが不正操作を実行してしまうリスクです。そして第3に、複数のAIを束ねる「司令塔(コーディネーター)エージェント」が侵害されることで、その管理下にある全てのサブエージェントに影響が波及し、被害が拡大するリスクを指摘しています。これらのリスクは、AIエージェントの自律性と多層的なアーキテクチャに起因するものです。
情報漏えいは序章? AIエージェントが悪用される3つの深刻なシナリオ、Microsoftが解説
AIエージェントによる自律型サイバー攻撃、どこまで現実になっているか
AIがサイバー攻撃を完全に自動化する未来が迫っています。昨年8月、全工程をLLMで自動化するランサムウェア「プロンプトロック」が発見され話題となりましたが、これはニューヨーク大学の研究プロジェクトでした。しかし、本物の攻撃者たちもAIを「生産性ツール」として着実に活用し始めています。スパムメールの生成から、より洗練された標的型攻撃の文面作成まで、AIは攻撃のハードルを大幅に下げています。さらに、ディープフェイク技術を悪用し、企業のCFOになりすまして2500万ドル(約38億円)を送金させた事件も発生。専門家は、完全に自律的なAIスーパーハッカーはまだ先の話としつつも、AIによって強化された詐欺や攻撃が今後さらに頻発化・巧妙化すると警鐘を鳴らしています。
AIエージェントによる 自律型サイバー攻撃、 どこまで現実になっているか
メタをはじめとするテック企業、セキュリティ懸念から「OpenClaw」の使用を制限
自律型AIエージェント「OpenClaw」(旧Clawdbot)の利用に対し、Metaをはじめとする複数のテック企業がセキュリティ上の懸念から社内での使用を制限する動きを見せています。OpenClawは、ユーザーのPCを制御し、ファイルの整理やWeb調査などを自律的に実行できるオープンソースツールとして急速に人気を集めました。しかし、その強力な権限が悪用された場合、企業の機密情報や顧客データにアクセスされるリスクがあると専門家は指摘。ある企業幹部は、OpenClawが予測不可能でプライバシー侵害につながる可能性があるとして、業務用端末での使用を禁止し、違反すれば解雇のリスクもあると警告しています。この動きは、実験的なAIツールの利便性よりも、セキュリティとデータ保護を優先する企業の姿勢を浮き彫りにしています。
メタをはじめとするテック企業、セキュリティ懸念から「OpenClaw」の使用を制限
アサヒが"そこそこの予算の他社"の3倍をかけてランサムウェア対策「ゼロトラスト」を徹底した理由
アサヒグループホールディングスは、ランサムウェア対策として、従来の3〜5倍の予算を投じ、米国政府推奨の「ゼロトラストアーキテクチャ」へ完全に移行する方針を発表しました。この対策の核心は、社内外を区別せず「すべて信頼しない」という思想に基づき、インフラを根本的に作り直す点にあります。具体的には、侵入経路となりやすいリモートアクセスVPNの全面廃止、データを端末に残さない「データレス化(VDIなど)」、そして独立したセキュリティ組織による24時間365日の監視体制の構築が含まれます。同社は、中途半端な対策はコストの無駄であり、事業継続性を確保するためには「家を建て替える」レベルの投資が不可欠だと判断。この決断は、日本の大手企業におけるセキュリティ投資の新たな基準となる可能性があります。
アサヒが"そこそこの予算の他社"の3倍をかけてランサムウェア対策「ゼロトラスト」を徹底した理由
「中国共産党によるサイバー攻撃を助けてきた」としてネットワーク機器メーカーのTP-Linkをテキサス州が提訴
テキサス州司法長官が、大手ネットワーク機器メーカーTP-Linkを提訴しました。訴状によると、同社は製品のセキュリティに関して虚偽の情報を提示し、中国共産党が支援するハッカー組織がアメリカ国民のデバイスにアクセスすることを可能にしたと主張しています。TP-Link製品の部品はほぼ全てが中国で調達されており、テキサス州の不正取引行為防止法に違反していると指摘。同州のパクストン司法長官は「TP-Linkの機器は現代の戦争兵器であり、外国の敵対者がアメリカを監視・攻撃することを可能にしている」と厳しく非難しています。これに対しTP-Linkは、疑惑を「根拠がない」と全面的に否定し、法廷で争う姿勢を示しました。
「中国共産党によるサイバー攻撃を助けてきた」としてネットワーク機器メーカーのTP-Linkをテキサス州が提訴
「AIエージェントを使う人間たちはAIにどれだけの権限を与えているのか」をAnthropicが報告
AI企業のAnthropicは、自社AIエージェント「Claude Code」の利用状況を分析し、ユーザーがAIにどの程度の自律性を与えているかについての調査結果を発表しました。報告によると、熟練ユーザーほど、全てのアクションを自動承認する設定を利用する割合が高く(40%超)、AIへの信頼が深まるにつれてより大きな権限を委ねる傾向が明らかになりました。一方で、これらの熟練ユーザーは、AIの動作を中断して人間が介入する頻度も高い(約9%)ことが判明。これは、AIを自律的に動かしつつ、問題発生時に即座に介入する「能動的モニタリング」という新しい監視スタイルが生まれていることを示唆しています。Anthropicは、この結果から、安全なAIエージェントの展開には継続的な監視と、人間が介入しやすい設計が不可欠だと結論付けています。
「AIエージェントを使う人間たちはAIにどれだけの権限を与えているのか」をAnthropicが報告
AIによる生物兵器開発を防ぐために危険な生物学データへのアクセスを制限する枠組みを100人超の科学者が提案
AIによる生物兵器開発のリスクを防ぐため、100人以上の科学者らが、生物学データへのアクセスを段階的に制限する新たな枠組み「バイオセキュリティデータレベル(BDL)」を科学誌Scienceで提案しました。この枠組みは、危険な病原体を扱う実験室の安全基準「バイオセーフティーレベル」を参考に、データを5段階に分類。パンデミックを引き起こす可能性のあるウイルスの遺伝子情報など、リスクの高いデータ(BDL-3/4)へのアクセスには、身元確認や正当な利用目的の審査、政府によるアクセス前審査などを義務付けます。この提案は、AIモデルが危険な病原体の設計能力を獲得するのを防ぐことを目的としており、AIの安全な利用に向けた重要な一歩とされています。
AIによる生物兵器開発を防ぐために危険な生物学データへのアクセスを制限する枠組みを100人超の科学者が提案
OpenAI、仮想通貨に対する攻撃・防御能力を測定できるベンチマークテスト「EVMbench」を発表
OpenAIは、AIエージェントのスマートコントラクトに対する能力を測定する新しいベンチマーク「EVMbench」を発表しました。このベンチマークは、イーサリアム仮想マシン(EVM)上で動作するスマートコントラクトに存在する120件の実在した脆弱性に基づいています。AIの能力を「検知(detect)」「修正(patch)」「悪用(exploit)」の3つのタスクで評価。初期テストでは、GPT-5.3-CodexやClaude Opus 4.6などが高いスコアを記録しましたが、全体的にAIは脆弱性の「検知」や「修正」よりも「悪用」の方が得意である傾向が示されました。このツールは、AIによるサイバー攻撃のリスクを評価し、より安全なブロックチェーンエコシステムを構築するための研究開発を促進することが期待されます。
OpenAIがAIの仮想通貨に対する攻撃・防御能力を測定できるベンチマークテスト「EVMbench」を発表
「暗号化なし」型が増加するランサムウェア 攻撃グループやツールの主流はどう変化した?
Broadcomの脅威レポートによると、2025年のランサムウェア攻撃は、データを暗号化せずに窃取し、公開を盾に脅迫する「暗号化なし」型が急増していることが明らかになりました。この手法を含めると、脅迫攻撃件数は前年比で23%増加。特に、ゼロデイ脆弱性を悪用した「Snakefly(Cl0p)」の大規模キャンペーンがこのトレンドを牽引しました。また、「LockBit」の崩壊後、「Akira」や「Qilin」といった新たなRaaSグループが勢力を拡大しています。攻撃者は検出を避けるため、PowerShellやPsExecといった正規ツールを悪用する傾向が強く、企業には従来の対策に加え、ゼロデイ攻撃やサプライチェーンセキュリティの強化が求められています。
「暗号化なし」型が増加するランサムウェア 攻撃グループやツールの主流はどう変化した?
Copilotに機密メールを要約する「バグ」があるとMicrosoftが認める
Microsoftは、AIアシスタント「Copilot」に、ユーザーが設定したデータ損失防止(DLP)ポリシーや「機密」ラベルを無視して、保護されたメールの内容を要約してしまうバグが存在することを認めました。この問題は、特に「仕事用」チャットで発生し、ユーザーの「送信済みアイテム」や「下書き」フォルダに保存された機密メッセージが不適切に処理される可能性がありました。原因はコードのエラーとされており、Microsoftは2月上旬から修正プログラムの展開を開始しています。この一件は、AIツールが意図せず企業の機密情報保護ポリシーを回避してしまうリスクを浮き彫りにしました。
Copilotに機密メールを要約する「バグ」があるとMicrosoftが認める
考察
本日のニュースを総合すると、サイバーセキュリティの最前線が「AIエージェントの管理と統制」という新たな次元に突入したことが鮮明になりました。MicrosoftやAnthropicの報告は、自律的に思考し行動するAIが、プロンプトインジェクションや意図せぬ情報漏洩といった、従来のプログラムとは質の異なる脆弱性を持つことを示しています。Metaなどの企業がオープンソースのAIエージェント「OpenClaw」の利用を早々に制限したことは、このリスクがもはや理論上の懸念ではなく、企業のITガバナンスにおける喫緊の課題であることを物語っています。AIが自ら脆弱性を悪用する能力を評価する「EVMbench」の登場や、生物兵器開発防止の枠組み作りは、AIの「能力」と「リスク」を両天秤にかけ、社会としてどう制御していくかという、より大きな議論の始まりを告げています。
一方で、ランサムウェアが「暗号化なし」の脅迫へと戦術を進化させ、TP-Linkのようなグローバル企業の製品が国家レベルのサプライチェーン攻撃に利用されるなど、従来型の脅威もより巧妙かつ大規模になっています。アサヒグループが巨額を投じて「ゼロトラスト」への完全移行を決断したことは、こうした脅威に対して、もはや小手先の対策では不十分であるという厳しい現実を突きつけています。これからのセキュリティは、AIという強力なツールをいかに安全に活用するかという「攻めのガバナンス」と、進化し続ける外部の脅威からいかに事業を守るかという「守りのアーキテクチャ」の両輪で、根本的な再設計が求められる時代に入ったと言えるでしょう。🛡️✨


