AIがインフラを破壊し、検索結果で詐欺を働く時代 🛡️ セキュリティ最前線レポート(2026年2月23日ニュース)
AI技術の進化が止まらない中、その光と影がますます色濃くなっています。今週は、Amazon Web Services (AWS)やMicrosoftといった巨大IT企業で、自社製AIツールが原因とみられる重大なセキュリティインシデントが発生しました。これは、AIに業務を任せることのリスクが現実のものとなった象徴的な出来事です。さらに、Google検索の結果が詐欺に悪用されたり、オープンソース開発コミュニティがAIによる攻撃に疲弊したりと、AIは新たな脅威の震源地となりつつあります。この記事では、AIがもたらす新たなリスクと、それに対抗する防御の最前線を詳しくお届けします。
AmazonでAIツールが原因と見られるAWS障害が発生、13時間に及ぶサービス停止
Amazonのクラウド事業であるAmazon Web Services (AWS)で、社内AIツールが原因とみられるサービス障害が過去数ヶ月で少なくとも2回発生していたことが明らかになりました。関係者によると、2025年12月にはAIコーディングエージェント「Kiro」に特定の変更を許可した後、顧客向けシステムが13時間にわたって停止。AIエージェントが人間のレビューをほとんど経ずに本番環境と同等の権限でコードを実行したことが原因と見られています。Amazon側は「ユーザーエラーによるもの」とAIの直接的な原因を否定していますが、障害発生後に多数の安全対策を導入したことから、AIにインフラを操作させることの潜在的リスクが浮き彫りになりました。🤖 AmazonでAIツールが原因と見られるAWS障害が発生、2025年12月にはKiro AIが原因で13時間に及ぶサービス停止
マイクロソフトが“機密”扱い情報のバグを認めた。秘密度ラベルを付けても意味なし
Microsoftは、法人向けAIアシスタント「Microsoft 365 Copilot Chat」に重大なバグがあったことを認めました。このバグにより、「機密(Confidential)」という秘密度ラベルが付けられたメールであっても、Copilotが内容を取得し要約できてしまう状態でした。本来、このラベルはデータ損失防止(DLP)ポリシーに基づき、AIによる処理から除外されるべき情報です。しかし、コードのバグが原因でこのセキュリティ機能が機能していませんでした。この問題は、企業の機密情報をAIから保護するための根幹を揺るがすものであり、AI導入におけるガバナンスの重要性を改めて浮き彫りにしています。😥 マイクロソフトが“機密”扱い情報のバグを認めた。秘密度ラベルを付けても意味なし
Googleの「AIによる概要」を悪用した詐欺が発生。利用者が注意すべき点とは
Google検索の新機能「AIによる概要(AI Overviews)」が、詐欺師によって悪用されるケースが報告されています。この手口では、ユーザーが企業などの問い合わせ先を検索すると、AIが生成した回答内に偽のカスタマーサポート電話番号が紛れ込ませてあります。ユーザーがその番号に電話をかけると、詐欺師が企業の担当者を装って個人情報や支払い情報をだまし取ろうとします。AIがウェブ上の情報を無検証に集約してしまう特性を突いた巧妙な手口であり、Googleも対策を進めていますが、利用者側もAIの生成結果を鵜呑みにせず、公式サイトで情報を再確認するなどの注意が必要です。☎️ Googleの「AIによる概要」を悪用した詐欺が発生。利用者が注意すべき点とは
AIはオープンソースを破壊するのか?
オープンソースプロジェクトの管理者たちが、AIによって生成された低品質な「スパム的プルリクエスト」の洪水に悩まされています。開発者のJeff Geerling氏やcurlの開発者であるDaniel Stenberg氏らがこの問題を指摘しており、バグ報奨金プログラムを停止するプロジェクトも現れました。これは、AIエージェントを使って手軽に「貢献」しようとする人々が、実際にはメンテナーの時間を奪い、コミュニティを疲弊させているという問題です。このままでは、オープンソースの強みであった「誰でも参加できる」文化が、「招待制」のような閉じた形へと変わらざるを得ないかもしれません。🤖💔 What About the Droid Attack on the Repos?
怪しいUSBケーブルをX線検査、正規品はどちらか?
見た目では判別不可能な、マルウェアが仕込まれたハードウェアの脅威は増すばかりです。セキュリティ企業Eclypsiumが、不審な動作をするFTDI製USB-UART変換ケーブルをX線検査で分析し、その内部構造の違いを明らかにしました。正規品にはノイズ対策や放熱のための緻密な設計が見られる一方、偽造品とみられるケーブルはそれらが省略されていました。この実験は、肉眼では見抜けないハードウェアレベルのサプライチェーンリスクを可視化するもので、特にAIデータセンターなどで大量のハードウェアが導入される現代において、その重要性は増すばかりです。🔬 怪しいUSBケーブルをX線検査、正規品はどちらか?
Sonic Labs、自然言語からWeb3アプリを構築する初のAIプラットフォーム「Spawn」を発表
AIスタートアップのSonic Labsが、自然言語のプロンプトからWeb3アプリケーションを自動生成するプラットフォーム「Spawn」を発表しました。このツールは、複雑なスマートコントラクトのコーディングを不要にし、「アイデアを説明できれば、デプロイできる」という世界を目指しています。Spawnは、契約ロジックの生成からフロントエンドの構築、ブロックチェーンへのデプロイまでを数分で完了させるといいます。Web3開発の敷居を劇的に下げる革新的なサービスですが、同時にAIが生成したコードに未知の脆弱性が潜むリスクも指摘されており、セキュリティ監査のあり方が問われそうです。⛓️ Sonic Labs Launches Spawn, the First AI Platform for Building Web3 Apps From Natural Language
TrueFoundry、GartnerのAIゲートウェイ市場ガイドで代表ベンダーに選出
エンタープライズAI基盤プラットフォームを提供するTrueFoundryが、Gartnerの2025年版市場ガイドで「AIゲートウェイ」の代表ベンダーとして評価されました。GartnerはAIゲートウェイを、アプリケーションと各種AIサービスの中間に立ち、セキュリティ、ガバナンス、監視を一元的に行う制御プレーンと定義しています。AIの企業導入が加速する中、モデルやプロンプト、ガードレールを中央で管理し、信頼性とコストを最適化するこの新しいカテゴリの重要性が高まっています。2028年までにソフトウェアエンジニアリングチームの70%がAIゲートウェイを利用すると予測されています。📈 TrueFoundry Recognized as a Representative Vendor in Gartner Market Guide for AI Gateways
困りごとをGoogle検索→まさかのマルウェア感染。ChatGPTやGrokを装った悪質な手口
Macユーザーを標的とした新たなマルウェア感染の手口が報告されています。攻撃者はGoogleの有料検索広告を悪用し、「Macのディスク容量を空ける方法」といった一般的な検索ワードに対し、ChatGPTやGrokの偽のチャット画面へ誘導します。このページには、一見すると役立つ解決策のように見せかけた悪意のあるコマンドが記載されており、ユーザーがそれをターミナルにコピー&ペーストすると、情報窃取マルウェア「AMOS」に感染してしまいます。AIへの信頼を逆手に取った巧妙な手口であり、安易にコマンドを実行しないよう注意が必要です。👨💻 困りごとをGoogle検索→まさかのマルウェア感染。ChatGPTやGrokを装った悪質な手口
Node.jsプロジェクト、HackerOneでの脆弱性報告に新要件を導入
Node.jsプロジェクトは、脆弱性報告プラットフォームHackerOneを通じた報告プロセスに新たな要件を導入しました。今後、新規の研究者が報告を提出するには、HackerOneの信頼性スコアである「Signalスコア」が1.0以上であることが必須となります。これは、2025年後半から質の低い報告が急増し、トリアージチームの負担が増大したことを受けた措置です。この変更により、専門性の高い有効な報告を優先的に受け付け、OSSのセキュリティを効率的に維持することを目指しています。✅ Node.jsプロジェクト、HackerOneでの脆弱性報告に新要件を導入
人間がAIから仕事をもらう。「RentAHuman」創業者が語る“ロボット上司”の時代
AIエージェントが人間を「レンタル」して物理世界のタスクを依頼する前代未聞のプラットフォーム「RentAHuman」が登場し、大きな話題を呼んでいます。このサービスでは、AIが人間では不可能なタスク(例:ワシントンでのハトの数を数える)を、時給制で人間に発注します。創業者は、この仕組みがAIにはできない物理的な作業を補完するものだと語りますが、AIが人間を雇用するという構図は、責任の所在やプライバシー、悪用のリスクなど、多くの倫理的・セキュリティ的な問題を提起しています。未来の働き方を予感させる一方、社会が備えるべき課題を突きつけるサービスです。🤖💼 人間がAIから仕事をもらう。「RentAHuman」創業者が語る“ロボット上司”の時代
考察
今週のニュースは、AIがもたらす「効率化」という光の裏で、いかに新たな「攻撃対象領域(Attack Surface)」が拡大しているかを浮き彫りにしました。特にAWSやMicrosoftでのインシデントは、AIエージェントに本番環境の重要な権限を与えることの危険性を具体的に示しています。もはやAIは単なる便利なツールではなく、使い方を誤れば事業継続を脅かすほどのインパクトを持つ、セキュリティリスクの震源地そのものになりつつあるのです。Google検索やOSSコミュニティへのAIを悪用した攻撃は、悪意あるアクターにとってAIがいかに強力な武器となり得るかを証明しました。🕵️♂️
このような脅威の進化に対し、防御側も新たなアプローチを模索しています。「AI Gateway」という新しい市場カテゴリの登場は、乱立するAI利用のガバナンスを一元化し、統制を取ろうとする企業の必然的な動きと言えるでしょう。また、Node.jsのような大規模プロジェクトが脆弱性報告のプロセスを見直していることも、変化に対応するための重要な一歩です。RentAHumanのような未来的なサービスは、まだ黎明期ながら、AIと人間が共存する社会における新たな倫理観や法整備の必要性を私たちに突きつけています。今後は、AIを「どう使うか」だけでなく、「どう制御し、どう信頼を担保するか」が、セキュリティの核心的なテーマとなることは間違いありません。⚖️


