AIとセキュリティ脆弱性の最前線

2026/05/15

概要

Anthropic社*が2026年4月に発表したAIモデルClaude Mythos(クロード・ミトス)は、非常に高いプログラミング・解析能力を持つが、サイバー攻撃に悪用されるリスクが極めて高いため一般公開は見送られている。という情報についてAI Geminiとのチャットを通して、OpenAIとAnthropicの企業理念、AIビジネスの現状そしてAIによるサイバー攻撃の高速化と防御側の課題 などについて考えてみる。

OpenAIとAnthropicについて

OpenAIとそこからスピンアウト(独立)したメンバーによって設立されたAnthropicは、どちらも現代のAI開発をリードするトップ企業ですが、その企業理念や開発アプローチには明確な違いがあります。 一言で言えば、「圧倒的な能力(汎用人工知能:AGI)の最速での実現」を目指すOpenAIに対し、Anthropicは「制御可能で、安全で、人間の価値観に誠実なAI(アライメント)の実現」を最優先に掲げています。 両者の理念や方向性の違いを、いくつかの軸に分けて解説します。 1. 設立の経緯と根本的な思想の違い Anthropicは2021年、OpenAIの元研究幹部であったダリオ・アモデイ(Dario Amodei)氏とダニエラ・アモデイ(Daniela Amodei)氏の兄妹を中心としたグループによって設立されました。 - OpenAIの思想:能力と普及の最大化 元々は非営利団体としてスタートしましたが、AGI(人間の知能を超える人工知能)をどこよりも早く、強力な形で実現することに重きを置いています。そのため、莫大な計算資源(資金)を確保するために商業化へ舵を切り、現在は「利益上限付きの営利法人」を傘下に持つ構造になっています。 - Anthropicの思想:安全第一(セーフティ・バイ・デザイン) 創設者たちは、OpenAIが商業化を急ぐあまり、AIが暴走したり人間に危害を加えたりしないようにする「安全性(アライメント)の研究」を軽視し始めているのではないか、という強い危機感を抱いて離反しました。そのため、最初から「安全性そのものを製品の強みにする」という思想を持っています。 2. 企業形態の違い 理念を確実に実行するため、組織の法的な枠組みにも違いが見られます。

項目OpenAIAnthropic
主な企業形態営利法人(非営利法人の管理下)パブリック・ベネフィット・コーポレーション(PBC)
特徴商業的な成功と出資者へのリターンを考慮しつつ、AGI開発を目指す。 利益だけでなく、「社会的な利益(安全なAI開発)」を追求することが法的に義務付けられている。
Anthropicは「公益法人(PBC)」という形態をとっているため、仮に株主から「もっと安全性を無視して利益を上げろ」と圧力がかかっても、法的に「安全性を優先する」と言い切れる防壁を作っています。 3. 技術的アプローチ(理念の具現化) この理念の違いは、彼らが開発するAI(ChatGPTとClaude)の設計思想にも色濃く反映されています。 - OpenAI:フロンティアの開拓と実用性 OpenAIは、まず「誰も到達していない圧倒的な能力」を示し、それを実用的なツールとして社会に実装していくアプローチです。 * アプローチ:多機能、マルチモーダル、プラグインや外部ツールとの連携など、実務でガンガン使える「有能なアシスタント」をスピーディに提供します。 - Anthropic:憲法AI(Constitutional AI) Anthropicが開発した有名な手法が「Constitutional AI(憲法AI)」です。 * アプローチ: AIをトレーニングする際、人間が付きっきりで「これはダメ、あれはダメ」と教え込むのではなく、最初に「AIのための憲法(行動規範)」を明示的に与えます。AIはその憲法に基いて、自分自身の出力が適切かどうかを自ら評価・修正します。 * 結果: Claudeに見られるような、過度な偏見が少なく、有害なリクエストに対して「なぜ答えられないか」を誠実かつ客観的に説明する、「行儀が良く、人間の指示に誠実(Helpful, Honest, Harmless)」な性質が生まれています。 まとめ:進む方向の対比 現在の両社を例えるなら、以下のようなキャラクターの違いがあります。 - OpenAI: 誰も見たことがない超高性能なエンジンを開発し、世界をあっと言わせる「スピード重視のイノベーター」 - Anthropic: そのエンジンが暴走して事故を起こさないよう、ブレーキやシートベルトの技術を極限まで高めながら進化する「安全性・信頼性重視のエンジニア」 結果として、現在のClaudeシリーズのように「長文の文脈を正確に読み解く能力」や「倫理的に安定したコード・文章生成」においてAnthropicが非常に高い評価を受けるなど、アプローチの違いが良い意味で市場の健全な競争を生み出しています。

AIビジネス

一般情報としてAIビジネスマーケットを紹介。

世界の主要AIブランド(OpenAI、Anthropic、Google Gemini)における過去5年間(2022年〜2026年現在まで)の売上高(年間実行レート:ARR)および利用者数の推移グラフを作成しました。 AI市場は非常に変化が激しく、特に直近の2026年に入ってから勢力図に大きな地殻変動が起きています。 AIビジネスの売上高と利用者数の推移グラフ

AIビジネスの売上高と利用者数の推移

市場シェアと推移の解説 1. 売上高の推移(左グラフ:十億ドル単位) ・Anthropicの急激な逆転劇(オレンジ線) 2024年末時点ではOpenAIの4分の1にも満たない売上規模でしたが、2025年後半にリリースされた「Claude Code(ターミナル用開発ツール)」やエンタープライズ(企業向け)API契約が爆発的に普及しました。2026年春には年間ランレート(ARR)が300億ドルを突破し、OpenAIの約240億ドルを抜いて売上ベースで首位に躍り出るという歴史的な急成長を遂げています。 ・OpenAIの堅実な成長(青線) ChatGPTの有料プラン(B2C)および企業向け(B2B)の双方で順調に売上を伸ばし、2025年末にはARR 200億ドル、2026年には240億ドル(月商20億ドル)に到達しています。 ・Google Gemini(緑線:推定クラウド・API連携分) Google単体でのAI直接売上はGoogle Cloud(WorkspaceのAI機能やVertex AI)に内包されています。Geminiの法人利用シェアは2025年だけで約5.7%から21.5%へと4倍近くに急増しており、強力なインフラを武器に独自の収益基盤(2026年推定ランレート120億ドル規模)を確立しています。 2. 利用者数の推移(右グラフ:百万人単位) ・OpenAI(ChatGPT)の圧倒的な大衆認知 売上高ではAnthropicの後塵を拝したものの、消費者向け(B2C)の市場規模・認知度ではOpenAIが依然として圧倒的です。アクティブユーザー数は2026年現在で8億人を突破しています。 ・Google Geminiの巨大なエコシステム Android端末への標準搭載や、Google検索への「AI Overviews(AIによる概要表示)」の統合により、一般消費者のバックグラウンドで最も広く使われているAIとなっています。 ・ Anthropic(Claude)の「少数精鋭」モデル 一般の無料ユーザー数は他に比べると限定的(推定4,500万人前後)ですが、利用者の多くが「課金を行うエンジニア」や「大規模なAPI枠を買う大企業」であるため、ユーザー数に対して非常に高い顧客単価(高ACV)を実現しているのが特徴です。 まとめ ・現在のAIマーケットは、「大衆的なユーザー数を誇るOpenAI・Gemini」と、「エンジニア・企業向けに特化して爆発的な売上を叩き出したAnthropic」という、明確な戦略の分岐点を迎えています。


チャット要約

「AIによるサイバー攻撃の高速化と防御側の課題」 についてGeminiとのチャットをソースとしてGeminiのツールNotebookLMで要約。

追加していただいたテキストに基づき、ソフトウェアの品質規格(ISO/IEC 25010など)に関する詳細を組み込んで、全体の要約を更新しました。 1. AIによるサイバー攻撃の高速化と防御側の課題 攻撃者はAIを使って未知のバグ(ゼロデイ脆弱性)の発見や攻撃コードの生成を超高速化しています。 一方、防御側もAIを導入して脆弱性の自動検知を進めていますが、AIによる「誤検知(根拠のない脆弱性レポート)」が大量発生し、オープンソースの現場がパンクするといった新たな問題も生じています。 2. 複雑化する脆弱性と「データと命令の境界」 Log4Shell*や画像データへの不正コード隠蔽(ステガノグラフィなど)のように、近年の重大な脆弱性は「ただのデータ」が、システムの親切すぎる仕様や古い設定によって「実行される命令」として解釈されてしまうことで発生します。 これを完璧に防ぐことは難しく、入り口でのデータ無害化や、実行を強制遮断する多層防御が必須となっています。 *Log4Shell : ログとして保管されたデータがプログラムコードとして実行されてしまう2021年に発生した歴史上最大級のセキュリティ事件。 3. AIによるプログラマー支援と模擬攻撃 人間のミスや熟練度不足を補うため、開発現場ではAIがコード執筆時にリアルタイムで安全な書き方を提案したり、プログラムの文脈を理解して深いバグを指摘したりするようになっています。 また、完成したシステムに対してAIが「ハッカーのフリ」をして数万通りの模擬攻撃(ペネトレーションテスト)を自動で行い、潜在的な穴を炙り出しています。 4. 工業化するソフトウェア品質と「ISO/IEC 25010」 ソフトウェア開発は現在、製造業と同様に厳格な基準によって品質が管理されています。その代表が国際規格「ISO/IEC 25010(SQuaREシリーズ)」であり、ソフトウェアの品質を以下の8つの特性で評価します。  ・機能適合性(正しく動くか)  ・性能効率性(無駄がないか)  ・互換性(連携できるか)  ・利用時の品質(使いやすいか)  ・信頼性(安定しているか)  ・セキュリティ(安全か)  ・保守性(修正しやすいか)  ・移植性(環境移行しやすいか) 経験の浅いプログラマーは「とりあえず動く(機能適合性)」だけで満足しがちですが、この規格は、セキュリティや保守性なども満たさなければ本当に高品質とは言えないことを示しています。 さらに、組織の開発能力を5段階で測る「CMMI」や、コードを変更するたびに自動でテストを行う「CI/CD」といった仕組みが導入されています。現在では、これらの厳しい品質基準やルールを学習したAIが24時間体制でコードの「自動検品」を行っており、ソフトウェアは職人の勘に頼らない高度な工業製品へと進化しています。

NotebookLM動画

目に見えない戦争 : AIと脆弱性


コードの工業化 : 混沌から制御へ

AI時代のISO基準

生成AI(ChatGPTやGemini、GitHub Copilotなど)がプログラミングコードを自動生成するようになった現代、ISO基準(国際標準規格)も時代に合わせて大きく、そして急速に変化しています。 従来のISOは「人間がルール通りにコードを書き、テストしたか」を前提としていましたが、現在は「AIが生成したコードの安全性・品質をどう担保するか」、そして「AIという技術そのものをどう安全に管理するか」という新しい基準が続々と誕生しています。 具体的には、以下のような変化や新しい規格が導入されています。 1. AI管理のための最高峰基準「ISO/IEC 42001」の誕生 現在、最も注目されているのが、2023年末に発行され、日本でも2025年〜2026年にかけて本格普及が始まっている「ISO/IEC 42001(AIマネジメントシステム)」です。 これは、企業がAIを開発・利用する際の「組織全体の共通ルール」を定めたものです。 ソフトウェア開発会社がAIを使ってコードを生成する場合、この規格に基づき以下のような厳格な管理が求められます。 * 公平性と透明性: AIが生成したコードに、他者の著作権を侵害するものや、特定の偏った処理(バイアス)が含まれていないかを確認する仕組みがあるか。 * リスク評価: AIがバグのあるコードを出力した際、それを検知して修正するプロセスが確立されているか。 2. 既存の品質基準(ISO 9001)やセキュリティ基準(ISO 27001)の「アップデート」 新しくAI専用の規格ができるだけでなく、昔からある有名なISO基準の「審査の目」もAI時代に合わせて変わっています。 品質管理(ISO 9001)の変化 これまでは「開発者が書いたコードを、別の開発者がレビュー(チェック)する」というプロセスで品質を証明していました。 現在では、「AIが生成したコードを、人間がどのような基準でレビューし、テストしたか」という“対AIのチェック体制”が機能しているかどうかが、厳格な審査の対象になっています。AIを盲信してそのままリリースするような体制は、ISOの品質基準を満たしているとは言えなくなっています。 情報セキュリティ(ISO/IEC 27001)の変化 AIにコードを生成させる際、自社の機密ソースコードや顧客の個人情報をAIのプロンプトに入力してしまうと、AIの学習データに取り込まれて外部に流出するリスクがあります(データ漏洩リスク)。 そのため、「開発中に生成AIを使ってよい範囲、使ってはいけないデータ」を社内ルールで厳格に定め、安全な環境(データが学習されない商用契約など)でAIを使っているかが、セキュリティ認証の重要なチェックポイントになっています。 3. 安全なソフトウェア開発のための新しい指針 さらに、AI特有の脆弱性(AIが騙されておかしなコードを出力する「プロンプトインジェクション」など)を防ぐため、以下のような新しい技術標準の議論や整備も進んでいます。 * ISO/IEC 5338 (AIシステムのライフサイクルプロセス): AIを組み込んだソフトウェアを、設計から廃棄までどう安全に管理するかを定めた規格。 * ISO/IEC 23894 (AIのリスクマネジメント): AIの利用に伴うリスクをどのように洗い出し、対策するかという指針。 まとめ:AI時代のISOが目指していること 現在のISO基準の変化を一言で表すと、「AIを使うな」と禁止するのではなく、「AIの特性(便利だが間違えることもある、学習データに依存する)を理解した上で、人間が責任を持ってコントロールする仕組みを作りなさい」という方向へシフトしています。 ソフトウェア開発会社にとって、ISOは「人間による手書きの証明書」から、「AIと人間が安全に協働していることの証明書」へと進化を遂げています。

感想

いまだに使いにくいwebページに出くわす。とくに公共のページが使いにくく、途中でやめようかと思う。多分このようなプログラマーのレベルは低いものと想像する。


AIがプログラムの脆弱性を突いて危険とされる一方、人間側の対策としてISOなどの基準を定めるという考え方は正しいですか?

その考え方は完全に正しいですし、非常に鋭い着眼点です。 AIという「最新の超高速な脅威」に対抗するために、ISOやCMMIのような「一見、古典的で地道に見えるプロセス管理の基準」を定めることは、実は最も根本的で強力な防御策(ガバナンス)になります。 なぜAIの脅威に対して「人間の基準(ISOなど)」がそれほど重要になるのか、その理由は主に3つあります。 1. AIが狙うのは「人間のルールの隙間」だから AIは魔法を使ってハッキングしているわけではありません。AIがやっているのは、「人間がルール(基準)を破って作ってしまった、わずかな隙(バグや設定ミス)」を、人間より圧倒的に早く見つけ出しているだけです。 製造業で例えるなら、設計図(コーディング規約)を無視して作られた不良部品や、検査工程(コードレビュー)をサボった製品を、AIという超高性能な検品ロボット(攻撃者側)に見抜かれている状態です。 もし組織がISOなどの基準を徹底し、 * 「すべてのコードは、リリース前に必ず自動検査にかける」 * 「外部からの入力データは必ず無害化(サニタイズ)する設計にする」 というルールを仕組みとして義務付けていれば、AIがどれだけ高速に脆弱性を探しても、突くべき「穴」そのものが存在しないため、攻撃は成立しなくなります。 2. 「AIを正しく使うための基準」が必要になっている 現代のソフトウェア開発では、防御側もAI(コード検査AIや自動テスト)を使います。しかし、「AIを使っているから安心」と丸投げしてしまうと、今度は「AIの誤検知」や「AI自体の見落とし」という新たなリスクが生まれます。 ここでISOなどの基準(マネジメントシステム)が生きてきます。 現在、ISOでは「AIを安全に開発・利用するための基準」として「ISO/IEC 42001(AIマネジメントシステム)」という国際規格を定めています。 この基準は、以下のような「人間側の運用のルール」を定めています。 * AIが出したセキュリティ報告を、人間がどう検証して最終判断するか * AIが学習するデータに、脆弱性を生むような不正なコードが混ざっていないか どれだけ優秀なAI(道具)があっても、それを使いこなす人間側の管理基準(ルール)がなければ、宝の持ち腐れになるか、逆に新たなリスクを生むことになります。 3. 「技術」は数年で廃れるが、「プロセス(仕組み)」は形を変えて生き残る サイバーセキュリティの技術(攻撃手法や防御ツール)は、AIの進化によって数ヶ月、数年単位で激変します。昨日まで安全だった手法が、明日には通用しなくなる世界です。 しかし、「計画し、ルールに従って作り、検査し、改善する」というISO的な品質管理のプロセス(PDCAサイクル)は、技術がどれだけ進化しても絶対に変わりません。 技術が「AI vs AI」のスピード戦になればなるほど、人間は「そのAIたちをどう組み合わせて、どういうルールで開発ラインを監視させるか」という高次元のルールづくり(ISOなどの基準づくり)に専念する必要があります。 まとめ:「AIという猛獣」を「基準という檻」でコントロールする AIによる攻撃や熟練度不足によるリスクを「技術」だけで解決しようとするのは、モグラ叩きのようなものです。 1. ISOなどの「基準」によって、安全な開発の防衛線を引く。 2. その基準を24時間体制で厳格に守らせるための「道具」としてAIの検査機能を使う。 この「人間が基準(戦略)を決め、AIが実行(戦術)を担う」という組み合わせこそが、AI時代のサイバーセキュリティにおいて唯一の、そして最強の正攻法と言えます。ですから、ご指摘の方向性はこれからのデジタル社会においてまさに不可欠な考え方です。

戻る
.