科学の規範から考える生成AIの軍事利用
- Pro SciBaco

- 4 時間前
- 読了時間: 5分
アメリカのAI開発新興企業、Anthropic(アンソロピック)は生成AIの業界でめきめきと存在感を増しています。アンソロピックが目指すのは「倫理的で安全なAI」。今年の2月に米国防総省が求めるAIの幅広い軍事利用を拒み、交渉が決裂したのもニュースになりました。
企業は自社の利益を優先させるのか、それとも社会的な倫理を優先させるのか、科学技術の運用をめぐるこの問題に、サイエンスコミュニケーションでも参照する科学の規範の観点から考えていきましょう。

科学の活動「規範」とは?
科学の活動とは何か。科学という現象ではなく、科学に携わる人々の活動に注目し、どのようにふるまうべきなのかという観点から科学を定義したのが、科学社会学者のロバート・マートンが定義したマートン規範というものです。
マートン規範は、科学は人類共通の財産であるという立場からCUDOSという規範を提唱しました。CUDOSはCommunalism(共有性)・Universalism(普遍性)・Disinterestedness(私欲のなさ)・Organized Skepticism(組織的懐疑)の頭文字をとっています(Merton, 1942)。その後、OにOriginality(独自性)を追加されたCUDOS規範は、研究が社会から独立した存在として機能するために必要な活動要件とし共有されていきました。
しかし産学連携や知財化の進展に伴い、科学技術社会論の研究者のジョン・ザイマンは現実の科学技術の運用はCUDOSよりもPLACEに近いと皮肉るようになります。PLACEはProprietary(専有性)・Local(特定地域への利益)・Authoritarian(権威主義的)・Commissioned(受託型)・Expert-only(専門家限定)の頭文字をとって名付けられました。科学が一部の企業や国家の利益のために使われる状況を反映した規範(?)になっています。PLACEは批判的な文脈で使われることも多いのですが、現在の日本の科学技術政策も特許数や産学連携の数で大学を評価したりもしていますので、大学が社会と連携する際にはPLACEという活動は避けられません。
でもPLACEには批判が多いのも事実。そこでよりよい社会と科学の連携の在り方を考えていったのがTRUSTという新しい規範です。TRUSTは透明性(Transparency)、頑健性(Robustness)、不確実性マネジメント (Uncertainty management)、持続可能性(Sustainability) 、学際性(Transdisiplinary) の頭文字に充てられた略語です。社会と共に歩み、進展する科学的活動であるポスト・ノーマルサイエンスの文脈に当てはめ二コラ・コ―イングらがまとめました。
生成AIの軍事利用をめぐる2つの反応
2026年2月、米国防総省(トランプ政権下では「Department of War(戦争省)」と改称)は、生成AIを軍事用途に活用するため、主要AIベンダーとの契約交渉を進めていました。このとき2つの会社が正反対の対応をとりました。
Anthropicの選択──TRUST規範的アプローチ
Anthropic CEO ダリオ・アモデイ氏は、国防総省の要求に対して「良心に従い、彼らの要求に応じることはできない」と明言しました(NPR, 2026年2月27日)。市民の大規模監視への利用、そして自律型兵器システムへの組み込みという二つのレッドラインを、国防総省側の契約文書が実質的に無効化できる内容になっていたためです。Anthoropicは大型契約の獲得よりも、TRUST規範に則って倫理的な判断を下す決断をしたのです。
この決断にアメリカ政府は強硬な態度をとりました。Anthropicを「サプライチェーンリスク」に指定し、トランプ大統領は連邦機関に対してAnthropicの製品使用を即時停止するよう命令しました(Fortune, 2026年2月28日)。この指定は、米国が自国企業に対して行った前例のない措置でした。
OpenAIの選択──PLACE規範的アプローチ
Anthropicの交渉が決裂したその数時間後、OpenAI CEOサム・アルトマン氏は国防総省との契約締結を発表しました。ただ契約に至るまでの内容は二転三転します。当初の契約に対しての批判を受けて、アルトマン氏は「自律型兵器や大規模監視には使用させない」という留保条件をつけたと主張し契約の内容は倫理的なものであることを強調しました。
MIT Technology Reviewは「Anthropicが道義的アプローチをとって失敗した一方、OpenAIは法的・実務的アプローチで合意した」と分析しています(MIT Technology Review, 2026年3月2日)。ただ、イランへの攻撃が始まった今のタイミングで契約関係を結ぶこと自体がTRUST規範的とは映らず、どちらかというと科学技術の占有や一部の利益のための利用というPLACE的な運用になっている印象があります。
市場はTRUST規範を支持
この一連の出来事に対する市場と消費者の反応はというと、今のところTRUST規範に従ったAnthoropicの行動を支持しています。
市場調査会社Sensor Towerのデータによると、OpenAIの国防総省契約発表翌日(2026年2月28日)、米国内でのChatGPTモバイルアプリのアンインストール数は前日比295%増という急増を記録しました(TechCrunch, 2026年3月2日)。通常の1日のアンインストール率9%と比較すると、その反響の大きさがわかります。
一方、Anthropicのクロードは米国のApp Storeで1位を獲得。2月27日(金)に37%増、翌28日(土)にはさらに51%増というダウンロード急増を記録しました(同上)。「QuitGPT(ChatGPTをやめよう)」というボイコット運動には150万人以上が参加したとされ、OpenAI本社前での抗議集会も開催されています。
長期的な視野に立った科学技術と社会との連携
サイエンスコミュニケーションの観点から重要なのは、TRUST規範が「道義的だが非合理」という選択ではないかもしれない、という点です。今回の消費者行動は、倫理的立場の表明が、むしろ長期的な市場競争力につながる可能性を示唆しています。
産学連携においても同様の問いが成立します。大学、研究機関の社会連携においては、契約する相手との1対1の関係に終始するPLACE的な振る舞いよりも、その周辺にいるより多くのステークホルダーとの関係も考慮に入れて持続可能な振る舞いを行うTRUST的な振る舞いのほうが求められているのではないかということです。
最近、学術界をめぐるニュースにおいて寄付者との不適切な関係があったのではないかという話題が沸き上がっています。その問題を考える際にもこの3つの規範をベースにすると、理解が深まるかもしれません。
*本ブログの最新ニュースの情報収集にはAnthoropic社のClaudeを活用しています。
参考文献・情報源
Merton RK: The Normative Structure of Science. In: The Sociology of Science. University of Chicago Press, 1942/1973
ザイマン J(村上陽一郎・三宅苞・川崎勝ほか訳):縛られたプロメテウス──動的定常状態における科学. シュプリンガー・フェアラーク東京, 1995
Kønig N, et al.: The ethos of post-normal science. Futures, 91: 12-24, 2017
NPR: OpenAI announces Pentagon deal after Trump bans Anthropic. 2026年2月27日
Fortune: OpenAI sweeps in to snag Pentagon contract after Anthropic labeled 'supply chain risk'. 2026年2月28日
TechCrunch: ChatGPT uninstalls surged by 295% after DoD deal. 2026年3月2日
MIT Technology Review: OpenAI's 'compromise' with the Pentagon is what Anthropic feared. 2026年3月2日
OpenAI公式ブログ: Our agreement with the Department of War. 2026年2月28日



