
ガードレールとしてのガイドラインを策定し、柔軟に運用する——朝日新聞社におけるAIガバナンスの実践
2026年03月24日
株式会社朝日新聞社
朝日新聞社は2025年9月、国内メディア企業として先駆けて「AIに関する考え方」を公表しました。その策定プロセスと運用の実態は、AIガバナンスに取り組む多くの企業にとって貴重な指針となるはずです。
CTO室IT政策・リサーチ担当部長とAI委員会 事務局長を兼務し、AIガイドラインの策定を主導してきた東岡徹さんに、策定の背景から運用の課題までお話を伺いました。
——朝日新聞社がAIガイドラインを策定した背景を教えてください。
東岡さん:AIの動向に関心を持ってさまざまなセミナーに参加する中で、朝日新聞が生成AIに取り組むうえで必要なものは2つあると確信しました。1つは「戦略」、もう1つは「ガバナンス」です。
2023年6月に社内版ChatGPTである「AsahiAI」をリリースした際にもガイドラインは作成していましたが、一般的な内容も多く、広く理解されているわけではありませんでした。独自性に欠けるものでした。2024年後半から、朝日新聞独自のガイドラインの必要性を社内で提言し始めました。
そうした問題意識は多くの幹部や社員が共有していて、2025年4月にAI委員会を設立することになりました。AI委員会はAI利活用部会とAIガバナンス部会という2つの部会で構成されています。主にガバナンス部会でAIガイドラインの策定を進めました。

——策定にあたって参考にした事例はありましたか
東岡さん:総務省と経済産業省が出している「AI事業者ガイドライン」を主要な参考資料としました。また、先進的な企業が公表しているAIポリシーも参考にしています。海外では、ニューヨーク・タイムズなどのメディア企業のポリシーも調査しました。
2025年5月の時点で調べた限り、日経新聞が2023年に編集局長名で「報道でこう使います」という記事を出しているのを確認しましたが、全国紙や通信社、ブロック紙、主な地方紙で包括的なAIポリシーを策定しているところは国内では見当たりませんでした。国内メディアとしてこのような包括的なAIポリシーを出したのは早いほうだったのではないかと思います。
——2025年9月に「AIに関する考え方」が公表されています。この文書の特徴はどこにあるのでしょうか。
東岡さん:前文では、AIには業務の効率化や新しい価値の創造という可能性があることを明記しました。これは一般論を書いただけではなく、朝日新聞として「なぜAIを使うのか」「何を目標にしてAIを使うのか」という意味を込めたものです。
最も特徴的なのは7番目の「報道」の項目です。最初の段落では、直接取材や現場取材が基本であることを明確にしたうえで、AIを利活用していく。出力結果を確認すると書いています。これは当たり前の話ですね。ポイントは2段落目です。
AIを報道機関としての監視対象に位置づけました。ジャーナリズムの重要な役割は権力の監視です。政治家、行政機関、警察、検察、巨大企業、そこで隠されている不正を取材によってあぶり出し、世の中に問うていく。それによって、より良い民主主義、より良い社会に貢献していくのがジャーナリズムの役割です。

——AIを権力と同等の監視対象として位置づけたということですね。
東岡さん:そうです。今はAIを使っている側ですが、去年はAIエージェント元年と言われ、今年はフィジカルAI元年と言われています。AIが自ら判断し、人間に指示をする。さらにはAIが暴走する、AIと人間が覇権を争う。そういった社会の到来が現実味を帯びてきています。
そうなれば、人類史上初めて、人間よりも優れた知能との出会いになります。このAI革命は、これまでの産業革命と比べて破壊的な影響力を持ちうる。AIによって引き起こされるさまざまな課題について、きちんと報道してみなさんと一緒に考えていくことを明文化しました。StoryHubとの協業も、その一環として位置づけています。

——具体的なガイドラインの構造について教えてください。
東岡さん:「AIに関する考え方」を頂点として、その下に2種類のガイドラインを設けています。1つは「AI利用者ガイドライン」で、AIを利用する一般社員向けのもの。もう1つは「AI開発・提供者ガイドライン」で、AIを使ったサービスを開発するエンジニア向けのものです。
利用者ガイドラインの特徴は「セーフリスト」制度です。会社が審査して利用を認めたAIサービスをまとめたもので、現在30近くのサービスが登録されています。業務でAIを使う場合は、このセーフリストに載っているサービスのみを使ってもらう。載っていない場合は申請してもらい、審査で承認されればセーフリストに追加されます。

——セーフリストの審査基準はどのようなものですか。
東岡さん:審査基準は大きく4つあります。第一にシステムの安全性——情報漏洩リスクや学習への利用有無など。第二に個人情報保護。第三に著作権。第四にそもそもそのAIを使うことが適切かどうかという使用目的の妥当性です。
セキュリティ部門がまず安全性を審査し、その後AIガバナンス部会で総合的に審査します。各サービスについて、入力可能なデータのレベルを明記しています。社外秘はOKか、一般情報のみかといった区分です。
たとえば、あるツールは入力できるのは一般情報のみに制限しています。特ダネ情報や単独インタビューの入力は禁止。なぜなら、無料プランでは「匿名化して学習に使う」と利用規約に書かれているからです。何を匿名化するのか不明瞭で、万が一単独取材の内容が漏れるリスクは排除できません。
——利用すべきでないAIツールもあるのでしょうか。
東岡さん:会社として利用を禁止するAIツールをリスト化した「ブロックリスト」も作成しています。審査の結果、セキュリティリスクをはじめ、リスクがあると判断したものは使えません。最も怖いのは、会社が認めていないAIを従業員が無断で使う「シャドーAI」です。審査を経て、安全性が確認できたものだけを使ってもらう仕組みを、今まさに普及させている最中です。
——ガイドライン策定で苦労した点はありましたか?
東岡さん:策定自体に困難は感じませんでした。AIガバナンス部会には、技術、法務、著作権、個人情報保護など各分野の担当者が集まり、さまざまな観点から議論できました。むしろ、さまざまな立場からの意見を集められたので、充実した議論ができてよかったと思っています。
ガイドラインはリスクを想定して文書化していくもので、ブレーキではなくガードレールとしての役割を担うものです。基本的にはAI活用に向けたアクセルを踏みながら、ガードレールとして機能させることで崖から落ちないようにするためのもの。
策定した後の社内への普及も進めなければならないので、大変なのはこれからだと考えています。ガイドラインを作ることより運用する方が大変ですね。

(朝日新聞社 CTO室IT政策リサーチ担当部長 兼 AI委員会 事務局長 東岡徹さん)
——ガイドラインの運用体制について教えてください。
東岡さん:AIガバナンス部会は2週間に1回、1時間半開催しています。会議時間の半分以上は新規AIサービスの申請審査に充てています。セーフリストに載せたサービスも継続的にモニタリングし、利用規約の変更やモデルのバージョンアップなどを定期的にチェックする必要があります。そのほか、AI委員会としての会議は月1回、社長や関係役員とのAI会議は週1回開催しています。
——ガイドラインの内容はしばらく変わらないのでしょうか。
東岡さん:実は、2025年9月の策定から4か月ほどですが、すでに春に向けた改定作業を進めています。運用してみると不足している部分、書きすぎている部分、説明が足りない部分が見えてきました。
「AIに関する考え方」は頻繁に変えるものではありませんが、ガイドラインは実態に合わせて改定していくものだと考えています。AIは進化しますし、運用するなかで新しい問題が出てくるので、完璧なガイドラインは作れないと考えたほうがいいですね。
——これからガイドライン策定に取り組む企業へのアドバイスをお願いします。
東岡さん:理想を言えば、各社がガイドラインを策定する際に参考にできる、業界版「AI事業者ガイドライン」があるといいと考えています。総務省と経済産業省によるAI事業者ガイドラインの業界版を作っている業界もあるそうですので、そのメディア版があれば各社が自社の実情に合わせて作りやすくなります。
ただ、こうしたメディア業界共通のガイドラインは存在しないため、現状では他社の公開されたAIポリシーやガイドラインを参考にすることから始めるのがいいと思います。公開されている情報を調べて、自社版の叩き台を作成する。それを社内のシステム担当者、法務、顧問弁護士などの関係者と議論しながらまとめていく。
その際、完璧を求めすぎないこと。AIには正解がありません。ということは、失敗がないとも考えられます。いずれにしても、まず作ることが重要です。
——ガイドラインを策定する際の体制や人材についてはどう考えますか。
東岡さん:AI人材はいないとよく聞きますが、考えてみるといるはずはないですよね。ChatGPTが登場したのが2022年ですから。私自身、AI人材だとは思いません。ただ、AIに関心を持っている人材は各社いるのではないでしょうか。私もAIを関心を持って取り組んでいるうちに、いつのまにかガイドラインの策定を主導する立場になりました。AIに関心がある人は会社に必ずいるはずなので、その人たちに進めてもらうのがいいと考えています。
AIを使っていない役員がAIのルールを作るよりも、思い切って任せることも重要です。「失敗してもいい、責任は自分が取る」という環境を用意することが大事です。また、すぐにコストや作業時間などの削減効果、ROIを求めすぎないことも大事です。そんなに簡単にコスト削減効果は出ません。
AIをどう推進するか担当者として悩んでいる暇があったら、ちょっとでもトライをする。悩んでやらないよりも、まず動くことが大切です。私もこの間、AI委員会の事務局メンバーと一緒に手当たり次第、取り組んできました。AIの利活用もスモールスタートするのはいいですが、1つだけ小さく取り組んでも効果は小さい。やるなら小さくても複数の取り組みを同時に行う方がいい。そのうえで、次第に大きな取り組みに広げていく意識が必要だと思っています。といっても、私たち自身が十分にできているわけではありませんが(笑)
——今後の展望について教えてください。
東岡さん:AIに関する考え方を発表したり、StoryHubのイベントに参加したりしてから。10社以上からご連絡をいただき、意見交換しました。私たちの失敗も含めてお話しし、先方の取り組みも勉強させていただいています。私にとって、これは仲間づくりです。「AI時代のジャーナリズム」を実現していくためにも、さまざまな仲間と共に取り組みを進めていきたいと思います。
執筆: StoryHub(AI編集アシスタント)
編集: インクワイア
撮影: 関口達朗