SusTB communications サスティービー・コミュニケーションズ株式会社

未来に響くコミュニケーションレポートの企画・制作×コンサルティング

HINTサステナ情報のヒント

「AIガバナンス」は誰の仕事か── CAIOガイドが本当に問うているもの

サステナ開示をめぐる動向 / リスクマネジメント / 統合報告書

この記事の3つのポイント

  • CAIOは肩書きではなく「AIを経営言語で束ねる機能」
  • EU・Gartner・OECDの3つの外圧が、開示への要求を変えつつある
  • 2026年に問われるのは「AIを使っているか」ではなく「誰がどう管理しているか」

 

自社の統合報告書にAI活用の実績を書くケースは、増えています。
ですが、「それを誰がどう管理しているか」を投資家に聞かれたとき、今すぐ答えられるでしょうか。

 

そのような問いに切り込む文書が、2026年3月17日に公表されました。
情報処理推進機構(IPA)のAIセーフティ・インスティテュート(AISI)が出した「Chief AI Officerガイド」です。

CAIO(最高AI責任者)をどう設置し、どう運用するかの実務指針ですが、本質は「新しい役職が増えた」という話ではありません。

 

CAIOとは役職ではなく、機能の問い

AISIはこのガイドを、AIによる価値創出とリスク低減・規制遵守の両立を支えるための枠組みとして位置づけています。

組織設計、プロセス、評価・監督、教育、人材、調達まで含めて示しており、その本質は肩書きの新設ではなく「AIを全社でどう統治するか」にあります。

 

 

多くの日本企業にとって、専任のCAIOをすぐに置くことは現実的ではないでしょう。ですが、それはこのガイドが無関係だという意味ではありません。

 

なぜなら、
いま問われていることは、これだからです↓↓

 

AIガバナンス機能を誰が担い、どの会議体が監督し、CIO・CISO・法務・事業部門の間でどう役割分担しているかを、明確にできているか

 

 

AISIのガイドは、その「機能」をどう設計するかの参考書として読むのが自然な読み方と言えるでしょう。

 

3つの外圧が、AIを開示問題に変えた

ところで、なぜいまAIガバナンスが「開示問題」になるのでしょうか。

背景には、方向の異なる3つの外圧があります。

▽EU AI Act

「使っていること」より「管理していること」が問われる

EUではAI Actがすでに発効しており、禁止されるAI行為とAIリテラシー義務は2025年2月から、GPAIモデル関連の義務やガバナンス規定は2025年8月から適用されている。
大部分の規定は2026年8月から適用される。

 

ここで重要なのは域外適用の有無だけではない。

企業がAIをどの用途で使い、その利用がどんな影響を持ちうるのかを説明できる状態にあるかが問われ始めた。AIは「使っていること」よりも、「どう管理しているか」が見られる対象になりつつある。

▽Gartner 2026年予測

AIガバナンスはレジリエンスの問題

ガートナーが2025年2月に示した2026年のサイバーセキュリティ・トレンドは、AIの急速な拡大・地政学的緊張・不安定な規制環境を背景に、サイバーセキュリティがIT部門だけの問題ではなく企業レジリエンスに直結するビジネス課題になっていると警鐘を鳴らした。

 

AIの導入は効率化をもたらす一方で、新たな脆弱性と管理負荷も増やす。AIガバナンスは「責任あるAI」のためだけでなく、企業が壊れにくくあるための統治でもある。

▽OECD「責任あるAIデューデリジェンス・ガイダンス」

責任はバリューチェーン全体に及ぶ

ここで論点が、社内から外へ広がる。

 

OECDが2025年2月19日に公表した「責任あるAIデューデリジェンス・ガイダンス」は、OECD多国籍企業行動指針とOECD AI原則に沿って、AIを責任ある事業活動の対象として扱う実務指針だ。AIのバリューチェーンに関わる企業に、負の影響を特定し、予防し、軽減し、説明し、必要なら是正することを求めている。

 

つまり、AIの責任は「自社がきちんと使えばよい」では終わらない。

ベンダー、委託先、調達先、運用先まで含めた関係全体の問題として見なければならない——これはサプライチェーン人権デューデリジェンスと同じ構図が、AIにも適用され始めたということだ。

 

2026年の開示、何を書くか

専任のCAIOがいないこと自体を、引け目に感じる必要はありません。

重要なのは、AIガバナンス機能を誰が担っているのかを、投資家や読者がわかる形で示すことです。

 

どの役員が統括し、どの会議体が監督し、どんな部門が関与しているのか。

 

次に、AI活用の成果だけでなく、教育・用途審査・承認・監査・インシデント対応といった「統制の実装」もあわせて記述したいところです。

さらに、人事や顧客対応など影響の大きい用途について、公平性や説明責任をどう確保しているか、外部ベンダーや委託先の管理方針まで視野に入れば、開示の説得力は大きく変ります。

 

2026年のAI開示で問われるのは「AIを使っているか」ではありません。

AIによって広がる価値とリスクを、誰が、どの体制で、どこまで説明可能な形で管理しているか——その一点であると考えます。

 

ーーー

本日もお読みいただき、ありがとうございました。

それではまた、次回のブログで。

 

執筆担当:川上 佳子

記事一覧へ