SusTB communications サスティービー・コミュニケーションズ株式会社

未来に響くコミュニケーションレポートの企画・制作×コンサルティング

HINTサステナ情報のヒント

AIは人事考課の救世主か? ~人事におけるAIの活用とIR/サステナビリティ文脈での説明ポイント~

DX / ニュース / 人材戦略 / 人的資本開示

AIは人事考課の救世主か?

本日(2025年3月14日)の日経新聞朝刊一面には、「人事評価・異動にAI JCOMやテルモ上司の役割担う」という記事が大きく掲載されていました。

この記事では、企業の人事業務におけるAI活用の最新事例として、JCOMとテルモでの取り組みが紹介されていました。

JCOMではコールセンターの全通話記録をAIで分析し、オペレーターの対応を評価に反映。従来は顧客アンケートをもとに評価していましたが、回答数は年間1万6千件程度にとどまっていました。しかしAIを使うことで約60万件もの通話データを分析できるため、より精緻で客観的な評価が可能になったのだとか。

一方、テルモでは社員が自ら登録したスキルや経験のデータをもとに、AIが各社員に適したポストやプロジェクトをおすすめしてくれる「人材マッチングシステム」を開発。この仕組みにより、社員は自分の強みを活かせる配置を提案してもらえ、企業側も適材適所の人員配置を実現しようとしているそうです。

 

こうしたAI活用の目的は、人事評価の公平性向上や従業員満足度のアップにあります。上司による人事評価は主観や好き嫌いといったバイアスを排除しきれませんが、AIを使えば統一された基準で客観的に評価できるというメリットがある——というのは、ご想像に難くないと思います。実際、日経記事ではAIの活用によって人事考課の課題が解決されるケースに焦点が当てられていました。

しかし、こうした活用法に課題はないのでしょうか?
残念ながら、課題は存在します。

この点が問題になったのが、日本IBMのケース(AI不当労働行為事件)でした。

 

日本IBMのケースとは

日本IBM(IBMの日本法人)でも、人事評価にAIを活用しようとする試みがありました。しかしそれは労働組合との対立を招き、最終的には社会的注目を集める事態となりました。

経緯を簡単にご説明しておきますね。

日本IBMは2019年、自社開発したAI(ワトソン)を従業員の賃金査定に利用し始めると社内発表しました​。具体的には、人事評価の判断にAIを組み込み、上司への提案を行うようにしました。

これに対し、労働組合(日本金属製造情報通信労働組合=JMITU日本IBM支部)は、そのAIがどんな項目を考慮して評価を下しているのか明らかにするよう求めました。しかし会社側は同社は「AIが上司に示す情報は、社員に開示することを前提としていない」と主張し、開示や説明を拒否しました*1

組合側は「一切の資料がない」不信感を募らせ、2020年4月には東京都労働委員会に不当労働行為(不誠実な団体交渉拒否)だとして救済を申立てたのです*2​。

この対立の背景には、評価の透明性をめぐる深刻な問題がありました。労働組合側は「AIの判断過程がブラックボックス化し、社員には理解不能になっている」と指摘し、AIが過去のあらゆる差別や偏見を学習して再現してしまうリスクや、法整備の遅れも含めて懸念を示していました​。一方、会社側(日本IBM)は「賃金査定の最終決定は上司との面接を経て所属長が行っており、AIはあくまで判断を補助するツールだ」と主張しました​。

しかし実際には、IBM自らが販促資料内で「人間はAIの判断に従いがちである」ことを認めており、現場でも上司が部下に対して「AIがフラット(=昇給なし)でいいと言っている」と昇給の提示がなかったケースがあったといいます*3

つまり、名目上はAIは補助でも、実態としてAIの提案が人事評価に強く影響していた可能性が高いのです。

 

このように労使の主張が平行線をたどる中、2024年8月1日、日本IBMと労働組合との間で和解が成立しました。その内容は、評価プロセスの透明性確保に関する画期的なものでした。​東京民報*3によれば、、和解の主なポイントは次のとおりです。

 

  • AIが考慮する全ての評価項目の見出し(項目名)の開示 – どんな要素をAIが評価に使っているのか、会社は労組に明らかにすること。
  • AIの提案内容の開示・説明 – 賃金査定に関して従業員から疑義が出た場合、その原因となったAIの提案内容を開示し、会社がきちんと説明すること。
  • 労使協議の約束 – 今後、AIを使った賃金査定の方法で疑問や問題が生じた場合には、労働組合と誠意をもって協議すること。

 

労使の合意でここまでAIの内部情報を開示する例は世界的にも異例であり、この和解は公平性と透明性を確保するうえで画期的な前例と評価されているようです。

JCOM・テルモのケースとの違いは?

では、JCOM・テルモの成功事例と日本IBMのケースは何が違うのでしょうか。

情報源は先述の日経記事だけですので、確たることは申し上げられませんが…
記事を読む限りでは、導入時の進め方と透明性には大きな違いがあるように見えます。

JCOMやテルモの事例では、AIはあくまで人事担当者や上司の意思決定を支えるツールとして使われ、最終判断には人間が関与する形が保たれているようです。また、目的が「客観的データによる公平な評価・適材適所」というポジティブなものであり、社員にとってもメリットが分かりやすい導入となっていることが推察されます。

一方、日本IBMの場合は、昇給・評価という極めてデリケートな領域にAIを導入しながら、社員への十分な説明や合意形成を欠いたことがトラブルの原因となったのではないでしょうか。言い換えれば、技術的な有用性よりも「人間(従業員)の納得感」を軽視してしまった点に問題があった可能性が高いと、私には読み取れます。

 

企業の皆様にとっての学びポイントは?

日本IBMのケースは、DXによる人的資本経営の推進に潜むリスクと、企業が学ぶべき教訓を浮き彫りにしているように見えます。2024年8月の和解内容から得られる企業への示唆を整理してみましょう。

(1)AI導入時の透明性確保

IBMの和解条件にもあったように、AIが評価に用いる項目やルールを開示し、必要に応じて説明責任を果たすことは不可欠です。社員は自分がどのような基準で評価されているのか知る権利がありますし、それを知ることで評価結果に納得しやすくなります。

日本IBMのケースでは、労組側の弁護士が「賃金査定でAIにどのようなデータを学習させ、アウトプットをどう使うか、労使双方が検証でき、不服があれば申し立てられる透明性あるルール作りが求められる」と指摘しました*2

要するに、AIによる判断過程を見える化し、社員が異議を唱えたいときには検証・説明できる仕組みを整えることが、企業に求められているということになります。

(2)人間との役割分担と責任の明確化

AIは便利なツールですが、最終的な評価や意思決定の責任は組織の管理者が負う、という原則を徹底する必要があります。社員から見て「誰(何)が自分を評価しているのか」が不明瞭だと不安が募ります。AIに任せっぱなしではなく、「AIの出力を参考にしつつも、評価者(上司)が最終判断を下して責任を持つ」という体制を示すことが大切です。

(3)労働組合や従業員との対話

新しいテクノロジーを導入する際には、その目的や期待される効果、そして懸念への対策について、ステークホルダーと十分にコミュニケーションする必要があります。日本IBMのケースでは、事前の説明不足が不信感を招きました。逆に言えば、導入段階で労組や従業員代表としっかり話し合い、懸念点を共有していれば、結果は違っていたかもしれません。社員からフィードバックを募ったり、試行期間を設けて意見を聞いたりすることも有効でしょう。DXは技術の問題であると同時に「人」の問題でもある──この認識が重要です。

 

統合報告書やサステナビリティレポートにどう書くか

以上を踏まえると、人材領域におけるAI活用に関する取り組みを企業として統合報告書やサステナビリティレポートなどの媒体で社外に発信する際、どのような点に留意すべきか、そのポイントも見えてきます。

  • AI活用の目的と範囲の明示
    自社が人事領域でAIをどのように活用しているのか、その目的(例:評価の公平性向上、社員の才能発掘、業務効率化など)と適用範囲(評価、配置、採用等)を具体的に記載しましょう。
    たとえば「当社ではコールセンター業務の人事評価にAIを導入し、客観的なデータに基づく公平な評価を実現しています」といった説明です。このとき、課題意識とその対策も併せて述べると信頼性が増します。「従来は上司の主観に左右される課題があったため導入した」という背景や目的意識を書くイメージです。

 

  • ガバナンスとルール整備
    AIを使った人事評価・人材マネジメントに関して、社内でどのようなガバナンス体制やルールを設けているかを説明します。例えば「AI倫理規定の策定」「評価アルゴリズムの定期的な検証」「人事部門と情報システム部門による合同のAI評価委員会の設置」などです。
    日本IBMの例からも明らかなように、透明性と説明責任を担保する仕組みが重要です。もし和解内容のような取り決め(評価項目の開示や説明プロセス)があるなら、それも社内ルールとして明文化していると説明できるとよいでしょう。

 

  • 人権・公正さへの配慮
    サステナビリティの観点では、AI活用が従業員の人権や公正な待遇にどう配慮しているかを触れることも大切です。例えば「AIの判断に偏りが生じないよう学習データを吟味し、必要に応じてアルゴリズムを修正しています」「AIによる提案はあくまで参考情報で、最終判断は人間が行う方針です」といった記述です。
    人的資本の扱いにおける透明性と公正さは、投資家やステークホルダーに対する重要なメッセージとなります。

 

  • ステークホルダーとの対話
    従業員や労働組合とのコミュニケーションについても記載を検討しましょう。例えば「AI導入にあたって従業員への説明会を開催し、意見を募集しました」「労使協議の場でAI活用の進め方について合意形成を図りました」といった具体例です。ステークホルダーエンゲージメントを通じて信頼関係を築いていることを示せれば、企業の誠実さが伝わります。

 

以上のようなポイントを盛り込みつつ、自社の言葉で具体的に書くことが重要です。「AIを活用しています」だけではなく、「何のために」「どう使い」「どう統制しているか」まで踏み込んで説明することで、読み手である投資家や関係者にも会社の取り組み姿勢が明確に伝わっていきます。

なお、上記は社外向けのIR資料に限らず、社内向けの人事報告や研修資料などでも同様に意識すべき点です。社内外に一貫したメッセージを発信することで、DXによる人的資本経営への信頼を高めることができるものと考えます。

 

こうした点にも配慮したIRやサステナビリティのメッセージ構築についてご相談がありましたら、ぜひお気軽に「お問い合わせ」からご連絡ください。いつでもお待ちしております。

 

それではまた、来週のブログで。

執筆担当:川上 佳子


*1 弁護士ドットコムニュース『IBM「AI人事評価」、元人事責任者も知らない全容 労使紛争、都労委で証人尋問

*2 労基旬報『AI賃金査定の項目など情報開示へ 日本IBMと労働組合で和解が成立』(2024年10月18日)

*3 東京民報「日本IBM AI不当労働行為が和解 労組に評価項目など開示へ〈2024年8月11・18日合併号〉」(2024年8月12日)

記事一覧へ