本日(2025年3月14日)の日経新聞朝刊一面には、「人事評価・異動にAI JCOMやテルモ上司の役割担う」という記事が大きく掲載されていました。
この記事では、企業の人事業務におけるAI活用の最新事例として、JCOMとテルモでの取り組みが紹介されていました。
JCOMではコールセンターの全通話記録をAIで分析し、オペレーターの対応を評価に反映。従来は顧客アンケートをもとに評価していましたが、回答数は年間1万6千件程度にとどまっていました。しかしAIを使うことで約60万件もの通話データを分析できるため、より精緻で客観的な評価が可能になったのだとか。
一方、テルモでは社員が自ら登録したスキルや経験のデータをもとに、AIが各社員に適したポストやプロジェクトをおすすめしてくれる「人材マッチングシステム」を開発。この仕組みにより、社員は自分の強みを活かせる配置を提案してもらえ、企業側も適材適所の人員配置を実現しようとしているそうです。
こうしたAI活用の目的は、人事評価の公平性向上や従業員満足度のアップにあります。上司による人事評価は主観や好き嫌いといったバイアスを排除しきれませんが、AIを使えば統一された基準で客観的に評価できるというメリットがある——というのは、ご想像に難くないと思います。実際、日経記事ではAIの活用によって人事考課の課題が解決されるケースに焦点が当てられていました。
しかし、こうした活用法に課題はないのでしょうか?
残念ながら、課題は存在します。
この点が問題になったのが、日本IBMのケース(AI不当労働行為事件)でした。
日本IBM(IBMの日本法人)でも、人事評価にAIを活用しようとする試みがありました。しかしそれは労働組合との対立を招き、最終的には社会的注目を集める事態となりました。
経緯を簡単にご説明しておきますね。
日本IBMは2019年、自社開発したAI(ワトソン)を従業員の賃金査定に利用し始めると社内発表しました。具体的には、人事評価の判断にAIを組み込み、上司への提案を行うようにしました。
これに対し、労働組合(日本金属製造情報通信労働組合=JMITU日本IBM支部)は、そのAIがどんな項目を考慮して評価を下しているのか明らかにするよう求めました。しかし会社側は同社は「AIが上司に示す情報は、社員に開示することを前提としていない」と主張し、開示や説明を拒否しました*1。
組合側は「一切の資料がない」不信感を募らせ、2020年4月には東京都労働委員会に不当労働行為(不誠実な団体交渉拒否)だとして救済を申立てたのです*2。
この対立の背景には、評価の透明性をめぐる深刻な問題がありました。労働組合側は「AIの判断過程がブラックボックス化し、社員には理解不能になっている」と指摘し、AIが過去のあらゆる差別や偏見を学習して再現してしまうリスクや、法整備の遅れも含めて懸念を示していました。一方、会社側(日本IBM)は「賃金査定の最終決定は上司との面接を経て所属長が行っており、AIはあくまで判断を補助するツールだ」と主張しました。
しかし実際には、IBM自らが販促資料内で「人間はAIの判断に従いがちである」ことを認めており、現場でも上司が部下に対して「AIがフラット(=昇給なし)でいいと言っている」と昇給の提示がなかったケースがあったといいます*3。
つまり、名目上はAIは補助でも、実態としてAIの提案が人事評価に強く影響していた可能性が高いのです。
このように労使の主張が平行線をたどる中、2024年8月1日、日本IBMと労働組合との間で和解が成立しました。その内容は、評価プロセスの透明性確保に関する画期的なものでした。東京民報*3によれば、、和解の主なポイントは次のとおりです。
労使の合意でここまでAIの内部情報を開示する例は世界的にも異例であり、この和解は公平性と透明性を確保するうえで画期的な前例と評価されているようです。
では、JCOM・テルモの成功事例と日本IBMのケースは何が違うのでしょうか。
情報源は先述の日経記事だけですので、確たることは申し上げられませんが…
記事を読む限りでは、導入時の進め方と透明性には大きな違いがあるように見えます。
JCOMやテルモの事例では、AIはあくまで人事担当者や上司の意思決定を支えるツールとして使われ、最終判断には人間が関与する形が保たれているようです。また、目的が「客観的データによる公平な評価・適材適所」というポジティブなものであり、社員にとってもメリットが分かりやすい導入となっていることが推察されます。
一方、日本IBMの場合は、昇給・評価という極めてデリケートな領域にAIを導入しながら、社員への十分な説明や合意形成を欠いたことがトラブルの原因となったのではないでしょうか。言い換えれば、技術的な有用性よりも「人間(従業員)の納得感」を軽視してしまった点に問題があった可能性が高いと、私には読み取れます。
日本IBMのケースは、DXによる人的資本経営の推進に潜むリスクと、企業が学ぶべき教訓を浮き彫りにしているように見えます。2024年8月の和解内容から得られる企業への示唆を整理してみましょう。
IBMの和解条件にもあったように、AIが評価に用いる項目やルールを開示し、必要に応じて説明責任を果たすことは不可欠です。社員は自分がどのような基準で評価されているのか知る権利がありますし、それを知ることで評価結果に納得しやすくなります。
日本IBMのケースでは、労組側の弁護士が「賃金査定でAIにどのようなデータを学習させ、アウトプットをどう使うか、労使双方が検証でき、不服があれば申し立てられる透明性あるルール作りが求められる」と指摘しました*2。
要するに、AIによる判断過程を見える化し、社員が異議を唱えたいときには検証・説明できる仕組みを整えることが、企業に求められているということになります。
AIは便利なツールですが、最終的な評価や意思決定の責任は組織の管理者が負う、という原則を徹底する必要があります。社員から見て「誰(何)が自分を評価しているのか」が不明瞭だと不安が募ります。AIに任せっぱなしではなく、「AIの出力を参考にしつつも、評価者(上司)が最終判断を下して責任を持つ」という体制を示すことが大切です。
新しいテクノロジーを導入する際には、その目的や期待される効果、そして懸念への対策について、ステークホルダーと十分にコミュニケーションする必要があります。日本IBMのケースでは、事前の説明不足が不信感を招きました。逆に言えば、導入段階で労組や従業員代表としっかり話し合い、懸念点を共有していれば、結果は違っていたかもしれません。社員からフィードバックを募ったり、試行期間を設けて意見を聞いたりすることも有効でしょう。DXは技術の問題であると同時に「人」の問題でもある──この認識が重要です。
以上を踏まえると、人材領域におけるAI活用に関する取り組みを企業として統合報告書やサステナビリティレポートなどの媒体で社外に発信する際、どのような点に留意すべきか、そのポイントも見えてきます。
以上のようなポイントを盛り込みつつ、自社の言葉で具体的に書くことが重要です。「AIを活用しています」だけではなく、「何のために」「どう使い」「どう統制しているか」まで踏み込んで説明することで、読み手である投資家や関係者にも会社の取り組み姿勢が明確に伝わっていきます。
なお、上記は社外向けのIR資料に限らず、社内向けの人事報告や研修資料などでも同様に意識すべき点です。社内外に一貫したメッセージを発信することで、DXによる人的資本経営への信頼を高めることができるものと考えます。
こうした点にも配慮したIRやサステナビリティのメッセージ構築についてご相談がありましたら、ぜひお気軽に「お問い合わせ」からご連絡ください。いつでもお待ちしております。
それではまた、来週のブログで。
執筆担当:川上 佳子
*1 弁護士ドットコムニュース『IBM「AI人事評価」、元人事責任者も知らない全容 労使紛争、都労委で証人尋問』
*2 労基旬報『AI賃金査定の項目など情報開示へ 日本IBMと労働組合で和解が成立』(2024年10月18日)
*3 東京民報「日本IBM AI不当労働行為が和解 労組に評価項目など開示へ〈2024年8月11・18日合併号〉」(2024年8月12日)
代表取締役 福島 隆史
公認会計士。2008年、SusTBを設立。企業の自主的かつ健全な情報開示をサポート。
川上 佳子
中小企業診断士。銀行、シンクタンク勤務を経て2002年より上場企業の情報開示を支援。