記事のポイント
- リクルートは、「仕事探し」はAIによって「異次元の体験」になると予測
- 同社はAIの倫理方針と活用指針を策定し、「AIガバナンス」を強化へ
- ステークホルダーとの対話を軸に、AI技術の活用のあり方を追求する
リクルートグループは、「仕事探し」は、「ボタンを押す」くらいシンプルに出来れば、多くの人々の生活や社会に貢献できると捉えています。その為、「リクルートAI活用指針」を定め、倫理的、責任あるAIガバナンスを強化しています。(オルタナ総研フェロー=室井孝之)
リクルートグループは、人々の仕事探しは、今後5年から10年ほどで人工知能(AI)の進化によって、従来とは全く異なる体験になると予測しています。
2023年6月にIndeed(インディード)が「AI倫理方針(英語)」を、2024年7月にリクルートが「リクルートAI活用指針」として責任あるAI活用に関する方針を定め、「AIガバナンス」を強化しています。

同社は統合報告書「Recruit Group Profile (リクルート・グループ・プロファイル)2024」の中で、瀬名波文野・取締役兼常務執行役員兼COOは、「責任あるAIの活用」を次の様に強調しています。
- 仕事探しには、AIを含めたテクノロジーの活用は欠かせない。
- AIは人間が持つバイアスを助長してしまう可能性があるとの声を真摯に受け止め、責任あるAIの活用をサステナビリティ委員会やリスクマネジメント委員会の重要テーマとして議論し、取締役会において確認する。
- AI活用の技術開発に法律の施行が追いついていない点もあるため、法律の遵守に加え、社内外のステークホルダーとの対話とトライ&エラーを通して学びを深め、テクノロジー活用のあり方を模索する。
リクルートグループは、人権方針のもと、2023年6月にインディードが「AI倫理方針(英語のみ)」、2024年7月にリクルートが「リクルートAI活用指針」として責任あるAI活用に関する方針を定め、取り組みを強化しています。
インディードでは、次の通りです。
- AIは倫理的に使用されれば、求職者に対するバイアスや障壁を取り除く手助けとなり、より公平な競争環境を整えることに寄与する強力なツールとなり得る。
- 科学的な分析に基づきAIシステムの改良を行い、公平な採用の実現に向けて、採用プロセスを継続的に評価し、再設計する。
- 業界・学術会議に積極的に参加することで、公平な雇用機会、経済的な安全性の確保の実現に向けて、変革し続ける。
リクルートでは、次の通りです。
- データプライバシーの観点から、企画、要件定義、開発、リリースの各段階でリスクレビューを行い、適法性、プライバシー保護、セキュリティなど問題がないことを確認する。
- その後、サービスを社会に提供するガバナンスフレームワーク「標準プロセス」を採用する。
- 「標準プロセス」に、「リクルートAI活用方針」に沿ってAI特有の視点を組み込み、AIによって人権侵害・差別や多様性の排除などを助長するような結果が生成されないことを確認する。
- 具体的には、プロダクトリリース前にバイアス評価、リリース後にフェアネスモニタリングを実施する。
- このプロセスを強化するために審査や監査の体制を整え、 従業員や役員へのAIに関する教育を強化する。
リクルートグループの「リクルートAI活用指針」には「本指針のアップデート方針」が掲げられていますが、AIの活用については、技術そのものや取り巻く社会環境も急速に変化していきます。今後は、技術や取り巻く社会環境の変化等もタイムリーに開示されたらいかがでしょうか。