弁護士が解説! AIの人事活用で経営者・人事が「今」知るべき法的リスクと対応
公開日:2026年1月14日
人事労務・働き方改革

昨今、生成AIの導入が急速に進み、人事・労務管理の分野でも採用・評価・日々の業務指示やフィードバックなど、活用が始まり、人事業務の効率化が期待されています。
しかし、便利なAIには法的な「落とし穴」が潜んでいます。
本稿では、人事にAIの導入を検討する企業に向けて、AI労務管理の法的リスクと、今すぐ取り組むべき対策を解説します。
AIが「上司」になる日 - 人事分野での活用例とリスク
まず、人事分野でAIがどのように使われ始めているか、そしてそのリスクを見てみましょう。
採用: AIによるエントリーシートの自動スクリーニング、AI面接、動画面接の評価、選考過程管理
人事評価: 勤務データや成果に基づくパフォーマンス評価の自動スコアリング
業務管理: 日報やPCログを解析し、「次は○○に気をつけましょう」といったフィードバックや「○○をしてください」という業務指示
特に注意すべきは、後述する採用差別やAIによる業務指示やフィードバックが、法的に「指揮命令」 と見なされる可能性です。既に業務フィードバックするAIサービスは登場しており、これが指揮命令やハラスメント、過重労働による安全配慮義務違反となり得る未来は数年以内にやってくる可能性があります。AIが「上司」のように振る舞う時、それはもはや単なる「ツール」ではなく、上司の指示と同等にみなされるリスクがあるのです。
すでに起きている「AI労務トラブル」
以下は未来の話ではなく、すでに国内外でトラブルとして発生している例です。
トラブル事例1:AIによる自動解雇(A社(米国))
AIが配送ドライバーのパフォーマンスを監視し、基準に満たないと判断したドライバーを自動的に契約終了させていた事例
トラブル事例2:AIによる採用差別(A社(米国))
エンジニアには男性が多かったことから、過去の男性中心の職場データを学習したAIが、採用で女性を不利に扱った事例
トラブル事例3:AI評価の説明責任(B社(日本))
「AIを使った人事評価は不透明だ」として、労働組合が評価基準や活用状況の説明を求めた事例。団体交渉で会社が説明を拒否したことが労働委員会で紛争となり、最終的に和解に至る。
トラブル事例4:個人情報の目的外利用(C社(日本))
学生のサイト閲覧履歴等から「内定辞退率」を算出し、その情報を学生本人の明確な同意を得ないまま企業に販売していた事例。職業安定法、個人情報保護法違反などで、情報を購入した企業側も行政指導を受けた。
【採用編】AI選考の「公平性」と「バイアス」のリスク
採用活動でAIを利用する際は、特に「差別の温床」となりやすい領域であり注意が必要です。
前述のトラブル事例2は、典型的な「アルゴリズム・バイアス」です。
AIは、学習させたデータに含まれる「過去の無意識な偏見」まで忠実に学習してしまいます。もし「過去の優秀な社員」のデータに偏りや誤りがあれば、AIはそれを前提に学習してしまうため、学習させるデータそのものが正しいのかという点は検証する必要があるでしょう。また、性別、年齢、国籍、思想信条による差別とならないようなチェックも必要でしょう。
そのためには、AIがどのような判断をしたのかログを記録しておき、 AIの選考結果が、特定の属性に偏っていないかAIのバイアスを監視し、常に人間がチェックする体制を構築する必要があるでしょう。
採用については、AIの評価はあくまで「参考意見」であり、最終判断は人間が行うプロセスを明確にしておくべきです。
【情報管理編】禁止ではなく「賢く使う」中小企業のAI活用術
この点は人事の領域に限りませんが、情報管理は、AI利用において最も注意すべきリスクの一つです。
(1) 機密情報・個人情報をAIに入力する危険性(情報漏洩)
便利なチャットAIに、業務上の情報を安易に入力(読み込ませる)行為は、重大な情報漏洩に直結します。AI提供元のサーバーにデータが送信され、AIの「学習データ」として利用される可能性があり、将来、他社への回答として自社の機密情報が表示される可能性があります。
【AIに入力すべきでない情報】
〇 会社の機密情報: 新製品情報、営業機密資料、内部の経営戦略資料
〇 取引先情報: 取引先の秘密情報、契約内容、仕入れ価格、担当者名
〇 個人情報: 従業員の氏名、住所、人事評価データ、健康情報、顧客リスト、
マイナンバー等
(2)「禁止」ではなく「賢く使う」中小企業の活用例
他方で、情報漏洩を恐れてAIの利用を一切禁じてしまうのは、生産性向上の機会を失うことになり、極めて非効率です。今後AIを活用しない未来は考えがたく、人手不足の中小企業こそ、リスクを理解した上で「賢く」活用する道を探るべきです。
【賢い活用例】
○ 「公開情報」のみを活用する
○ 市場調査: 競合他社のWebサイトや公開されている業界レポートをAIに読み込ませ、
要約や分析をさせる。
○ 文章作成の「たたき台」: プレスリリース、SNS投稿、ブログ記事など、機密情報を
含まない一般的な文章の草案作成。
○ 「社内FAQ」として活用する
→就業規則や社内規程など、漏洩しても機密情報ほどのダメージがない情報をAIに
学習させ、「育児休業の申請方法は?」といった社内問い合わせ対応を自動化する。
○ 「匿名化・一般化」を徹底するため、研修や活用例を積極的に公開する
→例えば、AIサービスが提供する「入力データを学習させない(オプトアウト)」
設定を全社で必須にする。
○ 情報の加工: その上で、個人名や具体的な取引条件などを「匿名化・一般化」
してから入力する。
→例:「ある顧客から製品Dに関するクレームが来た。一般的な契約条項Eに
基づくと、どう対応すべきか。」
(3)「目的外利用」と「利用目的の明示」
前述トラブル事例4が示した最大の教訓は、「データを『何のために使うか』を曖昧にしたまま本人の同意なく利用(目的外利用)をしてはならない」、ということであり、これはAIの人事活用でも全く同じです。
例えば、「勤怠管理のため」として収集したデータを、本人の同意なく「退職可能性の予測AI」に学習させることは、不適切な利用となるでしょう。重要なのは「嘘をつかない」ことです。後ろ暗い使い方を考えるのではなく、「社員のエンゲージメント向上のため」「より公平な評価のため」といった正当な利用目的を堂々と明示し、従業員の理解を得ながらAI活用を進めるべきです。
会社と管理者が負う「3つの法的責任」
もしAIが原因でトラブルが起きた時、「AIがやったことだ」という言い訳は通用しません。責任を負うのは、AIを利用した企業と管理者です。
(1) AIハラスメント(パワハラ)
AIが部下に対し、達成不可能な業務量や過度なダメ出しを繰り返した場合、上司が「AIの指示に従うように」と部下に指示していた場合には、それはAIを介した「パワーハラスメント」となる可能性があります。社員のAI活用状況やフィードバック内容は上司が確認・把握しておきましょう。
(2)安全配慮義務違反
AIの過度な指示や監視によって、社員がメンタルヘルス不調に陥った場合 、会社と管理者は安全配慮義務違反を問われる可能性があります。AIが「この社員はメンタルヘルス不調の兆候あり」と警告を発していたにもかかわらず上司が放置すれば、責任はより重大になります。逆に言えば、適正利用により、メンタルダウンを早期発見できるチャンスでもありますので、放置せずに社員の体調を確認しましょう。
(3)説明責任
前述トラブル事例3にも見られるように、企業は社員に対し、「なぜこの評価なのか」「なぜこの指示なのか」を説明する責任があります。AIのアルゴリズムが複雑で「ブラックボックス」だから説明できない、では済まされません。あくまでAIの評価は参考であり、説明責任があるのは人間です。
終わりに:AI導入の前に「人による管理体制」の整備を
AIは魔法の杖ではありません。AIを「適正に」使うための管理体制こそが重要ですので、以下の点を意識して下さい。
○ AI利用ガイドラインの策定: 「何を入力してはいけないか」「何のために使うか」
「どう賢く使うか」を全社で徹底します。
○ AI活用に関する教育:適正な利用について積極的に研修などを行う
○ 「人による監視」を義務化する: AIの判断を鵜呑みにせず、必ず最終判断は人間が行う
ルールにします。
○ 「バイアス」の定期チェック: AIが特定の属性(性別・年齢など)を不当に評価してい
ないか、定期的にチェックします。
○ 「異議申立の窓口」を設ける: AIの評価や指示に納得がいかない場合、社員が不服を
申し立てられる「人間の」窓口を設置
AI活用は避けられない未来です。人手不足の日本こそ賢く付き合っていく必要があります。恐れ過ぎて禁止するのではなく、まずは社員から良い活用例について聞き取りを行い、社内ルールの整備や教育・研修体制を整備することから始めてください。
KKM法律事務所 代表弁護士 倉重公太朗
第一東京弁護士会所属、労働法専門弁護士、労働審判・仮処分・労働訴訟の係争案件対応、団体交渉(組合・労働委員会対応)、労災対応(行政・被災者対応)を得意分野とする。使用者側の労働紛争が専門。
(※)週刊東洋経済「法務部員が選ぶ弁護士ランキング2022」人事・労務部門1位

















