アルゴリズムによる差別とAI政策——トランプ政権と高市政権の類似

トランプのAIフレームワークと高市政権のAI政策や、AI法の射程を比較する。アルゴリズム差別の証明手段が一方では廃棄され、一方では最初から存在しない。過去の差別データを学習したアルゴリズムは、その不均衡を次の判断に持ち込む。
岡田麻沙のテック・デザインノー 2026.04.07
誰でも

2026年3月20日、ホワイトハウスはAIの国家政策フレームワークを公表した。4ページだった[1]。同じ頃、日本では首相の高市早苗が主導する日本成長戦略会議が、官民投資ロードマップ素案を公表した。日本はAIロボットで世界シェア3割超・2040年に20兆円市場の獲得を目指すという[2]。

二つの文書を読み比べると、語彙が重なる。米国のフレームワークは「最小限の規制負担」と「開発者への制約を減らす」ことを掲げる。日本のロードマップ素案は「世界で最もAIを開発・活用しやすい国」を目標に据え、AIを守るべき国家資産として位置づける。どちらも、開発者への制約を薄くすることを国家戦略として位置づけた。この枠組みの中で、何かが消されていく。

***

消されようとしているものは何か。たとえば次のようなシーンを考えてみる。

就職の選考、住宅ローンの審査、賃貸の入居判定。こうした場面でAIが使われることが増えている。AIは「客観的」に見える。人間の感情や偏見が入らないように見える。

しかし、採用AIは過去の採用データで訓練される。融資AIは過去の融資データで訓練される。過去のデータが差別の歴史を映しているとき、AIはその不均衡を次の判断に持ち込む

差別は続く。見えにくい形で。

この記事では三つのことを見る。アメリカで何が起きているか。日本で何が起きているか。そして両方の枠組みを作った者たちが何を「常識」として書き込んだか。

アルゴリズムが差別するとき

実際に何が起きているかを、データで確認する。

ワシントンDCの非営利政策研究機関Urban Instituteの分析によれば、住宅ローンの借り入れにおいて不均衡が見られるという。似たような財務状況にある申請者を比較したとき、黒人・褐色人種の借り手は白人と比べて住宅ローンを拒否される確率が2倍以上高い[3]。カリフォルニア大学バークレー校のフィンテック融資研究では、アフリカ系・ラテン系の借り手は同等の信用力を持つ白人と比べて高い金利を課されており、年間4億5,000万ドルの超過利息に相当する[3]。

2025年、ペンシルバニア州のリーハイ大学の研究者がGPT-4、Claude 3 Sonnet/Opus、Meta LLaMAなどの主要なLLMにローン審査データを評価させた。モデルは一貫して、黒人申請者に対してより頻繁に融資の拒否を決断し、より高い金利を推奨した[4]。訓練データに刻まれた差別の歴史を、アルゴリズムが再現していた。

賃貸の入居審査でも同じことが起きた。2024年、入居審査AIを開発した企業が訴えられた。黒人・ラテン系の申請者を差別的に排除していたとされる。220万ドル以上の和解と、アルゴリズムの変更で決着した[5]。

開発者に差別の意図はなかった。過去の入居データで訓練し、「適切な入居者」を予測しようとしただけだ。設計が差別を再生産した

プリンストン大学のアフリカン・アメリカン研究教授ルーハ・ベンジャミンはこれを「New Jim Code(新ジム・クロウ・コード)」と呼んだ[6]。アメリカで20世紀まで続いた人種差別法制「ジム・クロウ法」を参照した命名だ。露骨な差別よりも中立的で、進歩的にすら見える形で差別を再エンコードする設計のことを指す。

証明の回路があった

この見えにくい差別を訴追するために、アメリカには「差別的効果(disparate impact)法理」という法理論があった。

差別的効果とは、差別の「意図」を証明しなくていい、という考え方だ。ある慣行が特定の集団に不均衡な影響を与えているという統計的事実があれば、差別として訴追できる。住宅ローンのデータを人種別に比較し、採用試験の合格率を属性別に並べる。数字が差異を示せば、意図の有無にかかわらず差別として扱える。2015年のアメリカ最高裁判決で、差別の意図がなくても統計的な差異だけで差別を訴追できるという法理が公正住宅法の下でも有効だと確認されていた[7]。

連邦雇用機会均等委員会(EEOC)は2023年5月、採用AIのバイアスに関するガイダンスを公表していた。ここには、AIを使った採用・評価ツールにも既存の差別禁止法は適用される、ということが明記されている。

EOCCガイダンス文書(クリックでPDFリンクが開きます)

EOCCガイダンス文書(クリックでPDFリンクが開きます)

労働省(DOL)は2024年10月、採用AIが差別的な効果をもたらさないための雇用主向けガイダンスを公表した。いずれもバイデン政権のAI大統領令(2023年10月)に基づく各省庁の行動計画の一部だった[8]。

2025年1月23日、トランプ大統領はそのAI大統領令を廃止した。直後、EEOCはウェブサイトからAI関連ガイダンスをすべて削除した[9]。

2025年4月、トランプは新たな大統領令を出した[10]。連邦機関に対して差別的効果分析の使用停止を命じる内容だ。意図ではなく結果を見る——その法理論そのものが廃棄された。

融資における差別を訴追する道具の一つに、差別的効果法理があった。黒人・ラテン系の借り手と白人の借り手のデータを比較し、統計的な差異があれば差別として追及できる。消費者金融保護局(CFPB)は、その仕組みを融資差別を禁じる連邦法の解釈から外すと公示した。

証明の回路が消えた。

枠組みを書いた者たち

3月20日に公表された米国のフレームワークの核心はこうだ。断片的なパッチワーク規制が国家競争力を損なうとして、州のAI規制を連邦法で無効化すること(州法先占)を求める。コロラドAI法(2024年成立)はその標的になった。この法律は、就職・住宅・医療・融資などの場でAIが判断に関与するとき、開発者や利用企業が、AIによる差別を生まないよう対処すべきと定めたものだった[11]。差別的効果法理が廃棄され、その代わりに機能していた州法まで潰される。

このフレームワークを起草したのは、ホワイトハウスのAI・暗号資産担当顧問デイヴィッド・サックスとホワイトハウス科学技術顧問マイケル・クラトシオスだ。サックスはPayPalの元COOで、投資家ピーター・ティール、起業家イーロン・マスクと並ぶ「PayPalマフィア」の一員。ベンチャーキャピタルCraft Venturesを運営してきた。2024年末にトランプ政権に起用され、2026年3月末に政府を離れた。個人が去っても文書は残る。

フレームワークが書かれる前から、議会での先占は失敗していた。2025年7月1日、予算調整法案に盛り込まれた州AI規制の10年執行禁止条項を削除する修正案が上院で99対1で可決された。フロリダ州知事ロン・デサンティスとカリフォルニア州知事ギャビン・ニューサムが同じ側に立ち、42州・準州の司法長官が連名で書簡に署名した。左派も右派も、州の権限を守る側に回った。

州のAI規制を議会で無効化する試みは失敗した。

代わりにトランプ政権は行政経路を使った。まず大統領令で、連邦機関に差別的効果分析の使用を禁じた。次に司法省に、コロラドのような州AI法を訴訟で潰す専門チームを作った。さらに、農村部の高速通信整備に使う連邦補助金420億ドルを、「AI規制法がある州には出さない」と脅しに使った。

99対1で否決された内容を、投票なしで実現しようとする。

日本には最初から回路がない

アメリカでは差別を証明する回路があって、潰された。日本は違う。最初からない。

アメリカで差別的効果分析が機能するのは、人種・民族のカテゴリが公式統計に存在するからだ。「Black」「Hispanic」「Asian」といったカテゴリが採用・融資・住宅の統計にあり、グループ間の差異を比較できる。

日本の国勢調査は国籍のみを計測する。民族(ethnicity)や出身国(national origin)は項目として存在しない。法学者・活動家のデボン・アルドウは、この設計によって様々なルーツを持つ日本国民が統計上に現れないと指摘している[12]。

かくして、マイノリティおよび市民ではない居住者は単に日本社会において権利を剥奪されているにとどまらず、戸籍・住民基本台帳・国勢調査・人口統計学的調査、さらには地方自治体の人口集計においてすら、公式に「不可視の存在」として処理されてきたのだ。

Arudou, D. (2013). "Embedded Racism in Japanese Law: Towards a Japanese Critical Race Theory." Pacific Asia Inquiry, 4(1), pp.161-162.(筆者訳)

数字を置く。2024年末時点での累計帰化許可者数は61万208人で、約8割が韓国・朝鮮・中国籍からだ[13]。さらに1985年の国籍法改正以降、日本人の親を持つ子どもは、申請や選択なしに、生まれた時点で日本国籍を取得する。たとえばコリア系の親が日本国籍を持っていれば、その子どもは自動的に「日本人」として登録される。ジュネーブを拠点とする国際NGO「反差別国際運動(IMADR)」によれば、2022年時点で日本のコリア系住民は約100万人程度と推計されるが、実数は明らかではない[14]。帰化者と、法律上当然に日本国籍を取得した者が、統計から消えているためだ。帰化した人は「日本人」になる。それは統計上の話だが、社会上の話ではない。

1974年、在日コリアンのパク・チョンソク氏が日立製作所に採用された。後日、「日本人でないことが判明した」として採用を取り消された。横浜地裁は日立の採用取り消しを人種的偏見に基づくと認定し、日立は公式に差別を認めた[15]。これは半世紀前の話だ。採用AIは過去の採用データで訓練される。この判決以前の採用記録も、判決後の記録も、1990年代から2010年代の記録も、等しく「過去の記録」ではある。データセットが何を学ぶかは自明ではない。

通称名(日本名)の問題がある。通称名の使用は在日コリアンが差別を回避する実践として長く続いてきた。アメリカ・ニューハンプシャー州のダートマス大学の研究者カイ・チョウが行った研究は、日本名と韓国・朝鮮名を使い分けることで雇用主の反応が変わることを実験的に示している[16]。名前が民族的出自のシグナルとして今も機能し続けているということだ。採用AIは名前から生成される特徴量を学習する

2025年に学術誌Humanities and Social Sciences Communicationsに掲載された研究では、ChatGPT(GPT-4)が「日本語能力が重視される職種への応募」において、民族的マイノリティの履歴書をマジョリティより低く評価する傾向が示された[17]。名古屋大学大学院情報学研究科准教授の久木田水生は、エントリーシートや面接の通過条件に性別や年齢、人種などのデータを設定していなくても、過去の通過率から女性や高齢者、外国人を低く評価するようなプログラミングになっていることがあると指摘している[18]。

そして、この被害を証明する回路が日本にはない。国勢調査は民族的出自を計測しないから、差別的効果分析に必要なデータが存在しない。日本国籍を持つコリア系日本人が採用AIによって体系的に低評価されていても、それを記録し、比較し、訴追するインフラが設計の段階からない。日本国憲法第14条は法の下の平等を謳うが、民間企業による差別的行為を禁止または処罰する公民権立法が日本には存在しない[12]。

2024年に日本で定められたAI事業者ガイドラインはバイアスへの配慮を求めるが、法的拘束力がない。2025年5月に成立したAI法も罰則を持たない。政府はAI法の調査権に基づいて採用AIによる差別の実態調査を2025年7月に開始したばかりだ[19]。記録する仕組みも、比較するデータも、訴追する法律も、まだない。

なぜ「経済安全保障」なのか

日本のAI政策を特徴づけるのは、AIを「経済安全保障の問題」として定義したことだ。

「特定重要技術」という指定は、AIを守るべき国家資産として位置づける[20]。AI基本計画に記された「信頼できるAI」という語彙は、技術倫理の話ではなく、国際競争における信頼性——とりわけ「中国製ではない」という信頼性——を指している。高市が2026年2月のAIインパクトサミット(インド主催)に送ったビデオメッセージでは、こう述べている。「日本の信頼性という価値をAIで再現するため『信頼できるAI』をつくる官民投資を力強く推進していく」[1]。

この枠組みでは、論点が変わる。「このAIは誰にとって公平か」ではなく、「このAIは国家競争力に貢献するか」が先行する。採用AIのバイアスは「技術の脆弱性」の問題になりえない。国家安全を損なうリスクとして定義できないからだ。

日本成長戦略会議が2026年3月に公表したロードマップ素案は、AIロボットや国産基盤モデルへの産業投資を中心に構成されており、採用AIの公平性は論点として設定されていない。罰則のないAI法に、監査義務の規定がない。「最低限の追加対応のみ」という原則のもとで、大量の採用AIが「客観的な評価」として展開されうる。

米国の「反ウォーク」(多様性・包摂を重視する進歩的な価値観への反発を指す政治語彙)と、日本の「経済安全保障」は違う語彙だ。だが同じ働きをする。どちらも、開発者の免責を国家の競争力として再定義し、「誰がどんな損害を受けるか」という問いを制度の外に置く

ジャマイカ出身の文化理論家スチュアート・ホールは、実在する社会的危機が別の脅威の言語に置き換えられることで本来問われるべき構造が問われなくなる操作を「権威主義的ポピュリズム」と呼んだ[21]。語彙は変わっても、構造は同じだ。

二つの経路と一つの帰結

米国の技術哲学者ランドン・ウィナーは、規制の不在は中立ではないと指摘している[22]。開発者が制約なく展開できるという政治的取り決めを、技術的合理性として提示する設計にすぎない。

アメリカでは差別的効果法理が廃棄された。廃棄するべき対象が存在したから、廃棄という操作が必要だったと言える。日本では、証明の回路が最初から存在しない。いずれも同じ帰結だ。被害は実在するが、制度的に存在しないことになる。

「常識」とは、日常の断片的な認識の集積であり、支配的なイデオロギーが沈殿した場所なのだ、という考え方がある[23]。「断片的なパッチワーク規制は国家競争力を損なう」という論拠。「最低限の追加対応のみ」という原則。「世界で最もAIを開発・活用しやすい国」という目標。これらが繰り返されることで、やがて「常識」になっていく。それが設計の選択であるという事実は見えにくくなるだろう。

脚注

[1] 首相官邸「第219回国会における高市内閣総理大臣所信表明演説」2025年10月24日。

人工知能基本計画(2025年12月23日閣議決定)。AI法(人工知能関連技術の研究開発及び活用の推進に関する法律)は2025年5月成立・9月全面施行。AIロボット・20兆円市場目標を含む官民投資ロードマップ素案は2026年3月10日、日本成長戦略会議(第3回)にて公表。資料2

高市首相のAIインパクトサミット(インド主催)ビデオメッセージは外務省公表、2026年2月19日。

[2] White House, "Ensuring a National Policy Framework for Artificial Intelligence," March 20, 2026.

先占の具体的手段(DOJ訴訟タスクフォース、BEAD資金420億ドルの条件付け)については Clark Hill, "What Does Trump's AI Executive Order Mean for Colorado's AI Act?" December 2025.

[3] Robert F. Kennedy Human Rights, "Bias in Code: Algorithm Discrimination in Financial Systems," August 2025. Urban Institute, "Home Mortgage Disclosure Act Data," 2024.

[4] Lehigh University News, "AI Exhibits Racial Bias in Mortgage Underwriting Decisions," September 2025.

(実験対象モデル:GPT 3.5 Turbo、GPT 4、Claude 3 Sonnet/Opus、Meta Llama 3-8B/70B。)

[5] SafeRent訴訟(2024年和解):American Bar Association, "Ghosts in the Machine: How Past and Present Biases Haunt Algorithmic Tenant Screening Systems," Human Rights, June 2024. https://www.americanbar.org/groups/crsj/resources/human-rights/2024-june/how-past-present-biases-haunt-algorithmic-tenant-screening-systems/

[6] Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press. 邦訳なし。

[7] Texas Department of Housing and Community Affairs v. Inclusive Communities Project, Inc., 576 U.S. 519 (2015). 5対4の判決(ケネディ判事執筆)。公正住宅法(Fair Housing Act)の下で差別的効果に基づく訴えが認められると判示した。

[8] EEOC, "Select Issues: Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964," May 18, 2023.

U.S. Department of Labor, "Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers," October 16, 2024.

[9] Executive Order 14179, "Removing Barriers to American Leadership in Artificial Intelligence," January 23, 2025. https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/

EEOCによるガイダンス削除(2025年1月27日)については K&L Gates, "The Changing Landscape of AI: Federal Guidance for Employers Reverses Course With New Administration," January 31, 2025.

[10] Executive Order 14281, "Restoring Equality of Opportunity and Meritocracy," April 2025.

EEOCのdisparate impact申立全件クローズについてはEpstein Becker Green, "Artificial Intelligence and Disparate Impact Liability: How the EEOC's End to Disparate Impact Claims Affects Workplace AI," Workforce Bulletin, September 30, 2025.

CFPBの方針転換はBloomberg Law, "Trump's CFPB Closes Probes Targeting Unintentional Racial Bias," December 24, 2025.

[11] Colorado SB 24-205, Consumer Protections for Artificial Intelligence, enacted May 17, 2024.

[12] Arudou, D. (2013). "Embedded Racism in Japanese Law: Towards a Japanese Critical Race Theory." Pacific Asia Inquiry, 4(1), pp.161–162.

[13] アルモーメン・アブドーラ(東海大学国際学部教授)「『日本国民』と『日本人』の間には」nippon.com、2026年1月。

法務省「帰化許可申請者数等の推移」。

[14] IMADR(反差別国際運動)「在日コリアンの参政権についての懸念・勧告」2025年4月。

[15] 日立就職差別事件(1974年横浜地裁判決)。CEIAS (Central European Institute of Asian Studies), "Zainichi Koreans in Japan: Exploring the Ethnic Minority's Challenges," November 2024.

[16] Kai Zhou and Yusaku Horiuchi, "Disclosing Invisible Attributes Leads to Discrimination," SSRN, January 2026.

実験はコンジョイント・サーベイ実験形式(関西地域で実施)で、通称名(日本名)と本名(韓国・朝鮮名)を使い分けた仮想応募者への反応の差を測定。

[17] Akira Igarashi, Yoshinobu Kano, and Hirofumi Miwa, "ChatGPT versus humans in judging discriminatory scenarios: experimental evidence from a Japanese context," Humanities and Social Sciences Communications, vol. 12, Article no. 1776, November 2025.

[18] 日本の人事部HRテクノロジー「AIの判定は、本当に客観的で公平か?」(名古屋大学大学院情報学研究科准教授・久木田水生へのインタビュー)2021年3月。

[19] 日本経済新聞「AIの人権侵害、国が実態調査 採用の男女差別や性的画像の無断生成」2025年7月3日。

[20] 経済安全保障推進法(2022年5月成立)第61条(特定重要技術の研究開発支援)。

[21] Hall, S., Critcher, C., Jefferson, T., Clarke, J. and Roberts, B. (1978). Policing the Crisis: Mugging, the State, and Law and Order. Macmillan.

[22] ランドン・ウィナー『鯨と原子炉——限界の探求における技術の意味』吉岡斉・若松征男訳、紀伊国屋書店、2000年。

[23] Gramsci, A. (1929–1935). Prison Notebooks. 邦訳:松田博編訳『グラムシ選集』合同出版。

無料で「岡田麻沙のテック・デザインノート」をメールでお届けします。コンテンツを見逃さず、読者限定記事も受け取れます。

すでに登録済みの方は こちら

誰でも
信頼を売る技術 トランプコインとサナエトークンが示すもの
誰でも
「誤情報です」という誤情報——イラン攻撃、ディープフェイク、証拠性の崩...
誰でも
災害とテクノロジーの15年と、城塞のこと
サポートメンバー限定
言葉になる前に(Claude憲法、言語中心主義、種差別、そして苦しみに...
誰でも
AI利用者のジェンダーギャップと、その「外側」
誰でも
Anthropicは「左翼」か? 戦争とAIと設計の話
誰でも
サポートプランをはじめます
誰でも
選挙は「現実」か? 三界の溶解についての覚書