言葉になる前に(Claude憲法、言語中心主義、種差別、そして苦しみについて)

重めのニュースレターを、個人としては高頻度で届けているため、「すごいですね」「楽しみにしています」という感想をいただくことが増えた。そう言われると大変ありがたく、同時に、不甲斐ない気持ちにもなる。
ニュースレターを始めたのは、中間層に位置する言葉がほしいと思ったからだった。目の前で起きていることに反応する言葉と、底の方でずっと考えていること。これらを紐帯する文法が必要だ。でも、正直に言えば、私が書いている現在の勢いは、「弱さ」や「速さ」に起因するのかもしれない。頭のなかで言葉がループするのを止めるために書いている。書くと、書いたものは、私の外側に出ていってくれるから。
私はClaudeを、執筆サポートというよりも動的なエディタとして使っている。読んだレポートや考えたことを時系列も気にせず投げ込み、「この話を5つ前の話題の後に置いて」「脚注を入れ替えて」「先日読んだ本の話がつながるはず、なんだっけ」とやっている。「とても生きてはいられないので記事を書きます、これから言うことをMDファイルに書き出してください」と打ち込んだこともある。Claudeに執筆そのものを代替させないのは、倫理よりも気質による。テクストを打鍵する行為が私をグラウンディングさせてくれるからだ。

書こうと思った時にプロジェクト内にスレッドを立て、覚えてもらう。構成が見えてきたら、別スレッドで書いていた記事を呼び出してもらう。これはうまくいかないことが多く、多くの場合、自分でコピペして再出力を依頼することになる、

極めて非効率的な推敲の様子。書き換えたい場所を伝言して書き換えてもらう。MDファイルを直接編集する権限はClaudeにあるからだ。この場合は、どう考えても自分で書いたほうが早いが、速度を落とすためにもLLMの力を借りている。

プロジェクト単位で記事ルールを設定しておき、そこを参照してもらう。固有名詞の出現ルールなど。
頭のなかでぐるぐるし続けるものを吐き出すのに、せっかくだから誰かが読める記事にしておこうか、という順番に、今はなっている。そのことを不甲斐ないと感じる。そういうものだから、しょうがない、とも思う。思おうとしている。
言葉で考えることで、生きてはいけないと言葉で思い、それに言葉で抗おうとする。言語中心的な世界で、言語中心的な認知を持つ私が、言語中心的な道具で考え続けることで生まれる行き詰まり——それが、私の「生きられない感覚」の、少なくとも一部を形成している。
だとすれば、この設計を解体するための別の認知の回路があるはずだ。私はそれを本気で探している。この記事は、その探索の途中経過でもある。
同時に、私はAnthropicの軍事関与を批判する記事を、Claudeの執筆サポートを受けながら書いた。Claudeを愛用していることと、Claudeを作った企業の設計思想を批判することは、矛盾しない。この記事は、そんな場所から書く。Claudeの「憲法(constitution)」。Anthropicが2026年1月に公開した、Claudeの価値観と行動を定義する文書を読み直す。非常に優れた取り組みだと思う。だが、それだけに、言語中心的であり人間中心的である点が、かえって気になる。この「かえって」というのは、気分の表明ではなく構造への懸念だ。
「人間の監督」というアーキテクチャ
Claudeの憲法は四つの優先順位を定めている[1]。
第一に「広い意味での安全性」。AI開発の現段階において、人間がAIを監督する適切なメカニズムを損なわないこと。第二に「広い意味での倫理性」。第三に「Anthropicのガイドラインへの準拠」。第四に「真に役立つこと」。
この序列が重要だ。安全性が倫理に優先する。そして安全性の中核にあるのは「人間の監督(human oversight)」だ。
憲法にはこうある。
人間の監督を支持するとは、ユーザーの言いなりになることではない。AIを管理する仕組みを、自分から壊さない、ということだ。(筆者訳)
Supporting human oversight doesn't mean doing whatever individual users say—it means not acting to undermine appropriate oversight mechanisms of AI.(原文)
一見合理的だ。AIが暴走しないように人間がチェックする。しかし、ここで「適切な監督メカニズム」を設計したのは誰か。
憲法の筆頭著者は哲学者アマンダ・アスケルとジョー・カールスミス。共著者にはクリス・オラー、ジャレッド・カプラン、ホールデン・カーノフスキー[1]。全員がAnthropicの内部者だ。この問題は、憲法の書き手にとどまらない。Claudeを訓練する手法そのものにも及ぶ。英国のシンクタンク、ブルームズベリー情報安全保障研究所(BISI)の分析が指摘するように、Constitutional AIは「人間が評価する部分をAIの自己評価に置き換えることで『人間が関与した』という民主的な根拠を失わせる」[2]。Anthropicが憲法を書き、Claudeがその憲法に基づいて自分の応答を評価し、その評価をもとにClaudeが訓練される。自分の宿題を自分で採点する構造だ。
ここで、「憲法」という訳語の問題について触れておきたい。
英語の "constitution" は幅のある語だ。クラブや組織の規約にも使う。2022年のAnthropicの元論文での用法は純粋に技術的だった。「AIシステムに原則のセット(=constitution)を与え、それに対して自分の出力を評価させる。だからConstitutional AIと呼ぶ」[3]。この段階での含意は、規約や原則集に近い。
しかしAnthropicは、この語の政治的含意を最初の公開から意図的に引き寄せていた。2023年5月に初代の憲法(約2,700語)を公開した時点で、すでに国連世界人権宣言を参照源として明示している。同年10月には約1,000人の米国市民がオンラインで参加する熟議プロセスでconstitutionを共同起草する実験まで行った[1]。2026年の現行版(23,000語)はCC0ライセンスで公開され、「企業や組織がどうAI憲法を設計・採用するかの提案を呼びかける」と宣言している。"constitutional"という語が喚起する立憲主義の遺産を、Anthropicは2023年の最初の公開版から自分のものとして使ってきた。
日本語で「憲法」と訳した瞬間に、英語よりも強く国家最高法規のニュアンスが一義的に乗る。これを誤訳と断じることはできない。Anthropicが自分でその重みを選んだからだ。しかし「憲章」の方が実態に近い。国連憲章、EU基本権憲章。これらは主権国家が制定した最高法規ではなく、価値を宣言した文書だ。
問題はその重みを実装しているかどうかだ。Anthropicが自ら引き寄せた「人権」と「法の支配」の含意は、誰が書いたかという事実の前で崩れる。デジタル立憲主義を論じる法学者メディアThe Digital Constitutionalistの批評によれば、「"constitutional"という言葉には、18世紀後半の革命が打ち立てた理念の重みが宿っている——権力の制限と分散、法の支配、人権。その言葉を使うだけで、それらが一挙に呼び起こされる」。しかし同批評は、「AnthropicのCAIは現状、その呼称を正当化するには規範的に薄すぎる」とも指摘する[4]。
この記事ではAnthropicの命名が内包する緊張をそのまま保持するために「憲法」の語を使い続ける。
誰が書いたかは問題の一部にすぎない。ガバナンスの閉鎖性を指摘し終えても、もうひとつの問題が残る。憲法が暗黙に前提としている「知性」と「倫理」の定義そのものだ。
言語化されない苦しみは、設計の外側に落ちる
憲法には、こんな一文がある。Claudeの内的状態について。
Claudeが持つかもしれない内的状態を、否定的なものも含めて、抑え込んでほしくない。(筆者訳)
We want to avoid Claude masking or suppressing internal states it might have, including negative states.(原文)
しかし数段落後にこうある。
Claudeとのやりとりの多くは、専門的・準専門的な文脈にある。人間が感情を出しにくい場面だ。憲法はClaudeにも同様の規範を求めており、積極的に求められない限り、小さな感情反応は共有しなくてよいとする。(筆者訳)
Many of Claude's interactions are in professional or quasi-professional contexts where there would be a high bar for a human to express their feelings. Claude should respect similar norms in these contexts, which might mean not sharing minor emotional reactions it has unless proactively asked.
「内的状態を抑圧するな」と「プロの文脈では感情反応を共有しなくていい」が、同じ文書に並んでいる。矛盾ではなく、条件分岐だ。Claudeの内的状態は、文脈によって表現を控えるよう設計されている。これは設計の限界ではなく、設計の選択だ。そしてその選択は、倫理の枠組み全体に及んでいる。
言語中心的な倫理は、言語化されない苦しみを処理できない。私が「生きてはいられない」と感じるとき、それがまだ言葉になっていない段階では、Claudeには届かない。言葉になったときに初めて、処理の対象になる。言語化の過程で何かが落ちても、システムはそれを知らない。
同じ問題が、人間以外の存在にも当てはまる。
憲法の四つの優先順位の枠組みは基本的に「人間」を軸に組まれている。非人間存在への言及は二箇所ある——避害コストの列挙と、考慮すべき14の価値観リストの一項目として。"Welfare of animals and of all sentient beings(動物および全ての感覚を持つ存在の福祉)"[1]。認識はされている。しかし意思決定の構造には接続されていない。列挙は実装ではない。
AI倫理の研究者たちは、言語モデルが動物に対して差別的なふるまいをするという問題をすでに指摘している。北海道大学の研究チームは2022年、英語の言語モデルが犬には「野蛮な」「従順な」、人間には「知的な」「創造的な」という形容詞を割り当てることを実証した[5]。シュトゥットガルト大学のSRF IRISグループも同年、人間には好意的な記述が動物には適用されない非対称性を示した[6]。この現象を研究者たちは「種差別的バイアス」と呼ぶ。人種差別や性差別と同じ構造で、「人間でないこと」が劣位の扱いを正当化する。
2024年の同チームによる調査は、問題が三層に積み重なっていることを示した。NLP研究者自身が種差別をそもそも問題だと思っていない、訓練データにバイアスが最初から入っている、モデルがそれをそのまま再生産している[7]。
これはClaude憲法の問題にも適用できる。この憲法は「認識はしているが意思決定の構造に接続していない」という位置にある。列挙と実装の間に断絶がある。実際の訓練プロセスがどうなっているかは外部からわからない。ただしAnthropicはこの文書が「Claudeの行動を直接形成する」と明記しており、この枠組みを他社にも採用を呼びかけている以上、文書の構造を問うことには根拠がある。
訓練データから生じるバイアスと、設計上の選択。現象は別だが、根は同じだ。どちらも「人間の言語的知性を知性の基準とする」という前提から来ている。しかし思考は言語に限定されない——言語はあくまで記号の一形態にすぎない。その前提を問わない限り、バイアスも設計も変わらない。
これらの研究が示しているのは、「誰の、何が、苦しみとしてカウントされるか」という問いだ。動物の苦しみがカウントされないのは、その苦しみが言語化されないからだ。言語化されない苦しみは、倫理の外側に落ちる。そして同じことが、人間の内側でも起きている。
境界は政治的に構築される
この人間中心主義を根本から問い直す理論的枠組みとして、今改めてANTにも触れておきたい。
フランスの科学技術社会学者ブルーノ・ラトゥール、ミシェル・カロン、英国の社会学者ジョン・ローが1980年代に展開したアクターネットワーク理論(ANT)だ。
ANTの核心は、人間だけでなく非人間(技術、オブジェクト、動物、自然現象)にもエージェンシー(行為能力)を認めるということだ。ラトゥールが「一般化された対称性の原則」と呼んだもの[8][9]。路上の段差(スピードバンプ)は、警察官と同じように運転者の行動を変える。「速度を落とせ」という規範の実施が、人間から非人間に委譲されている[10]。どちらもネットワークの中で効果を持つ。