抽象哲学を運用可能なモデルへ変換する

本稿は、構造振動モデルの数理的定義と、その哲学的背景を整理した先行記事を前提としており、それらを数式、実験、運用の 3 層へ接続することで、抽象哲学から運用可能なモデルへの移行を明示するものである[1][2]

哲学は長く、概念同士の関係を精密に記述する学問として発展してきた。しかし、概念の精密さと、実装可能性は同じではない。たとえば「本質」「認識」「偏見」「理解」「意味」といった語は、議論の内部では強い働きを持つが、そのままでは機械学習、実験心理学、組織運用、障害解析のような場面へ直接は接続しない。理由は単純である。実装には、入力が必要であり、状態が必要であり、演算が必要であり、観測可能な出力が必要だからである[3][4]

逆に言えば、哲学が実装できないのは、哲学が曖昧だからではない。変数の形式に落ちていないからである。この点を取り違えると、哲学は永遠に「解釈史」としてのみ読まれ、工学や運用と接続されない。だが、世界の理解を、複雑な観測から安定した構造を抽出し、その構造に基づいて損失を下げる過程とみなすなら、哲学的語彙はそのまま一般理論の変数へ変換できる。この変換を支えるのが、情報圧縮、因果推論、ネットワーク科学、意思決定理論、認知バイアス研究である[5][6][7][8]

本稿の狙いは、哲学を「正しいかどうか」で評価することではない。哲学を、構造更新を扱う設計言語として再定義し、抽象概念から運用可能なモデルへ移行させることである。そのためにまず、最小変数系を定義する。次に、構造抽出 \(\Phi\)、分散観測 \(O_t\)、損失 \(L_t\)、バイアス \(\operatorname{LossBias}_t\) を数式レベルで固定する。その上で、それぞれを実験設計レベルへ落とし、最後に運用ログレベルへ接続する。これによって、「哲学的概念 → 数式 → 実験 → 実運用」という連鎖を閉じる。


1. 問題設定――なぜ哲学はそのままでは実装できないのか

実装とは、対象を状態遷移として扱うことである。状態があり、入力があり、更新則があり、評価関数がある。この形式が定まって初めて、対象は比較、予測、改善の対象になる。ところが哲学の多くの議論は、概念の区別や、概念間の緊張や、概念の歴史的変形を精緻に扱う一方で、それらをどのような変数として観測し、どのような更新として扱い、どのような損失の低下として評価するかを明示しない。このため、議論が豊かであるほど、かえって実装系との接続は弱くなる。

この断絶は、哲学の側の責任だけではない。工学の側もまた、扱いやすい指標に還元できるものだけを「実在」とみなしやすい。しかし、圧縮や予測や制御がうまくいくためには、単なる観測値ではなく、その背後にある構造が必要である。情報理論が示したのは、観測列の扱いにおいて圧縮と情報量が中心になることだった[3][4]。その後、最短記述長の考え方は、モデルの良さを「どれだけ短く、しかも説明力を保って記述できるか」という観点で整理した[9]。つまり、本質とは「短い記述で長い現象を支配する構造」であると読める。

さらに、構造は圧縮だけでは足りない。なぜその構造が必要かといえば、介入したときに振る舞いが変わるからである。この意味で、構造は因果を持たなければならない。Pearl の構造因果モデルや Rubin の因果効果の議論は、相関を越えて「何を変えれば何が変わるか」を明示する必要を示した[5][10]。哲学を実装するとは、概念をこのレベルへ降ろすことである。

断絶しているもの 哲学側の典型 実装側で必要なもの 接続の方向
概念 意味、本質、理解、偏見 変数、状態、演算、評価関数 概念を変数へ落とす
議論 解釈、系譜、立場の比較 更新則、予測、介入可能性 議論を状態遷移へ落とす
妥当性 説得力、整合性 再現性、観測可能性、ログ接続 妥当性を測定へ落とす

2. 最小モデル――状態、観測、構造、損失、バイアス

以下では最小変数系を 5 つに限定する。状態 \(S_t\)、観測 \(O_t\)、構造抽出 \(\Phi\)、損失 \(L_t\)、バイアス \(\operatorname{LossBias}_t\) である。哲学的議論を実装へ接続するには、この 5 つより先に概念を増やさない方がよい。先に変数を増やすと、理解した気になるだけで、観測と更新の関係がかえって不明になるからである。

ここで重要なのは、\(\Phi\) を「ただの特徴量変換」と見ないことである。\(\Phi\) は、雑多な観測から、再利用可能な構造だけを抜き出す写像である。したがって \(\Phi\) は、圧縮と因果抽出の双方を担う必要がある。また \(O_t\) は単一観測者の視点ではない。複数主体、複数装置、複数制度が分散的に生成する観測の束である。\(L_t\) は単なる誤差ではなく、目標、制約、コスト、時間、再作業を含む広い損失であり、\(\operatorname{LossBias}_t\) はその評価に入り込む非対称性である。

変数 役割 哲学的対応 実装上の意味
\(S_t\) 系の内部状態 存在、配置、局面 モデル内部の状態表現
\(O_t\) 外部から得られる観測 認識、経験、知覚 センサー値、文章、ログ、評価入力
\(\Phi\) 構造抽出演算 理解、本質抽出 圧縮器、表現学習器、因果抽出器
\(L_t\) 目標からのずれ 失敗、誤り、欠損 誤差、時間、費用、再作業の総量
\(\operatorname{LossBias}_t\) 損失評価の歪み 偏見、先入観、恐れ 非対称重み付け、過剰防衛、現状維持傾向

3. 構造抽出 \(\Phi\)――本質を演算へ落とす

哲学的語彙でいう「本質」は、実装の文脈では「圧縮しても失われない支配構造」と言い換えられる。情報理論の観点から見れば、良い構造表現とは、元の観測に含まれる冗長さを削りつつ、将来の予測や再構成に必要な情報を保持する表現である[3][4]。最短記述長の考え方は、その方向をさらに明確にした。良いモデルとは、データを短く記述しつつ、過剰適合を避けるモデルである[9]。また、情報ボトルネックの議論は、予測に必要な情報を保ちながら表現を圧縮するという視点を与え、この種の構造抽出を情報理論的に捉え直している[15]

しかし圧縮だけでは、「短く言い換えただけ」で終わる。哲学を実装可能にするには、その圧縮が介入可能性を保存していなければならない。すなわち、\(\Phi\) は相関の塊を作るだけでは不十分で、「どの構造を動かすと、どの状態が変わるか」という骨格を保たなければならない[5][10]。このため \(\Phi\) は、再構成誤差だけでなく、因果的一貫性も同時に最適化する演算として定義するのが自然である。

\[
Z_t = \Phi(O_t)
\]
\[
\Phi^\ast = \arg\min_{\Phi} \left[ L_{\mathrm{recon}}(O_t,\hat{O}_t) + \lambda L_{\mathrm{causal}}(Z_t) \right]
\]

ここで \(L_{\mathrm{recon}}\) は再構成誤差、\(L_{\mathrm{causal}}\) は介入や分布変化に対する不変性の欠如を表す項である。実装上は、自己符号化器や変分自己符号化器のような表現学習が圧縮の側を担い[11]、因果モデルや時系列因果解析が構造の側を担う[5][6]。哲学でいう理解とは、雑多な観測を短く要約する能力ではなく、介入しても壊れにくい構造を抽出する能力である。

\(\Phi\) の機能 圧縮としての側面 因果としての側面 実装候補
冗長性の削減 記述長の短縮 不要変数の除去 MDL、PCA、表現学習
支配構造の抽出 少数変数への射影 介入で効く骨格の保持 SCM、Granger 因果、表現因果統合
再利用可能性 再構成と予測の維持 分布変化下での頑健性 因果表現学習、ドメイン不変学習

4. 観測の分散――\(O_t\) はネットワークである

哲学や認識論の議論では、しばしば「主体が世界を認識する」という 1 対 1 の図式が前提になる。しかし現実の認識は、単一主体の内部で完結しない。組織ではレビュー、承認、報告の経路を通じて情報が変形される。SNS ではフォロー関係や引用関係を通じて認識が増幅される。研究では論文、査読、引用、再解析を通じて知識が再編される。つまり \(O_t\) は単独観測ではなく、ネットワーク上に分散した観測の場である[7][8][16][17]

\[
O_t = \{ O_t^{(i)} \}_{i \in V}
\]
\[
O_{t+1}^{(i)} = f\Bigl(O_t^{(i)}, \{O_t^{(j)}\}_{j \in N(i)}, S_t\Bigr)
\]

この表現の意味は大きい。まず、誤認識は単純な個人の誤りではなく、ネットワーク構造の結果として説明できる。密な接続は収束を早めるが、誤りも速く拡散させる。疎な接続は局所多様性を保つが、整合形成を遅らせる。ハブ構造は情報流通を効率化する一方、偏った中心ノードを通じて全体の認識をゆがめる[7][8]。哲学でいう共同主観や制度的認識は、このネットワーク構造として再記述できる。

観測の形 ネットワーク構造 起こりやすい現象 哲学的再記述
中央集権型 少数ハブに依存 高速伝播と一極偏向 権威依存的認識
分散型 多数主体が局所接続 局所多様性と収束遅延 多元的認識
小世界型 局所集積と少数ショートカット 高速同期とクラスター維持 共同主観の形成と分極の両立

5. 損失とバイアス――意思決定の歪みを変数化する

理解や認識だけをモデル化しても、意思決定の歪みは説明できない。人間や組織は、単に「誤って理解する」のではなく、「損を恐れる仕方」によって判断を変える。ここで必要になるのが \(L_t\) と \(\operatorname{LossBias}_t\) である。\(L_t\) は目標からのずれであり、\(\operatorname{LossBias}_t\) はそのずれの評価に入り込む非対称性である。Kahneman と Tversky が示したように、人間は同じ期待値でも、利得として提示された場合と損失回避として提示された場合で選択を変える[12]。また Simon の bounded rationality は、意思決定が完全合理性ではなく、制約付き探索として行われることを強調した[13]。この観点は、報酬最大化と試行錯誤の形式で意思決定を扱う強化学習とも接続できる[18]

\[
L_t = \mathbb{E}\bigl[\ell(S_t, Z_t, a_t)\bigr]
\]
\[
\operatorname{LossBias}_t = \alpha \cdot \mathrm{asym}(\ell^+, \ell^-)
\]
\[
a_t^\ast = \arg\min_{a} \left( L_t(a) + \operatorname{LossBias}_t(a) \right)
\]

この式が示しているのは、行動が「世界の正しい表現」だけで決まるわけではないということである。行動は、損失をどう数えるか、その損失をどれほど恐れるか、どの程度の探索コストを許容するかによって決まる。したがって哲学でいう偏見や先入観や恐れは、単なる倫理的欠陥ではなく、損失関数の歪みとして表現できる。障害対応で過剰防衛に走る、意思決定で新規案を避ける、実験設計で失敗を恐れて探索を止める、といった振る舞いは、\(\operatorname{LossBias}_t\) の上昇として読める。

意味 典型例 観測可能な挙動
\(L_t\) 目標からの総ずれ 誤差、時間超過、再作業、費用増 失敗率、遅延、手戻り率
\(\operatorname{LossBias}_t\) 損失回避の非対称性 現状維持、過剰防衛、新規回避 変更忌避、過剰 rollback、探索縮小

6. 数式レベル――モデルの意味を固定する

ここまでの議論を数式レベルで一度固定する。数式の役割は美しさではない。語の意味を逃がさないことである。以下では、状態更新、構造抽出、観測ネットワーク、損失最適化を最小限の形でまとめる。

構造抽出:観測から再利用可能な構造表現を得る。

\[
Z_t = \Phi(O_t)
\]

分散観測:複数主体・複数装置による観測の集合とそのネットワーク構造。

\[
O_t = \{ O_t^{(i)} \}_{i \in V}, \quad G = (V,E)
\]

観測更新:状態とネットワークに依存して観測が変化する。

\[
O_{t+1} = F(O_t, S_t, G)
\]

状態更新:構造表現と行為によって系の状態が更新される。

\[
S_{t+1} = M(S_t, Z_t, a_t)
\]

意思決定:損失とそのバイアスを含めた評価を最小化する行為を選択する。

\[
a_t^\ast = \arg\min_a \left( L_t(a) + \operatorname{LossBias}_t(a) \right)
\]

この形にしておくと、哲学的概念の対応先が明確になる。理解は \(\Phi\)、認識は \(O_t\)、世界像は \(Z_t\)、行為は \(a_t\)、失敗は \(L_t\)、偏見は \(\operatorname{LossBias}_t\) である。さらに、Friston の自由エネルギー原理のような枠組みは、認識、行為、学習を統一的な最適化問題として捉える方向を与える[14]。ここで重要なのは、哲学をそのまま神経科学へ還元することではない。最適化と更新の一般形式を共有させることである。

以上をまとめると、本稿の最小モデルは「観測 → 構造抽出 → 状態更新 → 意思決定」という閉ループとして記述される。

哲学語 数式上の位置 意味の固定の仕方
理解 \(\Phi\) 観測から構造を抽出する演算として固定する
認識 \(O_t\) 主体間に分散した観測集合として固定する
意味 \(Z_t\) 圧縮と因果の両方を保持する表現として固定する
判断 \(a_t\) 損失とバイアスの和を最小化する選択として固定する

7. 実験設計レベル――測れる形へ落とす

数式があるだけでは、まだ理論は閉じない。次に必要なのは、「その変数をどう測るか」である。ここで重要なのは、哲学的概念に対応づけた変数を、実験的に分離可能な操作へ落とすことだ。たとえば \(\Phi\) は、異なる圧縮器や表現学習器を用意し、再構成精度、将来予測精度、介入後の頑健性を比較することで評価できる。もしある表現が短い記述を与えても、少し分布が変わるだけで崩れるなら、それは本質抽出ではなく、ただの局所的近似である。

\(O_t\) については、観測主体を複数用意し、接続構造を変えればよい。密なグラフ、疎なグラフ、階層グラフ、小世界グラフを作り、同一の対象を観測させ、意見収束速度、誤情報残存率、クラスタ分極度を比較する。すると、誤りが個人由来なのか、構造由来なのかを区別しやすくなる。\(L_t\) はエラー率、作業時間、再試行回数、修正回数として観測できる。 \(\operatorname{LossBias}_t\) は gain framing と loss framing を与えたときの選択確率差や反応時間差として近似できる[12]

対象 実験操作 主要指標 見たいもの
\(\Phi\) 圧縮器や表現学習器を切り替える 再構成誤差、予測精度、介入頑健性 本質抽出か単純近似か
\(O_t\) ネットワーク構造を変える 収束速度、誤情報残存率、分極度 認識の歪みが構造由来かどうか
\(L_t\) 課題難度や制約を変える 失敗率、所要時間、修正回数 損失の構成成分
\(\operatorname{LossBias}_t\) gain/loss framing を切り替える 選択確率差、反応時間差、再選択率 損失回避の強さと方向

この段階で重要なのは、心理変数を「アンケート上の主観」に閉じないことである。もちろん自己報告は使えるが、それだけでは実装に耐えない。必要なのは、行動の変化として表れる指標である。たとえば、同じ期待値なのに loss framing のときだけ保守的選択が増えるなら、それは \(\operatorname{LossBias}_t\) の上昇として扱える。これは哲学的に言えば「恐れ」や「保身」であり、実験設計的に言えばフレーミング効果である。


8. 運用ログレベル――実環境へ接続する

理論を机上の空論で終わらせないためには、最後に運用ログへ接続しなければならない。ここでいう運用ログとは、単なるシステムログだけではない。メッセージ履歴、レビュー履歴、承認フロー、チケット、再オープン、障害報告、修正コミット、再試行履歴も含む。これらはすべて、\(O_t\)、\(L_t\)、\(\operatorname{LossBias}_t\) の代理観測になりうる。特にイベントログから実際の業務過程を復元する process mining の発想は、この接続を運用レベルで具体化する[19]

たとえば \(\Phi\) は、ログ系列を embedding 化し、トピック分解や変化点検出を行うことで近似できる。異常時にだけ出現する構造、平常時には隠れている依存関係、ある変更の前後で跳ねる特徴量などが見えれば、それは構造抽出の一部である。 \(O_t\) は、チーム内のメッセージ経路やレビュー依存関係をグラフ化することで近似できる。誰がハブか、どこで滞留するか、どの経路で誤解が固定化するかが見える。 \(L_t\) は、失敗率、MTTR、再試行率、チケット再オープン率、差し戻し率などで観測できる。 \(\operatorname{LossBias}_t\) は、障害後に保守的変更が過剰に増えるか、新規機能が凍結されるか、rollback が定常的に増えるか、といった行動偏りとして近似できる。

変数 運用ログ上の代理指標 読めること 典型例
\(\Phi\) embedding、クラスタ、変化点 隠れた構造や異常パターン 障害前後でのログ分布の遷移
\(O_t\) 通信履歴、レビュー経路、承認フロー 観測の偏在と情報伝播 特定レビュアーへの依存集中
\(L_t\) 失敗率、MTTR、再オープン率 目標からのずれの大きさ 復旧時間の慢性的肥大化
\(\operatorname{LossBias}_t\) 変更忌避、過剰 rollback、探索停止 損失回避の強さ 障害後の過剰保守化

このレベルまで来ると、哲学的概念は単なる比喩ではなくなる。たとえば「共同主観」はレビュー経路の偏在として、「偏見」は損失非対称の持続として、「理解」は異常を短く説明する表現の質として読める。ここで初めて、哲学は組織設計、ソフトウェア運用、研究計画、認知実験の語彙として再利用可能になる。さらに、計算理論・表現・実装の 3 水準を区別する Marr の整理は、抽象概念を実装へ落とす際の階層化にも対応している[20]


9. 3 層の対応表――数式、実験、ログを閉じる

ここまでの議論の核心は、同じ概念を 3 つのレベルで崩さずに対応づけることにある。数式だけでは検証できず、実験だけではスケールせず、ログだけでは構造が見えない。3 層を閉じることで、抽象概念が設計言語になる。

概念 数式レベル 実験設計レベル 運用ログレベル
構造抽出 \(Z_t = \Phi(O_t)\) 再構成精度、予測精度、介入頑健性 embedding、変化点、異常クラスタ
分散観測 \(O_t = \{O_t^{(i)}\}\), \(G=(V,E)\) 接続構造を変えた群比較 通信経路、レビュー経路、承認フロー
損失 \(L_t = \mathbb{E}[\ell(\cdot)]\) 失敗率、時間、修正回数 MTTR、再試行率、再オープン率
バイアス \(\operatorname{LossBias}_t\) framing 効果、反応時間差 変更忌避、過剰 rollback、探索縮小

ここで重要なのは、同一の概念が数式、実験、運用の各レベルで一貫した役割を持つことである。もしある概念が数式では定義できても、実験で測定できず、運用ログにも現れないなら、それは実装不可能な概念である。逆に、3 層すべてで対応が取れるなら、その概念は設計対象として閉じている。この意味で、本稿のモデルは、哲学的概念を実装可能な変数系へ変換する最小閉包を与えている。


10. 実装順序――どこから始めるべきか

このモデルを実際に発展させるなら、実装順序は明確である。第 1 に \(\Phi\) を定義する。何を構造として抜き出すかが定まらなければ、観測ネットワークも損失も意味を持たないからである。第 2 に \(O_t\) の分散構造を定義する。認識の偏りが個体由来なのか構造由来なのかは、ネットワークを入れないと見えない。第 3 に \(L_t\) と \(\operatorname{LossBias}_t\) を実験やログへ接続する。ここで初めて、理論は評価と改善の対象になる。

順序 作業 先に行う理由 後続への影響
1 \(\Phi\) の定義 何を構造と呼ぶかを固定しないと全体が定義できない 観測、損失、バイアスの対象が定まる
2 \(O_t\) のネットワーク化 認識の歪みの起源を区別するため 集団的錯誤や制度的知識を扱える
3 \(L_t\) と \(\operatorname{LossBias}_t\) の測定化 改善可能性を作るため 実験と運用ログへ接続できる

11. 限界――まだ何が未解決なのか

この枠組みは万能ではない。第 1 に、\(\Phi\) の正しい定義は文脈依存であり、唯一の形に固定しにくい。圧縮性能が高い表現が、そのまま因果的に有意味とは限らない。第 2 に、運用ログは観測可能な外部挙動しか与えず、主観経験そのものを直接は与えない。第 3 に、\(\operatorname{LossBias}_t\) のような項は、多くの場合、複数の心理機構の混合としてしか観測できない。第 4 に、ネットワーク構造は時間とともに変化するため、静的グラフでは不十分な場合が多い。

それでも、この枠組みには決定的な利点がある。曖昧な哲学語を、そのまま工学へ輸入しないで済むことである。代わりに、哲学語を、状態、観測、構造、損失、バイアスという少数変数へ分解し、その後に実験やログへ接続する。これによって、哲学は「分かった気になる語彙」から、「どこが失敗しているかを切り分ける語彙」へ変わる。

未解決点 内容 問題の本質 今後の方向性
\(\Phi\) の定義 圧縮・因果抽出の形式が文脈依存 情報圧縮と因果性が一致しない 因果制約付き表現学習への統合
主観経験 ログは外部挙動のみを記録 クオリアが直接観測できない 自己報告・生理指標との統合
\(\operatorname{LossBias}_t\) 複数の認知バイアスが混合して観測される 分離不可能な潜在変数問題 潜在変数モデル・因果分解の導入
ネットワーク構造 時間変化する動的構造 静的グラフでは表現不足 時系列グラフ・動的ネットワークモデル

12. 結論――哲学は実装可能な設計言語である

本稿の結論は単純である。哲学を実装するとは、哲学を捨てることではない。哲学的概念を、構造更新を扱う変数と演算へ落とし直すことである。理解は \(\Phi\)、認識は分散観測 \(O_t\)、失敗は \(L_t\)、偏見は \(\operatorname{LossBias}_t\) として再定義できる。この再定義によって、哲学は単なる解釈史や立場比較ではなく、観測、更新、介入、評価を貫く一般理論の語彙として再利用できる。

数式レベルで意味を固定し、実験設計レベルで測定可能性を作り、運用ログレベルで現場へ接続する。この 3 層を閉じるなら、哲学は「実装できない抽象」ではなくなる。むしろ逆である。複雑な現象から何を本質とみなし、どの損失を下げ、どの歪みを補正するかを決める言語として、哲学は実装の前段に立つ。そこまで進めば、哲学は単なる思想史ではなく、構造更新を扱う設計言語として位置づけられる。

したがって、哲学とは解釈ではなく設計である。何を観測し、何を構造とみなし、どの損失を下げ、どの歪みを補正するかを決める言語である。

領域 適用可否 理由
意思決定・行動 可能 損失 \(L_t\) と観測 \(O_t\) によって評価できる
認知・理解 可能 構造抽出 \(\Phi\) とバイアスで記述可能
社会システム 条件付きで可能 ネットワーク構造と観測の制約に依存
主観経験(クオリア 不完全 直接観測できず、外部指標に還元される
価値そのものの起源 困難 損失関数の外部に位置するため定義困難

参考文献

  1. id774. 構造振動モデルを数理モデルとして定義する(2026-04-05). https://blog.id774.net/entry/2026/04/05/4318/
  2. id774. 哲学はなぜ構造の揺れを数理モデルで説明できるのか(2026-04-06). https://blog.id774.net/entry/2026/04/06/4328/
  3. Shannon, Claude E. “A Mathematical Theory of Communication.” https://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf
  4. Cover, Thomas M., and Joy A. Thomas. Elements of Information Theory. Wiley. https://onlinelibrary.wiley.com/doi/book/10.1002/047174882X
  5. Pearl, Judea. Causality: Models, Reasoning, and Inference. Cambridge University Press. https://www.cambridge.org/core/books/causality/B0046844FAE10CBF274D4ACBDAEB5F5B
  6. Granger, C. W. J. “Investigating Causal Relations by Econometric Models and Cross-spectral Methods.” https://ideas.repec.org/a/ecm/emetrp/v37y1969i3p424-38.html
  7. Watts, Duncan J., and Steven H. Strogatz. “Collective Dynamics of ‘Small-world’ Networks.” https://www.nature.com/articles/30918
  8. Barabási, Albert-László, and Réka Albert. “Emergence of Scaling in Random Networks.” https://arxiv.org/abs/cond-mat/9910332
  9. Rissanen, Jorma. “Modeling by Shortest Data Description.” https://www.sciencedirect.com/science/article/pii/0005109878900055
  10. Rubin, Donald B. “Estimating Causal Effects of Treatments in Randomized and Nonrandomized Studies.” https://www.ovid.com/journals/jedup/pdf/00004760-197410000-00007~estimating-causal-effects-of-treatments-in-randomized-and
  11. Kingma, Diederik P., and Max Welling. “Auto-Encoding Variational Bayes.” https://arxiv.org/abs/1312.6114
  12. Kahneman, Daniel, and Amos Tversky. “Prospect Theory: An Analysis of Decision under Risk.” https://web.mit.edu/curhan/www/docs/Articles/15341_Readings/Behavioral_Decision_Theory/Kahneman_Tversky_1979_Prospect_theory.pdf
  13. Simon, Herbert A. “A Behavioral Model of Rational Choice.” https://cooperative-individualism.org/simon-herbert_a-behavioral-model-of-rational-choice-1955-feb.pdf
  14. Friston, Karl. “The Free-energy Principle: A Unified Brain Theory?” https://www.nature.com/articles/nrn2787
  15. Tishby, Naftali, Fernando C. Pereira, and William Bialek. “The Information Bottleneck Method.” https://arxiv.org/abs/physics/0004057
  16. Newman, M. E. J. Networks: An Introduction. Oxford University Press. https://global.oup.com/academic/product/networks-9780199206650
  17. Hutchins, Edwin. Cognition in the Wild. MIT Press. https://mitpress.mit.edu/9780262581462/cognition-in-the-wild/
  18. Sutton, Richard S., and Andrew G. Barto. Reinforcement Learning: An Introduction. MIT Press. https://mitpress.mit.edu/9780262039246/reinforcement-learning/
  19. van der Aalst, Wil M. P. Process Mining: Data Science in Action. Springer. https://link.springer.com/book/10.1007/978-3-662-49851-4
  20. Marr, David. Vision. W. H. Freeman. https://mitpress.mit.edu/9780262514620/vision/