Membedah Masa Depan: Analisis Kritis Terhadap Strategic Report 2035 tentang Hybrid Intelligence dan Kontrol Kesadaran

Membedah Masa Depan: Analisis Kritis Terhadap Strategic Report 2035 tentang Hybrid Intelligence dan Kontrol Kesadaran

Sebuah Evaluasi Komprehensif terhadap Proyeksi Konvergensi AI, Neurosains, dan Kekuasaan

Oleh : Asep Rohmandar dan Tim Redaksi MPMSN Info

I. Pendahuluan: Memetakan Anxiety Peradaban

Di tengah percepatan teknologi yang belum pernah terjadi sebelumnya dalam sejarah manusia, Strategic Report 2035 hadir sebagai salah satu upaya paling ambisius untuk memetakan masa depan yang dibentuk oleh konvergensi kecerdasan buatan, neurosains, dan bioteknologi. Laporan ini membuat klaim yang provokatif: "By 2035, the convergence of artificial intelligence, neuroscience, biotechnology, and digital governance will transform the notion of power." 

Namun seberapa valid proyeksi ini? Apakah laporan tersebut menawarkan analisis yang tajam atau sekadar memperpanjang anxiety teknologi kontemporer? Artikel ini akan membedah laporan tersebut secara kritis, mengungkap kekuatan argumentasinya sekaligus menelanjangi blind spots-nya yang signifikan.


II. Bagian 2: Fondasi Ilmiah — Antara Rigor dan Spekulasi

1. Neurosains dan Teori Kesadaran: Premis yang Rapuh

Laporan tersebut membangun argumennya di atas fondasi neurosains kontemporer, dengan merujuk pada Integrated Information Theory (IIT) dari Giulio Tononi dan kerja Stanislas Dehaene tentang kesadaran. Pernyataan kunci laporan adalah: "Integrated Information Theory (IIT) suggests that consciousness correlates with information integration, not with a specific biological substrate."

Pada tataran permukaan, referensi ini terlihat impresif. IIT memang salah satu teori kesadaran paling berpengaruh, mengusulkan bahwa kesadaran muncul dari integrasi informasi dalam sistem. Namun di sinilah kritik pertama muncul: IIT masih sangat kontroversial dalam komunitas neurosains. Sebagaimana dinyatakan oleh filosof David Chalmers, teori ini lebih kuat sebagai teori matematis daripada penjelasan kausal tentang mengapa integrasi informasi menghasilkan pengalaman subjektif.

Lebih problematis lagi adalah lompatan logis yang dilakukan laporan: "hybridization does not require 'transferring the soul,' only coupling decision-making and perception systems." Ini adalah non-sequitur yang berbahaya. Fakta bahwa kesadaran mungkin tidak terikat pada substrat biologis spesifik tidak secara otomatis berarti bahwa "coupling" sistem keputusan sama dengan integrasi kesadaran yang bermakna.

2. Brain-Computer Interfaces: Gap antara Medis dan Kognisi

Laporan mengutip Neuralink dan BrainGate sebagai bukti kemajuan BCI. Memang benar bahwa teknologi ini menunjukkan kemajuan luar biasa dalam aplikasi medis—membantu pasien lumpuh menggerakkan cursor atau prostetik. Namun laporan melakukan ekstrapolar yang terlalu jauh ketika menyarankan bahwa teknologi ini akan, dalam dekade mendatang, mampu "mengoptimalkan perhatian, memori, dan performa manusia" secara luas.

Neural encoding dan decoding untuk fungsi kognitif tingkat tinggi jauh lebih kompleks daripada motor control. Seperti yang dijelaskan oleh neurosaintis Miguel Nicolelis, "We are still at the Model T stage of brain-machine interfaces." Kompleksitas otak manusia—dengan 86 miliar neuron dan triliunan koneksi—membuat "mind reading" atau "mind control" yang berarti masih jauh dari jangkauan teknologi saat ini.

3. AI dan Emergent Behavior: Amplifikasi vs Kreativitas

Pernyataan laporan bahwa "AI functions as a cognitive amplifier: it accelerates thinking, memory, prediction, and influence" adalah akurat dan well-established. Namun ketika laporan menyebut AI menunjukkan "statistical creativity," kita memasuki wilayah yang lebih kabur.

AI generatif seperti GPT dan DALL-E memang menghasilkan output yang terlihat kreatif, tetapi apakah ini kreativitas dalam pengertian yang bermakna? Filosof Margaret Boden membedakan antara "combinatorial creativity" (mengombinasikan elemen yang sudah ada dengan cara baru) dan "transformational creativity" (mengubah ruang konseptual itu sendiri). AI saat ini unggul dalam yang pertama tetapi belum menunjukkan kapasitas yang kedua.

Kesimpulan Bagian I: Fondasi ilmiah laporan adalah campuran antara observasi yang valid tentang teknologi saat ini dan ekstrapolasi spekulatif yang mengabaikan kompleksitas fundamental dan kontroversi ilmiah yang masih berlangsung.


II. Bagian 2: Tiga Fase Evolusi — Memeriksa Timeline yang Diprediksi

1. Fase 1 (2025–2028): AI sebagai Prostetik Kognitif

Laporan menyatakan: "Assistants, co-pilots, decision-making systems. Increasing dependence on AI to think, choose, and interpret reality."

Evaluasi Realistis:  Fase ini adalah proyeksi paling solid dalam laporan. Kita sudah melihat dependensi kognitif meningkat—dari GPS yang mengerdilkan kemampuan navigasi alami hingga search engines yang mengubah cara kita mengingat informasi (fenomena yang disebut psikolog Betsy Sparrow sebagai "Google Effect" atau "digital amnesia").

Namun laporan membuat klaim yang lebih problematis: "whoever controls the interface controls the human." Ini adalah determinisme teknologi yang mengabaikan agency manusia. Sejarah teknologi menunjukkan bahwa adopsi tidak pernah linier atau pasif—selalu ada resistensi, appropriasi, dan subversi. Seperti yang ditulis oleh sosiolog Langdon Winner, "technologies are not merely aids to human activity, but also powerful forces acting to reshape that activity and its meaning."

2. Fase 2 (2028–2032): Neuro-Digital Coupling

Di sini laporan mengklaim: "Direct interfaces (medical, military, industrial). Optimization of human attention, memory, and performance. First real ethical dilemmas: whoever controls the interface controls the human."

Evaluasi Kritis:  Timeline empat tahun dari sekarang (2028) untuk interface neuro-digital yang meaningful adalah agresif, bahkan untuk konteks militer dan medis. Beberapa faktor yang diabaikan:

1. Regulatory Barriers:  FDA approval untuk medical devices memakan waktu bertahun-tahun. Interface yang invasif akan menghadapi scrutiny yang intens.

2. Economic Viability:  Cost-benefit untuk konsumen umum belum jelas. Siapa yang akan membayar ribuan dolar untuk chip otak yang meningkatkan memori 15%?

3. Social Acceptance:  Survey menunjukkan resistensi publik yang tinggi terhadap brain implants bahkan untuk tujuan medis, apalagi "enhancement."

Laporan mengidentifikasi "first real ethical dilemmas" pada fase ini, tetapi sebenarnya dilema etis sudah muncul sekarang—dalam algoritma bias, filter bubbles, dan surveillance capitalism yang dijelaskan oleh Shoshana Zuboff.

3. Fase 3 (2032–2035): Systemic Hybrid Intelligence

Klaim paling ambisius: "Human-AI networks functioning as collective minds. Strategic decisions made by hybrid systems (governments, markets, security)."

Analisis Skeptis: "Collective minds" adalah metafora yang menarik tetapi scientifically ungrounded. Networked collaboration dan distributed cognition sudah ada sejak lama—dari scientific communities hingga financial markets. Menambahkan AI ke dalam mix tidak secara kualitatif menciptakan "collective consciousness" baru.

Yang lebih akurat adalah mengatakan bahwa pengambilan keputusan akan semakin melibatkan sistem hybrid manusia-AI, tetapi ini adalah evolusi gradual dari apa yang sudah terjadi (misalnya, algorithmic trading, predictive policing), bukan revolusi yang mengubah nature of decision-making itu sendiri.

Kesimpulan Bagian II:  Timeline laporan menderita dari "hype cycle thinking"—memprediksi transformasi radikal dalam jangka waktu yang tidak realistis sambil underestimate inertia sosial, ekonomi, dan institusional.

III. Bagian 3: Dimensi Etis — Mapping the Moral Minefield

1. Erosi Kehendak Bebas: Sebuah Ancaman yang Real?

Laporan mengidentifikasi risiko kunci: "'suggested' decisions become accepted decisions." Ini bukan sekadar spekulasi—penelitian empiris mendukung kekhawatiran ini.

Studi oleh Cass Sunstein dan Richard Thaler tentang "nudging" menunjukkan bahwa default options dan choice architecture secara dramatis mempengaruhi keputusan manusia. Dalam konteks AI, recommendation algorithms sudah "menudge" miliaran keputusan setiap hari—apa yang kita tonton, baca, beli, bahkan siapa yang kita pilih dalam politik.

Namun pertanyaan filosofis yang lebih dalam adalah: apakah ini mengerdilkan free will atau sekadar mengungkapkan bahwa free will tidak pernah se-robust yang kita kira? Filosof Daniel Dennett berpendapat bahwa kehendak bebas adalah tentang "kind of control that is worth wanting"—bukan kebebasan metafisik absolut, tetapi kapasitas untuk bertindak berdasarkan preferensi yang terinformasi dan reflektif.

Laporan tidak mengeksplorasi nuansa ini. Ia menggunakan retorika "erosi" yang menyiratkan ada baseline free will yang sempurna, padahal filsafat dan neurosains telah lama mempertanyakan asumsi ini.

2. Manipulasi Emosional Skala Besar: Dari Teori ke Praktik

"AI already influences emotions (dopamine, fear, reward)" adalah pernyataan yang didukung kuat oleh bukti. Facebook's infamous "emotional contagion" study (2014) menunjukkan bahwa manipulasi news feed dapat mengubah emotional states pengguna. Algoritma YouTube dirancang untuk maximize watch time, sering mengeksploitasi negativity bias dan outrage.

Namun laporan tidak mengusulkan solusi konkret. Ia mencantumkan ini sebagai risiko tetapi tidak menawarkan framework untuk mitigasi. Pertanyaannya bukan hanya "apakah AI bisa memanipulasi emosi?" (jawaban: ya), tetapi "how do we design systems that respect emotional autonomy?"

3. Ketimpangan Kognitif: Spectre of a New Caste System

Laporan memperingatkan: "Cognitive inequality: elites with access to hybrid AI vs. non-augmented populations."

Ini mungkin adalah prediksi paling disturbing dan plausible dalam laporan. Analog historis memberikan precedent yang mengerikan—literacy divide menciptakan stratifikasi sosial selama berabad-abad. Digital divide terus memperdalam inequality ekonomi global.

"Cognitive divide" bisa jauh lebih pernicious karena langsung berdampak pada kapasitas untuk berpikir, belajar, dan berkompetisi. Seperti yang ditunjukkan oleh ekonom Thomas Piketty, technological change sering kali meningkatkan return to capital dan skills, memperbesar kesenjangan.

Namun laporan tidak membahas mekanisme ekonomi politik yang akan mengatur akses. Siapa yang akan membayar untuk cognitive enhancement? Apakah akan ada universal basic cognitive enhancement sebagai public good? Atau akan menjadi luxury good yang hanya terjangkau oleh elite?

4. Irresponsabilitas Moral: "The Algorithm Made Me Do It"

"'It was the algorithm'" adalah diffusion of responsibility yang sudah kita lihat dalam berbagai konteks. Ketika autonomous vehicle membunuh pejalan kaki, siapa yang bertanggung jawab—programmer, manufacturer, AI itu sendiri?

Laporan mengidentifikasi masalah ini tetapi tidak mengusulkan solution. Literatur etika AI telah mengeksplorasi berbagai frameworks:

- Strict Liability: Pemilik/operator sistem bertanggung jawab regardless of fault
- Proportional Responsibility: Liability dibagi berdasarkan contribution
- Negligence Standard:  Bertanggung jawab jika gagal meet reasonable care standard

Tanpa mengadopsi framework konkret, warning laporan tentang "moral irresponsibility" tetap menjadi hand-wringing tanpa aksi.

Kesimpulan Bagian III: Laporan berhasil mengidentifikasi risiko etis yang real dan urgent, tetapi gagal menawarkan architektur normatif dan institusional yang diperlukan untuk menghadapinya.


IV. Bagian 4: Geopolitik Kesadaran — Peta Kekuatan yang Tidak Lengkap

1. Amerika Serikat: Privatisasi Kognisi Kolektif

Laporan menyatakan: "Leadership in commercial and military AI. Strong link between Big Tech, defense, and intelligence. Risk: privatization of collective cognition."

Analisis: Observasi ini on point. Revolving door antara Silicon Valley, Pentagon, dan intelligence agencies adalah well-documented. Google's Project Maven (AI untuk military drone targeting), Amazon's contracts dengan CIA, Palantir's surveillance systems—semuanya menunjukkan deep integration antara Big Tech dan security state.

"Privatisasi kognisi kolektif" adalah metaphor yang powerfull. Ketika pemikiran kita dimediasi oleh platform yang dimiliki korporasi, dan algoritma mereka menentukan apa yang kita lihat dan pikirkan, ada sense yang real bahwa cognition kita telah diprivatisasi.

Namun laporan mengabaikan counter-trends penting: antitrust movements, data privacy regulations (CCPA, GDPR), dan growing public skepticism terhadap Big Tech. Kekuatan ini bisa mengubah trajectory yang diprediksi.

2. China: Laboratorium Techno-Authoritarianism

"AI model as an instrument of social order. Direct integration between the State, data, and behavior. Advantage: population scale + data. Risk: suppression of human singularity."

Evaluasi: China memang menjadi case study paling clear untuk "cognitive control state." Social Credit System, pervasive surveillance, AI-powered censorship—semuanya real dan operasional.

Keunggulan struktural China—unified data governance, population scale, absence of privacy constraints—memang memberikan advantages untuk AI development. Tetapi apakah ini sustainable? Ada costs yang diabaikan:

1. Economic Costs:  Surveillance infrastructure sangat mahal untuk maintain
2. Innovation Costs: Kontrol yang ketat bisa stifle creativity dan risk-taking
3. Legitimacy Costs:  Over-control bisa erode regime legitimacy

Laporan menyebut "suppression of human singularity" sebagai risiko, tetapi ini adalah euphemism. Yang dimaksud adalah homogenisasi pemikiran, penghancuran dissent, dan eliminasi diversity kognitif—yang dalam jangka panjang bisa fatal untuk adaptability sosial.

3. Rusia: Agresivitas Informasional tanpa Dominasi Teknologi

"Use of AI for cognitive warfare, disinformation, and social control. Less technological sophistication, greater informational aggressiveness."

Analisis Akurat:  Rusia telah membuktikan bahwa technological sophistication bukan prasyarat untuk cognitive warfare yang efektif. IRA (Internet Research Agency) operations, election interference, weaponization of social media—semuanya achieved dengan resources yang relatif modest dibanding tech giants Barat.

Ini mengungkapkan insight penting yang kadang terlupakan: cognitive control tidak selalu butuh advanced AI. Sometimes, crude tools yang digunakan dengan strategic cunning lebih efektif daripada sophisticated systems.

4. Uni Eropa: Ethical Leadership tanpa Technological Power?

"Attempt at ethical leadership (AI Act). Risk of strategic irrelevance if ethics are not accompanied by real technological power."

Kritik Tajam dan Valid:  EU's AI Act adalah regulasi paling komprehensif di dunia untuk AI governance. Tetapi ada ironi yang menyakitkan—EU sedang membuat rules untuk game yang mereka tidak main di top level.

EU tidak punya tech giants yang comparable dengan US (Google, Microsoft, OpenAI) atau China (Baidu, Alibaba, Tencent). EU's "digital sovereignty" adalah aspirasi, bukan realitas. Dependensi pada US cloud infrastructure dan Chinese hardware adalah vulnerability strategis yang serius.

Pertanyaannya: bisakah ethical leadership tanpa technological capacity menghasilkan influence real? Atau EU akan menjadi "regulatory superpower" yang standards-nya di-ignore atau di-circumvent oleh actual technology powers?

5. Blind Spot Geopolitik: Global South yang Hilang

Kritik Fundamental: Laporan almost completely ignores Global South. Tidak ada diskusi tentang India (dengan population terbesar dan growing tech sector), Brazil, Indonesia, Afrika Sub-Sahara.

Ini adalah blind spot yang serious karena:

1. Testing Grounds: Global South akan menjadi labs untuk AI deployment tanpa Western regulatory constraints
2. Digital Colonialism:  AI systems trained pada Western data akan di-export ke Global South, perpetuating epistemic injustice
3. Alternative Models: Non-Western philosophical traditions bisa offer different frameworks untuk human-AI relations

Kesimpulan Bagian IV: Analisis geopolitik laporan adalah Eurocentric dan US-China centric, missing massive parts of the world yang akan critically shape AI futures.

IV. Bagian 5 : Redefinisi Kekuasaan — "Sovereign is Whoever Governs Attention"

1. Konsep Inti: Dari Territory ke Attention

Laporan membuat klaim bold: "New definition of sovereignty: sovereign is whoever governs attention."

Ini adalah reformulation of power yang menarik dan pada beberapa level, insightful. Attention economy adalah real—sebagaimana diartikulasikan oleh Herbert Simon, "a wealth of information creates a poverty of attention." Dalam information-saturated world, attention adalah scarce resource yang paling valuable.

Kontrol atas attention memang equals kontrol atas perception, yang equals kontrol atas decision-making. Ini bukan abstraksi—ini adalah business model dari Google, Facebook, TikTok. "If you're not paying for the product, you are the product" bukan slogan, tapi accurate description of economic reality.

2. Kritik: Reduksionisme yang Berbahaya

Namun mendefinisikan sovereignty purely dalam terms of attention control adalah reductionist dan potentially misleading. Beberapa kritik:

1. Material Power Still Matters

Hard power—military capability, economic resources, natural resources, geographic control—tidak menghilang. Rusia's invasion of Ukraine menunjukkan bahwa tanks dan missiles masih sangat relevant. Energy sovereignty (oil, gas, renewables) akan tetap crucial.

Laporan seems to suggest shift dari material power ke cognitive power, tetapi realitasnya adalah layering, bukan replacement. Future power akan hybrid material-cognitive, bukan purely cognitive.

2. Overestimasi Determinisme Teknologi

Premis bahwa "whoever controls attention controls behavior" mengabaikan human agency dan social resistance. People are not passive receptacles untuk information manipulation.

History menunjukkan bahwa propaganda dan manipulation selalu dihadapi dengan skepticism, resistance, dan counter-narratives. Internet yang supposed to democratize information juga created tools untuk fact-checking, whistleblowing, dan grassroots organizing.

3. Infrastruktur Material di Balik Cognitive Control

"Attention control" bergantung pada infrastructures yang very material: data centers, undersea cables, satellite networks, semiconductor fabs. Sovereignty atas physical infrastructure ini adalah prerequisite untuk cognitive sovereignty.

China's massive investment dalam 5G infrastructure, US control atas semiconductor supply chains, scramble untuk rare earth minerals—ini adalah material struggles yang underlie cognitive competition.

3. Pilar Kekuasaan 2035: Evaluasi

Laporan identifies empat pilar:

1. Cognitive infrastructures (platforms, interfaces, data)

Valid. Platform monopolies adalah chokepoints untuk information flow. Namun laporan underestimate resistance—antitrust movements, decentralization movements (Web3, fediverse), open-source alternatives.

2. Foundational AI models

Sangat valid. GPT, DALL-E, Midjourney—foundation models adalah bottleneck strategis. Whoever controls these controls capabilities downstream. Ini analog dengan control atas operating systems (Microsoft) atau mobile ecosystems (Apple, Google).

3. Narratives (interpretation of reality)

Benar tetapi tricky. Dalam fragmented media landscape, kontrol atas narratives jauh lebih sulit daripada di broadcast era. Multiple competing narratives coexist, dan tidak jelas siapa yang "control" narrative space.

4. Collective emotional states (fear, hope, urgency)

Menarik tetapi sulit dioperasionalkan. Yes, algorithms dapat amplify certain emotions. Tetapi emotional states juga shaped by material conditions—economic insecurity, climate events, pandemic. Technology bukan sole determinant.

Kesimpulan Bagian V: Attention control adalah dimension penting dari power, tetapi bukan the defining characteristic. Future power akan multidimensional—hybrid of material, technological, dan cognitive capabilities.

IV. Bagian 6: Tiga Skenario 2035 — Evaluasi Probabilitas

1. 🟥 Skenario A: Cognitive Techno-Authoritarianism

Deskripsi Laporan: "AI used to predict and shape behaviors. Formal democracies, conditioned consciousness. High efficiency, low inner freedom."

Probabilitas: 40-50% (Sedang-Tinggi)

Ini adalah scenario yang paling "default" given current trajectories. Banyak mekanisme untuk cognitive techno-authoritarianism sudah operasional:

- Surveillance Capitalism:  Shoshana Zuboff sudah dokumentasikan bagaimana behavior prediction dan modification adalah core business model
- Authoritarian Tech:  China's model menunjukkan technical feasibility
- Democratic Erosion:  Microtargeting dalam campaigns, algorithm-driven polarization

Namun ada resistance factors yang laporan underestimate:

- Backlash Privacy:  GDPR, CCPA, growing privacy consciousness
- Regulatory Response: Antitrust actions, platform regulation
- Technological Counter-measures: Encryption, privacy tools, decentralized systems

Yang paling probable bukan pure techno-authoritarianism, tetapi "Soft Techno-Authoritarianism"—where control is subtle, diffuse, dan mediated by corporate actors rather than direct state coercion (at least di Western democracies).

2. 🟨 Skenario B: Cognitive Chaos

Deskripsi: "Explosion of competing AIs, total misinformation. Loss of consensus on reality. Radicalization and institutional collapse."

Probabilitas: 25-35% (Sedang)

Ada evidence untuk scenario ini:

- Epistemological Fragmentation: We already see inability untuk agree on basic facts
- AI-Generated Misinformation: Deepfakes, synthetic media, AI-generated disinformation campaigns
- Institutional Distrust: Declining trust dalam media, science, government

Namun "total chaos" dan "institutional collapse" adalah hyperbolic. Institutions are more resilient than given credit. Ada corrective mechanisms:

- Verification Technologies:  Blockchain-based provenance, cryptographic authentication
- Institutional Adaptation:  Media literacy programs, fact-checking infrastructures
- Demand for Stability: After chaos, people demand order—which could actually accelerate consolidation

More likely adalah "Managed Chaos"—persistent uncertainty dan polarization, tetapi not full collapse. More "epistemic pluralism" dengan competing reality bubbles yang coexist uneasily.

3. 🟩 Skenario C: Ethical Hybrid Intelligence

Deskripsi: "AI as a conscious extension of the human, not a replacement. Cognitive education, algorithmic transparency. Human being as the guardian of the final decision."

Probabilitas: 10-20% (Rendah)

Ini adalah scenario yang most desirable tetapi least probable tanpa deliberate intervention. Mengapa sulit:

1. Coordination Problem

Membutuhkan global coordination yang unprecedented. AI development adalah competitive race—individual actors punya incentives untuk cut corners pada ethics untuk gain advantage.

2. Misalignment of Incentives

Market incentives (profit maximization) dan political incentives (power maximization) often conflict dengan ethical imperatives.

3. Technical Challenges

"Algorithmic transparency" untuk deep learning systems adalah non-trivial—even experts don't fully understand how they work. "Human in the loop" bisa be bottleneck atau security theater.

Path to This Scenario:

Hanya plausible jika:
- Catastrophic Wake-Up Call: AI disaster yang forces collective action (analog dengan nuclear weapons dan non-proliferation treaties)
- Breakthrough dalam AI Safety: Technical solutions untuk interpretability, alignment, control
- Coalition of Willing:  Critical mass negara dan korporasi yang commit untuk ethical standards

4. 🟦 Skenario D: Hybrid Fragmentation (Not in Original Report)

Deskripsi: Patchwork of different models—techno-authoritarian di beberapa regions, ethical hybrid di others, chaos di still others.

Probabilitas: 30-40% (Tinggi)

Ini adalah skenario yang most realistic tetapi tidak included dalam laporan. Mengapa probable:

- Reflects Multipolar World: Tidak ada single hegemonic power yang bisa impose model globally
- Different Values: Berbeda budaya punya berbeda priorities tentang privacy, freedom, security
- Economic Divergence: Unequal access ke AI technology akan create tiered systems

Dalam scenario ini, kita lihat:
- US/EU: Regulated AI dengan privacy protections, tetapi masih corporate-dominated
- China/Authoritarian: State-controlled AI untuk social management
- Global South: Mixture of imported systems, local adaptations, dan under-regulation
- Conflict Zones:  AI-enabled cognitive warfare dan information operations

Kesimpulan Bagian VI: Hybrid Fragmentation adalah most likely outcome—messy, unequal, conflictual, tetapi not totalitarian uniformity atau pure chaos.


VII. Bagian 7 : Tujuh Prinsip Survival — Dari Filosofi ke Praksis

1. Prinsip 1: "Consciousness Precedes Technology"

Interpretasi: Kita harus develop self-awareness dan reflective capacity sebelum adopt teknologi.

Evaluasi Filosofis: Ini adalah Socratic principle—"know thyself." Dalam context AI, artinya adalah: jangan adopt systems tanpa understand their implications untuk cognition dan agency kita.

Kritik Praktis:  Abstraksi yang indah tetapi bagaimana implementasinya? Laporan tidak offer concrete mechanisms. 

Operasionalisasi yang Possible:
- Cognitive Literacy Education: Integrate understanding of AI, attention economy, cognitive biases ke dalam curriculum
- Mindful Technology: Design practices yang encourage reflection sebelum adoption
- Digital Sabbaths: Practices untuk disconnect dan recalibrate

Tanpa operasionalisasi, ini remain pious hope.

2. Prinsip 2: "No System Should Replace Final Human Judgment"

Interpretasi: Human-in-the-loop sebagai non-negotiable principle.

Evaluasi: Philosophically sound—preserves human agency dan moral responsibility. Tetapi ada practical tensions:

Speed Problem: Dalam high-speed domains (financial trading, missile defense), human judgment adalah bottleneck. Automation is necessary.

Expertise Problem: Dalam highly technical domains, most humans lack competence untuk meaningful judgment. Deferring to AI might be rational.

Scalability Problem: Tidak mungkin punya human review untuk billions of micro-decisions daily.

Refined Version: " Meaningful Human Control "—humans set values, boundaries, dan objectives; AI executes within those parameters. Humans monitor dan intervene when necessary.

3. Prinsip 3: "Algorithmic Transparency is a Human Right"

Interpretasi: Right to understand how algorithms make decisions tentang kita.

Evaluasi: Principle yang sound—echoes data protection regulations seperti GDPR's "right to explanation."

Tensions:

1. Trade Secrets: Companies claim algorithms adalah proprietary—transparency would destroy competitive advantage.

2. Technical Complexity: Even with access to source code, deep learning models are not interpretable bahkan untuk experts. "Opening the black box" doesn't always make it comprehensible.

3. Security: Full transparency bisa facilitate gaming system atau adversarial attacks.

Realistic Compromise:
- Transparency tentang Inputs dan Purposes: What data is used, for what objectives
- Audit Rights: Independent third-party audits
- Accountability Mechanisms: Clear processes untuk appeal dan redress

Absolute transparency adalah unrealistic; meaningful accountability adalah achievable.

4. Prinsip 4: "AI Should Enhance Lucidity, Not Obedience"

Interpretasi: AI should make us more clear-thinking, bukan more compliant.

Evaluasi: Aspirasi yang beautiful tetapi deeply ambiguous. Who defines "lucidity"?

Dari perspektif authoritarian state, "lucidity" might mean alignment dengan official ideology. Dari perspektif korporasi, bisa mean rational consumer behavior.

Hidden Danger: "Lucidity" bisa jadi euphemism untuk normalization—bringing "deviant" thinking in line dengan majority atau elite consensus.

More Honest Formulation: "AI should enhance autonomy"—capacity untuk think independently, critically evaluate information, dan make self-directed choices. 

Tetapi ini still leaves question: whose conception of autonomy?

5. Prinsip 5: "Human Mind is Not a Resource — It is an End"

Interpretasi: Kantian ethics—humans sebagai ends-in-themselves, bukan means.

Evaluasi Filosofis: Morally compelling. Directly confronts instrumentalization manusia dalam attention economy dan cognitive capitalism.

Practical Challenge: Bertentangan secara fundamental dengan logika kapitalisme, yang treats labor (termasuk cognitive labor) sebagai commodity.

Implementation Problem: Bagaimana mengimplementasikan principle ini dalam ekonomi yang structurally require commodification of human capabilities?

Possible Approaches:
- Universal Basic Income: Decouple survival dari selling cognitive labor
- Data Dignity: Konsep Jaron Lanier—kompensasi untuk data production
- Public AI: Non-profit, democratically controlled AI sebagai public goods

Tanpa structural economic changes, principle ini akan remain aspirational.

6. Prinsip Tambahan yang Diperlukan

Laporan's 5 principles adalah insufficient. Saya propose additional ones:

a. "Cognitive Sovereignty as Collective Right"

Individual autonomy penting, tetapi communities juga harus punya right untuk determine norms dan practices kognitif mereka. Protect against homogenization oleh dominant AI cultures.

b. "Reversibility and Exit Rights"

Right untuk disconnect, de-integrate, return ke non-augmented state. Once deeply coupled dengan AI systems, exit bisa impossible—need safeguards.

c. "Distributed Governance"

Kontrol atas AI infrastructure tidak boleh concentrated di hands of few. Need mechanisms untuk democratic participation dalam AI governance.

Kesimpulan Bagian VII:Principles laporan adalah starting point yang valuable tetapi not sufficient. Mereka need elaboration, operasionalisasi, dan complementing dengan additional principles yang address structural issues.

VIII. Bagian 8: Blind Spots — Apa yang Tidak Dikatakan

8.1. Ekonomi Politik: The Missing Analysis

Laporan's most glaring omission adalah absensi analisis ekonomi politik yang serius. Who benefits? Who pays? Bagaimana value didistribusikan dalam ekonomi hybrid intelligence?

Capital Accumulation dalam Era Kognitif

Marx's formula M-C-M' (money-commodity-money) dalam cognitive capitalism menjadi M-D-M' (money-data-money). Data adalah "new oil" bukan dalam sense metaforis tetapi literal—raw material yang diekstrak, refined, dan monetized.

Tetapi berbeda dengan oil, data production melibatkan unpaid labor dari billions pengguna. Setiap search, click, like adalah contribution ke training data yang menghasilkan value enormous untuk platform corporations. Ini adalah "primitive accumulation" versi digital—appropriation massal dari cognitive commons.

Laporan tidak membahas:
- Siapa yang membiayai R&D untuk hybrid intelligence infrastructure? (Jawaban: combination of VC capital, big tech profits, dan government contracts)
- Bagaimana returns didistribusikan? (Jawaban: highly concentrated—top AI companies capture disproportionate value)
- Apa implikasi untuk labor? Cognitive automation akan displace kategori pekerjaan apa? Bagaimana workers akan survive transition?

Business Models Hybrid Intelligence

Laporan assume hybrid intelligence akan terjadi tetapi tidak explain economic logic-nya. Beberapa possible models:

1. Freemium Enhancement: Basic AI free, premium cognitive enhancement berbayar (stratification by ability to pay)
2. Subscription Cognition: Monthly fees untuk access to cognitive tools (cognitive capabilities as service)
3. Surveillance Bargain: "Free" enhancement in exchange untuk total data transparency (continuation of current model)
4. Public Utility: Government-provided cognitive infrastructure sebagai right (unlikely tanpa massive political shift)

Absensi diskusi ini membuat laporan feel abstract dan disconnected dari material realities.

 8.2. Dimensi Ekologis: The Forgotten Substrate

Computational Costs Environmental

Training GPT-3 menghasilkan estimated 552 tons CO2—equivalent to 120 cars selama setahun. GPT-4 dan models selanjutnya exponentially lebih besar. Hybrid intelligence infrastructure akan require:

- Massive Data Centers: Consuming terawatt-hours energi
- Cooling Systems:  Enormous water consumption
- Hardware Production: Rare earth mining dengan devastating ecological impact
- Electronic Waste:  Short lifecycle devices creating toxic waste streams

Laporan present hybrid intelligence sebagai evolution kesadaran tetapi ignore material substrate-nya. Tidak ada diskusi tentang environmental sustainability dari predicted systems.

Critical questions not addressed:
- Apakah planet bisa sustain computational demands dari ubiquitous hybrid intelligence?
- Trade-offs antara cognitive enhancement dan ecological preservation?
- Alternative models yang less resource-intensive?

Climate Change Feedback Loops

Ironically, AI yang supposed to solve problems might exacerbate ecological crisis yang will destabilize societies—undermining foundations untuk sophisticated technological civilization.

8.3. Dimensi Biologis: Long-term Consequences untuk Otak Manusia

1. Neuroplasticity dan Cognitive Offloading

Otak manusia adalah plastik—it rewires itself based on usage. GPS usage sudah terbukti mengerdilkan hippocampus (region untuk spatial navigation). Social media reshapes attention spans.

2. Apa yang terjadi ketika we offload increasing cognitive functions ke AI?

- Atrophy of Unused Capabilities:  "Use it or lose it" applies to neural circuits
- Dependency Lock-in: Seperti glasses—once dependent, hard to function without
- Evolutionary Implications:  Over generations, natural selection might favor traits yang optimize for AI coupling rather than independent cognition

3. BCI Health Risks

Long-term biological impacts dari invasive BCIs completely unknown:
- Immune responses
- Neural scarring
- Infection risks
- Psychological effects dari having "foreign" system dalam otak

Laporan treat biological integration sebagai technical problem yang akan resolved, tanpa acknowledge uncertainties fundamental.

8.4. Dimensi Psikologis: Mental Health dalam Era Hybrid

1. Identity dan Self-Concept

If cognition adalah increasingly distributed antara biological mind dan AI systems, what happens to sense of self?

- Extended Mind Thesis:  Andy Clark dan David Chalmers argue cognition sudah extended (notebooks, smartphones). Tetapi BCI integration is qualitatively different level.
- Authenticity Anxiety: "Are my thoughts my own or AI-generated?"
- Cognitive Dissonance: Ketika AI recommendations conflict dengan intuitions

2. Mental Health Epidemics

Current social media sudah associated dengan:
- Increased depression dan anxiety rates (especially adolescents)
- Attention disorders
- Social isolation paradoxically increasing despite connectivity

Hybrid intelligence bisa exacerbate atau mitigate—laporan tidak explore psychological dimensions.

3. Intergenerational Trauma

Digital natives sudah show different cognitive profiles dari previous generations. Generation raised dengan deep AI integration akan have fundamentally different psychological makeup. Implications for intergenerational understanding dan communication?

8.5. Dimensi Legal: Vakum Regulatory

Liability dalam Hybrid Systems

When hybrid human-AI system makes harmful decision, who is legally responsible?

Traditional legal frameworks assume clear agency:
- Torts: individuals responsible untuk their actions
- Contracts: parties liable untuk breaches
- Criminal: mens rea (guilty mind) required

Hybrid systems blur these. Possible frameworks:

1. Strict Liability: Operator liable regardless (may chill innovation)
2. Product Liability: Treat AI as defective product (oversimplifies)
3. Distributed Liability: Allocate based on contribution (complex to adjudicate)
4. Insurance Schemes:  Mandatory insurance untuk AI operators (privatizes risk)

Laporan tidak address legal architecture needed.

1. Intellectual Property

- AI-assisted creation: who owns IP? Human, AI provider, atau hybrid?
- Training data: legitimate use atau copyright infringement?
- Synthetic media: status legal dari deepfakes dalam different contexts?

2. Constitutional Rights 

- Fourth Amendment: ketika cognition distributed, apa yang counts sebagai "search" of mind?
- Fifth Amendment: right against self-incrimination when memories accessible via BCI?
- First Amendment: speech protections when utterances AI-generated?

Fundamental legal categories need reconceptualizing untuk hybrid era.

8.6. Absensi Perspektif Non-Western

1. Philosophical Pluralism

Laporan operate entirely dalam Western philosophical framework (Kantian ethics, liberal autonomy, individual rights). Tetapi other traditions offer alternative conceptions:

2. Buddhist Perspective: 
- Non-self (anatta): identity sebagai illusion—AI integration less threatening
- Interdependence: boundaries antara self dan other sudah fluid
- Mindfulness practices: tools untuk navigate cognitive augmentation

2. African Ubuntu Philosophy:
- "I am because we are": communal conception of personhood
- Relational ontology: hybrid intelligence as extension of communal cognition
- Different ethical priorities dari Western individualism

3. Indigenous Epistemologies: 
- Knowledge sebagai relational bukan property
- Non-anthropocentric: cognition distributed dalam ecosystems
- Oral traditions: different cognitive practices resistant to AI replacement

4. Why This Matters:

Solutions untuk challenges hybrid intelligence tidak harus come dari Western philosophy alone. Global challenges require global wisdom.

8.7. Wild Cards: Apa yang Kita Tidak Tahu Bahwa Kita Tidak Tahu

1. Unknown Unknowns

History of technology prediction dipenuhi dengan failures karena unforeseen developments:
- Internet: tidak predicted dalam 1960s science fiction
- Social media's psychological impacts: not anticipated by designers
- Cryptocurrency: paradigm shift yang came from unexpected direction

2. Possible Wild Cards untuk 2035:

- Breakthrough dalam Quantum Computing:  Could radically accelerate AI capabilities beyond projections
- Biological Discovery:  New understanding of consciousness yang invalidates current assumptions
- Social Movements: Luddite-style resistance yang successfully limits AI adoption
- Existential Threats: Pandemics, climate catastrophes, atau conflicts yang completely reshape priorities
- AI Alignment Failure: Catastrophic accident yang triggers global moratorium

Laporan present relatively smooth trajectories—reality likely akan jauh messier.

Kesimpulan Bagian VIII:  Blind spots ini bukan trivial omissions—mereka adalah dimensions fundamental yang absence-nya makes laporan incomplete sebagai strategic analysis. Comprehensive understanding memerlukan integration ekonomi politik, ekologi, biologi, psikologi, legal frameworks, philosophical pluralism, dan humility tentang uncertainties.

IX. Bagian 9 : Meta-Analisis — Laporan Sebagai Performance

9.1. Deconstructing the Report's Rhetoric

Strategic Report 2035 bukan hanya analisis—ia adalah  performative text  yang simultaneously describes dan shapes reality.

1. Epistemic Authority Construction

Laporan establish credibility through:
- Scientific Citations: Dehaene, Tononi, IIT—borrowing prestige dari neuroscience
- Technical Terminology:  "neuro-digital coupling," "systemic hybrid intelligence"—creating impression of precision
- Systematic Structure: Numbered sections, scenarios, principles—appearance of rigor

Rhetorical Function: Position reader untuk accept predictions sebagai inevitable rather than contestable.

Critical Question: Apakah ini legitimate synthesis of expert knowledge atau clever packaging of speculation?

2. Temporal Framing: The Decade Horizon

2035 adalah strategically chosen timeframe—cukup jauh untuk allow bold claims, cukup dekat untuk seem urgent dan actionable.

Tidak 2030 (too soon, easier to falsify) atau 2050 (too far, loses urgency). Dekade adalah sweet spot untuk futurology.

3. Scenario Architecture: Constrained Imagination

Offering tiga scenarios (techno-authoritarianism, chaos, ethical hybrid) creates illusion of comprehensiveness sementara actually limiting imaginative space.

This is classic "bounded rationality" technique—frame choices untuk guide conclusions. Readers likely akan pick "middle path" atau "optimistic" scenario, feeling they've engaged critically.

Missing: Skenario yang truly radical—degrowth, AI abolition, non-technological solutions, spiritual awakening movements.

4. Moral Urgency: The Mobilizing Function**

Conclusion deliberately dramatic: "If we fail, we will create artificial gods and become subjects. If we succeed, AI will be the mirror that forces us to grow."

This is apocalyptic rhetoric —either salvation atau damnation. Creates sense of civilizational stakes yang demands action.

Function: Mobilize readers, justify funding, legitimize interventions. Not inherently bad—but important to recognize as rhetorical strategy bukan neutral description.

9.2. Ideological Positioning: What the Report Values

1. Humanistic Liberalism

Core assumption: human autonomy, dignity, freedom are ultimate values. AI harus serve these.

Alternative Worldviews Not Considered:
- Posthumanism: Maybe transcending humanity is desirable evolution
- Collectivism: Maybe individual autonomy overrated; collective harmony more important
- Mysticism:Maybe technological path is wrong direction entirely

2. Techno-Criticism with Techno-Inevitability

Paradox: laporan critical of technology yet assumes technological future is inevitable. 

"The real danger is not the machine thinking. It is the human ceasing to think for itself."

Implies: machines will think (inevitable); question is whether humans retain capacity. Alternative framing: Do we want machines to think at all?

3. Anthropocentrism

Entirely human-focused—no consideration of:
- Non-human consciousness (animals, potentially AI itself)
- Ecological embeddedness
- Planetary boundaries

9.3. Political Function: Cui Bono?

a. Who Benefits dari Report Narrative?

1. AI Industry:
- Legitimizes massive investment by framing AI as civilizational necessity
- "Either we lead or others will" justifies competitive rush
- Ethical concerns acknowledged but framed as manageable with principles

2. Security State:
- Justifies surveillance and control infrastructure
- "Cognitive warfare" frame legitimizes militarization of information space
- Geopolitical competition narrative justifies national security priorities

3. Consulting and Futures Industry:
- Creates demand untuk expertise and guidance
- Complexity requires interpretation by credentialed experts
- Uncertainty justifies ongoing engagement

4. Who Potentially Harmed?

- Labor: Automation anxieties, cognitive displacement not adequately addressed
- Global South:  Excluded from analysis, likely to face extractive relationships
- Dissidents: Enhanced surveillance and control threaten resistance capacity
- Nature: Ecological costs externalized

5. Not Conspiracy—Structural: Laporan likely sincere tetapi operates within ideological and material constraints yang shape its framing.

9.4. Epistemological Status: Prediction atau Prescription?

1. Critical Ambiguity: Laporan oscillates between:
- Descriptive:  "This is what will happen"
- Prescriptive:  "This is what we should prevent/enable"

2. Self-Fulfilling Prophecy Dynamic:

Influential reports shape reality by:
1. Directing investment dan research
2. Influencing policy priorities
3. Shaping public discourse dan expectations
4. Creating common knowledge yang coordinates behavior

Therefore: Report bukan neutral forecast—ia adalah intervention dalam contested future.

Kesimpulan Bagian IX: Understanding Strategic Report 2035 requires reading it not just untuk content tetapi untuk context—as rhetorical performance, ideological artifact, dan political intervention. Its predictions are inseparable dari its role dalam shaping what it predicts.

X. Bagian 10: Synthesis — Toward a More Complete Understanding

10.1.What the Report Gets Right

1. Trajectory Identification

Core trend adalah valid: increasing integration antara human cognition dan AI systems. Ini bukan speculation—already happening dan will intensify.

2. Ethical Alertness

Highlighting risiko erosi free will, manipulasi emosional, cognitive inequality adalah crucial public service. These threats are real dan underappreciated.

3. Geopolitical Framing

Understanding AI competition sebagai strategic rivalry antara powers adalah correct. Technological dominance increasingly translates ke geopolitical influence.

4. Multidimensional Thinking

Attempting untuk integrate neuroscience, AI, politics, dan ethics adalah commendable. Siloed thinking inadequate untuk complex challenges.

10.2. What the Report Gets Wrong

1. Timeline Optimism

Consistently underestimates barriers:
- Technical: Hard problems harder than assumed
- Economic: Cost-benefit not always favorable
- Social: Adoption resistance significant
- Regulatory: Governance takes time

2. Technological Determinism

Overestimates technology's power untuk shape society sementara underestimating social forces yang shape technology adoption.

3. Western-Centrism

Analysis heavily weighted toward US-China-EU triangle, missing Global South perspectives dan contributions.

4. Solutions Gap

Better pada diagnosis than prescription. Principles filosofis tidak accompanied dengan institutional mechanisms atau political strategies untuk implementation.

5. Economical-Ecological Blindness

Material conditions—economic systems, ecological limits—treated as background rather than fundamental constraints.

10.3. Toward Better Frameworks

What Would More Complete Analysis Include?

1. Political Economy Layer

- Value chains hybrid intelligence
- Labor implications dan transitions
- Distribution mechanisms
- Business models dan market structures

2. Ecological Integration

- Environmental costs quantified
- Sustainability constraints acknowledged
- Alternative low-impact pathways explored

3. Global Pluralism

- Non-Western philosophical perspectives
- Global South development models
- Indigenous knowledge systems

4. Institutional Design

- Concrete governance structures
- Accountability mechanisms detailed
- Regulatory frameworks proposed
- Democratic participation pathways

5. Uncertainty Embrace

- Explicit probability ranges
- Alternative scenarios beyond three offered
- Known unknowns acknowledged
- Decision-making under uncertainty

10.4. Strategic Principles for Navigating Uncertainty

Beyond laporan's seven principles, here are additional strategic guidelines:

1. Adaptive Governance

Tidak mungkin predict exactly—need flexible institutions yang can respond sebagai situations develop. Build adaptive capacity bukan rigid plans.

2. Reversibility as Design Principle

Where possible, keep options open. Lock-in adalah dangerous dalam uncertain futures. Design for reversibility dan modularity.

3. Distributed Experimentation

Rather than monolithic approaches, encourage diverse experiments—different models dalam different contexts. Learn dari variations.

4. Precautionary Innovation

Balance innovation dengan precaution. Tidak pure precautionary principle (would paralyze) nor pure innovation (reckless)—but thoughtful navigation.

5. Democratic Legitimacy

Technology governance tidak bisa purely technocratic. Need democratic input untuk legitimacy dan effectiveness. Publics must have voice.

6. Epistemic Humility

Recognize limits of knowledge. Expert predictions often wrong. Build in humility—expect surprises, prepare untuk uncertainty.

7. Ethical Non-Negotiables

Some lines should not crossed regardless of competitive pressure:
- Weaponized mind control
- Eliminating meaningful consent
- Creating permanent cognitive underclass

Identify red lines dan commit to them collectively.


XI. Kesimpulan: Living with Hybrid Intelligence

Strategic Report 2035 adalah simultaneously valuable dan flawed—insightful dalam identifikasi trends tetapi limited dalam analysis depth dan solution proposal.

1. The Central Truth: Hybrid intelligence—dalam some form—adalah trajectory kita on. Question bukan "whether" tetapi "how, for whom, dan at what cost ."

2. The Central Illusion: Bahwa future adalah predictable atau controllable melalui rational planning. Reality akan messier, more contingent, dan surprising than any report predicts.

The Central Challenge: Not technical—it's political, economic, dan ethical. How do we govern systems that increasingly govern us?

The Central Opportunity: Current moment adalah formative. Choices made now akan shape path dependencies untuk decades. We have agency—if we exercise it collectively dan deliberately.

The Ultimate Question:

Laporan ends dengan: "The real danger is not the machine thinking. It is the human ceasing to think for itself."

Saya would reframe: **The real question is not whether machines or humans think, but whether thought—however generated—serves wisdom, justice, and flourishing for all beings.

Technology adalah amplifier. It amplifies existing power structures, values, dan purposes. 

Therefore, before asking "what can AI do?" we must ask "what world do we want to create?"

Hybrid intelligence will be what we make it—tool untuk liberation atau domination, enlightenment atau enslavement, shared flourishing atau concentrated privilege.

The choice—while we still have it—is ours.


XII. Epilog: Recommendations untuk Further Research

Untuk researchers, policymakers, dan concerned citizens yang want deeper understanding:

12.1. Essential Reading:

1. Shoshana Zuboff - "The Age of Surveillance Capitalism" (ekonomi politik data)
2. Kate Crawford - "Atlas of AI" (material realities AI)
3. Safiya Noble- "Algorithms of Oppression" (AI dan inequality)
4. Nick Bostrom - "Superintelligence" (existential risks)
5. Virginia Eubanks - "Automating Inequality" (AI dan poverty)

12.2. Key Organizations:

- AI Now Institute (critical AI research)
- Future of Humanity Institute (long-term thinking)
- Partnership on AI (multi-stakeholder governance)
- Algorithm Watch (European perspectives)
- Data & Society (social implications)

12.3. Critical Questions untuk Ongoing Investigation:

1. How can democratic governance keep pace dengan technological change?
2. What economic models enable equitable distribution of AI benefits?
3. How do we maintain cognitive diversity dalam algorithmic monoculture?
4. What are ecological limits untuk computational infrastructure?
5. How do non-Western philosophies inform human-AI relations?

12.4. Final Thought:

Future adalah not written. Reports seperti Strategic Report 2035 adalah maps, bukan territories. Maps are useful—tetapi never confuse them dengan territory itself.

Stay curious. Stay critical. Stay engaged.

The future of hybrid intelligence is too important to leave to futurists alone. It requires all of us—thinking, questioning, and acting collectively.


"We are called to be architects of the future, not its victims."
— R. Buckminster Fuller                                  Bandung, Sunda, Nusantara, 2 Januari 2026

Komentar

Postingan populer dari blog ini

Skenario Anggaran PBB yang Inklusif untuk Mewujudkan Tatanan Dunia Baru dan Sustainable Development Goals 2030 serta Post-SDGs yang Berkeadilan

Mencari Filosofis dari Masyarakat Peneliti Mandiri Sunda Nusantara

Esai: Teori dan Praktik Ekonomi Teonomik-Humanistik