Ir al contenido principal

¿Es el crecimiento económico finito? El pesimismo entrópico de Georgescu-Roegen

Artículo publicado originalmente en la Revista Ágora Perene

La teoría del decrecimiento, defendida por los partidarios del ecologismo radical de la Deep Ecology, presenta una crítica contundente a las tesis de la economía tradicional de crecimiento económico ilimitado y lineal, una crítica que resuena en la sociedad en general. ¿Tienen razón sobre la naturaleza finita del crecimiento? ¿Nos dirigiremos, en el futuro, a un agotamiento catastrófico de las capacidades productivas? La ley físico-termodinámica de la entropía, con su paradigma de declive energético gradual de la naturaleza, constituye un serio desafío al optimismo económico liberal y a su ideal de prosperidad material humana. Esta idea sería incorporada por primera vez a la ciencia económica en la década de 1970, con el advenimiento de la bioeconomía del economista rumano Nicholas Georgescu-Roegen, el principal inspirador del movimiento del decrecimiento.

Introducción

El filósofo alemán Friedrich Nietzsche describió al hombre con la imagen metafórica de un ser creador y destructor, semejante a una llama:
“¡Sí! Sé de dónde vengo,
Nunca saciado, como un fuego, resplandeciente, yo mismo consumo.
Todo lo que agarro y toco hace luz,
Todo lo que dejo atrás son cenizas,
Ciertamente, llama es lo que soy.”

Esta imagen del hombre como productor de luz y muerte por el toque refleja claramente la idea prometeica de un ser explorador y dominador de la naturaleza. En contraposición a esta imagen prometeica, un filósofo alemán posterior, Martin Heidegger, instó al hombre a ser el “pastor de la tierra”, a aceptar su humilde papel como parte del mundo, evitando la tecnología, la dominación y el papel de explorador (Bramwell, 1989).

La metáfora del Hombre Prometeico y del Hombre Pastor, presentes en Nietzsche y Heidegger, respectivamente, refleja dos concepciones antagónicas del hombre y su relación con el mundo, con importantes manifestaciones en el pensamiento humano, literario y científico, a lo largo de la historia.

El hombre pastor

La idea del Hombre Pastor comparte muchas similitudes con el ideal estético y ético de la vida tradicional defendida por muchos poetas y escritores ligados a un romanticismo nostálgico, aristocrático y conservador. Esta visión, a diferencia de lo que se afirma con frecuencia en el sentido común, de ninguna manera contradice el liberalismo económico, siendo fácilmente aceptada por economistas de línea ordoliberal, como el alemán Wilhelm Röpke.

Esta visión orgánica de la economía, que une las necesidades del hombre y de la naturaleza, pone de relieve un tema importante que no debe ser condenado ni negado per se, bajo el riesgo de incurrir en una epistemología autista y alienante de la realidad.

Sin embargo, debe notarse que esta visión bucólica y nostálgica del Hombre Pastor, de base cultural, se convertiría en blanco de fuertes manipulaciones y apropiaciones políticas en las últimas décadas por ciertos grupos con ideologías marcadas por el extremo zelotismo ambiental y sectario.

Ecologismo profundo

Un ejemplo claro de este tipo de ideología es la tesis del decrecimiento económico, que ha ido ganando terreno entre los partidarios del ecologismo radical en las últimas décadas, sobre todo en la corriente conocida como Deep Ecology, especialmente en los países desarrollados. Esta tesis aboga por el decrecimiento y políticas activas de desindustrialización, desinversiones y reducción drástica del consumo. Argumenta basándose en la finitud de los recursos energéticos y pone en cuestión importantes avances de la civilización proporcionados por la Revolución Industrial, así como las mejoras en el estándar de vida material de las masas en los últimos siglos.

La teoría del decrecimiento presenta una crítica contundente a las tesis de la economía tradicional de crecimiento económico ilimitado y lineal, una crítica que no se limita a su círculo inmediato de defensores, sino que resuena en la sociedad en general, haciéndose muy presente en los discursos de importantes liderazgos ambientalistas globales, como Greta Thunberg.

Toda ideología, por más caricaturesca que sea al representar la realidad, necesita estar anclada, aunque sea parcialmente, en alguna verdad para existir socialmente. Detrás de la tesis del decrecimiento, hay una verdad profundamente incómoda, cuya negación por parte de los críticos puede llevar a la apología de un extremo opuesto igualmente distorsionado y parcial.

Esta verdad tiene que ver con la creencia en el crecimiento infinito y en la disponibilidad ilimitada de recursos para sustentar el proceso económico. Surge entonces una reflexión inevitable: ¿la producción humana tendrá realmente un límite? ¿Nos dirigiremos, en el futuro, a un agotamiento catastrófico de las capacidades productivas? ¿O la tecnología será capaz de superar la escasez de recursos energéticos y físicos?

Las limitaciones epistemológicas de la economía neoclásica

Es precisamente aquí donde se encuentra la mayor debilidad argumentativa de los críticos a la tesis del decrecimiento. Hay que reconocer que la economía mainstream, con todo su aparato positivista y jerga técnica especializada, aún no ha logrado presentar una respuesta teórica satisfactoria al problema de la finitud de los recursos. Desde 1870, con el surgimiento de la ciencia económica neoclásica, los economistas (con algunas excepciones notables) parecían creer que el crecimiento económico era sostenible indefinidamente y que los recursos naturales eran inagotables, sustentados por una epistemología newtoniana y mecanicista de la realidad natural, que no concuerda con los avances teóricos posteriores de la física.

En este sentido, la mayor limitación de la ciencia económica neoclásica fue su incapacidad para conciliar su optimismo con los nuevos descubrimientos ocurridos en el campo de las ciencias biológicas y físicas en el siglo XIX, como la ley de la entropía de la termodinámica, cada vez más pesimistas respecto a la posibilidad de generación infinita de energía y la continuidad de la vida natural en el futuro.

Este desajuste entre el optimismo económico y el pesimismo de las ciencias biofísicas se manifestaría de manera más clara a lo largo del siglo XX. Desde la década de 1970, y con el objetivo de llenar este vacío, comenzaría a establecerse una serie de nuevos paradigmas vinculados al medio ambiente en la economía mainstream, cuestionando la idea de crecimiento indefinido y lineal y utilizando el aparato teórico de las ciencias naturales.

Bioeconomía

Estos nuevos paradigmas, impulsados por el avance de las ideas ecologistas entre las décadas de 1960 y 1970, variaban desde posiciones moderadas a favor de la conservación y el crecimiento gestionado de los recursos —como los defensores de la tesis del “desarrollo sostenible”— hasta posiciones radicales de la Deep Ecology, que rechazan explícitamente el crecimiento económico y se muestran contrarias a la posibilidad de cualquier sistema económico autosostenible (Pearce y Turner, 1989).

La teoría de la bioeconomía, formulada por el economista rumano Nicholas Georgescu-Roegen, fue claramente una fuente de inspiración para la mayoría de los partidarios del decrecimiento, aunque el autor no fue, él mismo, un defensor directo del movimiento (Missemer, 2017). Su principal obra, expuesta en The Entropy Law and the Economic Process (1971), presenta la economía como un subsistema integrado a un sistema bioeconómico global.

Esto lleva a la idea de que la economía está regida por un proceso dinámico de producción, circulación y distribución de bienes y residuos, semejante al existente en el subsistema biológico evolutivo —un sistema limitado en términos energéticos y materiales y en continuo decaimiento a largo plazo, regido por la Ley de la Entropía.

La bioeconomía entrópica de Nicholas Georgescu-Roegen

El modelo entrópico del economista rumano Georgescu-Roegen fue profundamente influenciado por las teorías alemanas de la energética social del siglo XIX, que integrarían la biofísica en la explicación de los procesos económicos de producción, trabajo y consumo. También fue fuertemente influenciado por el institucionalismo y la economía evolutiva del austriaco Schumpeter, a través de la visión de cambios dinámicos cualitativos en los métodos de producción económica. Sus ideas de una economía evolutiva, sin equilibrio estático y antimecanicista, encuentran paralelismos con la concepción dinámica del proceso económico de la Escuela Austriaca de Economía de Carl Menger, Bohm-Bawerk y Ludwig von Mises.

Las ideas fundamentales de su teoría fueron presentadas entre las décadas de 1930 y 1940, a partir de sus trabajos en la economía agraria y en la crítica a la teoría del consumidor y a la función de producción neoclásica (Heinzel, 2013). Georgescu, durante los años 1930, tuvo contacto con economistas de Harvard, donde se convirtió en discípulo de Schumpeter, y desarrolló estudios sobre la temática de la economía neoclásica. Su teoría de la bioeconomía tuvo sus primeras ideas formuladas en ese período, influenciada por sus experiencias con la vida económica campesina al regresar a Rumanía, en los años 1940 (Goudy y Mesner, 1998).

The entropy law and the economic process

En The Entropy Law and the Economic Process (1971), Georgescu-Roegen contribuyó con la incorporación del modelo teórico de la termodinámica física en el análisis económico, siendo más conocido por el uso de la Ley de la Entropía, la Segunda Ley de la Termodinámica. Esta ley es descrita por Georgescu como “la más económica de todas las leyes naturales” y “la raíz principal de la escasez económica”.

Georgescu, basándose en la ley termodinámica de la entropía y crítico del modelo económico neoclásico heredado del mecanicismo de la física clásica, estableció el modelo de la bioeconomía. Este modelo consiste en un marco teórico dinámico para la economía, que propone que la energía física contiene un stock natural finito, lo que impone restricciones al crecimiento económico.

La bioeconomía de Georgescu-Roegen, al enfatizar la finitud física no solo de la materia, sino también de la energía, marca una ruptura categórica con el modelo estándar y mecánico de la economía de autorreproducción (Miernyk, 1990). El modelo tradicional de flujo circular, promovido desde el siglo XVIII por los fisiócratas franceses y en los siglos XIX y XX por los modelos teóricos neoclásicos de Leon Walras y Gustav Cassel, se caracteriza por un movimiento perpetuo, en el que el consumo va en una dirección y la producción en otra, alcanzando un punto de equilibrio.

El aumento de la entropía

Según la teoría bioeconómica, las actividades económicas degradan acumulativamente el medio ambiente con el tiempo (aumentando la entropía, de acuerdo con las leyes de la termodinámica) y los cambios ambientales alteran, a su vez, el proceso económico. La economía de la biosfera es un sistema cerrado en el cual la entropía aumenta continuamente (e irrevocablemente) hasta un máximo: la energía disponible se transforma continuamente en energía no disponible, hasta que desaparezca por completo.

El proceso económico es la producción de entropía y se opone al movimiento perpetuo de la teoría estándar. La materia está sujeta a la misma degradación que la energía, a través de un fenómeno acumulativo. La conclusión ineludible de estos postulados es que el sistema económico global tiene un ciclo de vida similar al de un organismo vivo (Bobulescu, 2012).

Cuerpos endosomáticos vs exosomáticos

La bioeconomía también establece que el sistema económico está regido por una dinámica evolutiva similar a la existente en el sistema biológico. Georgescu-Roegen postuló que el proceso económico es una extensión de la evolución biológica, al distinguir entre cuerpos endosomáticos y exosomáticos. El cuerpo somático de todo ser biológico está dotado de órganos endosomáticos naturales. La especie humana agrega y complementa los cuerpos endosomáticos de la biología al crear herramientas, máquinas e instrumentos externos, que se convierten en órganos exosomáticos.

Los cambios evolutivos, incluidos los exosomáticos, son de naturaleza cualitativa, y todas las entidades afectadas por un cambio cualitativo son necesariamente dialécticas.

Conceptos aritmórficos vs dialécticos

Georgescu distinguió entre conceptos matemáticos (aritmórficos) y lingüísticos (dialécticos), lo que le permitió abordar importantes construcciones teóricas. Los conceptos aritmórficos se definen por su distinción discreta entre números individuales en un continuo aritmético, que, por lo tanto, nunca se sobreponen. En contraste, en los conceptos dialécticos no hay separación discreta entre ellos. Están separados de sus opuestos por una “penumbra dialéctica”. Por ejemplo, viejo y joven son conceptos dialécticos. Un niño será un anciano cuando tenga 90 años, pero nadie puede decir con certeza cuándo envejecerá (Bobulescu, 2012).

Al enfatizar la naturaleza dialéctica de los conceptos económicos, Georgescu consideró que el proceso económico está caracterizado por una discontinuidad lógica, por cambios y desequilibrios históricos que requieren un enfoque diferente al cálculo marginal cuantitativo neoclásico (Heinzel, 2013).

Crítica a la matematización de la economía

Las críticas de Georgescu al supuesto de integrabilidad matemática en la economía lo llevaron a establecer objeciones a la teoría de decisión racional microeconómica, señalando una limitación intrínseca de la teoría del consumidor (Zamagni, 1999). Demostró que las curvas integrales de la ecuación diferencial que representan la condición de equilibrio del consumidor no corresponden necesariamente al mapa de indiferencia del consumidor. Por lo tanto, la realidad observable de las elecciones y preferencias de los consumidores no sigue obligatoriamente los axiomas del comportamiento del consumidor, como la utilidad marginal decreciente.

A partir de sus experiencias con la economía agrícola en Rumanía, Georgescu concluyó que el modelo económico estándar, en el que el consumidor o productor funciona como en el equilibrio walrasiano, no puede coincidir con la economía agraria. La inercia social y el principio de subsistencia en las zonas rurales superpobladas se oponen al modelo hedonista de consumo en las ciudades. Las instituciones agrícolas no se ajustaban al principio cuantitativo de maximización de beneficios (Heinzel, 2013).

Su ataque contundente contra las funciones de producción neoclásicas (como la de Cobb-Douglas) afirma que estas funciones son construcciones matemáticas que contradicen las leyes físicas. Georgescu-Roegen se apartó radicalmente del análisis convencional y construyó un modelo de flujo de fondos del proceso de producción basado en los recursos naturales, en el cual la “producción” corresponde a un proceso de transformación. Los recursos (flujos) se transforman en productos y residuos. El trabajo y el capital son agentes de transformación (fondos) que permiten esta transformación. Durante este proceso de producción-transformación, la entropía aumenta (Georgescu-Roegen, 1971).

Continuidad con Schumpeter

En resumen, Georgescu-Roegen llenó importantes lagunas dejadas por la economía neoclásica al incorporar las ciencias biológicas en el análisis de la dinámica económica. Georgescu considera que la economía sigue un proceso evolutivo regido por las leyes de la termodinámica. Este proceso tiene una importante dimensión cualitativa, que no puede ser capturada por el instrumental económico tradicional, centrado en variaciones “marginales” numéricas.

Especialmente al demostrar la necesaria interrelación entre la actividad económica y el medio ambiente natural, Georgescu destacó la omnipresencia e inevitabilidad de los problemas y limitaciones ambientales asociados a cualquier actividad económica. En varios trabajos importantes, se percibe una continuidad con la teoría institucionalista y evolucionista de Schumpeter, siguiendo particularmente la preocupación central de su maestro con el tema de la evolución y con la metodología (Heinzel, 2013).

Aunque Georgescu-Roegen no lo defendió, la introducción de la ley de la entropía en el análisis económico influiría en el surgimiento del movimiento de decrecimiento económico a partir de los años 70. Este movimiento ecológico adoptaría una postura radical respecto al proceso productivo actual, yendo más allá de las tesis habituales de estacionariedad económica y limitación del consumo, al abogar por una política de continua desindustrialización, desinversiones y reducción del PIB, con el objetivo de retardar el proceso de decaimiento energético natural provocado por el crecimiento entrópico.

Un modelo dinámico y cualitativo frente al mecanicismo neoclásico

Algunos autores consideran que el propio movimiento de decrecimiento distorsionó la teoría bioeconómica de Georgescu, al asumir una epistemología que no la representa exactamente. Esto ocurre al defender una postura de reducción cuantitativa del nivel de actividad y de control “mecanicista” de la economía, una posición incompatible con el modelo dinámico evolucionista y cualitativo de la bioeconomía (Missemer, 2017). Más correcto sería hablar de una postura de “acrecimiento” de la bioeconomía que de un “decrecimiento” inducido por planes de control estatal sobre la actividad. Esta visión de acrecimiento sería más coherente con una teoría que guarda similitudes con la epistemología antimecanicista de la Escuela Austríaca de Economía, que influiría en Schumpeter y Georgescu.

Aún así, debe considerarse, por último, que la bioeconomía entrópica de Georgescu y su paradigma del declive energético gradual de la naturaleza constituyen un gran obstáculo para la teoría económica neoclásica convencional y su modelo estático mecanicista, además de exponer serios desafíos al optimismo económico liberal y su ideal de prosperidad material humana.

Bibliografía

Bobulescu, R. (2012). The making of a schumpeterian economist: Nicholas georgescu-roegen. The European Journal of the History of Economic Thought, 19(4), 625-651.

Bramwell, A. (1990). Ecology in the twentieth century: A history. Journal of the History of Biology, 23(3)

Georgescu-Roegen, N. (1971). The entropy law and the economic process Harvard university press.

Gowdy, J., & Mesner, S. (1998). The evolution of Georgescu-Roegen’s bioeconomics. Review of Social Economy, 56(2), 136-156.

Heinzel, C. (2013). Schumpeter and georgescu-roegen on the foundations of an evolutionary analysis. Cambridge Journal of Economics, 37(2), 251-271.

Miernyk, W.H. (1990). A mind ahead of its time. Libertas Mathematica, 10: 5–20. Reprinted in Georgescu-Roegen (1996: 183–93).

Missemer, A. (2017). Nicholas Georgescu-Roegen and degrowth. The European Journal of the History of Economic Thought24(3), 493-506.

Pearce, D. W., & Turner, R. K. (1989). Economics of natural resources and the environment Johns Hopkins University Press.

Zamagni, S. (1999). Georgescu-roegen on consumer theory: An assessment. Bioeconomics and Sustainability: Essays in Honor of Nicholas Georgescu-Roegen, 103-124.

Maduro: gobierno de facto / juicios de facto

Así como Nicolás Maduro mantiene un gobierno de facto, luego del írrito y fraudulento acto mediante el cual simuló juramentarse el pasado 10 de enero de 2025, habiendo perdido penosamente las elecciones presidenciales del 28 de julio de 2024, de la misma forma, el sistema de justicia venezolano ya no realiza procesos judiciales orientados por los derechos a la tutela judicial efectiva y al debido proceso (artículos 26 y 49 de la Constitución, respectivamente), con el objeto de aplicar el Derecho; sino que, todos los integrantes de dicho sistema (jueces, fiscales, defensores públicos, funcionarios policiales), ahora realizan -simple y llanamente- juicios de facto.

En efecto, los derechos y garantías constitucionales que guardan relación con los procesos judiciales -en especial, los procesos penales seguidos por motivos políticos- son una pura ilusión. Partiendo de tipos abiertos como los previstos en la Ley Contra el Crimen Organizado y Financiamiento al Terrorismo, la Ley Contra el Odio, o Ley contra el Fascismo, prácticamente cualquier conducta que a juicio del régimen madurista sea contraria a sus intereses, resulta que es terrorista, fascista o fomenta el odio. Dichas leyes, por cierto, aparte de ser abiertamente inconstitucionales y contrarias a los tratados internacionales en materia de derechos humanos, son un desvío de la aplicación del Código Penal y el Código Orgánico Procesal Penal, normas más transparentes, con tipos más claros, y con un procedimiento -en líneas gruesas- más garantista.

Secuestros y torturas

Y luego, por supuesto, viene la aplicación como tal de estos “monumentos legales”. En la Venezuela de Maduro, se puede secuestrar a una persona en la calle (sin flagrancia, sin orden de captura), por funcionarios vistiendo capuchas. Luego “ruletean” (i.e. -en la jerga venezolana- llevan de un lugar a otro) al detenido, sin conocimiento de sus familiares y/o allegados. El plazo constitucional de 48 horas para detenciones preventivas no se aplica y, llegado el caso, lo que tienen lugar son audiencias judiciales express, muchas veces ante tribunales incompetentes en zonas distantes, que, luego, terminan declinando la competencia en otro tribunal (todo con el propósito de “cumplir” con la presentación judicial del detenido). Dichas audiencias suelen celebrarse a altas horas de la noche, o fines de semana incluso, sin testigos, sin posibilidad de designar abogado de la confianza del reo. Puros y simples paredones judiciales.

Para finalmente llegar a los centros de reclusión: antros inseguros e insalubres, donde mezclan a presos políticos con presos comunes. Donde no hay comida, ni derecho a recibir visitas. Y- lo más destacado de la Era Maduro- donde se practican distintos y sofisticados métodos de tortura, siempre con un “comodín” o vía (supuestamente) escapatoria: grabar un video donde el detenido se autoinculpe.

Extorsión

Un vídeo en el que exprese que algún líder opositor le conminó a generar todo el mal en la Tierra. No olvidemos lo siguiente: mientras dura la privación de libertad, se extorsiona a presos y familiares permanentemente. Puede ser para cuestiones rutinarias como que “no les molesten” durante su reclusión, sea para lograr una excarcelación (los funcionarios del régimen tampoco son muy proclives a mantener sus promesas y hay todo incentivo posible para la corrupción y el fraude).

Grosso modo, es el juicio de facto que aplica el gobierno de facto.

Las democracias del mundo tienen el doble imperativo de ayudar a los venezolanos a detener esta pesadilla, así como de no incurrir jamás en estas prácticas abyectas en sus propios países, para no convertir su justicia también en una justicia de facto.

Ver también

La represión en la Venezuela socialista no tiene límites. (Sairam Rivas).

Crisis en Venezuela. (Miguel Anxo Bastos).

Anarcocapitalismo y los desafíos ecológicos contemporáneos (I): la gestión de la incertidumbre

La ecología de mercado (free-market environmentalism), expresión que corresponde al título original del libro de Terry L. Anderson y Donald R. Leal (1993) que es referencia obligada en este campo, ha dotado a los teóricos de la ciencia social, muy particularmente de la economía, de una más profunda y sutil comprensión de la organización y los mecanismos de autorregulación de los sistemas ecológicos, en tanto que interacción dinámica entre los grupos humanos con el medio físico y biótico.

Más allá del absoluto paralelismo en cuanto a la concepción espontánea y evolutiva de los procesos de mercado y la ciencia ecológica (véase, por ejemplo, Huerta de Soto 2020a), no son pocos los autores que han puesto en duda la capacidad de coordinación y ajuste que surge del mercado con respecto de la gestión de los elementos y recursos de la naturaleza (p. ej. Blumm 1992), un debate que resulta de especial interés a la hora de analizar la viabilidad de un eventual marco social post-estatal en el que el entorno natural haya trascendido su carácter reservado al dominio público para estar organizado basándose en un entramado policéntrico de contratos voluntarios regulados por la libre empresa y los incentivos de mercado.

Viejas y nuevas cuestiones

Inspirado en el artículo seminal de Edwin G. Dolan (1990), en este comentario y en la serie que le procede en forma de trilogía se bosquejan algunas cuestiones que, a juicio del autor, plantean los desafíos medioambientales contemporáneos en el contexto de un escenario de mercado totalmente libre de injerencia estatal: (I) la gestión de la inexorable incertidumbre práctica vinculada a las interacciones ecológicas, (II) la definición de los derechos de propiedad en relación con el entorno natural, y (III) el problema de los costes de transacción.

En aras de la brevedad, se obvian aquellos argumentos críticos vinculados con la situación de monopolio, la doctrina de las externalidades negativas, los bienes públicos y el problema de los free riders o el dilema de la equidad intergeneracional, en tanto que estos razonamientos ya han sido replicados in extenso en monográficos previos (en castellano por Huerta de Soto 2020b). También se pone de manifiesto cómo el enfoque adaptativo, evolutivo y dinámico inherente al sistema anarcocapitalista podría contribuir a circunvalar estos desafíos característicos de la modernidad, no por ello obviando la máxima que advierte que la gama y variedad de soluciones empresariales provistas por el orden espontáneo del mercado a estos problemas concretos no pueden ser determinadas ex ante.

La incertidumbre

En esta primera reseña se aborda la incertidumbre estructural que constituye el locus cœruleus de las dinámicas ecológicas, en absoluto paralelismo con los procesos espontáneos a los que responde el desarrollo económico, y se discute cómo la fuerza mercantil podría acometer estrategias de mejora en relación con el estado de la naturaleza, sobre todo en contraposición al actual marco institucional y burocrático dominado por el monopolio estatal.

Como en cualquier área compleja de la ciencia, la aparición de incertidumbres es un rasgo intrínseco de los sistemas ecológicos, concebidos como procesos de interacción dinámica y evolutiva de tipo no lineal cuya autoorganización depende de una miríada de circunstancias características de sus respectivas coordenadas de tiempo y lugar, un principio axiomático y con vocación universal que la ciencia ecológica ha bautizado como dependencia del contexto.

En efecto, la inferencia del tamaño poblacional de una especie, un estadístico demográfico relativamente “simple”, depende de las correspondientes estimaciones de parámetros como la natalidad, la mortalidad o las tasas de inmigración y emigración, descriptores de naturaleza estocástica cuyos cálculos están sujetos a una inerradicable incertidumbre práctica. A ello se le suma la naturaleza no aditiva (sinérgica o antagónica) de la infinidad de interacciones protagonizadas por los diferentes mecanismos de organización ecológica, cuya prevalencia y magnitud siguen plagando de incertidumbre empírica las proyecciones en su dimensión espacial y temporal.

La lluvia ácida

El perfeccionamiento de nuevas técnicas de modelización multivariante, como los modelos de ecuaciones estructurales o los análisis de comunalidad, por poner dos ejemplos de rutinario empleo en el campo de la ciencia ecológica, han permitido probar y estimar interacciones dinámicas a partir de parámetros estadísticos y suposiciones cualitativas sobre la causalidad entre variables, mejorando la cuantificación de los efectos directos, indirectos y sinérgicos entre los factores ambientales.

Desde el punto de vista técnico, el desarrollo y optimización de estas y otras herramientas de modelización serían claves para solucionar de manera efectiva las correspondientes agresiones a los derechos de propiedad sobre el entorno natural en una futura sociedad post-estatal, sobre todo a colación del debate que suscitó a finales del pasado siglo la valoración de los efectos directos e indirectos de la lluvia ácida sobre las aguas continentales y las masas boscosas en las Montañas Rocosas de los Estados Unidos.

Y es que la acidificación de las precipitaciones (derivada de la contaminación atmosférica por óxidos de nitrógeno y azufre) intervino como un agente impactante no lineal cuyos efectos sobre la biota se manifestaron sinérgicamente (aunque en función del contexto particular de los condicionantes ambientales característicos de cada lugar) en combinación con el ozono troposférico de las zonas periurbanas (fenómeno conocido comúnmente como smog fotoquímico) y los iones metálicos retenidos en la matriz arcillosa del suelo.

El papel de la regulación

La expeditiva respuesta política a la problemática causada por el fenómeno de la lluvia ácida al otro lado del Atlántico vino acompañada de un severo esfuerzo regulatorio que cristalizó con la aprobación de los New Perfomance Standards de la Clean Air Act (Ley del Aire Limpio) de 1977, cuyo sobrecoste anual se ha estimado en casi 80 millones de dólares al año desde la era Bush (datos extraídos del Programa Nacional de Evaluación de las Precipitaciones Ácidas), en parte por la estricta aplicación de las normas de la mejor tecnología disponible que, en lugar de fijar niveles de emisión específicos mediante la autorización de carbón más limpio y de bajo contenido en compuestos sulfurosos, obligó a los propietarios de las instalaciones térmicas a implementar sistemas de filtrado de gases más caros, menos eficientes y de muy complicada manipulación.

A todo ello se le sumó el esfuerzo de la administración federal por conseguir una drástica reducción en los niveles de emisión de los precursores químicos de la lluvia ácida sin tener en cuenta las incertidumbres inherentes en los modelos de compartimentos ambientales, obviando el desacoplamiento temporal entre la reducción de las emisiones gaseosas y la merma de las sedimentaciones ácidas en el suelo y la biota, un enfoque que infringe de facto las bases de la teoría ecológica de metasistemas al perseguir soluciones estáticas a problemas dinámicos y multidimensionales.

El papel de la libre empresa

En contraposición a la intervención sistemática y regulatoria de la administración pública, fundamentada en forzar a terceros la internalización de los efectos ambientales so pretexto de los mecanismos disciplinarios y de control político exigidos por omniscientes, benevolentes y laureados burócratas y expertos (entiéndase la ironía), las mejoras en las recetas concretas y específicas de tipo técnico e institucional legítimamente confiables a la libre empresa y al entramado de procesos espontáneos que distinguen al modelo anarcocapitalista de cualquier otra forma de organización social, conllevarían la adopción de soluciones innovadoras y descentralizadas articuladas a través de los intereses particulares e incentivos de mercado; por ejemplo, a través de la asunción de responsabilidad de los daños causados por una acción contaminante, dando lugar a un proceso negociador entre el acusado y los receptores de la contaminación (demandantes).

En efecto, bajo el paraguas del marco teórico que ofrece la ecología de mercado, una vez identificada(s) la(s) fuente(s) contaminante(s) se obligaría a los primeros a pagar por los daños causados sobre la propiedad ajena a través de indemnizaciones o interdictos según los principios y normas establecidos por los pertinentes estándares jurídicos libertarios. Este enfoque adaptativo, consustancial a la teoría general del capitalismo libertario, y que reconoce explícitamente las incertidumbres inherentes a los fenómenos naturales, resultaría compatible con los principios fundamentales que vertebran la ciencia ecológica moderna, garantizando en términos dinámicos e intertemporales la solución a los problemas medioambientales contemporáneos a través de acciones ingeniosas e imaginativas surgidas evolutiva y empresarialmente en Libertad.

Innovación

En futuras reseñas que serán publicadas en este foro de forma regular se examinarán los potenciales beneficios de la custodia privada de los recursos naturales y la biodiversidad, en especial en comparación con los modelos de gestión pública vía regulaciones administrativas, haciendo énfasis en las innovaciones técnicas necesarias para minimizar los daños generados sobre la propiedad en relación con el entorno natural, así como el surgimiento de la falacia de los costes de transacción como consecuencia inapelable de la actual deficiencia en materia de definición y defensa de los derechos de propiedad, en contraste con el diseño institucional que cabría concebir en un mercado libre de coerción estatal.

Se ruega a los amables lectores que compartan con el autor cualesquiera críticas o apreciaciones sobre este manuscrito a través de la siguiente vía de contacto institucional: jogarg@unileon.es

Bibliografía

Anderson, T. L. y Leal, D. R. (1993). Ecología de Mercado. Unión Editorial, Madrid: España.

Bengtsson, J. (2010) “Applied (meta)community ecology: diversity and ecosystem services at the intersection of local and regional processes”, en Verhoef, H. A. y Morin, P. J. (eds.) Community Ecology: Processes, Models and Applications (pp. 115-130), Oxford University Press, Oxford: Reino Unido.

Block, W. E. (1990). “Environmental Problems, Private Property Right Solutions”, en Block, W. E. (ed.) Economics and the Environment: A Reconciliation (pp. 281-332), The Fraiser Institute, Vancouver: Canadá.

Blumm, M. C. (1992). The Fallacies of the Free Market Environmentalism. Harvard Journal of Law and Public Policy, 15: 371-389.

Catford, J. A., Wilson, J. R. U., Pyšek, P., Hulme, P. E. y Duncan. (2022). Addressing context dependency in ecology. Trends in Ecology and Evolution, 37(2): 158-170.

Dolan, E. G. (1990). “Controlling Acid Rain”, en Block, W. E. (ed.) Economics and the Environment: A Reconciliation (pp. 215-232), The Fraiser Institute, Vancouver: Canadá.

Hoppe, H.-H. (2004). Monarquía, Democracia y Orden Natural. Unión Editorial, Madrid: España.

Huerta de Soto, J. (2007). Liberalismo versus Anarcocapitalismo. Procesos de Mercado: Revista Europea de Economía Política, 4(2): 13-32.

Huerta de Soto, J. (2020a). “Ecología de Mercado” en Estudios de Economía Política (pp. 217-228). Tercera Edición. Unión Editorial, Madrid: España.

Huerta de Soto, J. (2020b). “Derechos de Propiedad y Gestión Privada de los Recursos de la Naturaleza” en Estudios de Economía Política (pp. 229-249). Tercera Edición. Unión Editorial, Madrid: España.

Rothbard, M. N. (1990). “Law, Property Rights, and Air Pollution”, en Block, W. E. (ed.) Economics and the Environment: A Reconciliation (pp. 233-279), The Fraiser Institute, Vancouver: Canadá.

Urban, P., Sabo, P. y Plesník, J. (2021). How to define ecology on the basis of its current understanding? Folia Oecologica, 48(1): 1-8.

Ver también

Calentamiento cada mil quinientos años. (Antonio Gimeno).

Teoría fiscal del nivel de precios (IV): regímenes fiscales y evidencia empírica

En los tres episodios anteriores de esta serie sobre la Teoría Fiscal del Nivel de Precios (TFNP), describimos lo que considero que son los elementos esenciales de esta teoría macroeconómica. Por ello, en este artículo abordaré la prueba que toda teoría en una ciencia social debe superar: la contrastación empírica. Aunque la interpretación de dicha evidencia se incardina en un marco interpretativo determinado, sí que podemos determinar si, a priori, la TFNP guarda una mínima correspondencia con la realidad. 

Podría suceder, empero, que la evidencia empírica mostrara una presentación sesgada de la realidad económica, en solo aquellos casos donde la teoría no es falsable. En ese caso, a pesar de que en ese caso concreto existiera una correspondencia entre la TFNP y la evidencia, no podríamos afirmar que esta es una teoría adecuada y completa sobre el valor de la moneda fiat. Pero, si hay casos en los que se demuestra que la posición fiscal del gobierno guarda relación con el valor del dinero fiat, ¿no debería conformar esto una ley económica irrevocable? Lo cierto es que, para comprobar la TFNP empíricamente, deberemos articular una teoría que demuestre que esta es válida en todos los regímenes fiscales que pueden existir bajo un patrón fiat. 

Regímenes fiscales ricardianos y no ricardianos

En las teorías macroeconómicas convencionales, solemos distinguir entre regímenes fiscales ricardianos, bajo el que el gobierno otorga a una determinada cantidad de moneda fiat la capacidad de anular obligaciones tributarias nominales; y el no ricardiano, en el que las obligaciones tributarias se referencian a un porcentaje determinado de la producción de un agente económico. Si describiéramos el valor de la moneda fiat de forma algebraica, y asumiendo que la única fuente de la demanda monetaria son las obligaciones tributarias, en Rallo (2017) obtenemos:

A black text on a white background

Description automatically generated

En este modelo simplificado obtenemos conclusiones similares a las que llegamos con el modelo intertemporal de la TFNP, a saber, que la oferta de unidades de moneda fiat  (M) es igual al valor descontado por el factor estocástico m de las obligaciones tributarias reales –el producto del tipo efectivo T, el vector de mercancías Q producidas en t+j y el nivel de precios P de ese período. En los regímenes ricardianos, los tipos efectivos se incrementan proporcionalmente con la inflación. Y, dado que la producción nominal de mercancías (P*Q) y el factor estocástico de descuento se encuentran exógenamente dados en este modelo, entonces el nivel de precios se encontrará determinado por la política fiscal (T) y monetaria (M) del Estado (Ibidem). 

TFNP: ¿limitada a regímenes no ricardianos?

Una de las objeciones más comunes a la Teoría Fiscal del Nivel de Precios es que solo es capaz de explicar el nivel de precios en regímenes no ricardianos. Cuando los tipos impositivos no varían proporcionalmente junto al nivel de precios, entonces se podrían dar infinitas combinaciones de T*P*Q –a la postre, la obligación tributaria nominal. A priori, podríamos pensar que existiría una indeterminación del nivel de precios con respecto a la política fiscal del Estado. Con todo, hemos de tener en cuenta que toda obligación tributaria nominal contiene una sanción en el caso de que la obligación tributaria no se cumpla. Por tanto, no diríamos que el nivel de precios viene determinado por {M, m, T*Q}, sino por {M, m, s} (Ibidem), siendo s la sanción real por obligación tributaria impagada. De ahí que, en cualquier tipo de régimen fiscal, la política fiscal, junto a la política monetaria, sí determina el nivel de precios. 

Más en concreto, lo que nos estamos planteando aquí es si la validez del modelo intertemporal que construimos en la segunda entrega de esta serie recae enteramente sobre el tipo de régimen fiscal de una economía:

Diagrama, Esquemático

Descripción generada automáticamente

Como sucede con la formación del precio de cualquier activo financiero, la capacidad de repago del emisor siempre va a jugar un papel esencial. De ahí que esta identidad se cumpla en cualquier economía donde la unidad de cuenta la constituya una moneda fiat, siendo esta una deuda más del Estado. En suma, tal y como muestra la ecuación cuantitativa del dinero, el nivel de precios puede venir determinado por factores relacionados con la demanda de dinero (k), la oferta monetaria (M) o la producción de mercancías (Q) en una economía. Si consideramos que los factores reales son total o parcialmente exógenos, entonces solo nos queda pensar que {M, k} determinarán el nivel de precios. Y, como vimos en el artículo anterior de esta serie, las variaciones en estas variables surgen de las interacciones entre la política fiscal y monetaria:

A mathematical equation with symbols

Description automatically generated with medium confidence

El peso que tendrá cada uno de estos dos ámbitos a la hora de determinar el nivel de precios dependerá, en su mayor parte, de las políticas que escoja el gobierno en cada caso –por evitar complejidades innecesarias, supondremos que la política monetaria la emprende un banco central independiente, mientras que la fiscal la establece el Tesoro. Si este último decide llevar a cabo una política fiscal pasiva –en la que los superávits primarios reaccionan en proporción 1:1 con la inflación–, entonces la política monetaria determinará el nivel de precios: decidirá cuál de todas las combinaciones de M y P acabará prevaleciendo. Lo contrario sucederá si el banco central instaura los tipos de interés de acorde a la tasa de inflación interanual: la política fiscal acabará determinando el nivel de precios por la lógica establecida previamente. Lo anterior no significa, empero, que la política monetaria en el primer caso y la fiscal en el segundo no influencien el nivel de precios. Cuando afirmamos que una de las dos determina el nivel de precios nos referimos a que, cuando una de las dos reacciona pasivamente al nivel de precios, es la otra la que lo estipula.

Mientras que la realidad es infinitamente más compleja que el experimento mental anterior, resulta ciertamente útil para entender que, pese a la correlación de fuerzas entre la política fiscal y monetaria, ambas influyen en el nivel de precios y que, por consiguiente, el Tesoro tiene un papel esencial en este proceso, aunque no en todos los casos determina el nivel de precios si se decide perseguir una política fiscal pasiva. 

Evidencia empírica

Inicialmente, la teoría expuesta en los últimos artículos podría hacernos llegar a pensar que debería existir una correlación entre los superávits –o déficits– públicos y el nivel general de precios. No obstante, una vez observamos los datos de los últimos cuarenta años en Estados Unidos, no observamos dicha correlación entre las variables:

A graph of a graph showing the growth of the company's stock market

Description automatically generated with medium confidence

Mientras que se aprecian episodios de estímulo fiscal que vienen seguidos de episodios inflacionarios –como sucedió en 2020–, esta relación no se cumple en la mayoría de la serie temporal. Al fin y al cabo, ya explicamos con el modelo intertemporal que la valoración de los pasivos estatales no varía junto a cambios puntuales en los superávits primarios, sino junto a cambios estructurales de las expectativas de los agentes económicos respecto al flujo de superávits esperados en el período de tiempo relevante en la acción.

Historias fiscales: la inflación de los 70

En su artículo Fiscal Histories (2022), John H. Cochrane nos propone un marco interpretativo para analizar estas series temporales en base a la TFNP. Sobre la inflación de los años 70, Cochrane desafía el relato convencional, en base al cual fue la política monetaria la que terminó con esta. Sin mayor análisis, los datos secundarían esta tesis: cuando el tipo de interés del banco central supera a la tasa interanual de inflación –dicho de otro modo, cuando los tipos de interés reales aumentan–, entonces la tasa de inflación se acaba controlando. Esta es la lección que extraemos de la célebre regla de Taylor (1993).

Los teóricos de la Teoría Fiscal del Nivel de Precios no niegan el papel que tiene la política monetaria en el control de la inflación, sino que enfatizan que el déficit primario en 1975, alcanzando máximos históricos desde la Segunda Guerra Mundial, junto a una desconfianza hacia la solvencia de Estados Unidos tras la ruptura del sistema de Bretton Woods (Cochrane, 2022), agravó la inflación durante ese proceso. Del mismo modo, la inflación de los setenta no concluyó exclusivamente gracias a la política monetaria de la Reserva Federal, sino gracias a una concatenación de reformas monetaria, fiscal y microeconómica (Ibidem). En el ámbito monetario, ya hemos explicado el papel de la regla de Taylor; en el fiscal, la economía norteamericana recuperó los superávits primarios, compensando la pérdida de confianza por parte de los tenedores de deuda gubernamental; y, finalmente, en el aspecto microeconómico, la política desregulatoria de Carter seguida por Reagan provocó un crecimiento económico que alivió la situación fiscal del gobierno y también impulsó la demanda de dólares.

La pregunta que nos debemos hacer en todos estos episodios es si la política fiscal fue una condición necesaria para reducir la inflación. En este caso, podemos atender a la evidencia que presenta Christopher A. Sims (2011) en su artículo Stepping on a rake:  the role of fiscal policy in the inflation of 1970s. Para Sims, y de acuerdo con la TFNP, una subida de los tipos de interés reduce la inflación a corto plazo, pero la incrementa de forma persistente debido a los mayores gastos en intereses. Para evitar que esto se traduzca en superávits primarios menores en el futuro, será necesario, como mínimo, mejorar la posición fiscal del gobierno. Y esto es, según Sims, la razón por la que tal y como ocurrió en este episodio inflacionario, “la política fiscal puede ser una fuente primaria de cambios en la tasa de inflación” (Ibidem). 

Estímulos fiscales e inflación pospandémica

Un caso distinto al de la inflación de los años setenta es el de la inflación pospandémica, en el que las tasas interanuales de inflación alcanzaron máximos en décadas. Este caso es especialmente ilustrativo porque, al contrario que en el caso anterior –que podríamos calificar de un problema de expectativas–, en este nos encontramos ante un estímulo fiscal evidente, es decir, un shock fiscal que provoca un episodio inflacionario en el muy corto plazo. 

Para la TFNP, los estímulos fiscales no son necesariamente inflacionarios:  si los agentes económicos esperan que la deuda emitida en el estímulo fiscal va a ser amortizada mediante superávits primarios futuros, entonces este estímulo no generaría inflación. Utilizando el modelo intertemporal (Cochrane, 2023):

A mathematical equation with numbers and symbols

Description automatically generated

Nótese que, tal y como estábamos exponiendo, el cambio en la inflación no esperada sucede siempre y cuando tenga lugar un cambio estructural en las expectativas de superávits primarios por parte de los agentes. Esto tiene una clara explicación desde la liquidez de los pasivos estatales: si las expectativas sobre la solvencia estatal se deterioran tras el estímulo fiscal, la liquidez de la deuda pública con la que se ha financiado el estímulo –y contra la que se ha emitido moneda fiat– se deteriora, generando inflación a través del “efecto riqueza”: los agentes que han intercambiado un activo marginalmente menos líquido –deuda pública– por uno más líquido –moneda fiat– ven incrementada su capacidad de gasto, aumentando el nivel de precios.

A su vez, cuando se emite moneda fiat contra un activo de mala calidad, tal y como sucede con una deuda cuyo repago es cuestionado por sus inversores, la moneda fiat se depreciará: su valor fundamental –derivado de su colateral–, provocando que los inversores le apliquen una tasa de descuento superior (m en la primera ecuación de este artículo).

Cabe otro escenario, distinto al que propone la TFNP, bajo el cual un estímulo fiscal no causará inflación, a saber, si la demanda monetaria aumenta. Este caso es especialmente relevante si tenemos en cuenta que las situaciones donde se suelen aplicar estos estímulos suelen ser episodios de recesión económica, donde aumenta la demanda de dinero. Los súbitos cambios en su velocidad (la inversa de la demanda) en las zonas sombreadas de este gráfico, esto es, cuando Estados Unidos se encontraba en recesión, ilustran esta observación:

A graph showing the growth of the stock market

Description automatically generated

Atendiendo a la evidencia empírica sobre la inflación pospandémica, la realidad valida el diagnóstico de la TFNP. En primer lugar, la inflación tuvo raíces predominantes en el incremento de la demanda agregada tanto en Estados Unidos como en la Unión Europea (Giannone and Primiceri, 2024). En segundo lugar, la fuente de esta mayor demanda agregada fue, fundamentalmente, los estímulos fiscales que ejecutaron los gobiernos de Occidente durante la pandemia (Cochrane, 2023).

Concretamente, en un working paper para el National Bureau of Economic Research (NBER), Robert Barro (2024) expone, con la muestra de 37 países de la Organización para la Cooperación y el Desarrollo Económico (OCDE), que se verifica la tesis de la Teoría Fiscal del Nivel de Precios sobre el estímulo fiscal: déficits sin un flujo suficiente de superávits esperados conducen a inflación. En tercer y último lugar, toda esta nueva oferta monetaria no se vio contrarrestada por una demanda proporcional de atesoramiento de dinero, a pesar de que, tal y como muestra la gráfica anterior, creció considerablemente tras los primeros meses de 2020.

Conclusiones

La TFNP no debe relegarse a una exposición teórica de la relación entre los superávits o déficits primarios y la inflación, sino que debe contrastarse con la realidad económica. En este intento de respaldar empíricamente la teoría, podríamos caer en el error de relegarnos a economías con regímenes fiscales que, restringidamente, la Teoría Fiscal del Nivel de Precios podría explicar. Con todo, tal y como hemos visto, esta teoría del nivel de precios no requiere de un régimen fiscal específico: la variable P nunca cae en una indeterminación con respecto a la política fiscal y monetaria del Estado. Por ello, toda la evidencia empírica que se muestre no es más que una ilustración de una teoría del nivel de precios que demuestra tener la entidad suficiente como para poder comprobarse en los últimos episodios inflacionarios –a pesar de contener ciertas inexactitudes o errores que cabrá abordar en un futuro artículo.

Bibliografía

Barro, R. J., & Bianchi, F. (2023). Fiscal influences on inflation in OECD countries (NBER Working Paper No. 31838). National Bureau of Economic Research.

Cochrane, J. H. (2022). Fiscal Histories. The Journal of Economic Perspectives, 36(4), 125–146. ç

Cochrane, J.H. (2023). The Fiscal Theory of the Price Level. Princeton University Press.

Giannone, D., & Primiceri, G. (2024). The drivers of post-pandemic inflation (Working Paper No. 32859). National Bureau of Economic Research.

Rallo, J.R. (2017). Contra la Teoría Monetaria Moderna: Por qué imprimir dinero sí que genera inflación y por qué la deuda pública sí la pagan los ciudadanos. Ediciones Deusto.

Sims, C. A. (2011). Stepping on a rake: The role of fiscal policy in the inflation of the 1970s. European Economic Review, 55(1), 48–56.

Taylor, J. B. (1993). Discretion versus policy rules in practice. Carnegie-Rochester Conference Series on Public Policy, 39(1), 195–214.

Trump y el narcoterrorismo en México

Faltan unos cuantos días para que Donald Trump asuma por segunda ocasión la Presidencia de los Estados Unidos, y así comience a cumplir su amenaza de declarar a los carteles mexicanos como “Terroristas” y además, aplicar un arancel del 25% a las exportaciones mexicanas y canadienses, de no concentrarse sus gobiernos en disminuir la llegada de inmigrantes indocumentados a EEUU.

Declarar a los carteles de drogas como terroristas o como Foreign Terrorist Organization o abreviando, FTO, tiene su sustento en la Antiterrorism and Effective Death Penalty Act de 1996, emitida por William Clinton., que se complementa con el apartado 219 de Immigration and Nationality Act, y con el decreto ejecutivo de George W. Bush, del 23 de septiembre de 2001, que permite al Secretario del Tesoro de aquel país el designar como tales a entidades o personas que apoyan a las FTO.

En síntesis, la denominación conlleva la prohibición al gobierno, ciudadanos y corporaciones estadounidenses de dar apoyo a las FTO, declara los miembros de éstas como inadmisibles en EEUU, y susceptibles de deportación, y obliga finalmente, a sus instituciones financieras y bancarias nacionales a retener los fondos de dichas organizaciones y reportarlos al Departamento del Tesoro.

Muchos mexicanos, comenzado por el expresidente López Obrador y ahora hasta los mismos legisladores del partido MORENA en el poder, han sobreactuado y agitado las aguas, señalando que eso implicaría una posible invasión a México por el Ejército estadounidense, en la línea de lo que han señalado el propio Trump y varios senadores republicanos, que han venido exigiendo en los últimos años, una actitud más dura contra los carteles mexicanos del crimen organizado. 

Narcoterrorismo

En respuesta, en un documento que circuló a fines de 2024 entre los legisladores de MORENA, supuestamente elaborado por el propio López Obrador, se advierte de revueltas o alzamientos armados (previsiblemente en México por parte de ciudadanos mexicanos) en caso de que EEUU haga la declaratoria de “narcoterrorismo”.

Esto ha obligado al gobierno mexicano, aún contra sus propios intereses, a sobrerreaccionar y pedir a Trump no hacer tal declaratoria. Tras esto, creo que para sectores en México y EEUU queda la impresión de que tal actitud del gobierno de Claudia Sheinbaum, tiene por objeto defender no la soberanía nacional, sino a los carteles y sus presuntas alianzas con López Obrador, hoy por hoy, factótum último entre bambalinas de la política mexicana.

Ha sido una sobrereacción inapropiada y sin bases. La declaratoria, de hacerse, sólo permitirá al gobierno de Estados Unidos, el negar visas, congelar cuentas, decomisar activos y amenazar con acusaciones de asociación delictuosa a personas dentro de Estados Unidos, que no necesariamente podrían ser acusados sin este procedimiento. No mucho más, ta vez en ese “mucho más”, pueda obstaculizarse con revisiones y trámites el dinámico intercambio comercial entre nuestros países.

Pero no autoriza ni la intervención militar en otro país, la cual requeriría un procedimiento diferente, ni tampoco operaciones extraterritoriales de ajusticiamiento de los cabecillas del crimen organizado mexicano. Pero para hacer esto, el gobierno estadounidense en realidad no la necesita tal declaratoria para proceder como desee, no necesita siquiera el permiso o visto bueno del gobierno mexicano, tal como vimos en el reciente secuestro del jefe narco “El Mayo” Zambada por el FBI, y mucho antes, en 1990, en el de Humberto Álvarez Machaín, por la DEA.

López Obrador

La supuesta postura de López Obrador y de MORENA y sus sectores duros y más ligados al bolivarianismo latinoamericano, obedecería más bien a buscar jugar a “las vencidas” con el gobierno Trump. Les funcionó en 2019, cuando William Barr, el procurador nombrado entonces por Trump, tuvo que guardarse una declaratoria similar. Creen que hacer alharaca y azuzar la indignación nacional, igual les funcionará hoy. Tal vez, pero en el ínter, van dejando en actores políticos clave de EEUU, la impresión de que ejercen una defensa corporativa del narco mexicano, lo que sin duda jugará en contra del país, durante la renegociación del TMEC en 2026. 

Según López Obrador, en el documento señalado, la oposición alienta la intervención militar estadounidense en México. Esa afirmación, aún como hipótesis, es claramente falaz y una mentira deliberada. Reconocer que México está gobernado hoy por un régimen cuasi-criminal y coincidir con Trump en ello, no convierte a los críticos u opositores en traidores a la patria ni significa apoyar una invasión extranjera. Esta percepción alienta al régimen mexicano con ánimo de rentabilidad política.

Aunque la oposición mexicana hoy es casi inexistente y un cero a la izquierda, mi percepción es que el gobierno Sheinbaum es consciente de las progresivas dificultades de la economía mexicana, hoy prácticamente en recesión. Así que desprestigiando aún más a la oposición y culpando a Trump y a los “gringos” de las dificultades del país, está sentando la narrativa para no sufrir un castigo electoral severo en las elecciones legislativas intermedias de 2027, ante el agravamiento de una posible crisis económica en México.

Es más fácil morir asesinado

En realidad, ante el agravamiento de la situación de violencia en México, que alguien haga algo contra los cárteles del narcotráfico se vería como una buena promoción de mexicanos. Al respecto, el pasado gobierno dejó una pesada herencia a Sheinbaum: 200 mil homicidios en los seis años de ese gobierno y más de 100 mil personas desaparecidas. Y en el gobierno de Sheinbaum esta trágica situación no tiene trazas de solucionarse: hoy el homicidio es ya la principal causa de muerte en varones mexicanos de entre 15 y 44 años de edad.

En México es más fácil que te asesinen a que te dé un infarto o mueras por un accidente. Frente a la incompetencia de Sheinbaum y un régimen militarizado fallido que lleva casi siete años diciendo que combate al narcotráfico, sin ningún resultado aparente, excepto el crecimiento exponencial de los homicidios violentos y las masacres reiteradas: en los primeros 100 días del gobierno de Sheinbaum, más de 7 mil familias mexicanas han perdido a un ser querido por homicidio doloso.

Frente a tal desastre y la ineptitud estatal, no es de extrañar que muchos mexicanos vean en las amenazas de Trump, un clavo ardiente al cual aferrarse. Estamos a días de ver si tales amenazas son creíbles y qué significan, pero sea cual sea el resultado: El régimen de izquierda mexicano solo podrá acusarse a sí mismo. 

Historia económica (II): La economía en el s. XVI, población y agricultura

Una de las obras de referencia para entender este periodo es Feudalismo tardío y capital mercantil, de Peter Kriedte. Nos encontramos en un momento de expansión económica, pero también de crecimiento demográfico. La economía de la época era eminentemente agrícola. Dado el crecimiento de la población, se necesitaban más tierras cultivables, por lo que los campesinos fueron conquistando nuevos terrenos, como tierras marginales utilizadas para el pastoreo. Esto provocó la destrucción del equilibrio entre la agricultura y la ganadería, esencial para mantener la fertilidad del suelo.

Las crisis de subsistencia comenzaron a aparecer en el mundo rural, lo que generó una división del trabajo entre la ciudad y el campo. La producción agraria quedó reducida al agro, mientras que la ciudad concentraba la producción de mercancías manufacturadas. Las ciudades comenzaron a crecer en población, importancia y riqueza. Es en este momento cuando los medios artesanales alcanzan su máxima expresión. A pesar de que la división del trabajo entre campo y ciudad era patente, no se puede negar que determinados oficios urbanos y rurales estaban interconectados, no debemos imaginarnos dos mundos estancos sin relación. La ciudad y el campo dependían la una del otro y requerían cierta coordinación productiva.

Otro factor fundamental es que la mano de obra de las ciudades era la excedente del campo. Una ciudad moderna solo podía subsistir si previamente el campo había sido capaz de crear excedentes de población. Por eso el excedente poblacional del mundo rural fue clave para Kriedte. Ya en esta época comenzaron los instrumentos de control poblacional, uno de esos instrumentos era la institución del matrimonio. De esta forma, los Estados atrasaban la edad del matrimonio a través de leyes, atrasando así el nacimiento del primer hijo. En el siglo XVI, el trabajo y la familia eran cuestiones indistinguibles, y pertenecían a una etapa de la vida muy concreta.

El papel de la agricultura

Las sociedades de la baja edad media y los comienzos de la modernidad eran mucho más carnívoras de lo que podríamos creer. Por lo visto, en las últimas etapas de la Edad Media se comía mucha carne, incluso más que ahora. Pero poco a poco los hábitos alimenticios fueron cambiando, siendo la base agrícola esencial en la dieta. El aumento poblacional necesitaba de un aumento de la productividad de la tierra y de la agricultura. En Europa tendremos dos realidades distintas: por una parte, la realidad occidental, que se estaba adentrando en un mundo capitalista y mercantil, y por otro la oriental, que seguía en la economía feudal con una nobleza muy poderosa.

En los países orientales vemos una refeudalización, conforme occidente se iba volviendo más capitalista, los países de oriente se iban volviendo cada más feudales. No hablamos de masas empobrecidas de campesinos, sino de la existencia de una servidumbre propia de la plena Edad Media. La divergencia ciudad/campo también se dejó ver en oriente, como el caso de Polonia, donde ciudades como Danzing pasaron a ser lugares florecientes con una gran actividad mercantil.

El aumento de la capacidad agrícola vino determinado por tres cuestiones principales: la postergación del barbecho, la explotación agropecuaria rotativa, y el cultivo de forrajes. La combinación de estas actividades permitía aumentar la productividad y seguir alimentando la industria ganadera al mismo tiempo. Cada país se fue especializando en una actividad económica concreta, lo que determinaría, en parte, el desarrollo político y social de la región.

Serie Historia económica

(I) Historiografía y consideraciones previas

Treinta años de la Organización Mundial del Comercio

Por Katrina Gulliver. El artículo Treinta años de la Organización Mundial del Comercio fue publicado originalmente en FEE.

Este mes se cumplen 30 años del inicio de la Organización Mundial del Comercio. La OMC se creó como sucesora del Acuerdo General sobre Aranceles Aduaneros y Comercio (GATT), en vigor desde 1947. El GATT se creó como método para estabilizar y restablecer el comercio tras la Segunda Guerra Mundial.

Pero el panorama del comercio mundial había cambiado radicalmente en los cincuenta años siguientes (sobre todo con el desarrollo del transporte internacional de mercancías en contenedores). El comercio internacional se había expandido masivamente y los países en desarrollo se estaban convirtiendo en centros manufactureros, deseosos de exportar.

La OMC fue la culminación de años de conversaciones y preparativos, reflejo de la ambición de los políticos por expandir el comercio internacional, pero también por asegurarse de que sus propias naciones obtuvieran el mejor trato posible. Sin embargo, su llegada no fue bien recibida por todos. Las rondas de conversaciones y cumbres de los primeros años de la organización fueron polémicas, tanto dentro de las salas de debate como fuera de los edificios.

La tercera ronda de conversaciones, celebrada en diciembre de 1999 en Seattle, fue testigo de protestas sin precedentes. En lugar de un acontecimiento internacional rutinario, con limusinas diplomáticas y oportunidades para hacerse fotos, hubo escenas de caos en el exterior. Estas estridentes protestas se conocerían en la prensa como la «Batalla de Seattle», que no era precisamente la imagen que el presidente Bill Clinton esperaba ofrecer a la audiencia mundial.

La Organización Mundial del Comercio y el movimiento antiglobalización

Dentro de la reunión también se desataron las pasiones. Como informó entonces el Wall Street Journal:

Dentro de la reunión de la OMC, los delegados de los países en desarrollo, incluidos Pakistán, India y Brasil, amenazaron con bloquear una nueva ronda de negociaciones comerciales, negándose a firmar cualquier acuerdo para iniciar las negociaciones a menos que Estados Unidos y Europa accedieran a sus demandas.

Fuera de la reunión, los equipos SWAT de la policía de Seattle utilizaron gas lacrimógeno, spray de pimienta, perdigones de goma y porras contra los manifestantes que bloqueaban el acceso a la reunión de la OMC, obligando a la organización comercial a cancelar su ceremonia de apertura. Ese mismo día, unos 30.000 sindicalistas se manifestaron en un acto de fervor contra la OMC.

Horrorizado, el alcalde de Seattle, Paul Schell, decretó el toque de queda y llamó a la Guardia Nacional.

Los manifestantes también contaron con apoyo: el sindicato International Longshore and Warehouse Union realizó paros en los puertos de Seattle, Tacoma y Oakland. En Seattle, los manifestantes contaron con el apoyo de varias ONG, en particular grupos de defensa de los derechos laborales y del medio ambiente, que habían planeado las protestas durante meses. La Federación Estadounidense del Trabajo y el Congreso de Organizaciones Industriales (AFL-CIO) también celebraron una concentración. En Londres, la acción simultánea de los activistas contrarios a la OMC incluyó ataques a la policía, y se cerró una estación de tren.

En retrospectiva, los planificadores de la OMC deberían haberlo visto venir. Los sentimientos antiglobalización habían ido cobrando fuerza en la década de 1990. Dos años antes de las conversaciones de Seattle, se habían producido protestas similares en la reunión del Foro de Cooperación Económica Asia-Pacífico (APEC) en Vancouver.

El sentimiento contrario a la OMC unió a grupos dispares, desde defensores de los derechos de los trabajadores y nacionalistas de derechas hasta ecologistas (y otros muchos simpatizantes). Resulta fascinante ver a manifestantes contrarios a la OMC ondeando la bandera de Gadsden.

La incorporación de China

Pero la OMC fue el resultado de años de trabajo para liberalizar el comercio, espoleado además por el colapso del bloque soviético. Por supuesto, no creó el «libre comercio» en todas partes (si lo hubiera hecho, no habría necesidad de que existiera tal organización). Su objetivo era promover un comercio más libre, al tiempo que permitía a sus miembros presionar en favor de determinadas protecciones nacionales. (En un mundo de verdadero libre comercio, tampoco habría «conversaciones comerciales»). Podemos ser cínicos y pensar que no es más que otra tertulia de buscadores de rentas, como parecen serlo tantos otros organismos internacionales. Pero ha incorporado a más países a las redes de mercados internacionales.

En 2001, China se incorporó a la Organización Mundial del Comercio, probablemente el mayor cambio en el comercio mundial en décadas, cuando Asia se convirtió en el centro manufacturero mundial, un hecho que sigue causando ondas económicas en todo Occidente. En la actualidad, la OMC cuenta con 166 miembros, que representan el 98% del comercio mundial.

No ha eliminado el problema de los aranceles nacionales, el proteccionismo o la preocupación por la globalización (desde todos los ángulos políticos). Un punto de fricción constante, por ejemplo, han sido las subvenciones agrícolas en la UE y Estados Unidos. Pero supone un paso más en el largo camino del comercio internacional que se inició cuando los primeros barcos partieron en el mundo clásico, para comerciar con mercancías por el Mediterráneo. Hoy todos podemos comprar cosas producidas en todo el planeta: y nuestra vida cotidiana se basa en este nivel de acceso y cooperación.

Feliz cumpleaños, OMC.

Ver también

¿Un nuevo consenso de Washington? (Álvaro Martín).

¿Hay que salvar la Organización Mundial del Comercio? (María Blanco).

Los incendios de Los Ángeles: la historia de un fracaso político

Por Mathew Kilkoyne. El artículo Los incendios de Los Ángeles: la historia de un fracaso político fue publicado originalmente en CapX.

Mientras Los Ángeles arde, con diez muertos y más de 10.000 viviendas destruidas, surge una historia más profunda sobre cómo la burocracia bienintencionada ha convertido un desastre natural en una catástrofe normativa. Los incendios que asolan Pacific Palisades y otras zonas no sólo revelan la vulnerabilidad física de las comunidades de las laderas de California, sino que ponen de manifiesto la debilidad fundamental de intentar sustituir el control político por mecanismos de mercado en la gestión del riesgo.

Las raíces de esta crisis se remontan a 1988, cuando los votantes californianos aprobaron la Proposición 103, una medida electoral superficialmente atractiva que obligaba a las aseguradoras a solicitar la aprobación, mediante audiencias públicas, de cualquier subida de tarifas. Parecía una medida clásica de protección del consumidor: ¿por qué no obligar a las aseguradoras a justificar sus precios? Pero, como nos enseñó Friedrich Hayek, los precios no son sólo números: son señales de información que coordinan comportamientos humanos complejos. Cuando se impide que los precios se ajusten a la realidad, no sólo se modifica el coste de algo, sino que se distorsiona todo el sistema de incentivos e información que ayuda a la sociedad a gestionar el riesgo.

Si los precios no se ajustan a la realidad, la realidad se ajusta a los precios

Esto es exactamente lo que ha ocurrido en California. No sólo se impidió a las compañías de seguros subir los precios, sino que se les impidió utilizar modelos modernos de riesgos catastróficos para evaluar los peligros futuros. En un mundo de riesgos climáticos cambiantes, las aseguradoras se vieron obligadas a navegar mirando por el retrovisor, utilizando datos históricos que se volvían cada vez más irrelevantes con cada año que pasaba.

¿El resultado previsible? Siete de las doce mayores aseguradoras de California simplemente dejaron de suscribir nuevas pólizas. No se puede obligar a las empresas privadas a perder dinero indefinidamente, y si no pueden cobrar precios que reflejen los riesgos reales, abandonarán el mercado por completo. No se trata de codicia, sino de supervivencia económica.

La naturaleza aborrece el vacío, y la política también. Ante la huida de las aseguradoras privadas, California amplió su «aseguradora de último recurso», el Plan FAIR. Las cifras son asombrosas: 458.000 millones de dólares de exposición respaldados por sólo 385 millones en fondos no reservados y 2.500 millones en reaseguro. No se trata tanto de un seguro como de un pensamiento mágico, que pretende que los mandatos políticos pueden sustituir de algún modo a la capacidad financiera real.

Las consecuencias son ahora brutalmente evidentes. El San Francisco Chronicle informa de que sólo la exposición del Plan FAIR en los códigos postales de la zona de incendios de Los Ángeles podría alcanzar los 24.000 millones de dólares, casi diez veces sus recursos totales. Esto no es sólo una brecha; es un abismo. Y es uno que cada californiano en última instancia tendrá que ayudar a llenar.

¿No querías seguros caros? Toma dos tazas (o más)

Consumer Watchdog -irónicamente, la misma organización que defendió la normativa de 1988- calcula ahora que cubrir las pérdidas del Plan FAIR podría requerir recargos de entre 1.000 y 3.700 dólares en cada póliza de seguro de California. El intento de proteger a los consumidores del encarecimiento de los seguros acabará obligándoles a pagar mucho más de lo que habrían pagado en un sistema de mercado. Kim-Mai Cutler tiene un hilo fantástico sobre cómo su ley ha creado un sistema que les beneficia a ellos, mientras que genera pérdidas para el resto de Estados Unidos.

Pero las distorsiones van más allá de los precios de los seguros. Al suprimir las señales de precios sobre el riesgo, el régimen regulador de California fomentó el desarrollo en zonas propensas a los incendios, reduciendo al mismo tiempo los incentivos para la prevención de incendios. Cuando se puede obtener un seguro subvencionado independientemente del riesgo, ¿para qué gastar dinero extra en materiales resistentes al fuego o en desbrozar? Cuando los propietarios no asumen el coste total de sus decisiones de ubicación, naturalmente asumen más riesgos de los que asumirían en un mercado libre.

La reconstrucción que se avecina revelará otro nivel de fracaso de la normativa. La incapacidad de valorar el riesgo adecuadamente significa que muchos propietarios descubrirán que su cobertura del Plan FAIR es inadecuada para la reconstrucción. Es posible que los bancos se muestren reacios a conceder préstamos en zonas donde es difícil obtener un seguro. Es probable que el valor de las propiedades disminuya, reduciendo la base impositiva precisamente cuando más se necesitan los recursos públicos. Así es como se agravan los fallos regulatorios: cada intervención crea nuevos problemas que parecen requerir aún más intervención.

Volver al mercado

Hay aquí una profunda lección sobre los límites del control político sobre la realidad económica. El puesto de comisionado de seguros de California se ha convertido en lo que los observadores políticos llaman un «cementerio», porque es imposible conciliar la demanda política de tarifas de seguros bajas con la realidad económica del creciente riesgo de incendios. Esto es lo que ocurre cuando se intenta regular hechos económicos básicos: la realidad siempre acaba ganando, pero el coste del retraso hace que el ajuste de cuentas final sea mucho peor de lo necesario. Uno sospecha, eso sí, que la próxima elección para este cargo bien podría ser caliente.

La solución no es complicada, pero requiere coraje político: California debe restablecer mecanismos de mercado que puedan fijar precios y gestionar riesgos adecuadamente. No va a ser fácil tras un incendio que ha arrasado hogares y vidas, pero es lo que hay que hacer. Significará permitir que las aseguradoras utilicen herramientas modernas de evaluación de riesgos, permitir la fijación de precios basada en el mercado y desarrollar ayudas específicas para las poblaciones verdaderamente vulnerables en lugar de intentar contener los precios para todos.

A medida que las cenizas se asientan, la sombría alternativa ya está quedando clara: un sistema en el que muchos californianos se encontrarán sin seguro, sin cobertura en absoluto o con costes muy superiores a los que habrían pagado en un sistema basado en el mercado, incluyendo la sombría perspectiva de hogares quemados y la dependencia de la buena voluntad y la amabilidad de extraños para recoger los pedazos de sus vidas. Esta es la cruel ironía de las políticas intervencionistas: al intentar proteger a los consumidores de los precios del mercado, acaban exponiéndolos a riesgos y costes mucho mayores.

Los riesgos de anular al mercado

A medida que Los Ángeles inicia su recuperación, el Estado se enfrenta a una disyuntiva: continuar por la senda de la supresión del mercado y ver cómo su sistema de seguros se derrumba por completo, o adoptar reformas que permitan a los mercados fijar el precio del riesgo adecuadamente. Los incendios han dejado devastadoramente claro el coste de elegir mal.

Esto es más que una simple historia de California: es una advertencia sobre los peligros de permitir que los imperativos políticos anulen los mecanismos del mercado. Cuando impedimos que los precios digan la verdad sobre el riesgo y la escasez, no eliminamos la realidad subyacente. Sólo nos aseguramos de que, cuando finalmente irrumpa, las consecuencias serán mucho peores de lo que tenían que ser.

Sin embargo, la crisis de los seguros no es más que la manifestación más visible de una esclerosis normativa más profunda que ha dejado a una de las regiones más ricas del mundo sorprendentemente vulnerable a amenazas totalmente previsibles. El PIB de California la convertiría en la quinta economía mundial si fuera una nación independiente, alberga las principales empresas tecnológicas del mundo y se asienta junto al mayor océano de la Tierra. Sin embargo, no puede suministrar agua a presión a las bocas de incendios ni desplegar tecnología moderna para combatirlos. ¿Cómo hemos llegado a esta absurda situación?

California, rendida ante el ecologismo

Pensemos en las infraestructuras hídricas. California no ha construido un gran embalse nuevo desde 1992, a pesar de haber sumado 10 millones de habitantes. Las normativas medioambientales, sobre todo las que protegen a las poblaciones de eperlano del Delta, han reducido activamente la disponibilidad de agua para el sur de California. El Estado ha dado prioridad a la conservación frente a la ampliación de la capacidad, forzando de hecho un juego de suma cero en el que cada nuevo residente reduce la seguridad hídrica de los ya existentes. Mientras tanto, los proyectos de desalinización se enfrentan a años de revisiones medioambientales y desafíos normativos: la planta de Carlsbad tardó 14 años en aprobarse y construirse, a pesar de utilizar tecnología probada (y eso es una interpretación liberal, el esquema desde la concepción de la idea tardó 24 años en completarse).

Esta parálisis de las infraestructuras sería en cierto modo comprensible si California careciera de recursos. Pero este es un estado que alberga empresas a la vanguardia de la inteligencia artificial, la robótica y los sistemas autónomos. Sin embargo, mientras Silicon Valley desarrolla coches autónomos y robots capaces de realizar operaciones quirúrgicas, los bomberos siguen dependiendo principalmente de helicópteros y aviones pilotados por humanos para suministrar agua a los incendios forestales, igual que hace cincuenta años. ¿Dónde están los enjambres de drones autónomos que podrían suministrar agua de forma continua y precisa? ¿Por qué no utilizamos sistemas basados en inteligencia artificial para optimizar la respuesta a los incendios y predecir su propagación en tiempo real?

La carga de la regulación

La respuesta está en lo que el historiador económico Joel Mokyr denomina «la carga del conocimiento», salvo que en el caso de California no es la carga de adquirir nuevos conocimientos lo que les frena, sino la carga de unos marcos reguladores que hacen casi imposible desplegar nuevos conocimientos. La misma mentalidad reguladora que ha paralizado el mercado de los seguros también ha congelado la innovación en seguridad pública e infraestructuras.

Pensemos en lo que costaría desplegar una red de drones autónomos de extinción de incendios en el condado de Los Ángeles. Probablemente, se necesitarían aprobaciones de la FAA, las autoridades estatales y locales, evaluaciones de impacto ambiental, casi con toda seguridad, audiencias públicas sobre el ruido y la privacidad, estudios sobre el impacto en la fauna y un sinfín de obstáculos normativos. Eso, antes de que necesiten su propio seguro de flota, licencias y tengan que conseguir financiación para financiar la iniciativa. Cada agencia tendría poder de veto efectivo, y ninguna tendría un gran incentivo para decir que sí. Mientras tanto, los incendios no esperan a que concluyan los procesos burocráticos. La gente de ideas empezaría un proyecto y seguiría adelante. Las soluciones se pierden, como lágrimas en la lluvia.

Freno al avance tecnológico

Esto apunta a una idea crucial sobre la relación entre regulación e innovación: el coste de los seguros no es independiente de nuestra capacidad para prevenir y combatir los incendios con eficacia. Si los sistemas autónomos pudieran responder a los incendios con mayor rapidez y eficacia que los equipos humanos, si las infraestructuras inteligentes pudieran mantener la presión del agua precisamente donde se necesita, si la IA pudiera optimizar las rutas de evacuación en tiempo real… entonces las primas de los seguros podrían seguir siendo asequibles aunque aumentaran los riesgos climáticos. Pero para lograrlo hay que permitir que la innovación en seguridad pública avance a la velocidad de la tecnología, no de la burocracia.

En cambio, California ha creado un entorno normativo que impide simultáneamente a las compañías de seguros cobrar las tarifas del mercado e impide el despliegue de tecnologías que podrían reducir los riesgos que impulsan esas tarifas. Este doble vínculo garantiza que el sistema se vuelva más frágil con el tiempo, a medida que aumentan los riesgos, mientras nuestra capacidad para gestionarlos permanece congelada en ámbar.

La trágica ironía es que el régimen regulador de California, aparentemente diseñado para proteger el interés público, en realidad ha impedido el desarrollo de protecciones públicas más eficaces. El mismo estado que es pionero en la circulación de vehículos autónomos por sus carreteras no puede aprobar sistemas autónomos para luchar contra los incendios. La misma región que lidera el mundo en el desarrollo de la IA sigue luchando contra los incendios, principalmente con herramientas y técnicas que serían familiares para los bomberos de hace cincuenta años.

Regulación e innovación

Esto apunta a una verdad más amplia sobre la regulación y la innovación: no basta con generar nuevas tecnologías, se necesita un entorno regulador que permita que esas tecnologías se desplieguen de manera que resuelvan problemas reales. California ha creado un sistema que destaca en lo primero, al tiempo que impide activamente lo segundo.

El camino a seguir requiere no sólo reformar la normativa sobre seguros, sino replantearse fundamentalmente cómo regulamos la innovación en seguridad pública e infraestructuras. Deben existir marcos que permitan evaluar y aprobar rápidamente las nuevas tecnologías sin dejar de garantizar la seguridad, algo más parecido a cómo regulamos el software que a cómo regulamos los puentes. Cada nuevo enfoque debe dejar de verse como una amenaza que hay que contener y la innovación debe considerarse esencial para la seguridad pública.

Porque, en última instancia, la elección no está entre la regulación y el caos, sino entre las normativas que fomentan la innovación y las que la impiden. La crisis actual de California demuestra el coste de elegir mal. Un enfoque verdaderamente progresista de la seguridad pública aprovecharía las extraordinarias capacidades tecnológicas del estado para proteger a sus ciudadanos, en lugar de permitir que la esclerosis normativa mantenga esas capacidades encerradas en los laboratorios de investigación y en la imaginación de la gente mientras Los Ángeles arde.

Ver también

California en la oscuridad. (José Ignacio del Castillo).

La distancia que hay del Camp Nou a California. (Domingo Soriano).

Ocupen su localidad. (José Carlos Rodríguez).

Los europeos ya no pueden comprar coches, pero tienen un cargador único para su móvil

Me apresuro a aclarar que ninguna de las frases que componen el título es de mi coleto, yo me he limitado a intercalar la conjunción adversativa que las une para formarlo. La primera la pronunció hace un mes el señor Luca de Meo, que es el presidente de la patronal europea de fabricantes de coches, además de CEO de Renault, y fue titular en diversos medios[1].

La segunda procede de un ufano anuncio que la Comisión Europea hizo el 28 de diciembre mediante la red X: “Una Unión, un cargador” es el slogan. A partir de ese día, todos los aparatos electrónicos vendidos en la UE tenían que incorporar un puesto USB-C para su carga. Ello implica para los europeos “mejor tecnología de carga, menos e-desperdicios, y menos lío para encontrar el cargador necesario”, nos dicen en el mismo mensaje. También fue noticia en numerosos medios, en más que la primera, aunque aquella resulte más llamativa.

Es difícil interpretar de forma positiva la primera frase: lo que nos dice de Meo no es que los europeos no quieran comprar coches, sino que cada vez se lo pueden permitir menos. ¿Es porque los europeos son más pobres, o porque los coches son más caros? De Meo se inclina por esta última causa. En cuanto a la segunda frase del título, aquí sí aparece algo positivo a primera vista para el ciudadano europeo, que gracias a la Comisión Europea se encontrará con un futuro más sencillo y más verde a la hora de cargar sus dispositivos electrónicos.

¿Qué tienen en común entonces ambas frases que hayan impulsado a un servidor a combinarlas en el mismo título? Pues que ambas son consecuencia de un mismo tipo de intervención regulatoria en el mercado, lo que los economistas llaman fijación de mínimos de calidad.

Las soluciones del mercado no intervenido

En el mercado no intervenido, las condiciones de una transacción son fijadas libremente por las partes. Una de dichas condiciones y muchas veces la única negociable, es el precio. A las autoridades les gusta mucho intervenir en los precios fijando máximos y mínimos, y es por ello que las consecuencias de la regulación de precios están muy estudiadas y son conocidas sobradamente por todo el mundo, menos, parece, por aquellos que toman la decisión de regular.

De la misma forma que se pueden establecer regulatoriamente límites al precio que pueden acordar las partes, el Estado también interviene en otras de las variables de la transacción. Por ejemplo, se pueden establecer regulatoriamente ciertas características del producto. Esto son los llamados mínimos de calidad.

La obligación que tienen los productos de consumo duradero de dar un periodo mínimo de garantía es un mínimo de calidad. Otro ejemplo lo constituye, precisamente, la obligación implícita en la segunda frase del título de este artículo: que todos los productos electrónicos incorporen un puerto USB-C.

El establecimiento de mínimos de calidad, como cualquier intervención en el mercado, tiene consecuencias. Estas son bien conocidas por los economistas. La fijación de mínimos de calidad supone un incremento de los costes en la elaboración del producto, por lo que tenderá a hacer que suban los precios del mismo. Dicha subida hará que determinados individuos, los compradores marginales, queden excluidos del acceso al producto o servicio.

Productos más caros

En el hipotético caso de que los consumidores demandaran y valoraran adecuadamente ese mínimo de calidad, los efectos sobre el mercado serían irrelevantes: el producto es más caro, pero satisface mejor las necesidades de los clientes, y lo que ha pasado es que el regulador ha acertado con lo que quería y valoraba la gente.

Obviamente, el caso hipotético descrito, si bien es teóricamente posible, es milagroso que ocurra, simplemente por los incentivos del regulador frente al emprendedor. Este último se beneficia si acierta con la configuración adecuada del producto, algo que no le pasa al regulador. Idénticamente, el emprendedor padece los costes de equivocarse en tal diseño, mientras que el regulador no soporta los costes de imponer los mínimos de calidad.

En suma, lo normal es que la consecuencia de la fijación de mínimos de calidad sea el encarecimiento del producto por incorporar características que el consumidor no valora suficientemente como para pagar el diferencial.

Aquí es donde enlazamos con la frase de Luca de Meo y primera parte del título de este artículo. Y es que los coches europeos están sujetos a intensas y crecientes mínimos de calidad. Aquí entran cosas tan anecdóticas como las sucesivas obligaciones de llevar chalecos reflectantes, triángulos de avería o sirenas de señalización, así como los requisitos relacionados con la protección del medio ambiente. Todo ello hace que el precio de los coches se acreciente sin que el comprador perciba una mayor utilidad del vehículo[2], por lo que es más remiso a comprarlo y prefiere buscar alternativas para satisfacer las necesidades que el vehículo privado satisfaría.

Menos innovación

La situación que denuncia de Meo tiene una causa clara: la regulación de mínimos de calidad impuesta por la Comisión Europea a los vehículos. Y es este mismo tipo de regulación la que inicia su andadura para los aparatos electrónicos con el cargador universal.

Que nadie se engañe, sus efectos serán los mismos: el encarecimiento del producto sin beneficio correlativo para el consumidor. Puede que a mucha gente le parezca fenomenal esto del cargador único; las ventajas son claras. Lo que no vemos son los costes, tanto estáticos como sobre todo dinámicos, ocasionados por el desincentivo a innovar en puertos de carga. Y si todo para aquí, la cosa puede quedarse en anécdota, como cuando nos obligaron a llevar chalecos reflectantes en el coche.

No parará aquí, claro que no. Y dentro de unos años me temo que tendré que rescatar este artículo y reescribirlo con otro título, tal vez este: “Los europeos ya no pueden comprar teléfonos móviles, pero su roscón de Reyes tiene más naranja confitada.”.

Notas

[1] Por ejemplo, en El Mundo

[2]la regulación que viene eleva en un 40% el precio de los vehículos” nos dice de Meo en la noticia citada.

Ver también

La regulación en la telefonía móvil: las antenas. (Alberto Illán Oviedo).

De nuevo, Mises no comprendió a Menger IV: la escala de Mohs

Hoy retomo esta serie en primer lugar para analizar si las escalas numéricas que utiliza Menger podrían interpretarse como escalas ordinales, de manera análoga a la escala de Mohs de dureza de los minerales. Y en segundo lugar haré una reflexión sobre la imposibilidad de explicar plenamente la planificación económica por parte de la teoría ordinal del valor.

La escala de Mohs es muy sencilla, ordena la dureza de los minerales de 1 a 10 de manera que el menos duro, el talco, tiene un valor uno y el más duro, el diamante, tiene un valor de 10.  La lógica de la escala de Mohs es que los minerales de mayor dureza pueden rayar a los de menor dureza, pero no al revés.  Esta escala no mide proporciones de dureza, es decir, la dureza no tiene por qué variar en la misma intensidad entre el mineral 1 y el 2, que entre el mineral 4 y 5.  No cabría, por tanto, hablar de proporciones.  Simplemente, un mineral es más duro que otro, nada más. Esta escala no nos dice cuánto más duro es uno que otro. Tampoco tendría sentido realizar operaciones de suma o resta aritmética con estos números.

La escala de Mohs

¿Podríamos interpretar las escalas de valores de Menger como ordinales aplicando la misma lógica que la escala de Mohs?  En mi opinión, rotundamente no.  Como ya hemos expuesto en las entregas anteriores de esta serie, Menger alude constantemente a expresiones como “la medida del valor”, “determinación cuantitativa de la importancia de una necesidad”, “el valor es una magnitud que puede medirse”, “diferencia del valor de los bienes y la medida de los mismos”, “la diferencia de la magnitud del valor”, “Diferencias de la magnitud de la significación de cada una de las satisfacciones de necesidades”, etc. No continúo enumerando expresiones de este tipo para no aburrir al lector. 

Aparte de las anteriores expresiones de carácter teórico, también hay otros pasajes donde Menger se pone manos a la obra con ejemplos prácticos realizando cálculos aritméticos sobre el valor como proporciones, sumas o restas. Ya comenté en entregas anteriores el ejemplo de las valoraciones cardinales de vacas y caballos por parte de los granjeros, y hoy traigo este otro pasaje donde Menger realiza cálculos sobre el valor de los bienes de orden superior:

Supongamos, para dar una expresión numérica a lo que venimos diciendo, que el valor previsible del producto disponible al cabo de un año equivale a 100 y que el valor de la disposición sobre la cantidad de los correspondientes bienes económicos de orden superior dentro del año (el valor de la utilización del capital) equivale a 10. Es claro entonces que en el momento actual el valor de la totalidad de las cantidades suplementarias de bienes de orden superior requeridas para la producción del mencionado producto, excluida la  utilización del capital correspondiente, no equivale para un sujeto económico a 100, sino sólo a 90. Si el valor de la utilización del capital fuera 15, entonces el otro valor sólo sería 85.

El valor que para cada uno de los individuos económicos concretos tienen los bienes es, como ya hemos dicho varias veces, la base principal de la formación del precio

Carl Menger. Principios de economía política, p 219.

No son magnitudes absolutas

Queda meridianamente claro que Menger habla de valores y no de precios, pues subraya que el valor de los bienes de orden superior que está calculando es la base para la formación del precio.

No debemos caer en el error de pensar que por esas expresiones numéricas de 100, 85 o 90 Menger se está refiriendo a magnitudes absolutas. Como en el ejemplo de las vacas y los caballos, las valoraciones las hacemos en términos de unos bienes con respecto a otros. Igual que la distancia la cuantificamos de una cosa, la distancia a medir, con respecto a otra que utilizamos para cuantificarla (pasos, pies, metros, etc).

Para medir, solemos utilizar como referencia el valor marginal que, en un momento concreto, para nosotros tiene el dinero. Y de nuevo, medir el valor en términos de dinero en absoluto implica que estemos hablando de precios.  Si yo voy a un mercadillo y tengo en mente que la camisa que quiero comprar vale 100 unidades monetarias para mi, solo estaré dispuesto a comprarla por 99 unidades o menos.  Es decir, para mí el valor es 100, y el precio será el más bajo posible, inferior a 99.  Podría ser 80, 20 o incluso 5, el precio más bajo posible que consiga negociar con el vendedor.

¿Era Menger cardinalista?

Para concluir con el artículo de hoy, quisiera hacer una reflexión al margen de la discusión de si Menger es cardinalista o no. Y es que no resulta concebible que podamos planificar nuestra actividad previsora sin tener, como afirma Mises, la menor noción de la diferencia de la magnitud de valor que otorgamos a cada uno de nuestros fines o necesidades.

En este sentido, también me gustaría hacer referencia al argumento de Carlos Bondone, que es quien ha inspirado todos mis artículos sobre la medida del valor. Hasta donde yo llego a entender, Bondone sostiene que sólo es medible el valor que se refleja en los bienes, pero no sería medible el valor de satisfacer necesidades. Humildemente, creo que el mismo argumento podría servir para medir la importancia de la satisfacción de necesidades, pues estamos hablando en todo caso de la misma magnitud. Tal y como explica Menger, el valor es la importancia que asignamos a nuestras necesidades que luego proyectamos en los bienes.

Si Crusoe tiene más de una necesidad, ¿cómo consigue distribuir los recursos y esfuerzo que dedica a satisfacer unas necesidades u otras? En un primer momento, e independientemente de que posteriormente pueda reajustar o no, Crusoe planifica. Sabemos que no actúa como un Ñu, que simplemente satisface la necesidad que más le urge instintivamente y, una vez satisfecha, pasa a la siguiente. No, Crusoe planifica de cara al futuro y esto sin duda lo deja muy claro el propio Mises. Planifica su necesidad de escapar de la isla, su necesidad de comer, de beber, intenta procurarse de remedios para eventuales heridas o enfermedades que pudieran surgir, etc.

Precisión y cardinalidad

Según Mises, Crusoe no podría determinar mayores cantidades concretas de recursos y esfuerzo a una necesidad que a otra porque es imposible que pueda calcular diferencias en la importancia de estas necesidades.  Cualquier plan que haga se limitaría a dedicar algo más de recursos a una necesidad que a otra por orden de importancia, pero la argumentación de Mises conduce irremediablemente a que ese “algo más” sólo podría ser arbitrario o especulativo aunque él no lo afirme expresamente, y es más que evidente que esto no es así.

Que si Crusoe dedica aproximadamente 5 veces más esfuerzo a buscar comida que a buscar agua, pues con toda seguridad será porque para él el valor de la comida es más o menos 5 veces superior al del agua en función de su estimación cuantitativa, más o menos precisa o acertada, de las cantidades necesitadas y disponibles de agua y comida.

Quiero subrayar que “5 veces superior” no tiene por qué ser una cuantificación exacta.  La inexactitud en absoluto niega la cardinalidad. Por poner un ejemplo, cuantificar una distancia en pasos es una cuantificación cardinal, incluso aunque se cuantifique de un vistazo sin ni siquiera molestarse en recorrer la distancia contando los pasos.  Recordemos que el argumento de Mises no es que no se pueda cuantificar por un problema de inexactitud o imprecisión.

La posición de Mises

No, Mises niega de manera tajante y rotunda cualquier posibilidad de cuantificación proporcional o aritmética del valor o la realización de cualquier cálculo, y lo hace en numerosas ocasiones a lo largo de su obra. A continuación cito uno de sus pasajes más claros y contundentes en ese sentido:

En la esfera del valor y las valoraciones no hay operaciones aritméticas; en el terreno de los valores no existe el cálculo ni nada que se le asemeje.

Ludwig von Mises. La acción humana. p 146.

En definitiva, una teoría que no es capaz de explicar bien la realidad, no es una buena teoría. Y la teoría ordinal del valor de Mises es incapaz de explicar por qué Crusoe decide asignar y distribuir cantidades específicas de recursos o esfuerzo a cada necesidad en proporción a su importancia.

Bibliografía
Serie De nuevo, Mises no comprendió a Menger

(I) Ordinal vs. cardinal

(II) Tampoco Hayek

(III) Unidad de medida

Serie Mises no comprendió a Menger

IIIIIIIV