Ir al contenido principal

Borrell, el esclavista

 

"Cómo convertir a Europa en la zona menos próspera y con más paro del planeta" debería haber sido el título del discurso pronunciado por José Borrell en Oviedo. Para el cabeza de lista del PSOE a las elecciones europeas, la Unión Europea debe establecer un salario mínimo común para todos los países de la Unión. El motivo parece bien sencillo y bienintencionado: que no nos hagamos la competencia entre europeos, poder evitar la deslocalización empresarial y lograr que el trabajo deje de ser una mercancía.

Parece mentira que el señor Borrell haya sido profesor de economía. Si se obliga a los empleadores a pagar una misma cantidad de euros mensual en países en los que por motivos institucionales y económicos las productividades del trabajo son tan distintas, lo único que se logrará es un desempleo de proporciones dantescas en aquellos países en los que la productividad laboral esté, en líneas generales, por debajo del eurosalario mínimo.

El empleador polaco cuyos trabajadores no aportan al resultado final del producto más de 300 euros al mes no subirá el salario a 600 porque don José se empeñe en que eso es lo que se debe pagar. Lo que harán es despedir a todo aquel que no produzca más de 600 euros al mes y, en muchos casos, cerrar el chiringuito y sacarse una oposición para vivir él también de la sopa boba puesto que, faltaría más, a los funcionarios también se les subirá el salario mínimo. Luego, se lamentará que no haya espíritu empleador entre nuestros empresarios, o que los dioses nos castiguen con millones de nuevos desempleados.

Evitar la deslocalización es otra de esas bonitas canciones que provocan chaparrones, cuando no auténticos diluvios en forma de menos producción y más paro. Ay, José, que si los dueños de las empresas se van a Estonia no es porque los estonios sean tontos y se dejen explotar. Ni siquiera lo hacen por estar más lejos de la burocracia de Bruselas. Lo hacen sencillamente porque políticos como tú pervierten de tal forma la creatividad y la actividad empresarial, con mil y una marañas intervencionistas, que los empresarios deciden apagar la luz y mudarse a lugares donde sople algo más de libertad y respeto a la propiedad privada.

Además, si estas empresas no encontrasen más racionalidad y más libertad en Polonia o a la República Checa, se irán a países fuera de la Unión Europea. Y entonces, ¿qué van a hacer Borrell y sus amigos? ¿Elevar las barreras arancelarias? ¿Empequeñecer el poder adquisitivo de los europeos? ¿Prohibir, como Ceaucescu, la compra de electrodomésticos producidos en países más productivos y más libres? ¿O quizás prohibir a las empresas cerrar sus puertas e irse del país? Posiblemente esclavizar a los empresarios sea una medida apropiada para quienes no ven en la economía más que lucha de clases, pero para el común de los mortales supondría una innecesaria comprobación de esa ley de la gravedad económica que explica cómo caen los países en los que la propiedad privada no es respetada.

Pero Borrell no ve ninguno de estos problemas. Él, como mucho, alcanza a vislumbrar que gracias a sus medidas coactivas el trabajo dejará de ser una mercancía cuyo precio se mueva al antojo del cochino mercado. Parece mentira que 15 años después de la caída del Muro de Berlín, de la liberación de millones de trabajadores de las garras de sus “representantes obreros” y del batacazo irremediable de todo aquel feudo antimercado que era el bloque de países socialistas, todavía nos encontremos contestando a estas tonterías. La cantinela de Josep fue la que escucharon millones de personas antes de encontrarse en un gulag, desposeídos de la mercancía con la que comerciaban de tú a tú en el mercado como hombres libres. Cuando el trabajo deja de ser una mercancía, el trabajador pasa a ser un esclavo; o un esclavista si tienes la suerte de ser amigo de los redentores.

En el caso de Borrell no cabe la menor duda. Él pretende estar entre los esclavistas de ex-empresarios y ex-obreros en una Europa empobrecida. Empobrecida, pero armonizada. Empobrecida, pero igualada. ¡Qué parco consuelo!

Microsoft y las multas

La Unión Europea ha hecho gala de una sinceridad abrumadora. Ha condenado a Microsoft por aprovecharse de su situación de "cuasi-monopolio". Me pregunto si dentro de poco me sancionarán por realizar un "cuasi-hurto" o un "cuasi-asesinato". Este grado de arbitrariedad, la verdad, no me produce demasiada tranquilidad.

Lo de menos es la multa, que si sigue en pie tras los cuatro o cinco años de pleitos se comerán cruda los agricultores del comunismo de la PAC. No parece que vaya esa cifra a hacer un daño irreparable a Microsoft, aunque desde luego no les hará mucha gracia pagarlo. Más importantes parecen las sanciones que les obligan a eliminar su sistema de reproducción de vídeo de Windows y publicar algunos protocolos que facilitarían la interoperabilidad de software de terceros con Windows.

La primera sanción resulta un verdadero incordio. Si bien es cierto que Windows Media Player no es estrictamente necesario para que Windows funcione correctamente, también lo es que resulta cómodo y seguro saber que todo Windows tiene preinstalado un sistema de reproducción de vídeo y audio. La propuesta de Microsoft de ofrecer una versión de su sistema operativo que instalara reproductores de la competencia parecía más razonable que la imposición adoptada.

La segunda puede parecer, en cambio, más razonable, puesto que uno de los grandes problemas de los competidores de Microsoft es la imposibilidad de presentar productos plenamente compatibles con los sistemas Windows. Sin embargo, el problema es, de nuevo, que se intenta poner un parche que no arregla el problema de fondo, que es que tanto Microsoft como otras empresas pueden ofrecer protocolos cerrados e incompatibles con otros productos por la prohibición de realizar ingeniería inversa.

Sería mejor que la Unión Europea eliminara restricciones absurdas en lugar de intentar restaurar la competencia por medio de decisiones tan arbitrarias como ésta. Pero es el viejo camino de servidumbre, en el que una intervención gubernamental termina siendo seguida por otras, inexorablemente.

El caso Lomborg

Recientemente, un comité danés, hasta ahora desconocido en nuestro país, ha dictaminado que el libro de Bjon Lomborg The skeptical enviromentalist (El ecologista escéptico) es culpable de deshonestidad científica. Los científicos le critican en las revistas. Los activistas le tiran tartas y se muestran extraordinariamente orgullosos de su hazaña, que supongo guiada por una santa indignación. Pero, ¿quién es Bjon Lomborg y qué ha hecho para merecer esto?

Lomborg es un profesor universitario de estadística que se declara ecologista y cuenta que todo empezó cuando leyó una entrevista con el economista Julian Simon en la revista Wired. Su indignación ante la afirmación de éste de que ni los recursos se estaban agotando ni la superpoblación era un problema, le llevó a comprar sus libros y a pedir a los alumnos de su clase que buscaran posibles fallos en los planteamientos de Simon. La dificultad para encontrarlos le condujo a reconsiderar sus convicciones ante lo que él mismo denomina la “letanía”.

Una letanía que todos conocemos: Estamos acabando con el agua potable, con los combustibles fósiles, con los bosques, con la comida, con la pesca. Miles de especies desaparecen cada año. El agua y el aire están cada vez más contaminados. La tierra se calienta. El desastre es inminente, etc. El pecado de Lomborg ha sido estudiar cada uno de estos temas y llegar a la conclusión de que no es para tanto. Y lo ha hecho empleando las estadísticas más oficiales disponibles, las de la ONU, la FAO, el Banco Mundial, la EPA, la OMC, el IPCC… es decir, exactamente las mismas que emplean los ecologistas como soporte de sus temores.

Lo peor para el pensamiento único oficial ha sido observar cómo el profesor danés destruía a algunos de sus más santos patrones empleando, exactamente, los mismos datos que ellos. Pese a los esfuerzos, en todo este tiempo sólo han logrado encontrar en su libro menos de una decena de errores menores que no alteran las conclusiones generales. Normalmente, Lomborg se muestra educado con los posibles errores ajenos, aunque en ocasiones parezca costarle un mundo. Es probable que hayan oído en más de una ocasión la cifra de 40.000 especies extintas cada año. Pues bien, esa cifra fue inventada por un científico llamado Myers sin aportar evidencia alguna y repetida desde entonces como la verdad absoluta. Es cuando descubre cosas como ésta cuando a nuestro autor le tiembla la pluma de indignación.

Porque, de hecho, a lo largo de todo el libro, Lomborg se muestra como un ecologista de izquierdas. Su obsesión consiste en averiguar dónde podrían ser mejor empleados nuestros recursos públicos, si en los objetivos imprescindibles de Greenpeace o en reducir el hambre. Negando la realidad de algunas quejas, y poniendo otras en su justo lugar, llega a la conclusión de que el hambre parece un objetivo más razonable en el que invertir nuestros esfuerzos. Indignante.

Posiblemente, el episodio más vergonzoso de la manipulación a la que Lomborg se ha visto sometido es la actuación de la revista Scientific American. Bajo el pretencioso título de “La ciencia se defiende del ecologista escéptico” –que ya presupone que el libro es un ataque a la ciencia y, por tanto, ha de ser falso– la revista dedicó once páginas de su número de enero de 2001 a criticar al danés, escogiendo a cuatro científicos de conocida actitud ecologista. Meses más tarde tuvieron la deferencia de dejarle una página para contestar, pero a cambio le prohibieron publicar su crítica completa en su página web, pues consideraron que violaba sus derechos de autor. Todo sea por la ciencia.

Pues bien, el consorcio danés lo que ha hecho ha sido resumir en 6 las 11 páginas del Scientific American, dándolas por verdaderas sin examen alguno, reduciendo la amplia respuesta de Lomborg (unas 35 páginas) a línea y media. De ahí extrae su dictamen. Lo cual nos lleva a la pregunta clave, ¿quién es realmente el “científicamente deshonesto”?

¿La culpa no era de Bush?

 Ya hoy han empezado a clamar, algo más bajito, las mismas voces indignadas que protestaron contra la desregulación del mercado energético norteamericano tras el apagón. ¡La culpa es de la liberalización! ¡Hay que acabar con estos pérfidos políticos vendidos al capital que ponen la energía en manos de avariciosos especuladores capitalistas!

Y si en el caso useño olvidaron las consecuencias de la regulación sobre la matemática de las redes eléctricas, en éste han preferido pasar de largo por el problema de generación italiano. Un problema causado por el fanatismo verde que nos asola y que en Italia se concretó especialmente en la prohibición de la energía nuclear, puesta en vigor tras aprobarse en tres referéndum realizados un año después de Chernobil. Por ello, padece un gran déficit de generación, que le obliga a importar la electricidad a sus vecinos.

Ya durante junio padecieron varios apagones menores, a los que el gobierno reaccionó anunciando la construcción de nuevas plantas y la relajación de las regulaciones medioambientales, extraordinariamente amplias y a veces contradictorias entre sí, para aumentar la generación entre tanto. Legambiente, el grupo ecologista más importante del país, se ha negado en redondo, alegando que es una política "miope" que no tiene en cuenta el calentamiento global. Por supuesto, el examen de conciencia por haber promovido durante toda la década de los ochenta la prohibición de la energía nuclear queda para otro día, pues ya se sabe que ellos no pueden equivocarse. La alternativa propuesta son las energías renovables, que tras fuertes subvenciones no llegan ni al 2% del total consumido por los italianos.

Si hay alguien a quien jamás hay que escuchar cuando se habla de energía, es a los grupos ecologistas. Esta gente nos quiere de vuelta a las cavernas. Por eso se opone a cualquier tipo de energía, incluyendo la de fusión, que nos permita mejorar nuestro nivel de vida y apoya lo que no produce más que un leve chisporroteo.

El apagón y las matemáticas

Del apagón en el noroeste americano parece que nos debamos quedar con la conclusión de que la culpa es de los americanos, por capitalistas y por tontos. Como esta idea es previa a la razón, no se ha intentado responder a las preguntas clave. ¿Cómo es posible que se produzca un fallo en cascada de la red? ¿Cómo se para? ¿Cómo evitarlo?

Para entenderlo bien, lo mejor es empezar por comprender la red eléctrica más sencilla posible. Estará compuesta por un generador y varias subestaciones y líneas de conexión. El primero transforma un tipo de energía específico en energía eléctrica, que a través de las líneas llega a las subestaciones donde se distribuye hacia los puntos donde se consume. Si cualquiera de estos tres elementos falla, tenemos un apagón. El problema con la energía eléctrica es que no puede almacenarse a un coste razonable, de modo que es muy sensible a los picos de consumo. Si el generador se construye pensando en las necesidades energéticas normales de su red, habrá apagones frecuentes cuando se superen. Y resulta muy caro construirlos con margen suficiente. De modo que lo que se hace es interconectar esta pequeña red con otras pequeñas redes adyacentes. De este modo, un pico local puede ser compensado por varios generadores en vez de uno. Se ahorran costes y apagones al mismo tiempo.

Ahora bien, al interconectar las redes estamos creando una red compleja de crecimiento libre, una estructura que empezó a estudiarse desde el punto de vista matemático a mediados de la década pasada y que se ha aplicado tanto a la estructura de enlaces de la web, como a las relaciones sociales o a los ecosistemas. Estas redes han demostrado tener comportamientos muy interesantes, especialmente si los aplicamos a las redes eléctricas.

En estas redes interconectadas, el problema surge cuando un pico es suficientemente grande como para que los generadores adyacentes no puedan absorberlo. En ese caso se desconectan de la red, puesto que si se superara el límite pueden suceder cosas graciosas, como tener la oportunidad de contemplar un generador ardiendo. Pero, al desconectarse provocan a su vez que todas las necesidades de su red deban ser atendidas por los generadores que tiene cerca, extendiéndose de este modo el problema hasta llegar a nodos con capacidad excedente suficiente. En el caso estadounidense, esto se ha visto agravado a su vez porque la ley obliga a las centrales nucleares a tener una fuente eléctrica externa funcionando, de modo que, aún cuando quizá pudieran haber seguido funcionando, se vieron obligadas a desconectarse.

Los generadores y distribuidores actúan como nodos de la red eléctrica, enlazados por las líneas de alta tensión. Si por cualquier problema quitamos un nodo de la red provocamos dos efectos: que todos aquellos usuarios que estén conectados a él directamente sufran un apagón y que su carga sea redirigida a los demás nodos. Y aquí es donde intervienen las matemáticas. La solución que parece dictar el sentido común a este problema, además de aumentar la generación, consiste en aumentar los márgenes de carga no utilizada. Y es cierto que eso reduce el riesgo de sobrecarga en cada uno de los nodos pero, cuando ésta se produce, al sumar la carga total a transferir el consumo normal, el margen ampliado y la sobrecarga, resulta más difícil de absorber por los nodos adyacentes, pese a haber aumentado también sus márgenes.

Esta fue la "solución" que se llevó a cabo tras el último gran apagón en Estados Unidos, que tuvo lugar en Denver en 1996. Ahora se están proponiendo las mismas medidas, pero imponiéndolas a nivel federal, lo que no hará sino agravar el problema. La teoría de redes nos enseña que no existe solución perfecta, pero sí una aproximación mejor a la que han impuesto los políticos y que, curiosamente, es a la que llegaría el mercado sin intervención. Y ésta no es más que la reducción de los márgenes de carga. Así aumentamos, es cierto, la probabilidad de apagones locales pero, en cambio, reducimos notablemente el de un apagón general.

Mercados libres, o algo así

La Asociación de Internautas acaba de publicar hace unos días un informe en el que detalla el proceso de liberalización de las telecomunicaciones en España. Más allá de algunos posibles errores, como indicar que lo de la energía en California ha sido un proceso liberalizador o que no se puede aplicar reglas de mercado a sectores donde no existe competencia perfecta (que son todos), los datos y las conclusiones son esclarecedoras. Se ha establecido un modelo en el que, para que surgieran nuevas operadoras y se ofreciera un aspecto de competencia, se desincentiva la inversión. Para mantenerlo, el Gobierno debería intervenir y regular cada vez más. Todo un caso modelo para la Escuela de Elección Pública.

Todos, espero, recordamos la época de Telefónica como monopolio público, cuando había que esperar meses o, incluso, años, para que te instalaran una línea y que luego, a la hora de hablar, se nos mezclaran nuestras conversaciones con las de desconocidos. Desde entonces, algo se ha mejorado. Parece que los datos indican que no se ha mejorado lo suficiente. El monopolio público no funciona y el privado tampoco. El mercado regulado, hasta el extremo de imponer precios desde el Estado, tampoco. ¿A alguien se le ha ocurrido probar con el mercado libre?

Es un riesgo y una decisión difícil. Si se diera el caso, Telefónica tendría que elegir entre subir los precios aprovechándose de su posición dominante, mantenerlos o bajarlos para eliminar competencia. En este último caso yo no me iba a quejar. Pero si se diera el primero, quizá el más probable, los precios subirían, lo que no haría mucha gracia a unos usuarios que, de vez en cuando, votan. Pero es esa subida la que crearía el incentivo necesario para la inversión de las demás operadoras, la competencia real y, finalmente, la mejora de precio y calidad para el cliente. Especialmente teniendo en cuenta que la telefonía fija tradicional ya no está sola, sino que padece la competencia de la telefonía móvil, el cable y, en un futuro cercano, de las compañías eléctricas y la tecnología wi-fi.

El problema es que no creo que nadie se atreva. Piqué, al que le quedan dos telediarios, no ha dado nunca muestras de tan extrema osadía liberal. Y entre los ministrables que se rumorean, el panorama se vislumbra estremecedor. Folgado, aquel que regañaba a los empresarios por no poner los precios que a él le parecían correctos. Ana Mato, la que aseguraba que el impulso de la telefonía móvil se debía a Birulés y no a empresas y consumidores. Quizá López Blanco, que tuvo la delicadeza de mostrarse en contra de la subvención de ordenadores, podría atreverse. Pero no creo que a un año de las elecciones lo haga nadie.

¿Es Microsoft un monopolio?

No es suficiente con tener éxito

Durante el juicio contra Microsoft, el jefe de Netscape preguntó a la sala donde se celebraba cuántos de los presentes tenían un ordenador personal y, de ellos, cuántos tenían instalado un sistema operativo Windows. La práctica unanimidad de manos levantadas se vio como un símbolo de que, sin lugar a dudas, Microsoft disfrutaba de una posición monopolística.

Yo también tenía esa postura. No obstante, lo malo de ser liberal es que se tiene cierto apego a la verdad; de modo que, cuando algunos amigos me hicieron ver que mi posición era muy poco sostenible, me vi en la necesidad de estudiar el caso más a fondo. Efectivamente, resulta difícil mantener que un simple y notable éxito empresarial sea malo para los consumidores si éstos no son forzados a adquirir ese producto. Resulta difícil ver qué pueda haber de malo para la gente en una situación que esa misma gente ha propiciado.

El mal nombre del monopolio es debido a las barreras legales que impiden la competencia con el mismo. Telefónica era un monopolio porque la ley impedía, por medio de la fuerza, toda posible competencia. La Seguridad Social es otro monopolio del que empiezo a dudar que nos vayamos a librar algún día. PRISA parte del monopolio concedido a base de licencias de radio y televisión.

Un supuesto monopolio que no tiene su fuente en una concesión legal no puede mantener su puesto durante mucho tiempo si no consigue impedir que la competencia le rebaje los humos. Y para conseguirlo tiene dos medios: mantener los precios bajos (en cuyo caso no parece que exista un gran problema) o presionando a las autoridades para conseguir convertirse en un monopolio legalizado. Este es el verdadero problema de una posición de dominio de un mercado logrado gracias a la superioridad de la empresa. Las preguntas que debemos hacernos son, por tanto, si Microsoft disfruta de algún beneficio legal que le permita tener el éxito que tiene y si está empleando su éxito para perpetuarse legalmente en su posición.

Ingeniería inversa

La ingeniería inversa consiste en desmontar un objeto para ver cómo funciona y, de ese modo, duplicar o mejorar el mismo. Por ejemplo, si Ford compra un SEAT Panda y lo descompone para ver cómo han hecho un coche tan cutre y barato, estaría realizando ingeniería inversa. En el ámbito informático, existen dos maneras de llevarla a cabo:

1. Empleando métodos de “caja negra”, que consiste en observar desde fuera el comportamiento de un programa al que se somete a una serie de casos de uso. Esto es factible en programas pequeños. Por poner un ejemplo, existe un programa llamado Trillian que accede a las redes de mensajería instantánea de MSN, ICQ o Yahoo!, habilidad obtenida por este método. Microsoft hizo algo parecido para que su MSN interoperara con el software de AOL.

2. El otro consistiría en descompilar un programa de modo que se obtenga el código fuente, legible por un programador, del mismo a partir del código que ejecutamos en nuestro ordenador, compuesto por unos y ceros. Es la única manera con programas grandes, como sistemas operativos.

En el ámbito del software, esta práctica está prohibida, tanto por las licencias con las que se vende como por leyes (aunque en este último caso la primera opción se permite). En general, la ingeniería inversa en un trabajo muy costoso y largo, que no suele ofrecer beneficios que justifiquen su uso. La legislación vigente en Europa, Estados Unidos y Japón parecen permitirla en el caso de que facilite la interoperabilidad entre los productos, pero en ningún otro caso.

Algunos de los usos de la descompilación no tienen relación ni con la copia del programa original ni con la interoperabilidad, único uso permitido. Se emplea para aprender a partir del código ajeno, aunque el auge del software libre ha reducido este uso, para mejorar una herramienta existente o adaptarla a un uso particular o, incluso, para comprobar si un competidor ha copiado tu código. Un caso curioso que se puede considerar prohibido por la ley es la descompilación de virus que realizan rutinariamente las compañías de antivirus para poder neutralizarlos. Claro que ningún creador de virus se va a dedicar a demandarles.

No obstante, si el código de un programa es la única fuente de la que obtener datos sobre su funcionamiento, ¿es legítimo evitar su examen para lanzar al mercado un competidor, aún cuando éste no copie el código original? Este es el caso en la legislación actual, lo que permite que buena parte de Windows siga siendo un gran secreto.

Barrera legal sobre Windows

Existe un programa que funciona bajo sistemas Unix llamado Wine, que emula el comportamiento de Windows y es el mejor en su género. Es el usado por Lindows para intentar convencer a sus clientes que su sistema operativo puede ejecutar tanto programas Windows como Linux. Es un proyecto iniciado en 1993, desarrollado empleando tanto el método de “caja negra” como el uso de las especificaciones publicadas, y sus resultados son, cuando menos, discutibles. Se pueden ejecutar muchos programas en él, pero presenta grandes dificultades con algunos, especialmente con los de Microsoft, como el Access o el Internet Explorer.

El caso de Microsoft no es un caso de demanda inelástica, especialmente porque la piratería hace realmente arduo estudiar la demanda de Windows. Son los consumidores los que deciden qué bienes son homogéneos y forman un mercado. En el campo empresarial hay una competencia dura porque los consumidores consideran a los sistemas operativos como un mercado en el que Windows no es más que uno de los participantes. En el ámbito doméstico, en cambio, sólo existe el “mercado Windows”, al que no pueden acceder sus competidores porque no pueden realizar Windows alternativos. Y no pueden hacerlo porque la herramienta para lograrlo está prohibida.

No obstante, tampoco es un caso de monopolio clásico de concesión gubernamental, pues las leyes sobre ingeniería inversa atañen a todos los creadores de software. Es evidente que ha beneficiado más a unas empresas que a otras, pero dado que no hay voces que clamen por su abolición, las quejas del resto de la industria parecen infundadas. Tampoco parece que la compañía de Redmond haya presionado a favor de dichas leyes. De modo que sólo cabe concluir en la responsabilidad de los gobiernos occidentales. Claro que ellos no se van a imponer sanciones a sí mismos, claro.

Sin embargo, sí es cierto que la actuación de Microsoft como lobby puede ser un intento de obtener ventajas legales que le permitan perpetuarse sin necesidad de satisfacer a sus consumidores. Ésta se ha centrado en la persecución del software libre, y en procurar que no se acepten estas licencias en la administración pública. Dado que sus mayores competidores emplean este tipo de aplicaciones, no parece que sus intentos tengan otro objetivo que mantenerse legalmente apartado de la competencia. Y eso sí que debería ser punible.

Desarrollo insostenible

Un sistema capitalista de mercado libre produce siempre un desarrollo sostenible. Los recursos naturales se utilizan si es económicamente viable hacerlo. Cuando un recurso escasea su precio tiende a incrementarse, lo cual puede conducir, según cómo evolucione su demanda, a que se dediquen más medios para su obtención, a que se utilice de forma más eficiente sólo para los fines más valiosos o a que se abandone su uso y sea sustituido por otras alternativas más competitivas.

La acumulación de capital y el desarrollo continuo de las tecnologías de producción incrementan la eficiencia y la productividad del trabajo humano y liberan a las personas de la dependencia de los a menudo imprevisibles ciclos naturales de regeneración. El hombre no sólo consume como un parásito o depredador, sino que contribuye de forma activa a la generación de vida. Más población humana no significa necesariamente más problemas.

En una sociedad auténticamente libre los residuos, basuras y todo tipo de sustancias tóxicas indeseables son tratadas de forma adecuada para no agredir a los demás. No se trata de que el que contamine pague al estado (el cual permite que unos vean deterioradas sus condiciones de vida para beneficio de otros), sino de que nadie pueda violar impunemente la propiedad ajena. Una sociedad inteligente utiliza el conocimiento científico de forma crítica y consciente, sin dejarse alarmar por agoreros catastrofistas.

El desarrollo es insostenible cuando es manipulado de forma coactiva por políticos demagogos y burócratas aferrados a sus privilegios. Los problemas del mundo actual se deben a los obstáculos estatales a la legítima asignación de derechos de propiedad y al funcionamiento de los mercados. Los aranceles y los subsidios proteccionistas (agricultura, industria siderúrgica, maderera, textil, etc.) sirven para mantener trabajadores ineficientes y actividades no competitivas (es decir, no sostenibles), beneficiando a unos pocos a costa de muchos.

El uso del agua potable, hace tiempo un recurso prácticamente inagotable, debe racionalizarse privatizando su control y permitiendo su compraventa a precios de mercado. Es absurdo que los agricultores obtengan agua a precios irrisorios mientras que algunas personas sufren restricciones para su consumo. Depender de la lluvia es arriesgado, como demuestran las sequías, y la desalinización del agua marina es a menudo una alternativa económica. Las instituciones públicas gestoras de recursos hídricos despilfarran el agua de forma sistemática, pero el estado aún tiene la desfachatez y la estulticia de pedir a los ciudadanos que ahorren agua cuando no pagan apenas nada por ella. Los precios de mercado son señales e incentivos adecuados para el uso eficiente de cualquier bien, pero los colectivistas en el poder se niegan a aceptarlo, porque va en contra de sus ideas absurdas y les quita su poder de decisión en nombre de los demás.

Los recursos pesqueros se agotan porque no se aplican los derechos de propiedad. Los seres humanos ya no son mayoritariamente cazadores y recolectores, sino ganaderos y agricultores. Lo mismo debe hacerse con los recursos marinos.

Las fuentes de energía a disposición de los seres humanos son variadas y abundantes. La contaminación real debe evitarse, pero es absurdo confundir gases de efecto invernadero (que tienen efectos aún no bien conocidos sobre el clima) con gases contaminantes, tóxicos para los seres humanos. Es irresponsable condenar a millones de personas a la pobreza por falacias ampliamente divulgadas como un presunto calentamiento global que es más mito que realidad. En cualquier caso el mercado libre, creativo y adaptativo, es la mejor respuesta ante los cambios en las condiciones de la naturaleza.

La ciencia económica muestra un problema más, de carácter extremadamente importante y fundamental, para que el desarrollo sea sostenible. Mientras que sean los estados quienes manejen el dinero y el crédito, la manipulación artificial de los tipos de interés confundirá a ahorradores, inversores y empresarios, comenzando proyectos que a la larga no serán sostenibles por falta de rentabilidad, lo cual llevará a crisis generalizadas, liquidaciones, pérdidas y desempleo: el ciclo económico, del cual se suele culpar de forma errónea a la irracionalidad de los mercados. Las causas del ciclo económico son conocidas por los auténticos economistas, pero los políticos, deshonestos e ignorantes, nunca harán caso: el poder de la emisión de moneda a cambio de nada es gigantesco y no es fácil renunciar a él.

Salvar al planeta… del ecologismo

Los ecologistas ya lo han conseguido. Me refiero a la práctica conquista de las mentes de la mayoría de una ciudadanía (derecha, centro, izquierda) totalmente desprevenida. Escribía Antonio Gramsci, el ideólogo marxista que desarrolló como nadie la doctrina expansiva del leninismo para la infiltración y la conquista de las sociedades occidentales, que "toda revolución política ha sido precedida por un trabajo de crítica, de penetración cultural, de permeación de ideas a través de agregados humanos, al principio refractarios y sólo atentos a resolver día a día sus problemas cotidianos" (Socialismo y cultura, publicado el 21 de enero de 1916). Gramsci a continuación, se dedicó a idear las claves estratégicas para la elaboración de esa nueva cultura: la "educación de masas" se debería llevar a cabo mediante un intenso trabajo de propaganda-"educación". La lucha por la sociedad civil apunta a apoderarse uno tras otro de los instrumentos de difusión de ideología –escuelas, medios de comunicación y prensa, casas editoriales, etc.– así como de los productores de ideología: los intelectuales. Justo lo que han hecho los ecologistas. Pregúntele a su niño por lo qué le enseñan en el colegio, encienda la televisión, visite las librerías…

Es verdad que los ecologistas tenían más difícil que los leninistas, conseguir el cambio a su paradigma cultural. No es fácil vender la idea de que el desarrollo industrial y económico –que ha hecho que hoy día trabajemos ocho horas diarias con dos días de descanso semanales y un mes de vacaciones, en vez de hacerlo de sol a sol por un puñado de arroz, teniendo comodidades impensables para los faraones del antiguo Egipto y con una esperanza de vida que ha aumentado más de treinta años en el último siglo, etc.– sea en realidad el envenenamiento del medioambiente. Sin embargo, lo han hecho. Hoy se deja sin agua potable a poblaciones enteras durante meses para permitir que un par de águilas puedan seguir anidando cada año, o se considera que disparar contra un lagarto es algo éticamente mucho más terrible que el aborto o la esterilización forzosa, que parecen ser por contra, grandes conquistas sociales.

Menos fácil de vender aún era el desvarío humanofóbico de que el hombre es un virus para la Tierra. Tengo delante un panfleto de Greenpece titulado "Paraíso perdido – Cuenta atrás para la Destrucción" en el que se lee: "El Hombre moderno ha multiplicado a sus miembros a proporciones de plaga, saqueando al planeta en busca de combustible y ahora se yergue como una bestial criatura regodeándose". También han logrado vender eso. Pese a lo que pudiéramos creer algunos reaccionarios, la Naturaleza jamás ha sido un lugar hostil a conquistar y dominar. No, "Gaia sólo reacciona frente a las agresiones del ser humano". El ideólogo antiglobalización John Zerzan ya lo ha adelantado. El Hombre de Cromagnon vivía en armonía y paz. Los males comenzaron al tratar de modificar el entorno. Ni construir casas, ni hacer carreteras. Ni utilizar raticidas, ni drenar los pantanos. Ni encauzar los ríos, ni construir embalses. ¿Lo bueno? Vivir en cuevas, respetar las selvas, convivir con las ratas y los mosquitos de la malaria y soportar las riadas y las sequías. Merece la pena si con ello salvamos al sapo de manchas verdes.

¿Que estoy exagerando? Hace dos semanas se produjeron fuertes riadas en Centroeuropa. Un fenómeno natural más o menos periódico, como coincidieron en señalar prácticamente todos los climatólogos serios consultados. El sentido común dice que sólo la industrialización y el desarrollo permiten hacer frente a este tipo de calamidades. Pedir sentido común es demasiado a estas alturas. Para los medios de comunicación oportunamente infiltrados estábamos, por contra, ante este fenómeno por primera vez en la Historia de la Tierra. La causa por supuesto era la acción del hombre, según nos "explicaba" algún "experto" de Greenpeace. Algo por otra parte habitual. Antes de la caída del comunismo siempre teníamos que escuchar las manifestaciones de la agencia soviética TASS, ahora las hemos sustituido por la pertinente declaración de Greenpeaece. La conocida táctica de manejar la culpa y el miedo de la gente para acumular poder para sí mismos, continuaba su curso. Recuerdo que Steven Schneider ya lanzó esa consigna hace tiempo. Achacar cualquier catástrofe natural al hipotético cambio climático supuestamente provocado por la acción del hombre. Así se trata de llevar a la gente a creer que las catástrofes naturales no existen y que el capitalismo está detrás de todos los males, sequías, inundaciones y terremotos incluidos.

William Dodd uno de los directores de la firma de consultores Craver, Mathews, Smith & Cia., encargada de recaudar fondos para grupos ecologistas, daba el siguiente consejo: "Se necesita un sentido de la urgencia y se necesita un enemigo. La exageración funciona. En realidad es lo único que funciona".

Esta semana, los gobiernos mundiales discuten con toda seriedad la "solución" consecuente que proponen los ecologistas: caminar hacia el genocidio (no se me ocurre otro nombre para la natural consecuencia de abogar por reducir el "impacto" de la especie humana sobre el planeta). Sólo los EE.UU. parecen mantener cierta sensatez, negándose a participar en semejante farsa. Claro que para Antena 3 los "mayores envenenadores del Planeta" muestran una vez más su carácter indeseable. A esos "envenenadores" sólo les debemos el 40% de la riqueza que se crea anualmente en el mundo o más del 65% de los avances tecnológicos del último siglo. Sin duda, habríamos estado mejor sin la luz eléctrica, el magnetófono, el teléfono –el fijo y el móvil–, el avión, la televisión, la fotocopiadora, internet y tantas y tantas cosas. Si tenemos en cuenta que el aire que allí se respira es más limpio cada año, según las estadísticas de la propia EPA (Agencia de Protección del Medio Ambiente), tráiganme muchos de esos envenenadores.

En verdad, sí que es necesario salvar al planeta… de los ecologistas.

Los ordenadores no predicen el calentamiento

Las noticias sobre el calentamiento global o cambio climático, como gusta llamarlo ahora, me asombran por el enorme convencimiento de los periodistas de la verdad de las opiniones ecologistas. Se da por sentado su existencia en los titulares, pese a que los científicos consultados se muestras más cautos, negando categóricamente en algunos casos ninguna relación entre ese supuesto cambio del clima y las inundaciones recientes en el centro de Europa.

En realidad, la teoría del calentamiento no podría pasar por la prueba del algodón de la ciencia, el falsacionismo popperiano. Dicho de otra manera, según los ecologistas, el calentamiento existe sin lugar a dudas y todas las pruebas lo corroboran, aún cuando suenen contradictorias entre sí. Tanto si hay sequía como inundaciones, tanto si hace frío como calor, la culpa es siempre del calentamiento. Sólo se aceptan las mediciones de temperatura que corroboran la tesis, se escogen los rangos temporales que muestran ese incremento, despreciando otros más amplios que parecen contradecirlo. Y así podríamos seguir durante páginas y más páginas.

Pero lo que más me irrita como informático es que se aluda como sustento teórico los modelos de clima simulados por computadora. De hecho, la causa de la alarma son los resultados de las predicciones de dichos modelos. Y no sé por qué razón, generalmente se aceptan esas conclusiones como verdad casi absoluta y eterna.

Los ordenadores no piensan solos. Lo único que realizan son cálculos a partir de los datos suministrados por el hombre con fórmulas matemáticas creadas por el hombre. Si los datos son erróneos o incompletos o las matemáticas no reflejan correctamente el modelo a simular (en este caso, el clima), los resultados fallan, por muy potente que sea la computadora. Por ello, los expertos procuran comparar los resultados de la aplicación de esos modelos matemáticos con los datos que poseen.

Hasta ahora no se ha encontrado ningún modelo que refleje adecuadamente los datos. Y es normal, pues resulta enormemente complicado reflejar todos los factores que afectan al clima. Y, entre ellos, los relacionados con el “efecto invernadero”. Se olvida con frecuencia que el 98 por ciento de los gases que lo provocan es vapor de agua. El CO2 es un porcentaje minúsculo. Su incidencia en el clima depende casi más que de él mismo, de las interacciones con los demás gases, especialmente con el vapor de agua.

El modelo que se emplea actualmente para crear la alarma predice que doblar la cantidad de dióxido de carbono en la atmósfera subiría cuatro grados la temperatura de la misma. Los ordenadores así programados ofrecen, por supuesto, panoramas desoladores a pocos años vista. Sin embargo, se oculta cuidadosamente que en los últimos cincuenta años, con un incremento del CO2 de alrededor del 50%, la temperatura ha subido menos de medio grado, cuando debería haber subido dos.

Desconfíen de los científicos que muestren como prueba de sus teorías resultados ofrecidos por computadoras. Estas complicadas calculadoras sólo ofrecen aquello que se les ha programado para ofrecer, según las premisas y los datos que se les introducen. Es la realidad la que nos permite aceptar o falsar esos resultados. No son, pues, las máquinas las que predicen el calentamiento, sino quienes las programan. Ustedes sabrán si se fían de ellos o no.