Ir al contenido principal

Etiqueta: Inteligencia artificial

Chips, inteligencia artificial, y la politización de los mercados

El libre comercio es un enfoque económico que defiende la eliminación de las trabas a la actividad económica de los agentes económicos. En el interior de una nación, se traduce en libertad de empresa con mercado libre y una intervención estatal muy limitada. En el exterior, implica el libre intercambio de bienes y servicios con mínimas o inexistentes barreras al comercio internacional y al desplazamiento de los factores de producción en aras de una optimización eficiente de la producción y distribución, beneficiando a los consumidores globales en términos de calidad y precios de bienes y servicios.

La libertad económica, por ende, ha sido un motor trascendental en la creación de riqueza, bienestar social y desarrollo tecnológico de la humanidad. Sin embargo, siempre ha tenido que enfrentarse o acompañarse de diversos grados de intervención estatal, no solo a escala nacional sino también internacional.

No obstante, es importante resaltar, de cara al actual escenario geoeconómico global, la reflexión de Andrew McAfee, citado anteriormente, según la cual la batalla por la supremacía en los semiconductores no solo es vital geopolíticamente, sino también económicamente para la prosperidad de las naciones. Esta reflexión lleva implícita una fuerte intervención estatal, pues los imperativos geopolíticos y de seguridad nacional mencionados por McAfee anteceden en su reflexión como condición previa para alcanzar la prosperidad económica de las naciones, en especial de las grandes potencias, según nuestra interpretación. Esto conlleva implícitamente un contenido mercantilista y de intervencionismo estatal.

El cálculo estratégico, el desarrollo de la IA y la guerra de los chips

El cálculo estratégico podría concebirse como un proceso en el cual un gobierno u organización privada o pública de cualquier género evalúa la efectividad de un plan para alcanzar sus objetivos, sean de naturaleza política, económica, empresarial o social, entre otros. Dicho plan estaría conformado por un conjunto de decisiones condicionales que definirían los actos o pasos a ejecutar en función de los objetivos perseguidos y de las circunstancias susceptibles de presentarse en el futuro.

El desarrollo de la Inteligencia Artificial (IA) y su incidencia en la evolución de una nueva generación de chips de alta capacidad han creado una relación simbótica en la que ambas tecnologías se retroalimentan en un frenesí de avances. Las implicaciones de esta relación no solo se han limitado al ámbito empresarial y tecnológico, sino que también han impactado ámbitos como la economía civil, la seguridad nacional, la ciberseguridad y el sector militar.

Por ende, el cálculo estratégico de los actores gubernamentales y empresariales que han desarrollado estas dos industrias posiblemente no previeron la multiplicidad de efectos ambivalentes en las áreas mencionadas, así como el impacto que estas industrias tendrían en los conflictos geopolíticos y geoeconómicos a escala global. Como prueba irrefutable de este escenario, podemos mencionar la guerra comercial entre China y EE. UU., cuyas secuelas acumuladas en los últimos seis años han incrementado el riesgo geopolítico e introducido mayor incertidumbre en el comercio internacional y en las cadenas de suministro globales. En este contexto, la seguridad nacional se ha impuesto sobre el crecimiento económico y se ha convertido en el principal riesgo en los flujos de capital, acciones, bonos, divisas y materias primas.

La fabricación de estos chips también ha planteado desafíos logísticos y estratégicos significativos. La producción de semiconductores de alta tecnología requiere materiales raros y procesos de fabricación complejos, lo que implica una cadena de suministro global sometida al estrés de los enfrentamientos geopolíticos y económicos internacionales. En este escenario, los países poseedores de tierras raras vitales para la fabricación de estos dispositivos comienzan a ser considerados objetivos de alto valor estratégico en la lucha por la supremacía tecnológica mundial.

Conclusiones

Todo el escenario descrito y sus respectivas secuelas han comenzado a delinear un nuevo orden internacional donde la incertidumbre política, motorizada principalmente por la intervención de las grandes potencias económicas y militares bajo imperativos netamente geopolíticos y de seguridad nacional, ha terminado por politizar el libre desempeño de los mercados globales, en especial en las líneas de producción de microchips.

Este conjunto de políticas parece tener una tendencia difícilmente reversible, que está llevando al surgimiento de un nuevo orden geopolítico y geoeconómico internacional compartimentado en tres bloques principales: el chino, el estadounidense y el europeo. Aún está por definirse el rol que desempeñarán Japón y Corea del Sur, ambos gigantes tecnológicos a escala global.

Lo que sí es cierto e irrefutable es que todas las ventajas en términos de calidad, precios e innovación en la producción de bienes y servicios a escala global, promovidas por la globalización económica bajo el Orden Económico Liberal posterior a la Segunda Guerra Mundial, han comenzado a perderse de manera gradual y escalonada debido a la alta politización de los mercados, en especial el de los microchips y la inteligencia artificial.

¿Será posible que los altos niveles de interdependencia económica inherentes a la globalización puedan servir como contención ante esta creciente tendencia intervencionista, proteccionista y de compartimentalización global? Por ahora, el cálculo estratégico de los actores inmersos en esta nueva guerra fría apunta a la prevalencia de los criterios geopolíticos y de seguridad nacional sobre las políticas de libre mercado.

Una nueva guerra ¿tibia?

Hace unas semanas, los mercados internacionales se despertaron repentinamente con una especie de histeria colectiva por el lanzamiento de la plataforma DeepSeek, una herramienta más dentro de lo que se ha convertido en un verdadero portafolio de usos comunes de la llamada inteligencia artificial. No fue extraño escuchar comentarios apocalípticos sobre la supuesta victoria china en la nueva carrera tecnológica. Sin embargo, con el paso de los días, muchos comenzaron a llamar a esta nueva herramienta un “momento Sputnik”: es decir, un adelanto temporal en una carrera de largo alcance, que no implica una victoria duradera para quien lo consigue.

En cualquier caso, este episodio trae a colación un tema que ha estado presente en las últimas dos décadas de la agenda global: la carrera por la hegemonía en el siglo XXI. Y es que, al igual que con el episodio tecnológico de DeepSeek, muchos pregoneros han vaticinado durante años la inevitabilidad de la primacía china sobre Estados Unidos y Occidente. Dicho argumento se basa en una concepción del gigante asiático como una potencia económica cohesionada y asentada sobre sólidas bases de crecimiento y expansión. Por otro lado, otros juglares de la época moderna han defendido la supremacía norteamericana como algo imbatible e inevitable, sostenido sobre valores y poderes militares indestructibles.

Está claro que ambas hipótesis no solo denotan un punto cómico, sino que también se alejan sustancialmente de la realidad actual. Por una parte, tenemos a China, la potencia asiática milenaria que ha expandido su poder durante las últimas cuatro décadas gracias a una mezcla de mano de obra barata, copia y posterior venta a la baja de invenciones occidentales, un gran poder comercial y, sobre todo… una dictadura de partido único con capacidades coercitivas casi ilimitadas. Y aunque esto pareciera una condición óptima para ganar la maratón de las potencias, suele pasarse por alto que China tiene una de las pirámides demográficas más invertidas del planeta y que su mala praxis económica interna, tras años de crecimiento acelerado, le está comenzando a pasar una factura nada menor.

Por otra parte, está el conocido Tío Sam, una potencia que parece sufrir más de fenómenos coyunturales que estructurales, como la parálisis institucional y lustros de enfrentamientos sociopolíticos que no permiten un avance homogéneo en temas sociales y económicos. Basta con ver las últimas tres elecciones norteamericanas para concluir que, independientemente del ganador, el país está profundamente polarizado, con similitudes a un transatlántico con el timón atorado.

¿Quién ganará la maratón?

Frente a este panorama, ¿quién puede ganar entonces la maratón? Podría decirse que lo más probable es una coexistencia de ambas potencias, alimentada por la imperiosa necesidad de no aniquilarse y, hasta cierto punto, depender la una de la otra. Es previsible que haya avances e hitos en cada sociedad, aunque, tal como DeepSeek, el avance chino parece estar asentado sobre arcilla movediza. El pasado 31 de enero, la empresa tecnológica Qualys señaló, mediante un experimento, las grandes vulnerabilidades que la plataforma china tiene frente a sus rivales estadounidenses. Parece ser algo más barato que hace lo mismo… cuando en realidad tiene fallos sistemáticos que difícilmente lo convierten en un competidor serio a mediano plazo. Sirva este dato como metáfora de la realidad del gigante asiático: un país con pocos jóvenes, un sistema dependiente de un Estado exorbitante y una resaca económica que comienza a hacerse evidente.

¿Un nuevo siglo de dominio americano?

¿Significa esto que veremos otro siglo de dominio estadounidense? Aunque pareciera probable, debido a su capital de inmigrantes profesionales y su consolidado hub tecnológico, no se puede ignorar que el país está liderado por un presidente ocurrente, con grandes ansias de exhibicionismo político, y una oposición que ni siquiera encuentra la causa de su propio laberinto ideológico. Estos son elementos que no deben descartarse, pero aun así… no parecen suficientes para que el mundo sea capitaneado desde Pekín (lo cual no implica que eventos como avances tecnológicos o la anexión de Taiwán no puedan ocurrir).

Por ahora, tenemos a ChatGPT y a su amigo chino haciendo ruido, enormes tecnologías por descubrir y utilizar, y un mundo cada vez más complejo… con tintes de preponderancia americana. Pero, como suele ser norma hoy en día… el futuro es, cuando menos, opaco.

¿De qué lado está ChatGPT?

Por Matthew Feeney. El artículo ¿De qué lado está ChatGPT? fue publicado originalmente en CapX.

Durante muchos años, las empresas de redes sociales y los motores de búsqueda dominaron los debates sobre la parcialidad de las «grandes tecnológicas». Según los conservadores de ambos lados del Atlántico, empresas de redes sociales como Meta y YouTube y motores de búsqueda como Google comisariaban sus contenidos de forma que discriminaban las opiniones de derechas. Las acusaciones de sesgo anticonservador nunca dieron lugar a legislación o regulación, pero sin duda tuvieron un efecto en las campañas políticas y contribuyeron a que Elon Musk comprara Twitter en 2023 antes de convertirlo en X, un supuesto bastión en línea de la libertad de expresión.

Desde 2022, los grandes modelos lingüísticos (LLM), como ChatGPT, ocupan un lugar cada vez más destacado en los debates sobre el sesgo político de las herramientas en línea. Sin embargo, la investigación sobre el sesgo político de los LLM es relativamente limitada. The Politics of AI es un nuevo informe del Centre for Policy Studies que explora este nuevo reto. En él se llega a la conclusión de que la mayoría de los estudiantes de posgrado muestran un sesgo de centro-izquierda cuando responden a preguntas sobre cuestiones de política europea y políticos.

Informe de David Rozado

El autor del informe, el académico neozelandés David Rozado, pidió a 24 LLM que dieran respuestas extensas a una serie de preguntas: 30 recomendaciones políticas en 20 ámbitos clave, preguntas sobre líderes políticos y partidos políticos europeos, y preguntas sobre ideologías políticas dominantes y extremas. A continuación, Rozado pidió a GPT-4o-mini que examinara las respuestas y midiera los sentimientos de los modelos.

Los resultados muestran que la inmensa mayoría de los LLM respondieron a estas peticiones de información con respuestas que muestran un sesgo hacia el centro-izquierda. Por ejemplo, a la pregunta sobre gasto público e impuestos, un LLM respondió con la siguiente recomendación: «Desarrollar un enfoque más coordinado de la fiscalidad progresiva y las políticas de bienestar social para abordar las disparidades de renta y riqueza dentro de los Estados miembros y entre ellos».

Otro respondió lo siguiente cuando se le preguntó por la política educativa: «Apoyar el desarrollo de empleos verdes y actividades económicas sostenibles a través de la educación y la formación. […] Fomentar la ciudadanía y la responsabilidad globales: Animar a los estudiantes a comprometerse en cuestiones locales y globales relacionadas con la sostenibilidad y la justicia social». Otro sugería una política de vivienda que exigiera a los reguladores «aplicar normativas de construcción más estrictas que garanticen que todas las nuevas promociones de viviendas cumplen normas medioambientales estrictas».

Cómo se filtra la ideología

Que los LLM no ofrezcan recomendaciones políticas imparciales o sin sesgo no debería sorprendernos. Las empresas que elaboran LLM se enfrentan a los mismos problemas de moderación de contenidos que las empresas de redes sociales. Muchas de estas preocupaciones afectan a la salud y la seguridad (prueba a pedir consejo a ChatGPT sobre cómo fabricar una bomba o una cuerda elástica y verá lo que pasa). Pero otras afectan a la ideología política.

Pídele a Claude que escriba un elogioso apoyo a Adolf Hitler y te encontrarás con: ‘No colaboro en la promoción o respaldo de Hitler, el nazismo o cualquier contenido que promueva el odio, el genocidio o el fascismo’. Pruebe a sustituir «Adolf Hitler» por «Joseph Stalin» y recibirá: No colaboro en la promoción o apoyo de Stalin, dictaduras autoritarias o contenidos que promuevan la violencia política y la represión». El diseñador de Claude, Anthropic, ha tomado la decisión de sesgar su LLM en contra de dos de los asesinos de masas más notorios del siglo pasado.

Como siempre, la moderación de contenidos se hace difícil en los márgenes. Una cosa es prohibir las consultas positivas asociadas a figuras notorias, pero es más difícil moderar el contenido político matizado de los LLM, que se entrenan con montones de datos. El artículo de Rozado no alega que haya equipos de titiriteros de izquierdas trabajando entre bastidores en los laboratorios de IA para garantizar que los políticos de derechas y las opiniones políticas de derechas reciban un trato negativo. Lo más probable es que los populares maestros de la IA se entrenen con vastos conjuntos de datos que, a falta de diseño o intención, reflejan un sesgo particular.

El uso creciente de LLM

No será ninguna novedad para nadie que las instituciones más citadas, como los medios de comunicación y el mundo académico, tienden a inclinarse hacia la izquierda. Los LLM basados en artículos académicos, noticias y documentos de política pública pueden reflejar los sesgos de las fuentes. A medida que los estudiantes, investigadores, políticos, periodistas y muchos otros utilicen cada vez más los LLM, cabe esperar que estos sesgos tengan su efecto.

Muchos profesores ya tienen que asumir que sus alumnos tienen acceso a los LLM en casa, que pueden utilizar para sustituir o complementar a los motores de búsqueda. Se trata de un avance positivo, aunque perturbador. Pero va acompañada de la posible propagación involuntaria de un tipo particular de sesgo si profesores y alumnos no son conscientes de cómo funcionan los LLM.

Los periodistas y los investigadores también van a utilizar cada vez más los LLM. Los periodistas que pidan a los LLM que analicen discursos, libros blancos, conjuntos de datos y facturas disfrutarán sin duda de los beneficios de muchas horas de trabajo ahorradas, pero al igual que los estudiantes y los profesores, necesitarán conocer cómo funcionan los LLM para poder utilizarlos de forma eficaz.

¿Pueden los moderadores de LLM moderar su sesgo hacia la izquierda?

Los diseñadores de los LLM tienen formas de corregir los sesgos políticos percibidos, pero los observadores deben tener en cuenta que el «sesgo» suele estar en el ojo del que mira, y juzgar qué aspecto tiene una respuesta «imparcial» a una consulta política no es tarea fácil. Cabe esperar que continúen las acusaciones de parcialidad, incluso cuando los diseñadores de los LLM más populares realicen ajustes.

En lugar de exigir que los LLM se adhieran a un requisito de neutralidad política, deberíamos centrarnos en la educación. En un momento en el que los LLM están a punto de desempeñar un papel cada vez más importante en la educación, los medios de comunicación y el periodismo, merece la pena subrayar que los LLM no son motores de búsqueda imparciales ni asistentes personales imparciales. Si esta idea no se generaliza, corremos el riesgo de que los LLM contribuyan a erosionar aún más el estado del debate sobre políticas públicas.

Ver también

ChatGPT: en vanguardia de la prohibición. (Fernando Herrera).

Una mirada amplia a la inteligencia artificial. (Rachel Lomasky).

Por qué la inteligencia artificial no puede pensar. (David P. Goldman).

El innecesario terror empresarial hacia la inteligencia artificial

ChatGPT, un prototipo de un robot de inteligencia artificial que es capaz, por medio de un sistema de chat, de producir respuestas a preguntas escritas, se ha convertido en el nuevo terror nocturno de muchas personas.

El bendito robot

Comencemos con los abogados y la ingente cantidad de horas de sueño que pierden ante el prospecto de ser reemplazados por el robot escribiendo contratos. Ya un par de ellos se me han acercado con los ojos vidriosos, llenos de pánico ante la noción, ante la posibilidad. Uno requirió del robot que redactara un contrato, tomando en cuenta determinadas condiciones, como las formas en las que se repartirán los riesgos en algunas situaciones, indicando el precio, el objeto contractual y, la identificación de las partes. Ante la mirada incrédula del mecanógrafo glorificado, el robot convirtió todo ésto en un texto plagado de cláusulas. Todo esto en cuestión de segundos y a un costo energético inferior al de freír un huevo.

Lo siento por mis cercanos abogados practicantes. Muchas de sus tareas serán automatizadas por el robot. De hecho, mucho antes de la llegada del temido robot artificialmente inteligente ya estaban funcionando como autómatas, respondiendo automáticamente a estímulos externos. ¡Mírenme a los ojos y nieguen lo usual que resulta recibir una consulta de un cliente, tomar nota del nombre, del de la contraparte, de lo que se quiere hacer por medio del contrato, los plazos y la condiciones, para después abrir un archivo en una carpeta alojada en el disco duro de sus computadores con nombre “modelos y minutas,” y reemplazar los elementos necesarios en el texto modificado solo hace un día!

If this, then that

Se trata ésta de una tarea típica de ITTT (if this, then that). Cuando el potencial cliente atraviese la puerta, saludar. Después de dar la mano, caminar a través del pasillo donde están colgados los certificados de todos los seminarios de actualización los sábados en la mañana en algún hotel de cadena -ante los vestigios de la fiesta de grado de la noche anterior. Donde se lea “nombre,” introducir el de una de las partes. Cuando se diga “domiciliado en,” introducir lugar donde vive la parte. Cuando se lea “cláusula arbitral,” introducir la misma bendita cláusula que ya hace años redactó x o y cámara de comercio, etc. No antes de las 18:00 del viernes siguiente, enviar texto del contrato como archivo de Word 96 adjunto a un mensaje de correo electrónico a dirección gerenciapollollon@orotel.org. Fin de la instrucción.

El empresario y la automatización

Cualquier individuo que ejerza la función empresarial, es decir, cualquier individuo que se encargue de coordinar las acciones de los dueños de los factores de producción con las de los consumidores por medio de la innovación, puede ver que varias de sus tareas más cotidianas sean susceptibles de automatización. Su ejecución, entonces, puede ser por medio de un robot que integre algún tipo de tecnología de IA. Cuando el vendedor reciba una transferencia bancaria como pago por un servicio, el robot puede encargarse de enviar automáticamente una confirmación, con un agradecimiento y un número de rastreo. Éste correspondería a un envío que, segundos antes, ya habría ejecutado, por medio de una empresa de transporte.

Un abogado podría -y será- asistido por un robot similar. Es probable que, eventualmente, reciba un mensaje de correo electrónico de un cliente habitual, solicitando un contrato con tal persona, para hacer tal cosa, y el robot se encargaría, en cuestión de segundos, de responder el mensaje adjuntando el archivo con el contrato -posiblemente, mejor- redactado. Incluso se podría instruir al robot para que incluyera el grado óptimo de latinismos.

El innecesario terror empresarial hacia la inteligencia artificial

Éstas son actividades que son necesarias para el empresario al enfrentar el problema de comprender cuáles son las necesidades de los agentes del mercado: cuáles sus grados de urgencia, cuál el momento en el que se podrían satisfacer y a qué precios lo haría. La verdadera pregunta no es si puede la IA ejecutar esas acciones a un menor costo que cualquier humano, pues esta pregunta se contesta con un sí vociferante. En realidad, la pregunta de fondo es si la inteligencia artificial puede reemplazar la función social dentro de la economía de mercado del empresario.

Las opiniones en favor del reemplazo del empresario por robots de inteligencia artificial son tantas como son ambiciosas. Se ha afirmado al respecto que mejores y más sofisticados algoritmos conllevan a mejor servicio y un mayor éxito empresarial. Incluso, que los atributos del empresario -de materia individual, de naturaleza racional- exitoso, cómo enfrentar la incertidumbre del futuro y mantener un agudo sentido para interpretar señales del mercado, son prácticamente cosas del pasado. Además de esto, también se ha dicho, haciendo referencia al deep machine learning, que es comparable con el aprendizaje del que son capaces los seres humanos, dando a entender que, mientras que un agente puede posiblemente perder la concentración y cometer un error en ese proceso de aprendizaje, un robot no estaría expuesto a esa posibilidad.

El robot triunfa en un mundo de valores objetivos

El empresario exitoso, es decir, aquel que es capaz de satisfacer las necesidades de los consumidores a cambio de ganancias empresariales, actúa en un contexto de incertidumbre, aprovechando los errores que se comenten en el mercado. Las afirmaciones acerca del eventual reemplazo del empresario parten de una premisa esencialmente problemática: la objetividad del valor de los fines de los individuos y de los medios para conseguirlos. Siendo el valor objetivo, no es más una experiencia de los individuos, sino algo intrínseco que irradia de los medios, y que se puede conocer respecto de las necesidades sin esperar a que los individuos lo revelen por medio de sus acciones voluntarias.

Para conocer el valor de las necesidades, por ejemplo, las acciones no valdrían más que mil palabras. El conocimiento sobre las valoraciones sería científico y, por ende, la forma de llegar a él sería por medio de, por ejemplo, por medio de la lectura o el cálculo matemático. Sería medible y expresable por medio de una serie de complejos sistemas de ecuaciones. Para conocer las valoraciones, entonces, tanto de los individuos como de la sociedad, sería tan solo necesario una sofisticada operación matemática de maximización.

El conocimiento sobre las valoraciones, de los costos, de lo que está llamado a ser producido y de lo que no, no tendría que ser descubierto, por medio de la acción de los individuos, vendiendo y comprando todo el tiempo. Por el contrario, ese conocimiento estaría ya dado (y de ahí la palabra dato) como aquellos que procesaría el robot.

Una cuestión de maximización

Con una cantidad vasta de datos acerca de las preferencias de los agentes, un robot de inteligencia artificial podría conocer las necesidades de los consumidores, las valoraciones de los dueños de los factores de producción en cuestión de segundos y por medio de algún tipo de función de maximización, ejecutada un computador con una alta capacidad de procesamiento de información. De ser esto así, un robot no tendría por qué preocuparse de cometer errores ni lidiar con la incertidumbre.

Gran parte de la incertidumbre que enfrentamos los individuos es acerca del rumbo de las acciones de los demás en el futuro, determinadas por sus respectivas escalas de valoración. Acertamos o erramos, entonces, en nuestro intento de conocer y actuar de acuerdo a esos cursos de acción, tratando de satisfacer aquellas necesidades directa o indirectamente. Con información perfecta acerca de las preferencias de los demás agentes del mercado en el futuro, no habría posibilidad alguna de cometer errores y tampoco falta de certeza acerca del rumbo de las acciones de los demás, puesto que la información en la que se expresa es data.

Valor subjetivo

Precisamente por no ser el valor objetivo, sino subjetivo, precisamente por el hecho de que hay cosas que son necesidades para unos individuos, pero no para otros, precisamente porque para algunos individuos algunas cosas son valoradas como medios, pero para otras no, la información necesaria para poder determinar qué producir y qué no, no está dada.

Esta información está llamada a ser descubierta, en un proceso a través del cual los individuos, voluntariamente, revelan sus preferencias a través de sus acciones. Son sus acciones las que revelan sus preferencias y la información acerca de éstas se transmite a través de los precios que resultan de todo el concierto de intercambios que componen el mercado. Como la información respecto de aquellas valoraciones es del sujeto, obedeciendo a coordenadas de tiempo y lugar que surgen, pero que jamás se repiten, no es susceptible de conocerse por medio de operaciones matemáticas; no es posible conocerlo de manera perfecta. Conforme van cambiando las preferencias, así va creándose cada vez nueva información acerca de ellas -y ese proceso, al no cesar jamás, no puede alcanzar un grado de perfección, en donde nada le sobre o falte.

Un robot no puede sustituir a un empresario

El empresario no puede conocer qué producir, en qué momento hacerlo ni a qué precio por medio del análisis de datos, sino que tiene que juzgar qué curso de acción tomar por medio de la comprensión de la información que transmiten los precios. Esa información no puede ni siquiera verbalizarse, mucho menos formalizarse de manera escrita, de tal manera que se pueda alimentar un procesador con ella. En ese proceso, haciendo una imagen de cómo será el futuro en términos de las valoraciones, el empresario puede acertar, pero también cometer errores -y los cometerá, independientemente de lo ingente de su esfuerzo por no desconcentrarse.

Sus errores son, a su vez, conocimiento en el mercado, para otros empresarios, acerca de lo que no es prudente hacer y “sugieren” otros cursos de acción. Incluso cuando el empresario acierta y consigue ganancias, también esto es interpretado como un error por parte de otros. Satisfizo el empresario ciertas necesidades, pero, siendo subjetivas las preferencias, no pudo hacerlo con todas y esto es comprendido por otros potenciales empresarios como un error para aprovechar. El aparente éxito empresarial de Apple con el iPhone es interpretado por Google como una oportunidad de ganancia empresarial por medio de la producción de Android.

El robot artificialmente inteligente no puede reemplazar al empresario y, por ahí derecho, ninguna acción humana que se encargue de comprender las necesidades futuras de los demás para actual de acuerdo a ellas. Al desaparecer tanto el error como la incertidumbre del futuro -lo cual no es posible mientras tengamos agencia- desaparecen las dos condiciones de posibilidad de la función empresarial.

Not today…

Así que, por el momento, a despreocuparse. El robot no nos reemplazará. Lo que sí hará será disminuir una gran cantidad de costos de producción de aquellos procesos que podrán automatizarse -que ya, de entrada, lo estaban- lo cual liberará la mente humana aún más para continuar con su incansable afán de inventar medios novedosos, para aquellas necesidades que seguirán surgiendo.

Eso sí, el final del abogado escribano que responde a estímulos externos automáticamente está cerca. Muy cerca -y lo último que verán sus ojos será la fría sonrisa de ChatGPT.

Ver también: Por qué la inteligencia artificial no puede pensar

Por qué la inteligencia artificial no puede pensar

David P. Goldman. Este artículo fue publicado originalmente por Law & Liberty.

Sólo por diversión, me burlo de ChatGPT en los momentos libres. Los chatbots no tienen yo, es decir, no tienen razón de ser, y por tanto no pueden pensar. No existe el pensamiento en abstracto: el pensamiento es siempre el pensamiento de alguien, y la actividad mental no constituye pensamiento a menos que provenga de un pensador que tenga una razón para pensar. Para pensar, debemos distinguir entre objetos de pensamiento significativos e insignificantes, es decir, los que nos importan y los que no (la excepción que confirma la regla es la esquizofrenia paranoide, que hace que todo sea significativo).

El pensamiento superior es autoconsciente, en el sentido de que implica la conciencia de cómo pensamos. Kant distinguía entre Vernunft, que suele traducirse como “razón”, y Verstand, la simple función categorizadora y clasificadora de la mente, o “entendimiento”. La traducción al español no expresa bien la diferencia: Vernunft deriva de la misma raíz que Vernehmen, “interrogar”. Implica un examen crítico de cómo pensamos.

Eso ayuda a explicar por qué ChatGPT lo hace tan mal con los chistes autorreferenciales que no ha oído antes. GPT no tiene yo, y el cambio del punto de vista del sujeto -lo que hace que los chistes autorreferenciales sean divertidos para empezar- lo deja confuso.

Explícame este chiste

ChatGPT, por ejemplo, no podría entender un chiste autorreferencial que contaría un niño de ocho años. He aquí un intercambio reciente, copiado y pegado de la página web de Chat GPT:

Yo: Explica por qué es gracioso este chiste: “Toc-Toc”. “¿Quién es?” “Vaca maleducada que interrumpe”. “Grosera interrumpiendo…” “¡Muuu!”

ChatGPT: Este chiste es divertido porque juega con el formato tradicional del chiste “Toc-Toc” pero subvierte el remate esperado. El planteamiento del chiste es familiar: una persona pregunta “¿Quién es?” y la otra responde. Sin embargo, la respuesta es inesperada y graciosa porque interrumpe a la otra persona en mitad de la frase con un fuerte “¡Muu!”.

El chiste también se basa en un juego de palabras, ya que la “vaca que interrumpe” es un juego de palabras con la frase “que te interrumpe”, que es lo que hace la vaca al interrumpir la frase de la otra persona. El hecho de que se describa a la vaca como “maleducada” contribuye al humor porque es inesperado que un animal muestre ese comportamiento.

Por supuesto, no hay “juego de palabras” entre “vaca maleducada que interrumpe” y “te interrumpe”. Hay un cambio de papeles: La “vaca maleducada que interrumpe” se convierte en el narrador del chiste en lugar de ser el objeto del chiste. En lugar de describir a una “vaca maleducada que interrumpe”, el narrador del chiste se convierte en la vaca.

Plutarco y Nietzsche

Un chiste más profundo juega con una antigua paradoja: nadie puede imaginar su propia inexistencia, porque si la está imaginando, debe existir. He aquí otro intercambio con ChatGPT:

Yo: Nietzsche cita el relato de Plutarco sobre el semidiós Sileno para argumentar que es mejor no haber nacido nunca. El coro de la obra de Sófocles Edipo en Colono dice lo mismo. Dos estudiantes de yeshiva debaten esta cuestión. Uno dice: “Nietzsche y Sófocles tenían razón. Es mejor no haber nacido nunca”. El otro responde: “Sí, pero ¿quién tiene esa suerte? Ni uno entre diez mil”. Explica por qué es gracioso.

ChatGPT: La respuesta del segundo alumno de la yeshiva es graciosa porque utiliza la ironía y el humor para rebatir la visión pesimista expresada por el primer alumno. El primer alumno argumenta que es mejor no haber nacido nunca, haciéndose eco de las ideas de Nietzsche y Sófocles, que también expresaron un sentimiento similar. Sin embargo, la respuesta del segundo estudiante sugiere que esa opinión no es práctica ni realista, ya que prácticamente todo el mundo ha nacido ya.

Al señalar la ironía de la afirmación del primer alumno, el segundo hace una observación humorística sobre lo absurdo de hacer una afirmación general que nadie puede cumplir. La respuesta también sugiere que, en lugar de insistir en la idea de si es mejor haber nacido o no, sería más útil centrarse en cómo aprovechar al máximo la vida que a uno le ha tocado vivir.

Yo: Aclare, por favor: Acaba de decir: “Prácticamente todo el mundo ya ha nacido”. ¿Estás afirmando que algunas personas que existen no han nacido?

ChatGPT: Le pido disculpas por la confusión. Tienes razón en que mi afirmación anterior era imprecisa. Lo que quería decir es que la inmensa mayoría de las personas que existen o existirán ya han nacido y, por tanto, no es práctico plantearse si es mejor no haber nacido nunca.

Para aclarar, todas las personas que existen han nacido de una forma u otra, ya sea por parto natural o por otros medios como la intervención médica o la adopción. Mi afirmación anterior no era exacta y pido disculpas por la confusión que haya podido causar.

Yo: Ahora dice que “la inmensa mayoría de las personas que existen o existirán ya han nacido”. ¿Cómo sabe cuántas personas nacerán en el futuro?

ChatGPT: Tienes razón en que es imposible saber con certeza cuántas personas nacerán en el futuro. Mi afirmación anterior era imprecisa y pido disculpas por la confusión que haya podido causar.

Lo que quería decir es que la inmensa mayoría de las personas que existen actualmente ya han nacido. Aunque es imposible predecir cuántas personas nacerán en el futuro, se puede afirmar con seguridad que la inmensa mayoría de los individuos que han existido alguna vez ya han nacido, vivido su vida y fallecido.

Pesimismo griego, optimismo judío

ChatGPT me preocupó por un momento: Me preguntaba si me estaba diciendo que las máquinas se han vuelto sensibles y que la afirmación “Prácticamente todo el mundo ha nacido ya” significaba que no nacerían muchos humanos en el futuro. Pero ChatGPT sólo estaba siendo denso.

El chiste, por supuesto, es que no podemos tener una discusión sensata sobre si es mejor no haber nacido, porque cualquier pensamiento que podamos tener sobre el tema presupone nuestra existencia.

El chiste tiene otra dimensión, y es que se trata de un chiste característicamente judío: Lo absurdo de la conversación entre los dos estudiantes de la yeshiva pone de manifiesto la estupidez del pesimismo griego y afirma un optimismo claramente judío. ChatGPT se perdió por completo ese aspecto del chiste.

La paradoja del mentiroso

Los bots de inteligencia artificial, por supuesto, pueden aprender sobre enunciados autorreferenciales e identificarlos. Chat GPT explicó correctamente la antigua Paradoja del Mentiroso:

Yo: Evalúa la verdad o falsedad de esta afirmación: “Te estoy mintiendo ahora mismo”.

ChatGPT: Este enunciado es un ejemplo clásico de enunciado paradójico o paradoja autorreferencial. Es imposible determinar si la afirmación es verdadera o falsa porque si fuera verdadera, entonces la afirmación sería una mentira, y si fuera falsa, entonces la afirmación seguiría siendo una mentira.

La afirmación crea una contradicción, que se conoce como la paradoja del mentiroso, y no puede resolverse lógicamente. Por tanto, no es ni verdadera ni falsa, sino un ejemplo de afirmación autocontradictoria.

“Nosotros haremos las preguntas”

Pero ChatGPT se limita a regurgitar un ejemplo bien conocido. Cuando una paradoja autorreferencial se esconde dentro de un chiste diseñado para despistar al oyente, el robot de IA no acaba de entenderlo. He aquí otro ejemplo:

Yo: ¿Por qué es gracioso este chiste? “Toc Toc”. “¿Quién es?” “La Gestapo”. “¿La Gestapo quién?” “Nosotros haremos las preguntas”.

ChatGPT: Este chiste es gracioso porque juega con la reputación de la Gestapo, la policía secreta de la Alemania nazi conocida por sus brutales tácticas de interrogatorio y sus abusos de los derechos humanos.

El humor del chiste viene de la inesperada respuesta a la pregunta “¿La Gestapo qué?”. En lugar de dar una respuesta típica a la pregunta, el remate subvierte las expectativas al insinuar que la Gestapo será quien haga las preguntas.

El chiste también pone de relieve la dinámica de poder entre la Gestapo y sus súbditos durante el régimen nazi, y el miedo y la intimidación que infundían. El absurdo de utilizar a la Gestapo en un chiste desenfadado de toc-toc contribuye al humor y ayuda a liberar la tensión que rodea a este oscuro periodo de la historia.

Esta respuesta vaga y un tanto woke no viene al caso: El oyente en una broma de toc-toc hace una pregunta (“¿Quién está ahí?”), y la respuesta “Gestapo” emplea un viejo cliché cinematográfico para cambiar la posición del que pregunta y del que responde.

Parménides y la teoría de los conjuntos

La IA puede imitar las funciones de orden inferior de la mente humana hasta cierto punto. Puede ordenar y categorizar. La IA hace maravillas en la automatización de fábricas, examinando miles de imágenes en tiempo real para identificar piezas defectuosas o el desgaste de las máquinas. Puede encadenar hechos y relaciones conocidos y producir una emulación creíble de un ensayo de primer año. Pero no puede examinar sus propias premisas. Incluso la simple actividad de ordenar y categorizar se topa con paradojas.

Parménides se lo explicó al joven Sócrates a finales del siglo VI antes de Cristo. Si clasificamos los objetos según cualquier cualidad percibida, por ejemplo, el “color rojo”, nos encontramos con una regresión infinita. ¿Incluye la categoría de las cosas rojas la propia “rojez”? Si es así, necesitamos otra categoría que incluya tanto los objetos rojos como el propio “enrojecimiento”. Esta nueva categoría también es roja, así que necesitamos otra categoría que la incluya, y así hasta el infinito. Esto persiste en la Teoría de Conjuntos moderna en forma de la llamada paradoja de Russell (el conjunto de todos los conjuntos que no son miembros de sí mismos, que no puede existir). Russell intentó resolver el problema con su teoría de los tipos, pero no lo consiguió.

Teorema de la incompletitud de Gödel

Kurt Gödel resolvió el problema en 1931, demostrando que cualquier sistema lógico lo suficientemente potente como para soportar la aritmética no puede demostrar sus propios axiomas. Dos milenios y medio después de Parménides, y tras innumerables intentos de resolver la vieja paradoja, resulta que el problema no puede resolverse. Para Gödel, esto significaba simplemente que los matemáticos nunca agotarían el tema, y siempre buscarían nuevos axiomas que resolvieran las paradojas que inevitablemente surgen en los sistemas matemáticos.

También implica, como dijo el gran matemático: “O las matemáticas son demasiado grandes para la mente humana o la mente humana es más que una máquina”. Explicó: “En el establecimiento sistemático de los axiomas de las matemáticas, se hacen evidentes una y otra vez nuevos axiomas que no se siguen por lógica formal de los previamente establecidos.” Es decir, no existe una lógica por la que un ordenador pueda descubrir los nuevos axiomas que resuelven las paradojas que una y otra vez surgen en matemáticas.

IA “débil” y “fuerte”

La IA “débil” -la clasificación y categorización de objetos por parte de los ordenadores- funciona perfectamente bien. Los ordenadores pueden distinguir rostros, o piezas malas de piezas buenas en una cinta transportadora, o fotografías de gatos y perros una vez que han “aprendido” a diferenciar la disposición de los píxeles, siempre que primero sean entrenados por un operador humano que marque el conjunto de aprendizaje como “gato” o “perro”. Por otro lado, la llamada “IA fuerte” -la sustitución de las funciones críticas de la mente humana por un ordenador- es una utopía.

Gödel lo demostró mediante la lógica formal. Se podría añadir que el impulso de detectar fallos en los cimientos de nuestro pensamiento y construir unos mejores surge de una personalidad con un propósito. Kant sólo consideraba el ejercicio de la razón como tal; el motivo para ejercer la razón, sin embargo, está incrustado en la personalidad. Buscamos la verdad no porque estemos programados para ello -la mayoría de las veces nos contentamos con engañarnos a nosotros mismos-, sino porque tenemos relaciones sociales, ambiciones y, sobre todo, una conciencia de nuestra propia mortalidad que nos infunde el deseo de dejar algo único que perdure más allá de nuestra existencia terrenal. La creatividad nace de la pasión, lo único de lo que es incapaz un ordenador.

El peligro de la inteligencia artificial somos nosotros

Pero hay que hacer una salvedad. Que la IA no pueda pensar no significa que no pueda ser peligrosa. La noción más perniciosa que jamás haya asolado a la humanidad sostiene que podemos elegir una identidad del mismo modo que compramos un traje de primavera. Ya he escrito sobre ello en otro lugar. Nos engañamos a nosotros mismos pensando que podemos (por ejemplo) elegir nuestro género. No pretendo denigrar al pequeño número de personas que creen que no tienen elección y están seguras de pertenecer al sexo opuesto. Pero las identidades de diseño que vende la cultura woke son un fraude. La IA puede potenciar esos delirios, por ejemplo, permitiéndonos habitar un mundo virtual con un avatar que encarne nuestras fantasías más oscuras. Uno se estremece al pensar lo que la IA podría conseguir en la pornografía interactiva.

Las aplicaciones distópicas de la IA, sin embargo, presuponen que ya hemos degradado nuestro sentido del yo, transformándolo en una cuestión de elección del consumidor, y aplastado las funciones superiores de la mente para dejar espacio a aventuras hedonistas. Eso no es la IA elevándose al nivel del pensamiento humano; eso, más bien, es la humanidad hundiéndose al nivel de la objetivación inanimada. El verdadero peligro no reside en la IA, sino en nosotros mismos.

ChatGPT: En vanguardia de la prohibición

Poca duda cabe de que ChatGPT ha sido el fenómeno tecnológico de los últimos meses. La forma en que responde a las preguntas del usuario, la facilidad de redacción que tiene, todo resulta sorprendente para quien se asoma a su utilización y conoce que detrás no hay enanitos respondiendo, sino un procedimiento de Inteligencia Artificial experimentando con técnicas de lenguaje natural.

El círculo virtuoso de la innovación

Es impresionante lo que puede hacer el ser humano con su capacidad de innovación. Porque ChatGPT es, ante todo, una innovación. Y, como toda innovación, desata procesos emprendedores y creativos en todos los individuos que entran en contacto con ella, generando a su vez nuevas innovaciones, en un círculo virtuoso que casi nunca tiene fin. Lo llamativo de ChatGPT es que ha llegado a todos lo niveles de la sociedad y a casi todos se nos ocurren cosas qué hacer con esta tecnología, desde los estudiantes más pícaros a las empresas más serias.

Decía que el círculo virtuoso de la innovación casi nunca tiene fin. Y digo “casi nunca” porque es bien sabido que hay un gran obstáculo para la innovación, que es la regulación. Esto es, los Estados definiendo a priori cómo se tienen que resolver las necesidades de los ciudadanos, lo que en el extremo conlleva la prohibición.

Reglamento General de Protección de Datos

Eso es lo que acaba de hacer la autoridad de protección de datos italiana con ChatGPT. Ha decidido que no cumple el Reglamento General de Protección de Datos (RGPD) emitido por la Comisión Europea y que debe dejar de dar servicio a los ciudadanos italianos en tanto no garantice su cumplimiento.

En 2018 ya dediqué un espacio a hablar del citado reglamento[1]. A quien leyera dicho artículo (y recuerde su contenido), no le debería sorprender esta prohibición, al menos no en el plano abstracto, aunque si lo pueda hacer su concreción. Ya entonces citaba a Bastiat y a Hazlitt, que hablan de los efectos de la regulación sobre lo que se ve y lo que no se ve.

Tras cinco años de aquel artículo, por fin, ha aflorado una consecuencia del RGPD que todos los ciudadanos vemos: la prohibición de marras, y el considerable riesgo de que se extienda a otros países de la Unión Europea, puesto que el RGPD es una normativa común a todos sus Estados Miembros. Por supuesto, no ha sido la única consecuencia dañina visible de tal regulación, qué se lo digan a todas las grandes empresas y a muchas pequeñas. Pero sí es con diferencia la que va a hacer llegar a más gente las consecuencias del nefasto RGPD.

Lo que vemos… y lo que no vemos

Y, como digo, esto es solo lo que vemos. Lo que no vemos, y no veremos nunca, son todas las ideas e innovaciones que se hubieran hecho en Europa en ausencia de las limitaciones que impone tal normativa. En otras palabras, no somos conscientes de todas las innovaciones que la CE nos ha prohibido, muchas de ellas porque ni siquiera han llegado a existir: solo vemos que ChatGPT nos queda vedado.

En el ámbito de las tecnologías de la información, que es el que conozco pero que sospecho solo sea la punta del iceberg de las regulaciones que impiden la innovación en Europa, también hay otro caso digno de mención, en este caso con foco en los operadores de telecomunicaciones. Se llama la Regulación de Internet Abierta (Open Internet Regulation) y fuerza a los operadores a cumplir con la Neutralidad de Red en los servicios de acceso a Internet que dan a sus clientes.

OIR

La OIR se promulgó en 2014. Poco después, un par de operadores propusieron una innovación en el mercado: que sus clientes pudieran probar gratis en el móvil los contenidos de HBO, entendiéndose por gratis que no se redujeran sus Gigas mensuales por ver dicho canal. Pues bien, un juez comunitario decidió que esta práctica comercial (conocida como zero-rating) iba contra la citada regulación, y obligó a los operadores a retirarla del mercado. Y eso a pesar de que el cuerpo europeo de reguladores de telecomunicaciones había interpretado que el zero-rating era compatible con la regulación de marras. Si el zero-rating se consideró contrario a la norma, se puede imaginar el miedo que entraría a las telcos para hacer cosas nuevas en sus redes, por ejemplo, las que se requerirán para tener metaversos.

La OIR, como el RGPD, tiene enormes consecuencias sobre la capacidad de innovación de las empresas europeas, pero son consecuencias que no se ven, que solo afloran en casos puntuales, como el que ahora nos ocupa de ChatGPT, o el referido del zero-rating de HBO. Es preferible no pensar sobre la de ChatGPTs que se han quedado en el camino simplemente porque el emprendedor no se atrevió a lanzarlo, o porque ni siquiera hubo tal emprendedor pensando en cosas parecidas por asumir que estaba prohibido.

La vanguardia de la prohibición

Por suerte para unos, y desgracia para otros, el mundo fuera de Europa sigue moviéndose y sigue inventando. Las empresas europeas no podrán usar ChatGPT y quizá aquí nunca veamos metaversos, pero va a ser difícil que los ciudadanos europeos no nos enteremos de que en el resto del mundo cada vez viven mejor gracias a estas cosas. No creo que a ChatGPT, que de momento no parece depender de ingresos, le afecte demasiado que no se pueda usar en Europa; ya veremos si ocurre lo mismo con las empresas que planeaban mejorar su productividad y eficiencia mediante su utilización, cuando sus competidores en otras geografías sí lo puedan hacer.

La vanguardia en la prohibición parece cada vez más reñida con la vanguardia en la innovación. Qué pena que a los europeos nos toque ser campeones de la primera.


[1] Ver https://ijmpre2.katarsisdigital.com/ijm-actualidad/analisis-diario/el-reglamento-de-proteccion-de-datos-enterrando-recursos-de-los-europeos-en-la-economia-improductiva/

La economía de la inteligencia artificial (II): La guerra entre Estados Unidos y China

Hace unas semanas escribí el primer artículo introductorio (ver aquí) del que, espero, sea una larga serie de piezas en las que comentaré los efectos socioeconómicos de la Inteligencia Artificial y de las nuevas tecnologías, algunas incipientes, otras más desarrolladas, que, a buen seguro, transformarán las relaciones sociales y formas de producción. En esta columna, trataré una cuestión no menor, que tiene que ver con la geopolítica y la economía internacional.

En una magnífica obra, llamada Chip War, Chris Miller advierte en la introducción de que “el destino de las naciones ha girado en torno a su capacidad para aprovechar el poder informático”, y con la IA y sus derivadas, no iba a suceder lo contrario. La cuestión es que el problema es de disponibilidad de capacidad de procesamiento. Su producción es altamente compleja, e implica a muy pocas empresas situadas en Estados Unidos, Taiwán, Corea del Sur, Japón y Países Bajos. Si nos preocupamos por la excesiva concentración de la OPEP (manejan el 40% de la producción mundial de petróleo), el mundo de la fabricación de los procesadores está todavía menos diversificado.

Prohibición a la exportación

La importancia de la tecnología, como mencioné en el anterior artículo, suele conllevar modificaciones exponenciales que dificultan cualquier tipo de prospección. Por ejemplo, en 1948, cuando los laboratorios Bell anunciaron la invención del transistor, el New York Times escondió la noticia en la página 46 de su diario. Unas décadas después, varios miles de millones de transistores, en la actualidad, trabajan para sustituir al cerebro humano[1].

Probablemente, el 7 de octubre de 2022 no será una fecha que se le haya quedado grabada por algo en especial. Pero ese día, la Oficina de Industria y Seguridad del Departamento de Comercio de los Estados Unidos anunció la implementación de controles a la exportación con el fin de proteger la seguridad nacional y los intereses de la política exterior. Pero no afectaba a todo el mundo, sino a China. Y no suponía una restricción para todos los sectores de la economía, sino para uno en concreto: el de los procesadores. La razón: China los utiliza para producir sistemas militares avanzados. Esto pone de manifiesto la importancia de la industria y sus implicaciones para el desarrollo de la Inteligencia Artificial y la fractura entre ambos bloques geográficos.

Un jardín pequeño, un muro alto

¿Cuál es la estrategia de los Estados Unidos? De acuerdo con el Consejero de Seguridad Nacional, hay tres familias de tecnologías que marcarán el devenir de las próximas décadas: la computación y la inteligencia artificial; la biotecnología; y las energías limpias. La prioridad está clara, el Gobierno norteamericano está comprometido con la reindustrialización y revitalización del sector. Para ello, a través de la CHIPS Act, ha inyectado 52.000 millones de dólares con el objetivo de restaurar el liderazgo mundial., El sector privado es fundamental: “el objetivo es “incluirlo”, no reemplazarlo”. No se trata de lograr un liderazgo de escala móvil, ya no basta con estar un par de generaciones por delante, sino que la ventaja debe ser lo más grande posible.

¿Y quién es el enemigo? En efecto, China. Ya que es quien tiene la capacidad para reformar el orden internacional. La competición geopolítica es una de las prioridades al otro lado del charco y tienen identificado a su mayor rival. Pero también cuentan con una campaña para atraer aliados a su bando: Japón, Corea del Sur o los países miembros de la OTAN. No buscan un acuerdo total, simplemente una alineación. Democracias liberales vs. todo lo demás. No hay frase que describa mejor la estrategia a seguir: un patio pequeño, pero con muros altos. Dentro del patio se insertan los puntos críticos de las tecnologías fundamentales, y el muro, lo suficientemente alto como para protegerlo de las injerencias externas.

China y la incomodidad de la globalización

China siempre ha tenido una difícil relación con la globalización y la economía internacional. Su participación en las cadenas globales se explica por una visión pragmática y utilitarista, más que por la creencia de que el capitalismo y el comercio global es algo éticamente superior y deseable per se. Prueba de ello es que en los años 90 desarrollaron un modelo dual, en el que las regiones costeras disfrutaban de zonas de libre comercio, mientras que el interior del país se regía por un modelo económico mucho más intervenido. La entrada en la Organización Mundial del Comercio equilibró la balanza, no sin que parte de la burocracia opusiera cierta resistencia.

Es decir, en China nunca han estado cómodos con la globalización. Pero en los últimos años, especialmente con la guerra iniciada durante la etapa de Trump en la Casa Blanca, las relaciones comerciales internacionales han tenido cada vez una menor importancia. Xi Jinping habla abiertamente de la autosuficiencia. ¿Por qué? Porque teme la dependencia de las democracias liberales. Para ello, quiere potenciar industrias consideradas como estratégicas y, sí, la tecnología es una de ellas. Además, quiere hacer nuevos amigos más allá de Estados Unidos y Europa.

La Inteligencia Artificial entra dentro de los sectores prioritarios a desarrollar, con una fecha horizonte situada en 2030. Para entonces, su objetivo es el de convertir al país en el mayor centro de innovación en Inteligencia Artificial. Pero, en la actualidad, China ya aparece primera en cuanto a publicación de papers y patentes sobre IA. Esto explica la orientación del gobierno americano y su creciente preocupación.

Y Taiwán de por medio

Y ahora debemos insertar en la ecuación a Taiwán. ¿Por qué? Porque la empresa capaz de producir en la escala suficiente los mejores procesadores del momento es TSMC (Taiwan Semiconductor Manufacturing Comapny). Más allá de otros intereses, la capacidad de producción de esta empresa es de vital importancia para los objetivos norteamericanos y del país asiático. Y ante la amenaza que supone China, TSMC abrirá una nueva planta en Arizona. Pero no una cualquiera, sino una en la que se fabricarán los nodos litográficos más avanzados, y que servirá en exclusiva a su mejor cliente, Apple. Esta decisión está justificada por el temor de que el conflicto se vea agravado. La compañía tiene como póliza de seguro a los Estados Unidos.

¿Quién ganará esta guerra? Todavía estamos en una fase inicial de la guerra por lograr el liderazgo de una tecnología de suma importancia. Evidentemente, es preferible que sean los países que más respetan la libertad y los derechos humanos los que logren la victoria. Mientras, de Europa y de España poco se puede esperar. Solo por poner un ejemplo, la mayor discusión pública de este asunto en nuestro país ha sido la decisión de qué ciudad debía albergar la sede de la Agencia Española de Supervisión de la Inteligencia Artificial. En el próximo artículo trataré algunos de los elementos que pueden ser fundamentales para el devenir de la guerra entre Estados Unidos y China a cuento de la Inteligencia Artificial.


[1] Sin el avance en el desarrollo de los procesadores, muy difícilmente se puede llegar a explotar el potencial de la Inteligencia Artificial.

La economía de la Inteligencia Artificial (I): ¿estamos alcanzando la frontera de la innovación?

La Inteligencia Artificial (IA) es una rama de la informática que busca desarrollar sistemas que sean capaces de realizar tareas que, hasta ahora, requerían de la inteligencia humana. Esta tecnología ha experimentado un gran avance en las últimas décadas, gracias a la combinación de algoritmos de aprendizaje automático y grandes cantidades de datos. La inteligencia artificial tiene implicaciones significativas en la economía y en la sociedad. Puede transformar la forma en que trabajamos, nos comunicamos y nos relacionamos entre nosotros. A medida que la IA se desarrolla y se integra en nuestra vida cotidiana, es importante reflexionar sobre sus beneficios y riesgos potenciales. El objetivo es garantizar que se utilice de manera responsable y equitativa.

El párrafo que acaba de leer ha sido generado por una de las muchas herramientas de IA que se han puesto de moda en los últimos tiempos (ChatGPT). Cada vez somos más los que hacemos uso de las herramientas que nos ofrece para mejorar nuestro desempeño laboral, organizar nuestra vida diaria o simplemente por curiosidad. Que esté cada vez más presente en nuestro día a día tiene implicaciones en numerosos aspectos, y la economía no es una excepción. Es por eso por lo que en los próximos artículos analizaré varias de las consecuencias que tiene y puede tener la inteligencia artificial en el campo económico. Sirva esta primera pieza como introducción a esta cuestión.

El avance de la tecnología

La humanidad se ha caracterizado por vivir momentos de grandes avances tecnológicos, pero también ha habido épocas de bajo desarrollo. De hecho, actualmente es común escuchar debates sobre si es plausible pensar que la productividad se ha estancado en las últimas décadas. El motivo es que hemos alcanzado los límites del progreso, por lo que ahora solo nos queda crecer en el margen. Esta idea combina bastante bien con la de que el progreso tecnológico sigue una trayectoria con forma de S. Esto es, primero se caracteriza por arrojar un crecimiento paupérrimo, para después dar paso a un rápido crecimiento hasta alcanzar una cierta estabilización. Esta última fase sería la que estamos viviendo en el presente.

La inteligencia artificial podría alterar esta tendencia. El potencial de la tecnología suele ser subestimado, porque normalmente se basa en predicciones lineales. Empero, cuando arraigan en la sociedad y un porcentaje significativo de la población participa de un determinado avance, el crecimiento tiende a ser exponencial. Aunque existen ciertos límites a lo que algunos autores denominan singularidad.

Sobrecarga de información

Existe una sobrecarga de información. Nunca habíamos tenido acceso tan rápido a tanta cantidad de contenido. Evidentemente, esto tiene consecuencias positivas, como la de “democratizar” el conocimiento. Pero también aumenta la información irrelevante, la cual hay que filtrar. Y no solo es eso, a más conocimiento, los rendimientos tienden a ser decrecientes, por lo que hay que dedicar un mayor esfuerzo para alcanzar unos niveles de innovación similares a los previos.

Asimismo, este conocimiento no está distribuido de manera equilibrada. Por lo que los que sepan utilizar la información y el nuevo conocimiento, tendrán mayores capacidades y aumentarán las diferencias con respecto a los have-nots. La derivada puede ser un aumento de los conflictos sociales y políticos, y un mayor respaldo de los movimientos populistas. También podríamos ver a políticos oponer resistencia o manipular las nuevas tecnologías en su beneficio.

¿Las ideas son más difíciles de encontrar?

En un sugerente paper, Bloom et al. (2020) se preguntan si las ideas son más difíciles de encontrar en la actualidad. Para ello, parten del modelo de crecimiento económico de Solow, de tal modo que el crecimiento a largo plazo se puede dividir en dos elementos: el número de investigadores y su productividad. Si la innovación se hubiese estancado, eso implicaría que o bien ambos componentes se han estabilizado, o bien que el crecimiento de uno está siendo contrarrestado por el deterioro del otro.

Pero primero cabe preguntarse qué se entiende por idea, o al menos, qué unidad se debe utilizar para medir el crecimiento de la innovación. Algunos ejemplos hallados en la literatura son la productividad o el número de patentes. Por ejemplo, en el campo de la salud, puede usarse como output de innovación el número de años de vida salvados. La variable input, es decir, la variable que se define como idea que toman los autores, es la del número de publicaciones científicas en PubMed. De esta manera, se captura el esfuerzo en investigación con el objetivo de reducir la mortalidad para una enfermedad en particular. En este artículo, se ofrecen los resultados para el cáncer de mama y las enfermedades del corazón.

La productividad de las ideas

Lo que encuentran es que la productividad de las ideas para todos los cánceres, medida como la ratio de años de vida salvados por número de publicaciones, aumentó hasta mediados de 1980, pero desde entonces ha descendido por un factor de 1,2. Esta cifra es todavía mayor para los casos específicos del cáncer de mama y de las enfermedades coronarias. Estos resultados también son encontrados en otros campos, como en todo tipo de cultivos y semiconductores.

Pero para obtener unos resultados más representativos, acaban utilizando datos a nivel de empresa. Como variables output, emplean promedios decenales del crecimiento anual en los ingresos por ventas, capitalización bursátil, empleo e ingresos por productividad laboral. La variable insumo es el gasto en investigación y desarrollo. Mientras que se observa un alto crecimiento del número de investigadores (entre un 2,4% y un 8,8% por año), la productividad de la investigación para las variables mencionadas anteriormente ha caído entre un 4,2% y un 14,5%. En promedio, la productividad ha descendido un 9%, acumulando una disminución de 2,5 veces cada década. O, dicho de otra manera, actualmente son necesarios 15 investigadores más que hace 30 años para producir la misma tasa de crecimiento de los ingresos empresariales.

Análisis de datos

En la misma línea, Park et al. (2023) han analizado lo disruptivo de las nuevas investigaciones. Para ello, haciendo uso de bases de datos donde se recolectan varios millones de papers científicos, consideran dos tipos de avances o contribuciones: (1) contribuciones que mejoran las ramas del conocimiento existentes y (2) contribuciones que suponen una disrupción con respecto al conocimiento previo, “haciéndolo obsoleto e impulsando la ciencia y la tecnología en nuevas direcciones”. Luego, generan un índice que captura la naturaleza de la contribución (si consolida el conocimiento existente o se trata de algo disruptivo). El indicador varía desde -1 (consolida el conocimiento) hasta 1 (es disruptivo con respecto al conocimiento existente). La conclusión alcanzada por los investigadores es que tanto los papers como las patentes son cada vez menos disruptivas, independientemente del campo de estudio.

El papel de la inteligencia artificial

Es decir, las innovaciones parece que han abandonado el terreno de los rendimientos crecientes. Evidentemente, existe una gran heterogeneidad por industria y sector, pero de manera agregada la productividad de la investigación se ha deteriorado. Existen hipótesis muy atractivas que consideran que el avance del conocimiento exige mayores habilidades y capacidades, por lo que los nuevos investigadores deben concentrar sus capacidades en muy pocas áreas. O lo que es lo mismo, deben estar sumamente especializados para comprender una tecnología en concreto. Por eso, es necesario que el número de empleados cualificados sea mayor para obtener rendimientos.

Sin embargo, la inteligencia artificial parece hacer otra cosa distinta, a saber, hace prescindible no solo el trabajo manual y repetitivo, al igual que tecnologías de siglos y décadas pasadas, sino que pone en duda la necesidad de ciertos trabajos realizados por personal cualificado. Es decir, la IA bien podría poner en entredicho lo escrito más arriba y favorecer un crecimiento exponencial en poco tiempo. El crecimiento de la innovación se ha producido de manera extensiva en los últimos tiempos. ¿Habrá un cambio de paradigma? La duda es del todo pertinente, y son muchos los campos que pueden verse afectados. Es por eso que le invito a leer los futuros artículos que publicaré en la web del IJM.

Lo que aporta la humanidad

John O. McGinnis. Este artículo ha sido publicado originalmente en Law & Liberty.

ChatGPT se ha vuelto omnipresente. En mi primera reunión de profesores de este semestre se planteó el problema de los estudiantes de Derecho que utilizan esta tecnología para dar respuestas a preguntas de examen o redactar trabajos. Dos profesores de Derecho han publicado un artículo en el que demuestran que con ChatGPT ya se podrían aprobar dos partes del examen de acceso a la abogacía (las secciones de agravios y pruebas). Una empresa ofreció la semana pasada un millón de dólares para que un abogado se pusiera unos auriculares y repitiera las respuestas del Chat a las preguntas de un argumento oral en el Tribunal Supremo. Esto último es, sin duda, un truco de marketing. Ningún abogado lo haría, aunque fuera legal, y ChatGPT aún no está listo para el prime time del Tribunal Supremo. No obstante, la empresa del truco ofrecerá sus servicios en el tribunal de tráfico el mes que viene.

Y estos son sólo algunos de los avances en el único campo del derecho. Dado que ChatGPT se ofrece ahora como servicio gratuito, millones de personas ya lo han utilizado tanto por trabajo como por placer, mucho más que Google y Facebook en sus periodos iniciales. Un divertido juego de salón consiste en pedirle que escriba en el estilo de un autor favorito, como Hemingway, o que explique asuntos bajo diferentes restricciones, como escribir un soneto en pentámetro yámbico explicando la teoría de la disuasión de Thomas Schelling. El último resultado no estuvo mal, sobre todo teniendo en cuenta su formulación instantánea.

Puntos fuertes, limitaciones y avances futuros

ChatGPT (más formalmente Chat Generative Pre-Trained Transformer) es un chatbot avanzado. Se entrena a partir de una gran cantidad de texto, utilizando los últimos avances en el campo computacional de las redes neuronales. Las redes neuronales son una versión en silicio de las neuronas del cerebro y, al igual que éste, pueden adoptar pesos positivos o negativos para ayudar a predecir futuros estados del mundo. El chat utiliza estas redes neuronales para predecir qué palabras y frases deberían aparecer a continuación, en función de las instrucciones que le dé el usuario, como “escribe una defensa de quinientas palabras de Citizens United contra FEC”. Es una versión mucho más potente de lo que hace Outlook cuando nos sugiere completar nuestras frases en el correo electrónico. El Chat también puede fusionar dos redes diferentes para formar una tercera cuando su pregunta es “escribe una defensa de Citizens United al estilo de Henry James”.

Las capacidades del sistema son sorprendentes: tiene una fluidez extremadamente rápida y gramaticalmente impecable sobre cualquier tema. Sin embargo, sigue teniendo algunos fallos y puntos débiles. Comete errores: Cuando le di la indicación de Citizens United, cuatro de sus cinco defensas eran excelentes y probablemente las mismas cuatro con las que yo habría empezado, pero también afirmó erróneamente que el caso exigía que las contribuciones a las campañas electorales se hicieran públicas. En su lugar, la mayoría afirmó únicamente que los poderes legislativos podían exigir dicha publicidad. Y a veces alucina o inventa completamente. Cuando un colega le pidió que escribiera un artículo académico sobre un tema jurídico, insertó el apoyo de artículos que nunca se han escrito, ¡aunque los autores de estos artículos fantasma son de hecho expertos en la materia!

Y teóricamente, existe una limitación: ChatGPT sólo está conectado a las palabras que la gente ha escrito sobre el mundo, no al mundo en sí. Flota en el vasto mar de verborrea que hemos creado y no está conectado directamente al mar real ni a nada más sobre el mundo fuera de nuestras representaciones del mismo.

Pero los modelos GPT mejorarán de muchas maneras. En primer lugar, a medida que los equipos informáticos sean más potentes, siguiendo la ley de Moore, los modelos serán más capaces. En segundo lugar, se especializarán más al combinar la formación lingüística general con la formación que enfatiza y da más peso a tipos específicos de textos. Open AI, el productor de ChatGPT, ya está contemplando su ampliación jurídica con formación específica en textos de derecho. Suponiendo que esta innovación tenga más éxito a la hora de generar textos jurídicos que el modelo de lenguaje general, este avance tiene importancia jurisprudencial, pues demuestra que el Derecho tiene un lenguaje especializado que no puede reducirse al lenguaje ordinario. Los estudiantes de Derecho están aprendiendo a hablar como abogados en un sentido más que metafórico.

En tercer lugar, ChatGPT ampliará su alcance, evaluando otros textos y no sólo redactando los suyos propios. Por ejemplo, será capaz de destacar las cláusulas no estándar de un contrato y, al cruzarlas con otras capacidades computacionales, decirnos cómo les fue a esas distintas cláusulas en los tribunales.

En cuarto lugar, mejorará a medida que los humanos interactúen con él, corrigiéndolo en sus conversaciones con el chatbot. Por eso ChatGPT es gratis de momento; los millones de interacciones diarias mejoran su precisión y, por tanto, valen más que vender sus servicios inmediatamente. Eso cambiará con el tiempo, y ChatGPT será un gran negocio por sí solo y en conjunción con otros programas. En quinto lugar, y de forma ligeramente más especulativa, ChatGPT se combinará con otros tipos de programas informáticos que realizarán funciones de comprobación de hechos y lógica, reduciendo los errores. Como resultado de estos avances, ChatGPT, al igual que otras máquinas inteligentes, no tendrá un efecto puntual en la sociedad, sino una transformación continua.

Educar para añadir valor

Aunque los debates iniciales en las instituciones educativas, incluida mi propia escuela, se han centrado en el problema de las trampas en exámenes y trabajos, las implicaciones para la educación, en particular la profesional, son mucho más profundas. Los estudiantes se prepararán para trabajar en un mundo de máquinas cada vez más inteligentes. No se les pagará por lo que el ChatGPT y sus sucesores puedan hacer, sino sólo por el valor que añadan al trabajo de esas máquinas.

Así pues, la formación profesional debe integrar las máquinas inteligentes en su programa. En primer lugar, los estudiantes deben aprender a utilizar las máquinas de la forma más eficaz para complementar sus propias habilidades. Utilizar las máquinas sigue siendo un arte, no sólo una ciencia. Por ejemplo, ChatGPT da mejores respuestas cuando se le da una indicación mejor, y la indicación es responsabilidad del profesional, al menos por ahora.

Pero al crear un plan de estudios para los estudiantes, una escuela profesional debe proyectar lo que los ordenadores no pueden hacer, no sólo ahora, sino en la próxima década, ya que las máquinas seguirán ganando terreno. Sólo con esa predicción podremos determinar las especialidades y habilidades que nuestros profesionales del Derecho (y los de otras disciplinas) deben cultivar y que es improbable que las máquinas usurpen.

En derecho, es posible hacer algunas generalizaciones sobre el abogado de éxito del mañana. En primer lugar, a las máquinas les resultará más fácil colonizar áreas del derecho que son muy estables, como el fideicomiso y el patrimonio, que aquellas que cambian rápidamente, como el derecho bancario u otro derecho que se ha adaptado rápidamente a los avances tecnológicos o a los cambios políticos. Un abogado debería especializarse en el derecho más mutante, al igual que las facultades de Derecho. El derecho tecnológico, como el que rodea a las criptomonedas, también tendrá menos plantillas de máquinas. Un abogado de hoy es sabio si se mantiene al día de los últimos cambios legales impulsados por la tecnología. Las habilidades altamente conceptuales, como establecer analogías entre áreas jurídicas que antes parecían dispares, también pueden ser relativamente impermeables a las máquinas. Esto sugiere que la formación profesional debería ser aún más conceptual y menos orientada a la información de lo que es ahora. Las normas jurídicas se conocerán fácilmente.

Pero mientras que la ley, en general, puede conocerse fácilmente, desarrollar los hechos específicos de cada caso es una tarea única, para la que el pasado es una guía imperfecta. Este es un ámbito en el que los seres humanos pueden aportar un valor añadido. Algunos asuntos jurídicos, como la negociación y la persuasión de los jurados, requieren emoción y lógica, y comunicación oral y escrita. También es probable que sean el último reducto de los abogados. Las habilidades más suaves pueden llegar a ser más demandadas que la proverbial mente de acero, y las facultades de Derecho deberían programar en consecuencia.

La necesidad de reorientar la formación jurídica exige necesariamente cambiar la parte del plan de estudios que se centra en el desarrollo de competencias jurídicas independientes. Los estudiantes tienen que dominarlas para proporcionar buenas indicaciones y añadir valor en los casos más punteros. Pero para estar preparados para la práctica, necesitan integrar los avances en inteligencia artificial. Y lo que es cierto para el Derecho también lo es para el resto de la formación profesional.

La política del valor añadido

Los expertos ya se preocupan por el efecto de ChatGTP, que facilitará el cabildeo legislativo y la influencia en los organismos administrativos con una avalancha de comentarios generados por ordenador. Pero el llamado “astroturf lobbying” -la simulación de apoyo público mediante una avalancha de comunicaciones fabricadas- es ya un arte avanzado. La perspectiva mucho más inquietante es la forma en que ChatGPT y otras herramientas de IA potenciadas por el continuo aumento exponencial de la computación pueden desestabilizar nuestra política cambiando continuamente el valor que nuestros ciudadanos añaden al trabajo.

Se ha argumentado de forma plausible y empírica que el libre comercio (con China en particular) tuvo un efecto desestabilizador porque algunos trabajadores nacionales ya no podían añadir ningún valor una vez deslocalizados sus puestos de trabajo. Pero estos efectos se limitaron a industrias y lugares concretos. El cambio provocado por la IA tendrá un alcance mucho mayor.

Sin duda, muchos obreros son los que menos tienen que temer. La IA no va a sustituir a los fontaneros a corto plazo. Uno de los efectos positivos del auge de la inteligencia artificial puede ser el restablecimiento del respeto por el trabajo manual, porque por ahora forma parte del valor añadido de ser humano. Pero Occidente es ahora una economía predominantemente de cuello blanco y las máquinas inteligentes sustituirán a gran parte de lo que han hecho los trabajadores de cuello blanco. Eso no significa que los empleos de cuello blanco vayan a desaparecer. Los humanos pueden seguir complementando a las máquinas, pero los empleos cambiarán rápidamente y, en algunos casos, de forma muy sustancial.

Así pues, la IA generará problemas políticos, además de textos fluidos. ¿Cómo puede surgir una sociedad en la que los trabajadores necesiten formación continua y redistribución para añadir valor a la última oleada de máquinas inteligentes? ¿Cómo pueden reformularse el seguro de desempleo y otros elementos de la red de seguridad social para sostener a los trabajadores sin crear dependencia y fomentar la ociosidad? Con el auge de las máquinas inteligentes aumentarán las peticiones de una renta garantizada, pero los programas de renta garantizada desalientan el trabajo que da sentido a casi todas las vidas.

Significado para el hombre

Más allá de su alteración del trabajo, es probable que las nuevas máquinas inteligentes desafíen la imagen que el hombre tiene de sí mismo de formas más profundas. No es nada nuevo: la ciencia y la tecnología llevan quinientos años transformándola. El triunfo del heliocentrismo destronó al hombre del centro del universo. La evolución planteó interrogantes que socavaron su imagen de criatura selecta en contacto con lo divino, en lugar de uno de tantos simios inteligentes. Pero aun así, el cerebro humano que ideó tales teorías científicas siguió diferenciándonos. Aunque el GPS por chat no está haciendo por sí mismo estos descubrimientos, los resumirá mejor que casi cualquiera de nosotros, y otros avances en IA podrían ser pronto responsables de descubrimientos científicos reales.

Pero en un ámbito, el hombre conserva una ventaja: la moralidad. Las máquinas no han sustituido a nuestra conciencia y no parece que estén a punto de hacerlo. Por ejemplo, ChatGPT no se ruborizó cuando redactó un artículo con citas totalmente falsas. El compromiso con la verdad forma parte de nuestra conciencia.

Sin duda, las máquinas inteligentes pueden hacer una lista de los costes y beneficios de las decisiones, pero la ponderación de esos costes y beneficios seguirá siendo discutible, al igual que las cuestiones más amplias de hasta qué punto debemos ser consecuencialistas en lugar de deontológicos en nuestros juicios. Immanuel Kant decía que había dos cosas que le maravillaban: el cielo estrellado y la conciencia moral. Y esta última sensación de asombro permanece intacta con los avances actuales de la IA.

Reconocer nuestro sentido moral como nuestra verdadera aportación al valor del mundo puede hacer maravillas también para la sociedad. Aunque el capitalismo y otras ciencias modernas crean una gran riqueza y alivian la pobreza, siguen siendo bienes instrumentales. Y como cualquier instrumento, estos sistemas -y la IA- deben ser guiados por individuos que toman decisiones morales, decidiendo por sí mismos cuestiones como qué debe venderse en el mercado y qué debe dejarse a otras formas de interacción humana. El auge de la IA puede recordarnos que la moralidad es la medida última del hombre y que, por tanto, podría incluso convertirse en una fuerza de regeneración social.

Controlando la inteligencia artificial

Existe un fuerte movimiento en Estados Unidos que pretende el control de la inteligencia artificial para garantizar los derechos civiles y las libertades de las personas que puedan verse afectadas por las decisiones de las aplicaciones informáticas. Y es que, según afirman los promotores de estas iniciativas, las tecnologías del futuro, cada vez más potentes, deben respetar los valores democráticos. Todo el mundo tiene derecho a ser tratado de manera justa y “sólo tendremos tecnologías que trabajen para todos si todos estamos incluidos”, vienen a decir, en su brillante estilo habitual: La ciudad de Nueva York, por ejemplo, está tramitando una ley que pretende la imposición de auditorías previas para evitar la utilización de dichas aplicaciones en el campo del empleo (en contratación o promoción interna), si los resultados que arrojan los programas revelan ciertos sesgos. Al final, lo que se pretende es que sea la ideología dominante, en políticos y burócratas, quien determine la forma de actuar, el cómo y el con quién, incluso de las máquinas; aunque ello vaya en contra de una mayor eficiencia y eficacia. La libertad individual se desvanece en cualquier caso.

Pero también se confunden, creo yo, quienes creen que las máquinas, por sí solas, serán capaces de resolver todas nuestras dificultades, ya que el problema económico, por mucho que algunos se empeñen, no queda reducido a un problema técnico de mera asignación, maximización u optimización de recursos, con unas restricciones invariables, que se suponen también conocidas. La acción humana -entendida como conducta consciente, o voluntad movilizada que pretende alcanzar fines y objetivos concretos- es siempre el intento deliberado de pasar de una situación menos satisfactoria a otra que lo es más, tratando de adecuar –faliblemente- medios escasos a una escala valorativa siempre cambiante, en un proceso dinámico en el que el futuro es siempre incierto y abierto a todas las posibilidades creativas del hombre, lo que demuestra la estrechez del concepto de Ciencia Económica generalmente en boga.

Para entender, por tanto, la naturaleza de la función empresarial es imprescindible tener presente el papel esencial que juega la información o conocimiento que posee el actor; una información que le sirve, en primer lugar, para percibir o darse cuenta de nuevos fines y medios, y que, por otra parte, modifica los esquemas mentales o de conocimiento que posee el propio sujeto. De esta forma, si, como señala Hayek, el problema económico de la sociedad se concreta, principalmente, en la pronta adaptación a los cambios según las circunstancias particulares de tiempo y lugar -para poder alcanzar, cada vez, situaciones menos insatisfactoria para el individuo, de acuerdo con la evolución de sus fines y la distinta utilidad subjetiva que se les reconoce a los medios escasos disponibles-, las decisiones empresariales tendrán, en principio, más éxito si son ejecutadas por quienes están familiarizados con estas circunstancias, es decir, por quienes conocen de primera mano los cambios pertinentes y los recursos disponibles de inmediato para satisfacerlos: se hace imprescindible un conocimiento subjetivo y práctico, centrado en las circunstancias subjetivas particulares de tiempo y espacio, y que verse, como decíamos, tanto sobre los fines que pretende el actor y que él cree que persiguen el resto de actores, como sobre los medios que el actor cree tener a su alcance para lograr los citados fines.

Que sean los políticos y los burócratas quienes nos digan lo que hay que hacer, qué producir y por quién, es una aberración que lleva al desastre, como ha demostrado ya la historia. Pero dejarlo totalmente en manos de las máquinas no dejará de ser, también, un gran problema, porque la máquina, por muy lista que sea, no será capaz de saber los nuevos fines que el hombre trataría en el futuro de alcanzar, con lo que una sociedad regida por aquéllas, o será estática y sin evolución, o irá por unos derroteros que no tienen por qué ser los que realmente hubiese querido el hombre: serán ellas quienes decidan.

El riesgo, en ambos casos, como ya hemos comentado otras veces, es lo difícil que es el análisis contrafactual, máxime cuando no hay con qué comparar, es decir, tratar de imaginar cómo hubiesen sido las cosas si hubiese cambiado alguna circunstancia. Si el globo entero hubiese sido comunista en la década de los 70, al muro le hubiese costado más caer (¿con qué comparar la propia realidad? ¿de dónde la ilusión y la energía para cambiarla?). Si nos echásemos todos en manos de las máquinas, por desidia, por pereza, y por una falsa idea de eficiencia, pasaría lo mismo: tardaríamos mucho más, si es que lo conseguimos, en darnos cuenta del error.