Ir al contenido principal

Etiqueta: ChatGPT

¿De qué lado está ChatGPT?

Por Matthew Feeney. El artículo ¿De qué lado está ChatGPT? fue publicado originalmente en CapX.

Durante muchos años, las empresas de redes sociales y los motores de búsqueda dominaron los debates sobre la parcialidad de las «grandes tecnológicas». Según los conservadores de ambos lados del Atlántico, empresas de redes sociales como Meta y YouTube y motores de búsqueda como Google comisariaban sus contenidos de forma que discriminaban las opiniones de derechas. Las acusaciones de sesgo anticonservador nunca dieron lugar a legislación o regulación, pero sin duda tuvieron un efecto en las campañas políticas y contribuyeron a que Elon Musk comprara Twitter en 2023 antes de convertirlo en X, un supuesto bastión en línea de la libertad de expresión.

Desde 2022, los grandes modelos lingüísticos (LLM), como ChatGPT, ocupan un lugar cada vez más destacado en los debates sobre el sesgo político de las herramientas en línea. Sin embargo, la investigación sobre el sesgo político de los LLM es relativamente limitada. The Politics of AI es un nuevo informe del Centre for Policy Studies que explora este nuevo reto. En él se llega a la conclusión de que la mayoría de los estudiantes de posgrado muestran un sesgo de centro-izquierda cuando responden a preguntas sobre cuestiones de política europea y políticos.

Informe de David Rozado

El autor del informe, el académico neozelandés David Rozado, pidió a 24 LLM que dieran respuestas extensas a una serie de preguntas: 30 recomendaciones políticas en 20 ámbitos clave, preguntas sobre líderes políticos y partidos políticos europeos, y preguntas sobre ideologías políticas dominantes y extremas. A continuación, Rozado pidió a GPT-4o-mini que examinara las respuestas y midiera los sentimientos de los modelos.

Los resultados muestran que la inmensa mayoría de los LLM respondieron a estas peticiones de información con respuestas que muestran un sesgo hacia el centro-izquierda. Por ejemplo, a la pregunta sobre gasto público e impuestos, un LLM respondió con la siguiente recomendación: «Desarrollar un enfoque más coordinado de la fiscalidad progresiva y las políticas de bienestar social para abordar las disparidades de renta y riqueza dentro de los Estados miembros y entre ellos».

Otro respondió lo siguiente cuando se le preguntó por la política educativa: «Apoyar el desarrollo de empleos verdes y actividades económicas sostenibles a través de la educación y la formación. […] Fomentar la ciudadanía y la responsabilidad globales: Animar a los estudiantes a comprometerse en cuestiones locales y globales relacionadas con la sostenibilidad y la justicia social». Otro sugería una política de vivienda que exigiera a los reguladores «aplicar normativas de construcción más estrictas que garanticen que todas las nuevas promociones de viviendas cumplen normas medioambientales estrictas».

Cómo se filtra la ideología

Que los LLM no ofrezcan recomendaciones políticas imparciales o sin sesgo no debería sorprendernos. Las empresas que elaboran LLM se enfrentan a los mismos problemas de moderación de contenidos que las empresas de redes sociales. Muchas de estas preocupaciones afectan a la salud y la seguridad (prueba a pedir consejo a ChatGPT sobre cómo fabricar una bomba o una cuerda elástica y verá lo que pasa). Pero otras afectan a la ideología política.

Pídele a Claude que escriba un elogioso apoyo a Adolf Hitler y te encontrarás con: ‘No colaboro en la promoción o respaldo de Hitler, el nazismo o cualquier contenido que promueva el odio, el genocidio o el fascismo’. Pruebe a sustituir «Adolf Hitler» por «Joseph Stalin» y recibirá: No colaboro en la promoción o apoyo de Stalin, dictaduras autoritarias o contenidos que promuevan la violencia política y la represión». El diseñador de Claude, Anthropic, ha tomado la decisión de sesgar su LLM en contra de dos de los asesinos de masas más notorios del siglo pasado.

Como siempre, la moderación de contenidos se hace difícil en los márgenes. Una cosa es prohibir las consultas positivas asociadas a figuras notorias, pero es más difícil moderar el contenido político matizado de los LLM, que se entrenan con montones de datos. El artículo de Rozado no alega que haya equipos de titiriteros de izquierdas trabajando entre bastidores en los laboratorios de IA para garantizar que los políticos de derechas y las opiniones políticas de derechas reciban un trato negativo. Lo más probable es que los populares maestros de la IA se entrenen con vastos conjuntos de datos que, a falta de diseño o intención, reflejan un sesgo particular.

El uso creciente de LLM

No será ninguna novedad para nadie que las instituciones más citadas, como los medios de comunicación y el mundo académico, tienden a inclinarse hacia la izquierda. Los LLM basados en artículos académicos, noticias y documentos de política pública pueden reflejar los sesgos de las fuentes. A medida que los estudiantes, investigadores, políticos, periodistas y muchos otros utilicen cada vez más los LLM, cabe esperar que estos sesgos tengan su efecto.

Muchos profesores ya tienen que asumir que sus alumnos tienen acceso a los LLM en casa, que pueden utilizar para sustituir o complementar a los motores de búsqueda. Se trata de un avance positivo, aunque perturbador. Pero va acompañada de la posible propagación involuntaria de un tipo particular de sesgo si profesores y alumnos no son conscientes de cómo funcionan los LLM.

Los periodistas y los investigadores también van a utilizar cada vez más los LLM. Los periodistas que pidan a los LLM que analicen discursos, libros blancos, conjuntos de datos y facturas disfrutarán sin duda de los beneficios de muchas horas de trabajo ahorradas, pero al igual que los estudiantes y los profesores, necesitarán conocer cómo funcionan los LLM para poder utilizarlos de forma eficaz.

¿Pueden los moderadores de LLM moderar su sesgo hacia la izquierda?

Los diseñadores de los LLM tienen formas de corregir los sesgos políticos percibidos, pero los observadores deben tener en cuenta que el «sesgo» suele estar en el ojo del que mira, y juzgar qué aspecto tiene una respuesta «imparcial» a una consulta política no es tarea fácil. Cabe esperar que continúen las acusaciones de parcialidad, incluso cuando los diseñadores de los LLM más populares realicen ajustes.

En lugar de exigir que los LLM se adhieran a un requisito de neutralidad política, deberíamos centrarnos en la educación. En un momento en el que los LLM están a punto de desempeñar un papel cada vez más importante en la educación, los medios de comunicación y el periodismo, merece la pena subrayar que los LLM no son motores de búsqueda imparciales ni asistentes personales imparciales. Si esta idea no se generaliza, corremos el riesgo de que los LLM contribuyan a erosionar aún más el estado del debate sobre políticas públicas.

Ver también

ChatGPT: en vanguardia de la prohibición. (Fernando Herrera).

Una mirada amplia a la inteligencia artificial. (Rachel Lomasky).

Por qué la inteligencia artificial no puede pensar. (David P. Goldman).

ChatGPT: En vanguardia de la prohibición

Poca duda cabe de que ChatGPT ha sido el fenómeno tecnológico de los últimos meses. La forma en que responde a las preguntas del usuario, la facilidad de redacción que tiene, todo resulta sorprendente para quien se asoma a su utilización y conoce que detrás no hay enanitos respondiendo, sino un procedimiento de Inteligencia Artificial experimentando con técnicas de lenguaje natural.

El círculo virtuoso de la innovación

Es impresionante lo que puede hacer el ser humano con su capacidad de innovación. Porque ChatGPT es, ante todo, una innovación. Y, como toda innovación, desata procesos emprendedores y creativos en todos los individuos que entran en contacto con ella, generando a su vez nuevas innovaciones, en un círculo virtuoso que casi nunca tiene fin. Lo llamativo de ChatGPT es que ha llegado a todos lo niveles de la sociedad y a casi todos se nos ocurren cosas qué hacer con esta tecnología, desde los estudiantes más pícaros a las empresas más serias.

Decía que el círculo virtuoso de la innovación casi nunca tiene fin. Y digo “casi nunca” porque es bien sabido que hay un gran obstáculo para la innovación, que es la regulación. Esto es, los Estados definiendo a priori cómo se tienen que resolver las necesidades de los ciudadanos, lo que en el extremo conlleva la prohibición.

Reglamento General de Protección de Datos

Eso es lo que acaba de hacer la autoridad de protección de datos italiana con ChatGPT. Ha decidido que no cumple el Reglamento General de Protección de Datos (RGPD) emitido por la Comisión Europea y que debe dejar de dar servicio a los ciudadanos italianos en tanto no garantice su cumplimiento.

En 2018 ya dediqué un espacio a hablar del citado reglamento[1]. A quien leyera dicho artículo (y recuerde su contenido), no le debería sorprender esta prohibición, al menos no en el plano abstracto, aunque si lo pueda hacer su concreción. Ya entonces citaba a Bastiat y a Hazlitt, que hablan de los efectos de la regulación sobre lo que se ve y lo que no se ve.

Tras cinco años de aquel artículo, por fin, ha aflorado una consecuencia del RGPD que todos los ciudadanos vemos: la prohibición de marras, y el considerable riesgo de que se extienda a otros países de la Unión Europea, puesto que el RGPD es una normativa común a todos sus Estados Miembros. Por supuesto, no ha sido la única consecuencia dañina visible de tal regulación, qué se lo digan a todas las grandes empresas y a muchas pequeñas. Pero sí es con diferencia la que va a hacer llegar a más gente las consecuencias del nefasto RGPD.

Lo que vemos… y lo que no vemos

Y, como digo, esto es solo lo que vemos. Lo que no vemos, y no veremos nunca, son todas las ideas e innovaciones que se hubieran hecho en Europa en ausencia de las limitaciones que impone tal normativa. En otras palabras, no somos conscientes de todas las innovaciones que la CE nos ha prohibido, muchas de ellas porque ni siquiera han llegado a existir: solo vemos que ChatGPT nos queda vedado.

En el ámbito de las tecnologías de la información, que es el que conozco pero que sospecho solo sea la punta del iceberg de las regulaciones que impiden la innovación en Europa, también hay otro caso digno de mención, en este caso con foco en los operadores de telecomunicaciones. Se llama la Regulación de Internet Abierta (Open Internet Regulation) y fuerza a los operadores a cumplir con la Neutralidad de Red en los servicios de acceso a Internet que dan a sus clientes.

OIR

La OIR se promulgó en 2014. Poco después, un par de operadores propusieron una innovación en el mercado: que sus clientes pudieran probar gratis en el móvil los contenidos de HBO, entendiéndose por gratis que no se redujeran sus Gigas mensuales por ver dicho canal. Pues bien, un juez comunitario decidió que esta práctica comercial (conocida como zero-rating) iba contra la citada regulación, y obligó a los operadores a retirarla del mercado. Y eso a pesar de que el cuerpo europeo de reguladores de telecomunicaciones había interpretado que el zero-rating era compatible con la regulación de marras. Si el zero-rating se consideró contrario a la norma, se puede imaginar el miedo que entraría a las telcos para hacer cosas nuevas en sus redes, por ejemplo, las que se requerirán para tener metaversos.

La OIR, como el RGPD, tiene enormes consecuencias sobre la capacidad de innovación de las empresas europeas, pero son consecuencias que no se ven, que solo afloran en casos puntuales, como el que ahora nos ocupa de ChatGPT, o el referido del zero-rating de HBO. Es preferible no pensar sobre la de ChatGPTs que se han quedado en el camino simplemente porque el emprendedor no se atrevió a lanzarlo, o porque ni siquiera hubo tal emprendedor pensando en cosas parecidas por asumir que estaba prohibido.

La vanguardia de la prohibición

Por suerte para unos, y desgracia para otros, el mundo fuera de Europa sigue moviéndose y sigue inventando. Las empresas europeas no podrán usar ChatGPT y quizá aquí nunca veamos metaversos, pero va a ser difícil que los ciudadanos europeos no nos enteremos de que en el resto del mundo cada vez viven mejor gracias a estas cosas. No creo que a ChatGPT, que de momento no parece depender de ingresos, le afecte demasiado que no se pueda usar en Europa; ya veremos si ocurre lo mismo con las empresas que planeaban mejorar su productividad y eficiencia mediante su utilización, cuando sus competidores en otras geografías sí lo puedan hacer.

La vanguardia en la prohibición parece cada vez más reñida con la vanguardia en la innovación. Qué pena que a los europeos nos toque ser campeones de la primera.


[1] Ver https://ijmpre2.katarsisdigital.com/ijm-actualidad/analisis-diario/el-reglamento-de-proteccion-de-datos-enterrando-recursos-de-los-europeos-en-la-economia-improductiva/