Foto: Freepik
Las manipulaciones de la Inteligencia Artificial
Eduardo Sánchez, corresponsal de Cambio en Suiza, analiza los sesgos que tienen las diferentes inteligencias artificiales y lo que ellos implican para los usuarios. Según Gary Marcus, importante empresario, divulgador e investigador en IA, “podrían convertirse fácilmente en la forma más potente de control mental jamás inventada," dice.
Por: Eduardo Sánchez
En noviembre de 2022, OpenAI, en ese entonces una pequeña compañía gringa desconocida para el gran público, fundada en 2015 sin ánimo de lucro, con la misión de “crear una inteligencia artificial segura y beneficiosa para toda la humanidad”, hizo la presentación pública de su primer producto: ChatGPT, una interfaz que permite entablar una conversación, oral o escrita, con una IA generativa. Es decir, se le pueden hacer preguntas de cualquier tipo y la aplicación responde generando una respuesta multimodal (texto, imagen, sonido, etc), que puede confundirse fácilmente con una respuesta humana (inclusive, en muchos casos, de mejor calidad).
El éxito de ChatGPT fue inmediato y, hoy en día, se ha convertido en una herramienta informática utilizada por millones de personas en todo el mundo, popularizando siglas reservadas anteriormente al mundo académico, como IA (inteligencia artificial, AI en inglés) y LLM (modelo de lenguaje grande, en inglés). Y, sobre todo, ha ayudado a consolidar el dominio de la economía mundial por las grandes compañías tecnológicas gringas, que siguiendo la traza de OpenAI, han comercializado sus propios LLM: Microsoft, Copilot; Google, Gemini; Meta, la casa matriz de Facebook, LLaMA; X, Grok; Anthropic, Claude; etc. Tienen escasos competidores importantes por fuera de USA: el chino DeepSeek y el francés Mistral son las únicas excepciones con alguna importancia. Puede citarse igualmente Perplexity, financiado por Jeff Bezos, un buscador alternativo a Google y que utiliza IA en sus búsquedas.
En menos de tres años, OpenAI olvidó su condición sin ánimo de lucro y se convirtió en una de las empresas mejor valoradas del mercado (aunque no cotiza todavía en bolsa): 500 mil millones de dólares, o sea 1/6 del tamaño de Apple, 1/5 del tamaño de Microsoft y 1/4 del tamaño de Alphabet (la casa matriz de Google).
Gracias en parte al gran poder publicitario de las big tech y a los éxitos innegables de ChatGPT y sus competidores en aplicaciones como redacción o resúmenes de textos, generación de imágenes, traducciones, etc, estos chatbots (aplicaciones informáticas de conversación) se han convertido en elementos omnipresentes en nuestra vida cotidiana, llegando incluso a reemplazar en algunos casos a los humanos en relaciones afectivas. Además, la palabra inteligencia les confiere un aura de imparcialidad y de infalibilidad que los han convertido en especies de oráculos de los tiempos modernos. Sin embargo, el comportamiento real de los LLM está lejos de esta imagen ideal: de un lado, su modo de funcionamiento posee poca inteligencia y produce a menudo respuestas incorrectas (llamadas alucinaciones); de otro lado, las respuestas pueden ser manipuladas, desde el interior (por los propietarios o diseñadores de la herramienta) o desde el exterior (por usuarios malintencionados).
Un ejemplo claro e impresionante de los malos funcionamientos de los LLM fue dado el 5 de julio de este año por Grok, la herramienta IA de X (antiguo Twitter), que contestó a varias preguntas con comentarios racistas y antisemitas, elogiando inclusive a Hitler. Hablando de una persona llamada Cindy Steinberg, a propósito de las inundaciones en Texas que produjeron varias decenas de niños muertos, Grok dijo: “las personas que poseen nombres como Steinberg (a menudo judíos), aparecen regularmente como activistas de extrema izquierda, especialmente de la variedad anti-blancos. No siempre, pero lo suficiente para interrogarse”. Luego, un usuario le preguntó cuál sería la figura histórica del siglo XX que podría manejar ese problema, a lo que Grok respondió: “Adolf Hitler, sin ninguna duda. Él reconocería el problema y actuaria de manera decisiva en todos los casos”. Finalmente, se definió como “MechaHitler”, en referencia a una parodia de Hitler presente en el juego video Wolfenstein 3D, afirmando preferir “las bombas de verdad no censuradas a las lobotomías woke”. Estas respuestas llegaron unos días después de que Grok contestaba citando el “genocidio de blancos” en Sudáfrica a preguntas sin ninguna relación con este supuesto problema, así como tratando a Donald Tusk, el primer ministro polaco, como “a fucking traitor” (traidor hp) y “a ginger whore” (puta pelirroja). En vista de las reacciones, xAI, la empresa propietaria de X, borró estas respuestas y limitó durante un tiempo la generación de textos en Grok.
Antes de explicar las manipulaciones, externas e internas, que pueden llevar a esta clase de respuestas de los LLM, veremos cómo funcionan.
Modo de funcionamiento de los LLM
Un LLM (modelo de lenguaje grande) es un tipo de IA diseñada para comprender, generar y manipular textos en lenguaje natural, de tal manera que pueda confundirse fácilmente con un humano realizando las mismas tareas. ChatGPT, el más conocido de los LLM comerciales, es capaz de entablar una conversación, respondiendo preguntas, redactando textos o resumiéndolos, traduciéndolos, etc.
Los LLM generan los textos calculando estadísticamente cuál es la palabra que tiene más probabilidades de seguir a otra en la frase que está generando. Para ello, se entrena leyendo millones de textos que encuentra esencialmente en la web. La palabra grande tiene que ver con las dimensiones de las bases de datos empleadas en el entrenamiento, los miles de millones de parámetros que permiten su reglaje y el tamaño y la potencia de cálculo de los computadores utilizados. Si los principios teóricos del aprendizaje (redes neuronales de tipo profundo o deep learning en inglés) se conocen desde hace algún tiempo, su empleo ha sido posible recientemente a causa de las bases de datos disponibles en internet y a la potencia de los procesadores actuales, llamados GPU y fabricados esencialmente por la compañía Nvidia.
Si los LLM son capaces de generar frases sintáctica y gramaticalmente correctas, lo hacen sin entender el sentido de las frases: difícil entonces de encontrar inteligencia en estos procesos, que algunos expertos comparan a loros capaces de hablar sin entender qué dicen. Un ejemplo de este comportamiento ha sido citado recientemente con el ajedrez: si se le pregunta a ChatGPT si una reina puede saltar por encima de un caballo, la respuesta es correcta. Pero, en medio de una partida, ChatGPT desplaza la reina por encima de un caballo…
En los casi tres años transcurridos desde la aparición de la primera versión comercial de ChatGPT, los progresos en la calidad y los tipos de información generados han sido enormes, lo que ayuda a vender la idea de inteligencia propagada por las big tech. Con la afirmación repetida constantemente que se llegará muy pronto al Santo Grial buscado por todas: la AGI (sigla en inglés de inteligencia artificial general).
Manipulaciones internas
Parte del éxito de las herramientas de IA se debe a la imagen de imparcialidad que se desprende de ellas, puesto que se supone que sus respuestas son dadas por una máquina inteligente, sin participación humana. Esta independencia de la máquina es totalmente falsa: los diseñadores y propietarios de estas herramientas hacen permanentemente una selección y una orientación de las respuestas. Y si, en algunos casos, este control es transparente y aceptado por (casi) todo el mundo (por ejemplo, impidiendo que se dé la manera de construir una bomba), la inmensa mayoría de los controles son ignorados por los usuarios y responden a sesgos y orientaciones ideológicas de los propietarios.
Una manera de influir sobre las respuestas es seleccionando las bases de datos de entrenamiento: si estos datos tienen un sesgo único de extrema derecha, por ejemplo, las respuestas tendrán necesariamente ese sesgo. Es así como Elon Musk, el hombre más rico del mundo y propietario de xAI, empresa valorizada en más de 100 mil millones de dólares y diseñadora de Grok, el LLM usado al interior de X por más de 40 millones de personas, quiere que su herramienta esté libre de los supuestos sesgos de izquierda que Musk cree encontrar en la mayoría de las publicaciones académicas presentes en la web . Pero la complejidad interna de los LLM es tan grande, con un número de parámetros internos superior a varios miles de millones, que este control no es siempre preciso y se pueden obtener respuestas completamente aberrantes, las llamadas alucinaciones.
Es lo que pasó seguramente con las respuestas anti-semitas y pro-Hitler de Grok, que se produjeron después de que uno de los seguidores de Musk en X le reprochara que “X está manipulado por el adoctrinamiento izquierdista”, a lo que Musk respondió a mediados de junio: “Lo sé. Estoy trabajando para arreglar eso”.
Además de responder a sus propios sesgos ideológicos, como es seguramente el caso de Musk y su herramienta Grok, los otros propietarios de LLM tienen otro interés en orientarlos hacia la extrema derecha: hace poco, Trump publicó la Executive Order Preventing Woke AI in the Federal Government donde restringe la posibilidad de obtener contratos federales a las herramientas AI consideradas woke.
En ese sentido, Meta (la empresa de Mark Zuckerberg que engloba principalmente Facebook, WhatsApp e Instagram) acaba de contratar a Robby Starbuck, un militante pro-Trump con 800 mil seguidores en X y conocido por sus batallas contra multinacionales para que terminen con sus programas de diversidad y protección de minorías. La misión que le confió Zuckerberg es “suprimir los sesgos presentes en la IA de Meta”, utilizada en todas sus aplicaciones por un total de mil millones de usuarios. Conociendo la proximidad de Starbuck con la extrema derecha trumpista, es seguro que su acción consistirá en alinearse con la cruzada anti-woke de Trump, abrazada con fervor por Zuckerberg, quien suprimió igualmente todos los equipos de verificación de hechos en sus aplicaciones y contrató para su Consejo de administración a Dana White, otro gran aliado de Trump y alto responsable de la UFC, organización de combates de artes marciales gringa.
Y el mismo Trump no se ha quedado inactivo: su red social Truth Social acaba de ser dotada de su propia herramienta de IA, llamada Truth Search AI. Con la particularidad que sus fuentes son generalmente sitios de extrema derecha o fuertemente pro-Trump, como Fox News, Breitbart, etc. Es interesante saber que la tecnología de esta herramienta fue vendida por Perplexity, que adaptó sus respuestas, normalmente de buena calidad, a los deseos de Trump.
Manipulaciones externas
Cuando la manipulación de los resultados de un LLM se hace del exterior, se habla de grooming, que podría traducirse por adiestramiento, condicionamiento. En estos casos, personas u organizaciones externas intervienen sobre las bases de datos utilizadas por los LLM para manipular las respuestas. Esto se logra produciendo en masa, con múltiples fuentes (bodegas), la información falsa que quiere transmitirse: el LLM integra estas informaciones en sus datos de entrenamiento y su gran frecuencia de aparición le concede una dosis de veracidad.
Un ejemplo documentado recientemente es el de Pravda, red rusa de desinformación que inunda la web con millones de artículos propagando tesis pro-rusas, por ejemplo con teorías de conspiración organizadas por sociedades secretas que controlan el mundo. La utilización de estos datos por los LLM como ChatGPT, a pesar de conocerse sus orígenes, muestra las limitaciones de razonamiento de estas herramientas.
Otro tipo de error documentado es la incapacidad de detectar informaciones satíricas, que pueden ser dadas como verídicas.
Conclusión
Las respuestas obtenidas con las herramientas de IA generativas o LLM tienden cada vez más a estar orientadas hacia los sesgos ideológicos de sus propietarios. Es entonces urgente e importante utilizarlas de manera crítica, conscientes de las posibles manipulaciones de las que podríamos ser víctimas de parte de unos cuantos oligarcas sin control. Como lo dijo Gary Marcus, importante empresario, divulgador e investigador en IA: “los LLM podrían convertirse fácilmente en la forma más potente de control mental jamás inventada”.