Mientras Trump juega al TEG con Putin, y Musk festeja -motosierra en mano- su cargo en el departamento de eficiencia gubernamental (DOGE), la Inteligencia Artificial Generativa avanza silenciosamente en nuestros smartphones y en las plataformas que usamos a diario sin frenos ni regulaciones. En este artículo, analizamos qué implica este avance, cuáles son algunas de las consecuencias tiene para la producción de conocimiento, qué desafíos representa para las economías emergentes y qué efectos tiene en el medioambiente.
Desde la propuesta del Test de Turing, que buscaba distinguir máquinas de humanos en la década de 1950, que el interés por la inteligencia del lenguaje en máquinas no es tan elevado. Desarrollar algoritmos de inteligencia artificial (IA) que comprendan y generen lenguaje ha sido un objetivo clave de las últimas dos décadas para las principales corporaciones de oriente y occidente vinculadas a la actividad en plataformas. Superado el largo invierno de la IA que duró más de dos décadas (1980-2000), en las que el avance de las PCs e Internet preparaban el terreno para lo que vendría, las plataformas, con su extractivismo de datos y la acumulación de información sistematizada, prepararon este escenario que habitamos. Avalados por la enorme cantidad de acceso a datos para entrenamiento y al poder de procesamiento que proveen las unidades de procesamiento Gráfico (GPUs) que fabrican los grandes como NVIDIA o TSMC, los grandes tecnológicos norteamericanos -y chinos- han avanzado intensamente en la investigación acerca del modelado del lenguaje, pasando de modelos estadísticos a modelos neuronales. Recientemente, se han introducido modelos lingüísticos pre entrenados (PLM) mediante modelos transformer en grandes corpus, mostrando una gran capacidad para diversas tareas de procesamiento del lenguaje natural (NLP). Al incrementar el tamaño de los datos con los que se entrenan, estos modelos no solo mejoran significativamente en rendimiento, sino que también adquieren habilidades especiales (por ejemplo, aprendizaje contextual), algo que no ocurre en modelos más pequeños. Es esa capacidad de aprendizaje contextual la que genera un movimiento en las placas tectónicas respecto a lo que pueden significar las nuevas capacidades de las plataformas que integran IA a su funcionamiento.
A partir del lanzamiento masivo en marzo de 2023 de Chat GPT-4, los Large Lenguaje Models (LLMs) han sido objeto de fascinación y experimentación en todos los ámbitos imaginables. La baja de las barreras de acceso al uso de chatbots dialogales, y a otros tipos de IA que significó el lanzamiento de Open AI, inauguró una etapa aún en desarrollo a partir de la cual el término IA se volvería moneda corriente. Detrás de la aplicación específica de esta meta tecnológica, se encuentran los transformers. Un modelo transformer es una red neuronal que aprende contexto y significado mediante el seguimiento de relaciones en datos secuenciales. Aplica un conjunto en evolución de técnicas matemáticas, de atención propia, para detectar formas sutiles en que los elementos de datos en una serie se influencian y dependen entre sí. Los LLM, o modelos de lenguaje grandes, son el componente clave detrás de la generación de texto. Las potencialidades de aprendizaje maquínico asociadas a estos modelos son infinitas y generarán cambios en la manera en que comprendemos nuestro entorno y generamos conocimiento.
Los transformers se presentaron por primera vez en la conferencia NeurIPS a través del documento de la empresa Google “Attention is all you need” en 2017, cuando se inauguró una ola de avances en machine learning que algunos denominan como la “IA de transformer”. Ahora bien, los GPTs (Generative pre-trained Transformers) son modelos de lenguaje natural que utilizan redes neuronales profundas para procesar y generar texto. Están diseñados para entender y producir lenguaje de manera similar a como lo haría un ser humano, aunque su conocimiento se deriva de vastos conjuntos de datos. El GPT más utilizado, Chat GPT de OpenAI, cuenta con 180.5 millones de usuarios activos a noviembre de 2023, y tiene una interfaz simple en la cual el usuario (en su versión “gratuita”) puede acceder al historial de las interacciones con el chat de los últimos 7 días, ver conversaciones de ejemplo o ingresar texto con el “Prompt” (instrucción o texto utilizado para interactuar con la IA) ya sea en voz o por medio del teclado. De esta manera, la integración de LLMs a casi cualquier actividad humana plantea nuevas incumbencias y alcances de los propietarios del transformer que alimenta estas transferencias de datos, configurando un masivo control sobre datos muy diversificados y específicos que, sin esta tecnología a disposición, serían difíciles de recopilar. Así, la agencia humana, de acuerdo con la teoría del actor-red de Latour (1999), se invisibiliza y se limita. Implica por momentos la “supervisión”, la curación de datos de entrenamiento y la configuración de parámetros para adaptar el modelo a las necesidades específicas. Los humanos también son responsables de validar la calidad de las salidas generadas por el GPT y de asegurar que cumpla con estándares éticos y prácticos. Al mismo tiempo, estos LLMs representan una forma de agencia no humana en el sentido de que pueden tomar decisiones y realizar tareas cognitivas complejas sin intervención directa de humanos. Pueden analizar datos, generar texto, realizar traducciones y responder preguntas de manera automatizada y eficiente. Pongamos como ejemplo lo que ocurre con la integración de LLMs a los motores de búsqueda. El algoritmo de indexación de Google, PageRank, toma decisiones basadas en un conjunto de pesos de los contenidos de las páginas web para determinar el orden jerarquizado en el que devuelve resultados de búsqueda a un usuario. Este último, decide en qué hipervínculo hacer click y buscar la información solicitada al indexador. Agencia humana y no humana trabajando de manera simple y colaborativa. Dejando de lado las implicancias relacionadas a los enlaces patrocinados y al sistema de monetización que impulsa Google como modelo de negocios, con el Search Engine Optimization y el Search Engine Marketing, estrategias orgánicas y de pago para aumentar la visibilidad y los resultados de búsqueda, se puede suponer que la decisión ulterior es del ser humano. Mediado por algoritmos, pero decidido por el ser humano. Ahora bien, ¿qué ocurre cuando se le integra Gemini al motor de búsqueda? La respuesta a esa pregunta configura en parte los grandes dilemas epistémicos de estos tiempos. Primer dilema: el AI Overview, nombre que se le da a la respuesta resumida que brinda el motor de búsqueda como primera respuesta destacada, es un resumen automatizado por un modelo de lenguaje en base a criterios de imposible determinación, opacos e irrastreables, pues se deciden de acuerdo a la experiencia de búsqueda de cada usuario y al nivel de entrenamiento del LLM en el momento de utilización. Segundo dilema: la agencia editorial de Google (por seguir con el ejemplo) se torna central en la actividad de búsqueda de información. Algo que hasta este momento era ampliamente debatido y refutado por las empresas tecnológicas que no consideran (ni la legislación vigente lo hace en la Sección 230 del Acta de Comunicaciones de 1995) que sean responsables de generación de contenido. Este salto epistémico es, entonces, de dos niveles. Cognoscitivo, pues configura nuevas formas de definir la realidad, establecidas y editorializadas por agencia no humana, y performativo, pues puede guiar a la acción a los seres humanos de maneras inimaginables y potencialmente nocivas para quien lo utilice.
Este doble juego de agencia humana y no humana habilita a reflexionar con mayor profundidad en torno al concepto de gubernamentalidad algorítmica de Rouvroy y Berns (2015), una definición que observa de manera crítica el funcionamiento de la captación de datos en sistemas como los que ofrecen las plataformas. Los autores plantean que las características principales de este gobierno algorítmico son la creación de una dupla de lo real, un gobierno sin sujeto y un trabajo directo que limita o extrae los procesos de individuación de los sujetos, o su devenir. La gubernamentalidad algorítmica se caracteriza por un doble movimiento: el abandono de cualquier forma de “escala” a favor de una normatividad inmanente y evolutiva en tiempo real, de la cual emerge un “doble estadístico” del mundo que parece rechazar las viejas jerarquías establecidas por el hombre y la renuncia a cualquier confrontación con los individuos cuyas oportunidades de subjetivación se hallan, cuanto menos, enrarecidas. El valor de esta definición está en que pone como eje a las estadísticas contemporáneas en las relaciones y destaca la centralidad de las máquinas algorítmicas en los procesos de desarrollo tecnológico. Costa (2017) resalta la centralidad que tiene esta noción como grilla de inteligibilidad de las sociedades contemporáneas. Algo que, en los últimos años, resulta difícil de rebatir. Van Dijck (2021) entiende también en este sentido que las complejidades de las plataformas están cada vez más desfasadas respecto de los estrechos conceptos legales y económicos en los que se basa su gobernanza y define a los ecosistemas de información como estructuras jerárquicas e interdependientes. Esta última característica se vio ampliamente profundizada por los movimientos de asociaciones estratégicas que ocurrieron entre estas empresas en los últimos meses de 2023 y los primeros de 2024. La incorporación de IA en las principales plataformas ocurrida durante 2024 muestra el enorme interés de las corporaciones por realizar una sintonía fina (fine-tuning) de acuerdo a las necesidades de los usuarios. Sumado a esto, muchas de estas integraciones en plataformas no poseen en muchos países, como Argentina, la capacidad de los usuarios de no utilizar sus servicios (opt out), como, por ejemplo, la IA de Meta incorporada a Whatsapp e Instagram, configurando un listado enorme de países cuyos ciudadanos no tienen maneras de proteger sus datos y su privacidad que no sea dejando de utilizar esos servicios por completo.
Además, lanzar herramientas de generación de texto, de generación de imágenes y sonidos conlleva un riesgo asociado a los posibles resultados erróneos o maliciosos (deep fakes, fake news, phising, entre otros) que las empresas parecieran no sopesar. El sistema occidental está en gran parte monopolizado por cinco grandes empresas tecnológicas (Amazon, Alphabet, Meta, Apple, Microsoft). Estas plataformas controlan crecientemente más las puertas de ingreso del tráfico en Internet, la circulación de datos y la distribución de contenido y al mismo tiempo logran eludir el escrutinio regulatorio convencional (Gillespie, 2018). Esta plataformización se refiere a “la interpenetración de las infraestructuras digitales, los procesos económicos y los marcos gubernamentales de las plataformas en diferentes sectores económicos y esferas de la vida” (Poell et al., 2019: 6).
La explosión de asistentes de IA en la primera mitad de 2024 aplicados a procesadores de texto, planillas de cálculo, motores de búsqueda (Copilot, Gemini), a aplicaciones de chat como WhatsApp, a redes sociales como Instagram (LlaMa) o X (Grok), y en sistemas operativos (OS) para diversos hardwares como computadoras o smartphones (por ejemplo, Copilot o Galaxy AI) demuestra lo relevante que resulta para estas empresas el entrenamiento por parte de usuarios individuales buscando mejorar la performance de estos sistemas. También obliga a pensar en los enormes y eclécticos volúmenes de datos que procesan estos sistemas y en la profundización del perfil de usuario que este uso provoca. Chat GPT 4-o, por ejemplo, está diseñado para reconocer el entorno en el que se encuentra el usuario e incorporar conocimiento acerca de las preferencias y hábitos del usuario que se mantienen y recuerdan en la performance del GPT de manera local. Lo que Zuboff (2020) denomina “excedente conductual” llevado a un nivel más profundo. Ese es un nuevo escalón en la gubernamentalidad algorítmica entendida como “cierto tipo de racionalidad (a)normativa o (a)política que reposa sobre una recolección, agregación y análisis automatizado de datos en cantidades masivas de modo que se pueda modelizar, anticipar y afectar, por anticipación, los comportamientos posibles” (Rouvroy y Berns, 2015, p. 41).
La concentración de actores encargados de desarrollar transformers, tanto en términos de programación como de entrenamiento y fabricación de hardware, abona la principal preocupación en torno a los dos ejes: la profundización de los alcances de la gubernamentalidad algorítmica y la inevitable formación de burbujas epistémicas. Actualmente, son pocas las empresas que desarrollan y entrenan transformers y prácticamente nulos los desarrollos por parte de Universidades, o centros de investigación de carácter público. Algunas de ellas son la Universidad del Sur de California y Georgia Tech. La National Science Foundation también realizó en 2024 fuertes inversiones en siete Institutos Nacionales de Investigación en Inteligencia Artificial recientemente establecidos en todo Estados Unidos, pero los volúmenes de dinero invertido son muy bajos en comparación con el mundo privado. En el universo privado, las más reconocidas son OpenAI (GPT), Microsoft (Copilot); Meta (Llama 3), Google (Gemini), X AI (Grok) y Apple (Apple Intelligence), todas ellas en asociación con el principal proveedor de Graphic Processor Units (GPUs), NVIDIA e Intel, entre otras. Vale aclarar que algunas empresas utilizan código de fuente abierto, como Meta (Llama), Hugging Face (BLOOM), Anthropic (Claude), Cohere (Command), Mistral (Mistral Large), DataBricks (DBRX) y Perplexity (PPLX), la cual, además, funciona con conexión online a la web abierta. Luego se encuentra el ecosistema oriental, principalmente Chino y Taiwanés, conformado por empresas como 01 Ai (Yi Series), H3C (ex Huawei), Inspur (Yuan) y Alibaba (Tongyi Qianwen), entre otras. En enero de 2025 el presidente reelecto Donald Trump anunció el proyecto Stargate, una alianza entre Open AI, el Soft Bank y Oracle. Se planea una inversión de hasta 500 mil millones de dólares en Estados Unidos para 2029. Actualmente, se encuentra avanzando un ambicioso proyecto de infraestructura, valorado en 100.000 millones de dólares, destinado a convertirse en uno de los mayores clústeres conocidos de potencia computacional de inteligencia artificial. El proyecto tendrá espacio para hasta 400.000 chips de IA de Nvidia en su primer complejo de centros de datos. Mientras esto ocurría, la empresa china, DeepSeek irrumpió en febrero de 2025 con su modelo R1, generando una crisis en el valor de las empresas norteamericanas encargadas de la fabricación de GPUs al probar que con una mejor arquitectura (combinación de sistemas expertos) se necesitaba una ínfima capacidad de procesamiento, esto es, menos GPUs, el principal componente y condicionante económico de esta tecnología.
Así es que los procesos de asociaciones estratégicas resultan vitales para este nuevo mercado. Entre 2022 y 2025 Microsoft incorporó los servicios de OpenAI a sus productos ofreciendo hosting en Azure, su nube; Apple cerró tratados con Open AI para asistir a Siri, su asistente de voz, en sus búsquedas de imágenes; Google hizo lo propio con Samsung AI al ofrecerle sus servicios de Google Lens, y NVIDIA firmó acuerdos comerciales para la producción de GPUs con Meta y X, por nombrar algunos ejemplos.
Los costos sociales y económicos de esta concentración configuran un problema global que sustenta la lógica económica de la extracción de datos que controla la vida de los consumidores occidentales (Couldry y Mejias, 2019). Esta concentración por acumulación -de hardware, insumos, tráfico y acumulación de datos y capacidades de entrenamiento- conlleva más retos que los exclusivamente vinculados con la acumulación excesiva y el procesamiento de la vida social en niveles nunca observados. Esto es, no sólo con fines comerciales y publicitarios, sino también con marcadas consecuencias epistémicas. Entrenar Transformers es extremadamente caro y consume niveles de energía y agua potable elevados. Luccioni (2024) sostiene que, para la generación de 1000 imágenes, los modelos de IA de texto a imagen como DALL-E requieren 1.5 litros de agua por kiloWatt de energía consumida. Además, el promedio de emisiones de CO2 per cápita es de aproximadamente 5 toneladas al año, mientras que el entrenamiento de un modelo Transformer (grande) con búsqueda de arquitectura neuronal emite 284 toneladas de CO2. Entrenar un único modelo base (sin ajuste de hiperparámetros) en GPUs requiere tanta energía como un vuelo transamericano (Strubell et al., 2020). Y si bien parte de esa energía proviene de fuentes renovables o del uso de créditos de compensación de carbono por parte de empresas de computación en la nube, la mayoría de la energía de los proveedores de computación en la nube no proviene de fuentes renovables, lo que subraya la necesidad de arquitecturas de modelos y paradigmas de entrenamiento energéticamente eficientes.
Además, la disrupción y la innovación en la búsqueda no son gratuitos en términos monetarios. Los costos de entrenar un LLM son muy altos. Más importante aún, los costos de inferencia superan con creces los costos de entrenamiento cuando se implementa un modelo de estas características. De hecho, los costos de inferencia de ChatGPT superan los costos de entrenamiento semanalmente. Dylan Patel, analista jefe de la firma de investigación SemiAnalysis relevó en un informe de 2023 que a Open AI le cuesta 0.36 centavos de dólar por consulta mantener su chatbot en funcionamiento. Es decir que estas empresas son conscientes de que el avance de estos modelos aplastará las ganancias generadas por venta de publicidad, por ejemplo, en los motores de búsqueda, en un plazo muy corto. De allí que estén trabajando contrarreloj por incorporar IA a todos sus productos de cara a generar una mejora de sus modelos, reducir la latencia y aumentar la perfilización de usuarios por otros medios. Quien mejor y más rápido integre la IA, gana. Quien más rápido genere path dependance en sus usuarios, logrará imponer sus productos y servicios con mayor eficiencia. Algunos estudios de insight de audiencias ya están observando que la implementación de AI en motores de búsqueda como Gemini en Google o Copilot en Bing, ha alterado la cantidad de búsquedas que realizan los consumidores, la cantidad de resultados en los que hacen click o la cantidad de tráfico que Google envía a la web abierta o a enlaces patrocinados tanto en la Unión Europea como en Estados Unidos, afectando su rentabilidad y su modelo de negocios.
Todo lo expresado anteriormente profundiza los efectos negativos de la denominada burbuja epistémica. Un efecto que hace que la información transmitida, repetida y elaborada genere un sistema amplificado de ideas y creencias en el que se omiten concepciones o perspectivas distintas a las del usuario (An et al., 2014). Siguiendo a Nguyen (2020), es una estructura epistémica social en la que algunas voces relevantes han sido excluidas por omisión. Las burbujas epistémicas pueden formarse sin mala intención, a través de procesos ordinarios de selección social y formación de comunidades -lo que supone que la cooperación epistémica se está haciendo cuando los sujetos se comunican entre sí-, pero también a través de la exclusión de determinados grupos o personas, o mediante la creación intencionada de entornos institucionales que llevan a los individuos a aceptar una perspectiva como la única viable. Esto último es lo que podría estar en desarrollo a partir de la integración de LLMs a las plataformas. En Internet, el contenido en inglés domina más de la mitad de todo el contenido escrito en línea, a pesar de que sólo alrededor del 16% de la población mundial habla este idioma de acuerdo con la Internet Society Foundation. Existen en el mundo más de 7.100 idiomas según el catálogo de Ethnologue. Llama 3.1 de Meta funciona sólo en 8 idiomas a julio de 2024; Gemini 1.5 Flash está disponible en 40 idiomas, el GPT de Open AI, en su versión más avanzada, funciona en 50 idiomas y en algunos países como China, Rusia, Irán y otros del continente Africano tiene un uso restringido o limitado. Escenario muy alejado del “círculo virtuoso de las IA” que anuncian empresas como Nvidia, por la cual cualquier aplicación que utilice datos de texto, imagen o video secuenciales es un candidato para los modelos de transformers.
Aunque investigar las propiedades de los modelos de lenguaje y cómo cambian con su tamaño tiene un interés científico, y los grandes LLMs han mostrado mejoras en varias tareas, no se ha reflexionado lo suficiente sobre los posibles riesgos asociados con su desarrollo e integración en plataformas y las estrategias para mitigarlos o frenarlos a tiempo. Habrá que observar de qué manera las empresas invierten, o no, en recursos para la curaduría y documentación cuidadosa de los conjuntos de datos en lugar de ingerir todo lo que está en la web, reduciendo el riesgo de “los loros estocásticos” y, por ende, los efectos de la burbuja epistémica. “La tendencia humana a atribuir significado al texto, junto con la capacidad de los grandes modelos de lenguaje para aprender patrones asociados con diversos sesgos y actitudes perjudiciales, presenta riesgos de daño real si se difunde texto generado por estos modelos” (Bender et al. 2021, p. 618). Los peligros del texto sintético están profundamente relacionados con el hecho de que dicho texto puede entrar en conversaciones sin que ninguna persona o entidad asuma la responsabilidad. También pueden tener “alucinaciones” generando contenido inexistente presentado como real. Esta responsabilidad incluye tanto la veracidad como la importancia de contextualizar el significado. Es por ello, que considerar poner a prueba previo a la salida al mercado masivo estos modelos con una importante intervención humana en todas sus fases será muy importante de cara a evaluar cómo la finalidad del modelo se ajusta a los objetivos de investigación y desarrollo y apoya los valores establecidos (Bender et al., 2021).
La velocidad con la que se implementan nuevos desarrollos en IA resulta difícil de seguir para quienes realizan investigación en el área. Más que nunca existe una necesidad de comprender en mayor profundidad cómo funciona la plataformización y de crear nuevos imaginarios que ayuden a reformular los marcos de gobernanza compartimentados en un enfoque más holístico (Van Dijck, 2021). La creciente delegación de procesos cognitivos a las tecnologías asociadas con la IA muestra ser un problema acuciante en nuestras sociedades, no sólo por la creación de burbujas epistémicas sino porque amplifica desigualdades y genera sesgos raciales y discriminatorios difíciles de contrarrestar con igual velocidad y potencia. Será tarea de la academia y de los investigadores implicados en estos desarrollos afinar la mirada crítica y dedicarse a comprender estos fenómenos con la mayor especificidad posible.
Referencias bibliográficas:
An, L.; Quercia, D.; Crowcroft, J. (2014). Partisan sharing: Facebook evidence and societal consequences. En Proceedings of the Second ACM Conference on Online Social Networks http://cosn.acm.org/2014/files/cosn033f-anAembTS.pdf
Bender, E., Gebru, T., McMillan-Major,A. and Mitchell, M. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. En Conference on Fairness, Accountability, and Transparency (FAccT ’21), March 3–10, 2021, Virtual Event, Canada. ACM, New York, NY, USA, 14 pages. https://doi.org/10.1145/3442188.3445922
Costa, F. (2017). Omnes et singulatim en el nuevo orden informacional. Gubernamentalidad algorítmica y vigilancia genética. Poliética, 5(1), 40-73.https://revistas.pucsp.br/PoliEtica/article/view/36356
Couldry, N., Mejias, U.A. (2019). Data colonialism: rethinking big data’s relation to the contemporary subject. Television & New Media 20(4): 336–349. https://journals.sagepub.com/doi/abs/10.1177/1527476418796632
Gillespie, T. (2018). Custodians of the Internet. Yale University Press.
Latour, B. (1999). “On Recalling ANT.” In Actor Network Theory and After, Ed. J. Law and J. Hassard. Blackwell.
Luccioni, S., Jernite, Y., & Strubell, E. (2024, June). Power hungry processing: Watts driving the cost of AI deployment?. En The 2024 ACM Conference on Fairness, Accountability, and Transparency (pp. 85-99).https://dl.acm.org/doi/abs/10.1145/3630106.3658542
Nguyen, C. T. (2020). Echo chambers and epistemic bubbles. Episteme, 17(2), 141-161.https://www.cambridge.org/core/journals/episteme/article/echo-chambers-and-epistemic-bubbles/5D4AC3A808C538E17C50A7C09EC706F0
Patel, D, & Afzal, H. (2023). The Inference Cost Of Search Disruption – Large Language Model Cost Analysis. https://www.semianalysis.com/p/the-inference-cost-of-search-disruption
Poell T, Nieborg D, Van Dijck J (2019) Concepts of the digital society: platformisation. Internet Policy Review 8(4). https://doi.org/10.14763/2019.4.1425
Strubell, E., Ganesh, A., & McCallum, A. (2020). Energy and policy considerations for modern deep learning research. En Proceedings of the AAAI conference on artificial intelligence. 34(9), pp. 13693-13696 .https://ojs.aaai.org/index.php/AAAI/article/view/7123
Van Dijck, J. (2021). Seeing the forest for the trees: Visualizing platformization and its governance. New Media & Society, 23(9), 2801-2819. https://doi.org/10.1177/1461444820940293 Zuboff, S. (2020). La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder. Paidós Ibérica.
Acerca de la autora / Agustina Lassi

Licenciada en Comunicación Social (Universidad Nacional de la Matanza). Magister en Periodismo (UBA). Docente-Investigadora en Comunicación en la Universidad Nacional Arturo Jauretche y en las universidades nacionales de La Matanza y Almirante Brown