Publicado 09/09/2025 07:18

Sam Altman (OpenAI) culpa a los 'bots' de que las redes sociales y plataformas de Internet ofrezcan experiencias falsas

Un bot en una conversación con una persona.
Un bot en una conversación con una persona. - FREEPIK

   MADRID, 9 Sep. (Portaltic/EP) -

   El director ejecutivo de OpenAI, Sam Altman, ha afeado el papel de los 'bots' en las redes sociales y foros de Internet, culpándolos de convertir estos espacios en una experiencia "falsa", al ser imposible determinar si las publicaciones están escritas por humanos o se trata de contenido sintético.

   El CEO de la compañía de inteligencia artificial (IA) ha reflexionado sobre la evolución las interacciones en las redes sociales e Internet, teniendo en cuenta cómo han entrado en juego los grandes modelos de lenguaje (LLM) y la intervención de los 'bots'.

   En concreto, en una publicación en la red social X, Altman se ha referido a publicaciones recientes del foro subreddit r/ClaudeCode, que le resultaron llamativas porque se compartían opiniones positivas sobre OpenAI Codex, el servicio de programación de 'software' que la compañía lanzó en mayo y que compite con Claude Code de Anthropic.

   En las publicaciones mencionadas, los usuarios incluso indican que pasaban de utilizar Code a Codex, sin embargo, Altman ha detallado que leer el foro le resultó "una experiencia muy extraña" y que supuso que todo eran publicaciones falsas o 'bots', aunque ha reconocido que el crecimiento de Codex "es muy fuerte".

   Bajo este ejemplo, el directivo ha comentado que hay varias cuestiones que hacen que esta experiencia en Reddit, al igual que otras en Internet, le parezcan falsas. En primer lugar, ha manifestado que las personas han adoptado "las peculiaridades del lenguaje de los LLM" y, ahora, escriben de forma muy similar en sus publicaciones.

   Este cambio en el comportamiento humano ha ocurrido a pesar de que los LLM, por ejemplo los liderados por OpenAI, han sido ideados precisamente para lo contrario, como es imitar la comunicación humana.

   Además, también ha indicado que el público 'Extremely Online', esto es, aquellos usuarios que están constantemente conectados y activos en Internet, "se reúnen de maneras muy correlacionadas", lo que puede conllevar a comportamientos alterados, con conductas extremas de "ya está pasado de moda/está de vuelta".

   Otro factor que ha apuntado Altman es la presión que sienten los usuarios a causa de los incentivos de las redes sociales para "aumentar la participación y la forma relacionada en que funciona la monetización". Por ejemplo, los creadores de contenido dependen de la interacción con otros perfiles para generar ingresos. Esto puede ocasionar que se busquen nuevas formas de generar interacciones, no necesariamente humanas.

   Siguiendo esta línea, el CEO de OpenAI también ha alegado que, parte de su razonamiento de que las citadas publicaciones de Reddit son falsas, se basa en que OpenAI también ha sufrido 'astroturfing', la práctica engañosa de orquestar campañas y mensajes de bots para hacerlos parecer como interacciones espontáneas, pero que en realidad están financiados y controlados por una entidad oculta.

   Por tanto, Altman deja ver que la presencia de 'bots' impulsados por LLM en las redes sociales y plataformas de Internet ha conseguido cambiar la forma de interaccionar entre los usuarios, que ahora adoptan otro tipo de comportamientos para convivir en un espacio en el que las publicaciones falsas están a la orden del día.

   Cabe destacar que, Altman también compartió recientemente en otra publicación en X que, aunque nunca había tomado en serio la teoría del Internet muerto, "parece que ahora hay muchas cuentas de Twitter administradas por LLM". Esta teoría plantea que, durante los últimos años, la red dejó de estar dominada por personas para pasar a estarlo por algoritmos y sistemas de IA.

   Con todo, la reflexión del CEO de OpenAI ha resultado llamativa dada su implicación en la creación de tecnología de IA que impulsa estos LLM en los que se basan los 'bots' para funcionar. Reconociendo que la línea entre las interacciones humanas o de 'bots' en las redes sociales se ha difuminado.

   "El efecto final es que, de alguna manera, Twitter/Reddit con IA se siente muy falso, de una forma que realmente no ocurría hace un año o dos", ha sentenciado Altman.

Contador