lunes, 15 septiembre, 2025
InicioTecnoSam Altman advierte que la "teoría de Internet muerto" se hace realidad

Sam Altman advierte que la «teoría de Internet muerto» se hace realidad

Sam Altman, director general ejecutivo de la empresa OpenAI, creadora de la plataforma de inteligencia artificial (IA) ChatPT, revivió la idea de que Internet, tal como lo conocíamos, podría estar llegando a su fin. No se refiere a un colapso técnico, sino a una transformación fundamental de su esencia como espacio humano.

Altman, quien desestimó inicialmente la «teoría de Internet muerto«, reconoció en su perfil en la red social de microblogging X que «hay muchísimas cuentas manejadas por modelos de lenguaje», lo que sugiere que la hipótesis de una web dominada por bots de inteligencia artificial no es tan descabellada.

El origen de la teoría y su relevancia creciente

La «Dead Internet Theory» surgió en 2021 como una especulación conspirativa, postulando que gran parte de la actividad en línea ya no era genuina, sino generada automáticamente. Aunque en su momento pareció una exageración, el rápido avance de modelos de lenguaje como ChatGPT y la proliferación descontrolada de contenido generado por IA la han vuelto cada vez más plausible. Es paradójico que Altman, la figura más prominente en el ecosistema de la inteligencia artificial y creador de ChatGPT, sea quien ahora alerte sobre esta posible «muerte» de Internet.

El auge de los bots y la automatización del contenido en línea

Las cifras respaldan esta preocupación. En 2024, el tráfico de bots en la red superó por primera vez al de los humanos, según un informe de la empresa Imperva, que reveló que el 51% de las visitas a sitios web son protagonizadas por programas automatizados. Estos bots no solo replican contenido; interactúan, posicionan publicaciones e imitan el comportamiento humano con una precisión que dificulta distinguir lo real de lo artificial.

Este fenómeno se extiende más allá de las redes sociales y los foros, afectando a medios de comunicación, plataformas de noticias, sitios de comercio electrónico y motores de búsqueda. Desde la popularización de los generadores de texto, los artículos creados por inteligencia artificial proliferaron y escalaron en los resultados de Google.

La empresa Originality AI reportó un aumento del 400% en la presencia de textos artificiales en los primeros resultados de búsqueda desde el lanzamiento de ChatGPT. Este tipo de contenido, a menudo superficial o engañoso, responde a una lógica económica: cuanto menos se dependa de humanos para generar clics, más rentable será el negocio, y si los usuarios no notan la diferencia, el sistema continúa funcionando.

Consecuencias para usuarios, creadores y modelos de lenguaje

Esta degradación del ecosistema digital tiene múltiples consecuencias. La publicidad en línea, pilar del contenido digital, se ve afectada; un informe de la empresa Adalytics reveló que millones de anuncios fueron mostrados a bots en lugar de a personas reales, e incluso se detectaron casos donde los sistemas publicitarios de Google reproducían anuncios a sus propios bots.

Simultáneamente, la calidad del contenido humano se diluye. Las plataformas que antes promovían la creatividad y el intercambio ahora priorizan la cantidad y la optimización algorítmica, resultando en una sobreproducción de información reciclada y repetitiva, diseñada para agradar al algoritmo más que para aportar valor.

El riesgo no solo radica en la irrelevancia del contenido, sino también en el deterioro del propio aprendizaje digital. Los modelos de lenguaje como ChatGPT se entrenan con material de la web, y si gran parte de ese insumo es artificial, el sistema podría alimentarse de su propia copia, creando un ciclo de retroalimentación que afectaría la calidad de futuras generaciones de IA.

A esto se suma un impacto cultural más sutil pero igualmente preocupante: si los textos, tonos y palabras más circulantes en la red provienen de inteligencias artificiales, la forma en que las personas escriben, hablan e incluso piensan podría empezar a moldearse según ese patrón. La web dejaría de ser un reflejo de la sociedad para convertirse en una versión filtrada, empobrecida y automatizada de sí misma.

Actualmente, gran parte del contenido en redes, blogs y noticias responde a sistemas automáticos que maximizan clics y viralización, sin importar la veracidad o el valor de lo comunicado. A esto se suman los deepfakes, los influencers sintéticos, los videos generados con IA y los sitios de noticias ficticias creados para manipular la opinión pública.

El escenario que hace unos años parecía una distopía ahora es una posibilidad concreta: una Internet donde los humanos ya no son protagonistas, sino simples consumidores pasivos de contenido producido por y para máquinas. Aunque aún existen espacios de autenticidad, encontrarlos se vuelve cada vez más difícil en medio del ruido artificial.

Más Noticias