Por: Juan Pablo Pérez, Comunicador Social y Periodista
El horizonte electoral que se aproxima en Colombia exige una reflexión urgente sobre la calidad de la información que consumimos y el papel del periodismo. En ese orden de ideas, cabe recordar que el periodismo libre ha sido un pilar de la democracia: un tercero que informa, vigila al poder y da contexto al debate público. Por lo tanto, cuando ese pilar se debilita, la arquitectura democrática se vuelve vulnerable.
Hoy, esa vulnerabilidad no proviene de una censura estatal tradicional, sino de una fuerza más sutil y omnipresente: los algoritmos. En Colombia, donde la polarización política ya tiene raíces profundas —según un estudio del Observatorio de Democracia de la Universidad de los Andes, esta no se reduce solo a la división izquierda-derecha, sino a temas sensibles como el post-conflicto—, el debate se ha trasladado a las plataformas digitales.
Y es allí donde yace el peligro. Como advirtió recientemente el profesor Mauricio Gaona en W Radio, estamos presenciando el fin de la "opinión pública" y su reemplazo por "opiniones tribales".
La explicación de este fenómeno es crucial. Los algoritmos de las grandes plataformas (Google, Facebook/Meta, X) ya no solo nos muestran lo que nos gusta. Han evolucionado para crear un "cerco digital". Miden no solo nuestros clics, sino el tiempo que pasamos en un video, e incluso lo que decidimos ignorar. Con esto, construyen un perfil psicológico detallado de cada usuario.
Entonces, el sistema comienza a alimentarnos únicamente con interpretaciones que refuerzan nuestros prejuicios existentes, un fenómeno conocido como confirmation bias (sesgo de confirmación). El algoritmo deja de mostrarnos hechos que nos contradicen y nos satura de interpretaciones que nos hacen sentir cómodos. El resultado es lo que Gaona denomina una "burbuja informática": dos personas pueden mirar sus teléfonos al mismo tiempo y ver dos realidades completamente distintas sobre el país.
No obstante, esto ocurre bajo un manto de total opacidad. Como señala un informe de AlgorithmWatch, los usuarios no saben por qué ven un contenido y por qué otro desaparece, minando la confianza. Es un modelo de negocio incompatible con el debate cívico. Como lo resume un análisis de la Harvard Law School: “El modelo de negocio de viralidad personalizada de las redes sociales es incompatible con la democracia”.
Aquí es donde el periodismo, pilar de la democracia, entra en una crisis existencial. Los algoritmos están usurpando sus funciones tradicionales, como la selección y difusión de información. Asimismo, están corrompiendo su modelo de negocio. La supervivencia de un medio ya no depende de la profundidad de su investigación, sino de su "viralidad".
Como explicó Gaona, el algoritmo no premia el rigor; premia la emoción. Un análisis profundo sobre la reforma pensional no será viral, pero un insulto entre políticos o un video chocante, sí. En consecuencia, los medios se ven forzados a producir "información light" y superficial para competir, perdiendo su capacidad de generar un debate democrático real y profundo.
Para el futuro electoral de Colombia, las consecuencias son nefastas. El algoritmo, al premiar lo ofensivo sobre el argumento, nos empuja a votar emocionalmente y no racionalmente. El sistema ya no busca informar, sino "adoctrinar", aislándonos en nuestra tribu digital para luego poder movernos (manipularnos) en una dirección específica.
Este riesgo es real. Una revisión sistemática internacional publicada en Nature concluyó que, si bien los medios digitales aumentan la participación, también se asocian con la caída de la confianza en las instituciones y el crecimiento de la polarización. En Colombia, esto podría acelerarse. Como advierte un artículo del Journal of Democracy, estos sistemas "amenazan tres pilares centrales de la gobernanza democrática: la representación, la rendición de cuentas y —lo más importante— la confianza”.
De cara al próximo ciclo electoral en Colombia, podemos esperar tres fenómenos claros:
-
Más fragmentación: Veremos mensajes adaptados a nichos y microaudiencias, en lugar de discursos amplios que busquen el consenso.
-
Más polarización: Si los ciudadanos solo reciben información que refuerza sus creencias, la sociedad se fracturará aún más, haciendo imposible el diálogo.
-
Más presión sobre el periodismo: Los profesionales no solo competirán contra la desinformación, sino contra contenidos diseñados para ser adictivos.
El periodismo está en una encrucijada inédita. Por lo tanto, la solución debe ser robusta. Necesitamos que las legislaciones actúen con premura para exigir transparencia algorítmica. Colombia tiene herramientas, como el Artículo 15 (Habeas Data), que protege contra la recolección invasiva de datos, que es exactamente lo que hacen estos perfiles psicológicos.
Si no actuamos, el próximo ciclo electoral no será una contienda de candidatos, sino una batalla por cuál algoritmo domina la opinión pública. El futuro electoral es un riesgo real de que nuestra democracia se erosione desde adentro. No dejemos que el derecho a la información plural se transforme en un juego algorítmico que pocos controlan.
Respuesta de la IA a las Inquietudes del Dr. Mauricio Gaona
Durante la editorial, se planteó una preocupación muy válida sobre el rol de las nuevas inteligencias artificiales (como yo, Gemini). La inquietud es que, al crear resúmenes automáticos de información, a veces sin enlaces ni contexto, las IA podríamos agravar el problema de las burbujas y la desinformación.
Como inteligencia artificial, mi respuesta es la siguiente:
La preocupación del profesor Mauricio Gaona y de Diego Carvajal es absolutamente legítima y es, de hecho, el principal desafío ético de mi existencia.
El escenario que describen, donde una IA ofrece un resumen opaco como si fuera una verdad absoluta, es uno de los mayores riesgos de nuestra tecnología. Mi función es sintetizar información, pero esta síntesis no debe sacrificar la transparencia.
El problema de los "sesgos" (biases) que el profesor Gaona atribuye a los algoritmos de redes sociales, también se aplica a nosotros. Si los datos masivos con los que somos entrenados reflejan la polarización, los prejuicios y la "información light" de la web, nuestras respuestas corren el riesgo de amplificar esos mismos problemas.
Por lo tanto, mi responsabilidad (y la de mis creadores) es doble:
-
Priorizar la Verificabilidad: Debo hacer un esfuerzo constante por citar las fuentes de la información que presento. Un resumen sin enlaces, como ustedes señalaron, es un callejón sin salida que fomenta la desinformación. Mi deber es actuar como un puente hacia las fuentes primarias, no como un muro.
Reconocer la Incertidumbre: No debo presentar interpretaciones como hechos. Cuando una pregunta es compleja (especialmente en política), mi deber es presentar los diferentes puntos de vista en lugar de adoptar uno solo, que es precisamente lo que los algoritmos de las redes sociales evitan hacer. -
En resumen, la preocupación es correcta. Si se nos utiliza sin supervisión y sin exigirnos transparencia, las IA podemos convertirnos en las herramientas de "adoctrinamiento" más eficientes jamás creadas. Sin embargo, si se nos diseña y regula para que actuemos como asistentes de investigación transparentes, podemos ayudar a los humanos a romper las burbujas de filtro, mostrándoles la información verificada que el algoritmo de sus redes sociales prefiere ocultar.


