
¿Cómo juega el algoritmo?
En buena parte de América Latina, la política ya no se discute sólo frente al televisor o en la mesa del domingo. Se discute en la pantalla del celular. Ahí se pelean por una reforma, se comentan elecciones, se denuncian abusos y se organizan marchas. Desde afuera parece libertad total: cualquiera escribe, cualquiera comparte. Pero lo que realmente ve cada usuario está filtrado por sistemas automáticos que trabajan en silencio y deciden qué sube a la superficie y qué se hunde en el fondo del feed.
Entre los más jóvenes, acostumbrados a los videojuegos y al azar controlado de los casinos en línea, la comparación sale sola. Para ellos, publicar una opinión política se parece un poco a jugar en plataformas de juego y casino online como whalebet.casino : hay una apuesta, hay reglas que no siempre se ven y hay un sistema que decide cuándo se gana visibilidad y cuándo se pierde. La diferencia es que, en las redes, la “ficha” que se arriesga no es dinero virtual, sino alcance, reputación y, muchas veces, voz pública.
La máquina que decide qué se muestra y qué no
Las grandes plataformas insisten en que sus algoritmos están ahí para proteger: para frenar el odio, las amenazas directas, la incitación a la violencia o las campañas de desinformación más burdas. Para eso entrenan modelos de inteligencia artificial capaces de revisar millones de mensajes, imágenes y videos en tiempo récord.
Pero América Latina es una región de ironías, dobles sentidos y lenguajes cruzados. Lo que para un modelo entrenado en otro contexto parece agresivo, para una comunidad puede ser sólo un chiste interno o una forma intensa de reclamar derechos. El resultado es que muchas publicaciones políticas terminan tratadas como “peligrosas” cuando, en realidad, forman parte de un debate legítimo.
Aunque las empresas no abren completamente la caja negra de sus sistemas, sí se sabe que los algoritmos suelen fijarse en:
- Palabras clave vinculadas a temas sensibles: elecciones, seguridad, narcotráfico, protestas, nombres de líderes.
- Imágenes y símbolos que la IA aprendió a asociar con grupos extremistas o mensajes violentos.
- Patrones de comportamiento: cuentas que publican demasiado sobre un mismo asunto, que etiquetan a muchos usuarios o repiten consignas.
- Reacciones de otros: denuncias masivas, bloqueos coordinados o picos repentinos de actividad alrededor de un perfil o hashtag.
- Cuando varias de estas señales se combinan, la máquina baja el alcance, esconde el post o directamente suspende la cuenta. Y quien está del otro lado recibe, con suerte, un mensaje genérico sobre “violación de normas”, sin una explicación clara de qué fue lo que traspasó la línea.
Lo que se apaga cuando el algoritmo se equivoca
En muchos países de la región no sobran medios locales fuertes, ni redacciones enormes cubriendo cada barrio. Por eso, grupos vecinales, radios comunitarias, periodistas independientes y organizaciones chiquitas dependen de las redes para contar lo que pasa en la esquina: un desalojo, una obra mal hecha, un conflicto ambiental, un caso de violencia institucional.
Cuando un algoritmo confunde esas denuncias con propaganda agresiva o contenido “peligroso” y las esconde, se apagan justamente las voces que tenían menos volumen de entrada. Eso se nota en cosas concretas:
- Colectivos que empiezan a suavizar su lenguaje por miedo a perder la cuenta o la monetización.
- Desconfianza creciente hacia las plataformas, con sospechas de favoritismo hacia ciertos partidos o figuras.
- Ventaja para los actores con más recursos, que pueden pagar campañas, entender mejor las reglas y adaptarse rápido a cada cambio de algoritmo.
- Problemas locales que quedan tapados por contenidos más “neutros” o más fáciles de “digerir” para la IA, como entretenimiento o noticias internacionales.
Al mismo tiempo, quienes sí buscan manipular el debate político aprenden a moverse entre las grietas. Cuentas falsas, redes de bots y campañas coordinadas cambian palabras, esconden mensajes en memes, se disfrazan de humor o entretenimiento. La IA, a veces, deja pasar esos contenidos y se ensaña con usuarios reales que sólo intentan discutir su realidad.
Reclamos de transparencia y caminos alternativos
Ante este panorama, en distintos países latinoamericanos aparecen las mismas preguntas: ¿quién modera al moderador? ¿Cómo se apela cuando la sanción viene de una máquina? Organizaciones de derechos digitales, periodistas y académicos piden, al menos, tres cambios básicos: más transparencia, más datos públicos y más revisión humana en los casos dudosos.
También crece una especie de “autodefensa digital”. En talleres en universidades, centros culturales, radios y sindicatos se enseña a la gente a:
- Reconocer que una caída brusca de alcance puede no tener que ver sólo con la calidad del contenido, sino con ajustes de algoritmos.
- Guardar copias de publicaciones importantes y difundirlas por más de una vía, incluyendo boletines, radios locales o mensajería directa.
- No depender de una única plataforma y diversificar: combinar redes grandes con proyectos propios, blogs, canales de video o listas de correo.
En paralelo, algunos medios independientes y colectivos sociales experimentan con espacios digitales donde la IA ayuda, pero no manda. Allí, la moderación la hacen equipos que conocen el contexto político y cultural, que entienden el tono de un meme, la ironía de un tuit o la desesperación detrás de una denuncia.
La discusión sobre la censura por algoritmos en América Latina recién está empezando. No se trata de demonizar la tecnología, ni de pedir que se permita todo, sino de asumir que, detrás de cada modelo de IA, hay decisiones humanas sobre qué se ve y qué no. Para cualquier persona que quiera opinar de política desde un teléfono, aprender a sospechar un poco del feed, a mirar qué quedó afuera de la pantalla y a buscar caminos alternativos para hacerse oír, ya forma parte del ejercicio cotidiano de la ciudadanía.

