Las plataformas de redes sociales y los servicios de contenido en streaming han comenzado a ofrecer a los usuarios algunas opciones para personalizar las recomendaciones que reciben. Sin embargo, estas herramientas apenas representan un control parcial y no solucionan los problemas estructurales del funcionamiento de los algoritmos ni su capacidad real para reflejar los intereses de cada persona.
El algoritmo de recomendación es un sistema automatizado basado en inteligencia artificial que selecciona contenidos a partir del comportamiento del usuario dentro de la plataforma. Acciones como los clics, el tiempo de visualización de un vídeo, las canciones reproducidas o los “me gusta” sirven como señales para predecir qué contenidos podrían captar su atención.
Este tipo de tecnología es clave en plataformas como Instagram, TikTok, Netflix, Spotify o YouTube, donde las recomendaciones buscan mantener al usuario activo el mayor tiempo posible y fomentar su regreso constante. No obstante, el control sobre lo que aparece en estas sugerencias suele ser limitado.
Aunque los usuarios pueden borrar su historial, marcar contenidos como irrelevantes o mostrar preferencia por ciertos temas, estas acciones no garantizan resultados precisos. De hecho, basta con detenerse unos segundos en un contenido ajeno a los intereses habituales o hacer un solo clic accidental para que el sistema modifique drásticamente las recomendaciones, anulando esfuerzos previos de personalización.
En los últimos meses, varias plataformas han comenzado a probar nuevas funciones de ajuste. Pinterest, por ejemplo, permite activar o desactivar categorías relacionadas con contenidos generados por inteligencia artificial. TikTok ha ampliado su barra de control de temas, con la que se puede indicar si se desea ver más o menos contenido sobre determinadas áreas, incluyendo ahora material creado por IA.
Instagram, por su parte, permitirá a los usuarios seleccionar temas —sugeridos por la inteligencia artificial o introducidos manualmente— para influir en la frecuencia con la que aparecen los reels. Threads ha optado por una fórmula más directa, permitiendo solicitarle al algoritmo que aumente o reduzca ciertos temas mediante el comando “Dear Algo”.
Spotify también se ha sumado a esta tendencia con pruebas de listas de reproducción configurables mediante instrucciones escritas, además de su llamado “perfil de gusto”, que permite eliminar canciones o listas que no se ajustan a las preferencias del usuario.
Un sistema diseñado para retener la atención
La falta de un control real sobre los algoritmos de recomendación es una de las críticas más frecuentes a estas plataformas. Estos sistemas están diseñados para ofrecer contenido de forma continua, ya sea mediante listas que se renuevan constantemente o a través de un flujo infinito que obliga a deslizar la pantalla sin fin.
Este diseño ha dado lugar al fenómeno conocido como doom scrolling, una conducta compulsiva que puede provocar agotamiento mental, ansiedad y sensación de culpa por el tiempo invertido. Los efectos son especialmente preocupantes entre adolescentes, grupo en el que se han detectado problemas de adicción, trastornos de imagen corporal, disminución de la concentración y deterioro de las habilidades sociales.
Un estudio reciente señala que en España los usuarios pierden, de media, casi dos días al mes desplazándose sin rumbo por redes sociales, principalmente mientras están en la cama, viendo series o incluso en el baño.
Como respuesta parcial, las plataformas han implementado avisos de tiempo de uso, controles parentales y cuentas específicas para menores, con el objetivo de involucrar a los adultos en el consumo digital de los más jóvenes.
No obstante, investigaciones también han advertido que los algoritmos pueden recomendar contenidos que infringen las normas internas de las plataformas, como desinformación o mensajes de odio, los cuales pueden consumirse de forma intensiva sin que el usuario sea plenamente consciente.
Ante el volumen de datos que manejan y su impacto en la sociedad, desde hace años se exige a las grandes tecnológicas una mayor transparencia sobre cómo funcionan sus algoritmos, qué factores influyen realmente en las recomendaciones y cómo se entrenan estos sistemas. Las denuncias por sesgos ideológicos, raciales o culturales continúan siendo una preocupación constante vinculada a los datos con los que se alimenta la inteligencia artificial.

0 Comentarios