En las últimas semanas han coincidido dos noticias que, vistas por separado, podrían parecer un episodio más del ruido habitual alrededor de las redes sociales. Juntas, sin embargo, dibujan algo más profundo: un cambio de fase en la manera en la que los Estados entienden el poder digital.
En España, el Gobierno ha anunciado su intención de prohibir el acceso a redes sociales a menores de 16 años y perseguir la amplificación de contenidos ilegales. En Francia, las autoridades han ido un paso más allá y han citado a Elon Musk en el marco de una investigación sobre los algoritmos de X.
No son decisiones improvisadas ni gestos aislados. Forman parte de un movimiento más amplio: las redes sociales han dejado de verse solo como productos privados y han empezado a tratarse como infraestructuras de influencia. Ya no importa únicamente lo que se dice en ellas, sino cómo se distribuye, quién lo amplifica y qué impacto real tiene sobre la conversación pública.
En ese nuevo marco, el debate ha encontrado un culpable recurrente: el algoritmo.
El algoritmo como chivo expiatorio perfecto
El algoritmo es un villano ideal. No tiene rostro, no vota, no responde en ruedas de prensa y resulta difícil de explicar con precisión. Sirve para condensar problemas complejos —polarización, desinformación, odio, radicalización— en una sola palabra.
Pero el algoritmo no piensa, no opina ni decide en términos morales. El algoritmo reacciona. Es un sistema que mide señales: volumen, velocidad, repetición, intensidad emocional. Aquello que se mueve rápido y genera respuesta se interpreta como relevante y se impulsa.
Esta lógica tiene una consecuencia clave que suele pasarse por alto: el algoritmo no distingue entre consenso social y coordinación artificial. No sabe si detrás de cien mensajes hay cien personas distintas o una sola estrategia operando con cien identidades.
Pongamos un ejemplo sencillo. Un tema político salta a la conversación. En pocos minutos aparecen decenas de cuentas compartiendo el mismo mensaje, el mismo vídeo fuera de contexto o la misma acusación. El sistema detecta una explosión de actividad y concluye que el contenido interesa. Lo empuja a más usuarios. En cuestión de horas, una acción coordinada se convierte en “tendencia”.
El algoritmo no crea mensajes. Amplifica señales. Y cuando las señales están contaminadas, lo que se amplifica no es la sociedad, sino el ruido.
Cuando el ruido se disfraza de conversación pública
Aquí aparece el verdadero problema estructural: las cuentas falsas y las identidades débiles.
Las cuentas falsas no son un fallo anecdótico del sistema. Son la infraestructura invisible que permite que muchos comportamientos escalen. Sin ellas, el ecosistema seguiría siendo imperfecto, pero sería más lento, más rastreable y menos explosivo.
El odio digital no se sostiene solo sobre opiniones reales expresadas con vehemencia. Se sostiene sobre la posibilidad de atacar sin coste. Perfiles que insultan, amenazan o acosan sin consecuencias personales. Cuando una cuenta es bloqueada, otra aparece. Cuando una campaña fracasa, se reinicia con nuevos nombres y nuevas fotos.
En el caso del grooming y la explotación de menores, la relación es aún más directa. El agresor necesita anonimato, capacidad de suplantación y continuidad operativa. Las plataformas pueden mejorar la detección, pero mientras el atacante pueda regenerar identidades con facilidad, siempre irá un paso por delante.
Las estafas digitales siguen el mismo patrón. No triunfan por sofisticación técnica, sino por volumen. Falsos sorteos, suplantación de marcas, perfiles de soporte inexistentes o timos financieros funcionan porque crear una identidad creíble es trivial. El coste es tan bajo que incluso una tasa mínima de éxito resulta rentable.
En todos los casos se repite la misma fórmula: anonimato irresponsable, coste cero y coordinación. El algoritmo no introduce el problema; simplemente lo acelera.
¿Por qué multar a las plataformas no ataca la raíz?
Exigir responsabilidades a las plataformas es necesario. Si alojan delitos, deben actuar. Si no lo hacen, deben ser sancionadas. Este punto no debería generar controversia.
El problema aparece cuando la política pública se queda ahí. Multar plataformas es una medida reactiva: llega cuando el daño ya se ha producido. Además, desplaza el foco del individuo al sistema.
Esto genera dos efectos perversos. El primero es la dilución de la responsabilidad personal: el altavoz paga, pero quien grita sigue siendo anónimo. El segundo es la moderación por miedo. Cuando las definiciones legales son vagas —“amplificar contenido ilegal”, “mensajes nocivos”—, la respuesta racional de una empresa es reducir riesgos, no matizar.
Así aparece el “por si acaso”: menos alcance, menos visibilidad, menos conversación en temas sensibles. No se prohíbe una opinión, pero se la entierra.
Se castiga al altavoz, pero no a quien grita.
Culpar al algoritmo también es políticamente conveniente
Hay un elemento del debate que rara vez se menciona. Culpar al algoritmo no solo es cómodo desde el punto de vista regulatorio; también es políticamente útil.
Cuando el problema se define como “el algoritmo”, el foco se aleja de la pregunta incómoda: quién está hablando realmente en las redes. Y esa pregunta no incomoda solo a trolls, estafadores o abusadores. También incomoda al poder.
Las cuentas falsas y las redes coordinadas no son patrimonio exclusivo de usuarios anónimos. Desde hace años forman parte de la caja de herramientas con la que distintos actores intentan influir en la conversación pública. No siempre de forma burda, no siempre ilegal, pero sí aprovechando identidades opacas, perfiles pseudónimos y amplificación artificial.
Un sistema de identidad fuerte no solo reduce el abuso ciudadano. También dificulta la manipulación política encubierta. Obliga a jugar con menos máscaras. Y eso explica por qué resulta mucho más sencillo señalar al algoritmo que abrir el debate sobre la identificación, especialmente en plataformas como X, donde el conflicto político es más visible y menos domesticado.
Proteger al menor: consenso legítimo, riesgo real
Conviene decirlo sin rodeos. Existen estudios que relacionan el uso intensivo de redes sociales a edades tempranas con problemas de salud mental, trastornos del sueño, ansiedad y mayor exposición a riesgos. El grooming y la pornografía infantil no son excepciones: son amenazas reales.
Proteger a los menores es legítimo y necesario.
Precisamente por eso, el argumento es tan potente. Porque nadie puede oponerse al objetivo sin quedar retratado. Y cuando el consenso es absoluto sobre el “qué”, el debate se desplaza peligrosamente al “cómo”.
El riesgo aparece cuando la protección del menor se utiliza como coartada para introducir mecanismos de control mal definidos, opacos o desproporcionados. Perseguir delitos es una cosa. Controlar la circulación del discurso bajo criterios difusos es otra muy distinta.
Un movimiento global que avanza más rápido que la reflexión
Este debate no es local. Australia ha marcado un precedente con la prohibición total de redes sociales para menores de 16 años. Malasia ha anunciado medidas similares. En Europa predominan modelos intermedios basados en consentimiento parental, mientras España y Reino Unido avanzan hacia límites en los 16 años y otros países plantean los 15.
India exige consentimiento parental hasta los 18. En Estados Unidos, la regulación es fragmentada por estados. El consenso no está en el diseño, pero sí en la premisa: el modelo actual ha fracasado.
La pregunta es si la corrección se hará con bisturí o con martillo.
Libertad de expresión y el efecto silencioso del miedo
La libertad de expresión rara vez muere de forma abrupta. No suele desaparecer por una prohibición explícita ni por una ley que la anule de golpe. Muere de una manera mucho más silenciosa: cuando se vuelve incómoda.
El problema aparece cuando la frontera entre lo ilegal y lo simplemente incómodo se difumina. Cuando ya no está claro si una opinión es perseguida porque vulnera la ley o porque genera fricción. En ese terreno ambiguo surge la autocensura. Plataformas que moderan por miedo a sanciones. Usuarios que dejan de hablar no porque hayan cambiado de opinión, sino porque no compensa exponerse.
Ese es el temor de fondo que muchos expresan ante este tipo de regulaciones: que se empiece pidiendo la mano y se termine cogiendo el brazo. No con una censura explícita, sino con un clima donde opinar sobre determinados temas —inmigración, seguridad, identidad o política— se percibe como un riesgo innecesario.
El Reino Unido es un ejemplo que suele citarse en este debate. En los últimos años se han dado casos en los que la policía ha acudido a domicilios de ciudadanos por comentarios publicados en redes sociales, en el marco de investigaciones por mensajes considerados ofensivos o potencialmente incitadores al odio. En muchos de ellos no se trataba de amenazas directas ni de llamadas explícitas a la violencia, sino de opiniones expresadas de forma brusca o polémica.
Más allá de cada caso concreto —y de si finalmente hubo o no consecuencias legales—, el efecto es evidente: el mensaje que recibe el ciudadano medio no es tanto “esto es ilegal”, sino “mejor no te metas en ciertos charcos”. Y cuando el coste de opinar se vuelve difuso e impredecible, la libertad de expresión empieza a erosionarse desde dentro.
La libertad de expresión no muere cuando la prohíben. Muere cuando da miedo ejercerla.
La identificación: el nudo más difícil de desatar
Aquí está el punto más complejo del debate. Muchos proponen registrar el DNI como solución directa. Otros lo ven como una puerta a la vigilancia masiva. Ambas posturas simplifican una cuestión mucho más delicada.
El problema no es identificar, sino quién identifica, cómo y con qué garantías.
Existen alternativas técnicas ya en uso. En España, el DNI electrónico o Cl@ve permiten verificar que una persona es real sin que la plataforma tenga acceso al documento. A nivel europeo, la futura Cartera Digital Europea apunta a un modelo donde el usuario acredita atributos —como la edad— sin ceder más datos de los necesarios.
En el ámbito privado existen intermediarios como Persona, utilizados en LinkedIn o procesos de empleo, que verifican identidad mediante documentos y biometría, pero solo devuelven a la plataforma un estado de “usuario verificado”. La red social no almacena la identidad real.
La inteligencia artificial puede ayudar a detectar comportamiento coordinado o cuentas desechables, pero no sustituye a una identidad fuerte. Es una capa complementaria, no la base.
El modelo que empieza a perfilarse es híbrido: verificación externa, anonimato público y trazabilidad legal. Seguir siendo anónimo frente a otros usuarios, pero no invisible para la ley.
El riesgo de fondo
El riesgo real no es regular las redes sociales ni dejar de hacerlo. El riesgo es confundir protección con control, responsabilidad con censura y ruido con debate.
Si seguimos culpando al algoritmo de un problema profundamente humano, acabaremos regulando máquinas para evitar mirar a las personas.
No necesitamos algoritmos más morales. Necesitamos identidades más responsables.
Porque el algoritmo no es el problema.
El problema es a quién dejamos hablar sin rostro ni consecuencias.

Deja una respuesta