Técnicas de manipulación social y control de las flame wars

En la jerga informática una flame war se produce cuando un grupo de usuarios se enzarzan en una discusión acalorada e improductiva a través de un medio de comunicación digital. Las flame wars son tan antiguas como la propia Internet, según Wikipedia, la edición de 1983 del Diccionario del Hacker ya contenía una definición del flaming. Muchos psicólogos creen que las flame wars son un suceso seguro tarde o temprano cuando un grupo de gente no habla cara a cara. Pero las flame wars provocan enfados intensos en algunos usuarios y, lo que es peor (para el proveedor) bajas masivas en el servicio.

En este post voy a repasar cómo el flaming ha evolucionado según han ido apareciendo nuevas herramientas y, asimismo, qué técnicas para prevenirlo se emplean en la actualidad.

Fundamentos y tipos de flaming

La inevitabilidad del flaming se fundamenta en tres factores:

1º) Un fenómeno conocido cómo la Tragedia de los Comunes, que se produce cuando un grupo de personas comparten un recurso pero existen incentivos individuales para abusar del recurso. En el caso de la flame wars el recurso compartido es la atención del resto de los usuarios que los individuos tratan de acaparar generando escándalo.

2º) Es sabido que la persona que escribe tiende a dar por sentado que se entenderá el tono del mensaje que ha escrito. Mientras que la persona que lee tiende a interpretar el mensaje según su propio estado de ánimo. Entonces los malentendidos son frecuentes. Tan frecuentes, de hecho, que por eso hubo que inventar los emoticonos para aclarar con nuevos signos de puntuación la emoción contenida en el mensaje.

3º) No es necesario que todos los usuarios malinterpreten el mensaje o estén enfadados. Basta con que uno de ellos sea un sociópata que eche la colilla al monte para que se produzca un incendio. En un grupo suficientemente numeroso de personas siempre habrá al menos una deseosa de iniciar una gresca y al menos otra deseosa de continuarla.

Además de por ansia de atención, deficiente interpretación y trastornos mentales; yo añadiría, y esto es sólo una opinión personal, que el flaming se puede iniciar por la cantidad de tiempo que transcurre entre que reaccionamos emocionalmente a algo y conseguimos pensar acerca de ello racionalmente. Sucede que la parte más primitiva de nuestro cerebro, que genera las emociones primarias, funciona a mayor velocidad que el neocórtex. La diferencia, según tengo entendido, es de unos pocos milisegundos. Pero suficiente para provocar que las personas sienten antes de pensar. A veces esta emoción inicial nubla el buen juicio y es a partir de ese momento que empieza la escalada de violencia verbal.

Y más aún, algunos de los documentos filtrados por E. Snowden, pusieron de manifiesto que los gobiernos británicos y estadounidense atacan a sus enemigos con técnicas de desinformación que comentaré más adelante.

Según los psicólogos, existen básicamente cuatro tipos de hostilidad online: el desprecio, el despecho, el asalto y el linchamiento. El desprecio directo es típicamente una forma de agresión masculina, y el despecho a través de rumores es típicamente femenino. El asalto se produce cuando un grupo se organiza para atacar un objetivo, como por ejemplo hacen los hackers de Anonymous. El linchamiento se produce cuando el grupo etiqueta a un transgresor y apoya cualquier barbaridad de una cruzada organizada contra él. Esta distinción está bien, pero a mi me parece que en esencia todos los tipos son lo mismo: quedarse sin argumentos razonables durante una conversación y recurrir al insulto como medio para continuar la disputa.

Primera generación de herramientas de social media

Los primeros medios donde apareció el flaming fueron las listas de correo y los foros. En ellos es frecuente que se produzcan flame wars. Lo primero que se instauró para poner coto a las flame wars fueron las reglas de netiqueta. El problema con la netiqueta es que, al no ser forzosamente obligatoria, los que más la deberían cumplir son precisamente los que menos uso hacen de ella. A lo largo de los años se experimentó con diversas técnicas para prevenir el flaming en las listas de correo como, por ejemplo, limitar la cantidad de mensajes que cada usuario puede publicar por unidad de tiempo de modo que tenga que esperar cada vez más antes de responder. Sin embargo, lo más eficaz, según los propietarios de las listas, es contactar directamente y privadamente con el troll y pedirle que pare. Privar al troll de su objetivo principal, la audiencia, es la mejor forma de que cese en su actitud. El problema es la cantidad de tiempo y esfuerzo que se requiere para contactar uno por uno a todos los incumbentes y pedirles que haya paz. El resultado es que a día de hoy las listas de correo y los foros siguen siendo vulnerables al flaming y en parte por eso están en desuso.

Segunda generación de herramientas de social media

Tras las listas de correo y los foros, surgieron los weblogs y los wikis. En los weblogs es más fácil prevenir el flaming porque existe un “amo del calabozo” propietario del weblog que puede aprobar o rechazar comentarios antes de que se publiquen, los cuales, además, suelen estar separados del artículo principal, de forma poco visible. En los wikis lo que sucede es que, gracias al control de revisiones, deshacer cambios es mucho más fácil que hacerlos. Entonces, aunque Wikipedia ha sufrido innumerables intentos de manipulación y tergiversación hasta el punto de tener que restringir la edición de algunas páginas, a la postre ha conseguido sobrevivir como una fuente creible de información gracias a la constante supervisión grupal de la veracidad de los contenidos.

Tercera generación de herramientas de social media

El primer medio que popularizó una novedad significativa en el control del flaming fue Slashdot (en versión española Menéame). En Slashdot cada vez que un usuario comparte un contenido el resto le votan y adquiere “karma” (positivo o negativo). Las noticias más votadas aparecen primero y la credibilidad de un usuario depende de su buen karma. Además se introdujo un grupo de moderadores (usuarios con gran karma) y un grupo de meta-moderadores (moderadores de los moderadores). Esto funcionó bastante bien, y aunque tanto en Slashdot cómo en Menéame todavía pueden encontrarse verdaderos regueros de comentarios mierdosos, su visibilidad es enormemente reducida y normalmente no molestan. El siguiente refinamiento sobre Slashdot fue StackExchange. En StackExchange existen reglas bastante sofisticadas para regular el karma. Las ganancias y pérdidas son asimétricas. Se ganan diez puntos de karma cuando se recibe un voto favorable de otro usuario, pero sólo se pierde un punto de karma por cada punto desfavorable. Además, cuando se vota en contra de otro usuario se resta un punto también a tu propio karma. Es decir, al votar en contra de otro votas también en contra de ti mismo. El efecto de esto es que sólo los usuario con buen karma para gastar pueden hundir la reputación de otros. También se pueden ofrecer botines por publicar respuestas excepcionalmente buenas. Y existe un extenso conjunto de diferentes medallas (badges) que se pueden ganar además de la cifra numérica de karma. El problema de los sitios como Slashdot y StackExchange (a mi juicio) es que cuesta mucho tiempo y esfuerzo ganar el karma. Una persona puede haber ganado la Medalla Fields, sin embargo, cuando se registre en MathOverflow (uno de los sitios de StackExchange) no tendrá ningún karma, y además, tendrá que pasarse cientos de horas en MathOverflow para poder obtener una cantidad significativa de karma. Entonces más que un grupo de expertos, lo que se genera es un grupo de usuarios fanáticos yonkis del karma cuya especialidad no es inventar nada sino investigar lo que otros han inventado para responder a las preguntas de los que no tienen ni idea.

Cuarta generación de herramientas de social media

Una importante limitación de Slashdot y StackExchange es el poder de las élites. En este tipo de redes el 10% de los usuarios genera el 90% de los contenidos. Había de alguna forma que democratizar la participación pero sin que se llenase la conversación de basura. A mi me gusta bromear argumentando que Facebook es la democratización de la prensa rosa. Antaño la gente compraba masivamente la revista Hola, pero sólo unos poquísimos podían salir en las páginas de Hola. La misión que Facebook se marcó fué que cualquiera pudiese salir en Hola, pero evitando que la participación masiva lo convirtiese en un folletín de prensa amarilla lleno de polémica.

Creo que lo primero que hay que tener en cuenta sobre Facebook es que, aparentemente, no está interesado en manipular la opinión pública, sino que su objetivo es recopilar información de los usuarios para vendérsela a los anunciantes y generar tráfico manteniendo a la audiencia enganchada. Lo que los investigadores de Facebook descubrieron en un polémico estudio secreto es que la lealtad de un usuario a un sitio depende del estado emocional que el sitio le genere, y, además, las emociones son contagiosas entre usuarios. Por consiguiente, para que los usuarios vuelvan es menester que no se enfaden y para que no se enfaden no deben poder leer nada ofensivo. La vida perenne dentro de lo políticamente correcto la genera Facebook de varias maneras. Lo primero que hicieron en Facebook fue desestimar el karma y los votos negativos estilo Slashdot porque se descubrió que la popularidad comparativa afectaba emocionalmente a muchos usuarios, especialmente a las féminas adolescentes. Es por eso que no existe el botón de No me gusta 👎 En segundo lugar, Facebook otorga al propietario de cada muro el poder de eliminar comentarios, borrar de la lista de amigos o prohibir la publicación a cualquier indeseable. Es decir, el propietario de la conversación es siempre el que la inició y no se permiten comentarios críticos. Adicionalmente, no se pueden ocultar a los amigos los clicks en Me gusta de páginas públicas. Eso desincentiva a la gente a aumentar la popularidad de nada que esté socialmente mal visto. El algoritmo de recomendaciones introduce un importante sesgo de confirmación sugiriendo al usuario sólo cosas relacionadas con aquello a lo que dijo «Me gusta». Si te preocupa el cambio climático y usas Facebook acabarás creyendo que el futuro de la Humanidad depende de que salvemos a las ballenas, y si tienes un perro y usas Facebook acabarás pensando que los derechos de los animales están por encima de los derechos humanos. Da igual cómo empieces, Facebook lo único que hará será reforzar y radicalizar más y más cualquier idea semilla que le introduzcas para que te quedes a vivir en tu zona de confort. El mecanismo psicológico detrás de este refuerzo es que para entender algo primero necesitamos creer en ello. Por ejemplo, nadie entendió que la Tierra podría girar alrededor del Sol, y no al revés, hasta que alguien creyó que tal órbita era realmente posible. Por último, y por si todo lo anterior fuese poco, cada día crece la cantidad de cuentas de Facebook y Twitter que tienen una segunda cuenta de respaldo en previsión de que les cierren la primera por censura. Y de Tumblr ya ni hablemos, pues en Tumblr una cuenta dura viva menos que un caramelo en la puerta de un colegio.

Cómo se manipula y sabotea la opinión pública

Existen varias decenas de técnicas bien conocidas para manipular y sabotear la opinión pública. Las 25 Reglas de la Desinformación de Michael Sweeney o Desinformación: Cómo funciona de Brandon Smith son un par de buenos ejemplos recopilatorios de las tácticas entre las cuales, a mi juicio, algunas de las principales son:

1. Divide y vencerás. Se trata de enfrentar a unos grupos opositores contra otros. Esto se puede conseguir acentuándo sus diferencias para menguar su fuerza combinada contra un adversario común. Pero también de formas más sutiles. Por ejemplo, proponiendo soluciones exageradas y fuera de lugar.

2. Ruptura de consenso. Consiste en publicar un argumento aparentemente sólido con una cuenta falsa. Luego, con otras cuentas falsas, demostrar que se trata de un argumento totalmente falaz.

3. Dilución del asunto. Se consigue publicando sistemáticamente contenidos no relacionados con el tema que se desea evitar.

4. Exigencia de pruebas irrefutables. En las conversaciones, usar la presución de inocencia para exigir pruebas absolutamente irrefutables de todo. Por muchos indicios que haya y muy verosimil que sea la historia, tacharla de falsa invalidando las pruebas y alegando que se trata sólo de una conspiración malintencionada.

5. Desacreditación de la fuente. Si la fuente es un blogger independiente, argumentar que su opinión no tiene ningún periodístico y que sólo se trata de un charlatán tratando de ganarse el favor de algunos poderosos. Si la fuente es un gran medio de comunicación, argumentar que todos los periodista y el editor están en la nómina de alguien quien decide lo que se publica o no. Si el autor no ostenta un posdoctorado, decir que su opinión no vale nada, si lo ostenta decir que nunca ha salido de la universidad y no conoce el mundo real.

Creo también que vale la pena mencionar, como contraejemplo, el fracaso estrepitoso de las técnicas basadas en descalificar personalmente al adversario. No funcionaron contra Winston Churchill, no funcionaron contra Vladimir Putin, no funcionaron contra Donald Trump y en España no funcionaron contra Mariano Rajoy. El estudio del odio exacerbado de los progres contra Donald Trump creo que merecería un libro entero. Primero por lo contrproducente de la estrategia y segundo por la sorprendente forma en la cual, después de haber denostado a Trump de todas las formas imaginables, los atacantes se han empezado a victimizar como si los seguidores de Trump hubiesen organizado una caza de brujas en la red contra sus detractores.

Post relacionados:
Propaganda 2.0.

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Esta entrada fue publicada en Usos sociales de la tecnología. Guarda el enlace permanente.

3 respuestas a Técnicas de manipulación social y control de las flame wars

  1. Pingback: ¿Qué necesidades psicológicas satisfacen las redes sociales? | La Pastilla Roja

  2. Pingback: El fracaso de las redes sociales y el pivotaje de Facebook hacia la invasión más absoluta de la privacidad. | La Pastilla Roja

  3. Pingback: ¿Está la inteligencia en declive? | La Pastilla Roja

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

 

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.