&&&&&
“El punto de partida es que las vulnerabilidades y
prejuicios de las personas son explotados para impulsar y
reforzar narrativas de desinformación dentro de los ecosistemas
digitales de todo el mundo. Blanco explica que hay determinados
contenidos “que tocan resortes mentales” que provocan que “compremos mercancía
averiada con mucha facilidad”. Por lo general, el ser humano no
cuestiona las informaciones que encajan con sus creencias
previas. “Si una noticia me da la razón, es muy difícil que yo la
analice fríamente”, afirma.
“Esto facilita la
viralización. “Tú
no estás pensando, no estás analizando fríamente, simplemente compartes. Son
estados donde se fomenta mucho que una información, un mensaje llegue a
muchísima gente y que todos nos quedemos mucho tiempo enganchados”, señala. Y
agrega: “Esto es lo que más le interesa a los dueños de estas plataformas, que
pasemos el mayor tiempo posible dentro. Están de algún modo viciándonos para
que estemos todo el tiempo enfadados y cabreados”. El problema, agrega, es que casi nadie es
consciente de esta “manipulación”. “Cuando en las
investigaciones científicas se le pide a la gente que piense y analice
determinadas noticias, la mayoría detecta aquellas que son falsas. El problema
es que cuando estamos dentro de las redes no lo hacemos. Estamos atrapados en
una vorágine de ‘responde rápido, enfádate, retuitea’”.
/////
Fuentes: Climática [Foto: Diego Herculano (ONU Cambio Climático)]
*****
EL PASO ADELANTE QUE SÍ SE DIO EN LA COP30:
LA BATALLA CONTRA LOS ALGORITMOS.
*****
Por Andrés Actis | 03/12/2025 | Ecología social
Fuentes. Revista Rebelión, miércoles 3 de diciembre del 2025.
Sin una hoja de ruta para eliminar los
combustibles fósiles, el mayor logro de la COP30 ha sido la creación de una
alianza de países para combatir la desinformación, una silenciosa pero
gigantesca ola que está socavando el progreso global de las políticas
climáticas.
Charlotte Scaddan, asesora principal en integridad
de la información de la Comunicación Global de la ONU, repite que
“dos de los retos más
urgentes de la humanidad se han entrelazado de forma peligrosamente estrecha”,
en referencia al cambio climático y la desinformación.
La industria de los bulos, alertó
Scaddan en la recién
acabada COP30 de Belém, está utilizando la crisis planetaria
como un “arma para polarizar sociedades enteras y socavar los procesos
democráticos”. La constante viralización de noticias falsas tiene
tres grandes ganadores, explica esta consejera de Naciones Unidas:
el sector fósil, algunos actores políticos –Donald Trump, el más
visible– y los influencers digitales, que
“monetizan la indignación y las mentiras». “No nos podemos quedar de brazos cruzados ante este diagnóstico. Supone un riesgo real de interferencia en las negociaciones climáticas”, advierte esta experta.
En Brasil, en una cumbre que ha dejado
una sensación de derrota por una declaración final
sin ninguna mención al abandono de los combustibles fósiles, se ha dado
un paso enorme para combatir la desinformación climática. Un
grupo de 13 países, entre ellos España, ha creado una
alianza para “promover información precisa y basada en pruebas sobre
cuestiones climáticas”.
Estas naciones –Brasil, Chile,
Dinamarca, Francia, Marruecos, Suecia, Reino Unido, Uruguay, Bélgica,
Canadá, Finlandia y Alemania, además de España– van a exigir a todos los
actores involucrados (administraciones, sector privado y
financiadores) tomar “medidas concretas” para contrarrestar
el impacto de la desinformación y ataques deliberados contra
periodistas, defensores, científicos y académicos.
La apuesta más ambiciosa de esta declaración es presionar a las grandes empresas tecnológicas para que revisen el diseño de sus algoritmos, que premian y multiplican los bulos que circulan por las redes sociales.
Algoritmos de recomendación y redes de desinformación.
La preocupación política tiene un respaldo científico.
Son muchas las investigaciones que coinciden en que las redes sociales
están jerarquizando y premiando los contenidos “emocionales,
polémicos y llamativos” –componentes claves de los bulos– sobre los mensajes
rigurosos y veraces.
Pau Muñoz Pairet es doctor en Estudios
Estratégicos y en Inteligencia Artificial. Semanas atrás, publicó junto
a un grupo de investigadores, un estudio que confirma que los algoritmos
de recomendación –diseñados para maximizar la interacción del
usuario mediante la personalización del contenido– están “creando
cámaras de eco y facilitando la propagación de desinformación”.
“Esto puede reconfigurar la opinión pública y tener un impacto
sustancial en cuestiones sociales cruciales como la política, la
economía y las causas sociales. Por lo tanto, la forma en que se recomienda
el contenido en las redes sociales desempeña un papel clave en la configuración
del ecosistema de información digital”, explica el trabajo.
Gracias a su muy alta precisión en la recomendación de
contenido, estos algoritmos “permiten la rápida difusión de
narrativas que se alinean con los intereses de los usuarios que promueven la
desinformación”. Es como un pez que se muerde la cola. Los usuarios
acceden de forma muy rápida a estos discursos, se generan muchísimas
interacciones y se acelera el proceso de formación de estas redes
tóxicas.
Para Sergio Arce García, profesor de la Universidad
Internacional de La Rioja, quien investiga el cruce entre los bulos,
el odio y las redes sociales, la creación de esta alianza es una
bocanada de aire ante una pasividad política para enfrentar a una
industria –las grandes empresas tecnológicas– que está “haciendo la vista gorda” ante un fenómeno “enormes
implicancias sociales y políticas”. Lamenta que el intento de regulación de
estos gobiernos ocurra “con un monstruo que ya es gigantesco”.
Este experto ha revelado cómo estas redes de odio y
desinformación atacaron a la AEMET en X tras la dana
de Valencia. Explica que las redes sociales, como cualquier
negocio, buscan vender. Para eso, necesitan conseguir “la máxima
atención posible por parte de los usuarios”. ¿Cómo lo consiguen? Primero,
analizando quién eres, lo que permite una segmentación de perfiles.
Luego, favoreciendo la circulación de los contenidos “más
emocionales”, entre ellos aquellos que generan rabia, bronca e
indignación.
Al tener “tal grado de conocimiento de
casi toda la población mundial”,
estas empresas tecnológicas, agrega Arce, tienen un poder
enorme para moldear la opinión pública. Este investigador es
escéptico respecto a que los grandes actores de este mercado –”las big
tech”– acepten revisar sus esquemas de algoritmo. Más en
este contexto geopolítico, que apunta a la otra dirección.
Desde que Trump asumió su segundo mandato como presidente de Estados
Unidos, se acentuó el abandono de la supervisión editorial de curación
algorítmica, con el cierre de los departamentos encargados de esta
tarea.
La psicología de la desinformación.
Fernando Blanco es profesor de
psicología e investigador
del Centro de Investigación Mente, Cerebro y Comportamiento (CIMCYC)
de la Universidad de Granada (UGR). Este instituto se ha aliado
con Newtral, el medio español especialista en fact-checking,
para desarrollar un proyecto sobre “la
psicología de la desinformación”: cómo los sesgos cognitivos y los
algoritmos alimentan la manipulación digital.
El punto de partida es que las vulnerabilidades y
prejuicios de las personas son explotados para impulsar y
reforzar narrativas de desinformación dentro de los ecosistemas
digitales de todo el mundo. Blanco explica que hay determinados
contenidos “que tocan resortes mentales” que provocan que “compremos mercancía
averiada con mucha facilidad”. Por lo general, el ser humano no
cuestiona las informaciones que encajan con sus creencias
previas. “Si una noticia me da la razón, es muy difícil que yo la
analice fríamente”, afirma.
Esto facilita la viralización.
“Tú no estás
pensando, no estás analizando fríamente, simplemente compartes. Son estados
donde se fomenta mucho que una información, un mensaje llegue a muchísima gente
y que todos nos quedemos mucho tiempo enganchados”, señala. Y agrega: “Esto es
lo que más le interesa a los dueños de estas plataformas, que pasemos el mayor
tiempo posible dentro. Están de algún modo viciándonos para que estemos todo el
tiempo enfadados y cabreados”.
El problema, agrega, es que casi nadie es
consciente de esta “manipulación”.
“Cuando en las
investigaciones científicas se le pide a la gente que piense y analice
determinadas noticias, la mayoría detecta aquellas que son falsas. El problema
es que cuando estamos dentro de las redes no lo hacemos. Estamos atrapados en
una vorágine de ‘responde rápido, enfádate, retuitea’”, describe.
Como si esto fuera poco, los seres humanos somos muy
buenos racionalizando, explica este experto. Una vez que se
compartió una noticia falsa y que una enorme mayoría de
usuarios se posicionaron públicamente a favor de una
causa, “es muy difícil dar marcha atrás”.
“Vamos a
racionalizar y autoconvencernos de que en el fondo esa era la decisión
razonable. Los algoritmos se aprovechan de la psicología humana. En el fondo lo
que están haciendo es modelar nuestra manera de pensar también. Las
consecuencias sociales son de una enorme gravedad”, concluye
*****

No hay comentarios:
Publicar un comentario