Miercoles 11 de Diciembre de 2024







 24/11/2024 - SALUD
Leer más allá de los titulares es raro para la mayoría en las redes sociales, según un estudio

Un equipo de expertos analizó más de 35 millones de publicaciones públicas que contenían enlaces compartidos en Facebook entre 2017 y 2020. Los enlaces se compartían sin hacer clic.


Tres de cada cuatro veces, sus amigos de Facebook no leen más allá del titular cuando comparten un enlace a contenido político. Los expertos dicen que eso es algo sorprendente, y francamente aterrador.



“Las personas que comparten sin hacer clic pueden estar ayudando involuntariamente a adversarios hostiles con el objetivo de sembrar semillas de división y desconfianza”, advirtió S. Shyam Sundar, profesor de efectos de los medios en la Universidad Estatal de Pensilvania.





“El procesamiento superficial de los titulares y las propagandas puede ser peligroso si se comparten datos falsos y no se investigan”, dijo Sundar, autor correspondiente del nuevo estudio, que se publicó en la edición del 19 de noviembre de la revista Nature Human Behavior.



“Las campañas de desinformación o desinformación tienen como objetivo sembrar las semillas de la duda o la disidencia en una democracia, y el alcance de estos esfuerzos salió a la luz en las elecciones de 2016 y 2020″, añadió en un comunicado de prensa de la Universidad Estatal de Pensilvania.





Para obtener más información sobre el contenido compartido en las redes sociales, su equipo analizó más de 35 millones de publicaciones públicas que contenían enlaces compartidos en Facebook entre 2017 y 2020. Los enlaces incluían contenido político de ambos extremos del espectro, y se compartían sin hacer clic con más frecuencia que el contenido políticamente neutral.



Aunque el estudio se limitó a Facebook, los investigadores dijeron que es probable que sus hallazgos también se apliquen a otras plataformas de redes sociales. Los datos para el análisis se proporcionaron en colaboración con la empresa matriz de Facebook, Meta. Incluía datos demográficos y comportamientos de los usuarios, incluida una “puntuación de afinidad de página política”. Esto se determinó mediante la identificación de las páginas que siguen los usuarios.


Los usuarios se dividieron en uno de cinco grupos: muy liberal, liberal, neutral, conservador y muy conservador. A continuación, los investigadores utilizaron la IA para encontrar y clasificar términos políticos en el contenido vinculado, puntuando el contenido en esa misma escala, en función del número de compartidos de cada grupo de afinidad.




Uno por uno, los investigadores clasificaron manualmente 8.000 enlaces, identificando el contenido como político o no político. Esos datos entrenaron un algoritmo que analizó 35 millones de enlaces que fueron compartidos más de 100 veces por usuarios de Facebook en Estados Unidos.


A partir de ese análisis, surgió un patrón que se mantuvo a nivel individual. ”Cuanto más cercana era la alineación política del contenido con el usuario, tanto liberal como conservador, más se compartía sin clics”, dijo el coautor del estudio, Eugene Cho Snyder, profesor asistente de humanidades y ciencias sociales del Instituto de Tecnología de Nueva Jersey. “Simplemente están reenviando cosas que parecen en la superficie estar de acuerdo con su ideología política, sin darse cuenta de que a veces pueden estar compartiendo información falsa”.


Meta también proporcionó datos de un servicio de verificación de datos de terceros, que marcó más de 2.900 enlaces a contenido falso. En total, estos enlaces se compartieron más de 41 millones de veces, sin que se hiciera clic en ellos, según el estudio.


De estos, el 77% provino de usuarios conservadores y el 14% de usuarios liberales. Hasta un 82 por ciento de los enlaces a información falsa procedían de dominios de noticias conservadores, encontraron los investigadores.




Sundar dijo que las plataformas de redes sociales podrían tomar medidas para frenar el intercambio sin hacer clic, por ejemplo, se podría exigir a los usuarios que reconozcan que han leído el contenido en su totalidad antes de compartirlo.


“Si las plataformas implementan una advertencia de que el contenido podría ser falso y hacen que los usuarios reconozcan los peligros de hacerlo, eso podría ayudar a las personas a pensar antes de compartir”, dijo Sundar. Sin embargo, no detendría las campañas de desinformación intencionadas, añadió.


             


"La razón por la que esto sucede puede ser porque las personas simplemente son bombardeadas con información y no se detienen a pensarla", dijo Sundar. "Con suerte, las personas aprenderán de nuestro estudio y se volverán más alfabetizadas en los medios, digitalmente inteligentes y, en última instancia, más conscientes de lo que están compartiendo".


 


 


 


 


 


FUENTE: INFOBAE.





















PINAMAR24 EN FACEBOOK


© 2022 - PINAMAR 24
PROPIETARIO: DIEGO ANDRES URIBE
DIRECTOR GENERAL: DIEGO ANDRES URIBE
FECHA 11/12/2024 EDICIÓN: NÚMERO
DOMICILIO LEGAL: JASON 429 PINAMAR
REGISTRO DNDA EN TRÁMITE