La larga y vacilante lucha de Facebook contra la desinformación

0 11
Avatar for mamyan
Written by
3 years ago

Facebook enfrenta su desafío más difícil hasta el momento: una elección complicada por una pandemia, una nación profundamente dividida atraída por teorías de conspiración y versiones alternativas de la realidad. ¿Está listo? Estos son algunos de los pasos y errores más importantes que se han dado en la lucha contra la desinformación desde 2016.

10 de noviembre de 2016: Días después de la elección del presidente Donald Trump, el director ejecutivo de Facebook, Mark Zuckerberg, califica la idea de que las “noticias falsas” en Facebook habían influido en las elecciones como “una idea bastante loca”. Más tarde se retracta del comentario.

Diciembre de 2016: Facebook dice que contratará verificadores de datos de terceros para combatir la información errónea.

27 de abril de 2017: Facebook reconoce públicamente que los gobiernos u otros actores no estatales malintencionados están utilizando su red social para influir en las elecciones nacionales, de acuerdo con los hallazgos del gobierno de EE. UU. Sobre la interferencia rusa.

Octubre de 2017: Facebook dice que los anuncios vinculados a una agencia de Internet rusa fueron vistos por aproximadamente 10 millones de personas antes y después de las elecciones de 2016.

Noviembre de 2017: antes de las audiencias del Congreso sobre la interferencia electoral, Facebook aumenta esa estimación, diciendo que los anuncios rusos que fomentan la división política potencialmente alcanzaron hasta 126 millones de usuarios.

4 de enero de 2018: Zuckerberg declara que su resolución de 2018 es "arreglar" Facebook.

Marzo de 2018: aumenta la evidencia de que las campañas de Facebook se utilizaron para orientar al Reino Unido hacia el Brexit.

Abril de 2018: Zuckerberg testifica ante el Congreso y se disculpa por los errores de la compañía, así como por las noticias falsas, el discurso de odio, la falta de privacidad de los datos y la interferencia extranjera en las elecciones de 2016 en su plataforma.

Mayo de 2018: los demócratas del comité de inteligencia de la Cámara publican más de 3500 anuncios de Facebook creados o promovidos por una agencia de Internet rusa antes y después de las elecciones de 2016.

Julio de 2018: los legisladores británicos piden una mayor supervisión de Facebook y otras plataformas.

Julio de 2018: después de que Facebook advierte sobre el aumento de los gastos debido en parte al refuerzo de la seguridad y la contratación de más moderadores, el precio de sus acciones sufre la peor caída de su historia. Sus acciones no se recuperan hasta enero de 2020.

5 de septiembre de 2018: Los ejecutivos de Facebook y Twitter se comprometen ante el Congreso a defenderse de la intrusión extranjera.

Octubre de 2018: Facebook invita a la prensa a recorrer una "sala de guerra" recientemente creada para combatir la información errónea relacionada con las elecciones en lo que se considera en gran medida una medida de relaciones públicas.

Octubre-noviembre de 2018: antes de las elecciones de mitad de período de 2018 en EE. UU., Facebook elimina cientos de cuentas, páginas y grupos por presuntos vínculos a interferencias en elecciones extranjeras.

18 de febrero de 2019: en un informe mordaz, los legisladores británicos piden un código de ética obligatorio y supervisores independientes para las plataformas de redes sociales, específicamente pidiendo a Facebook un diseño técnico que parezca "ocultar el conocimiento y la responsabilidad de decisiones específicas".

Mayo de 2019: Facebook se niega a eliminar un video manipulado para mostrar a la presidenta de la Cámara de Representantes, Nancy Pelosi, arrastrando las palabras. El clip alterado se comparte millones de veces.

Octubre de 2019: Facebook presenta nuevos sistemas de seguridad diseñados para evitar la interferencia extranjera en las elecciones.

Noviembre de 2019: Facebook abre una nueva “sala de guerra” de desinformación antes de las elecciones en el Reino Unido.

Mayo-junio de 2020: Facebook se niega a eliminar las publicaciones de Trump que sugieren que se podría disparar a los manifestantes en Minneapolis. Zuckerberg defiende su decisión en una publicación de Facebook. Facebook también se niega a tomar medidas sobre dos publicaciones de Trump que difunden información errónea sobre la votación por correo. Algunos empleados de Facebook renuncian en protesta.

Junio ​​de 2020: Facebook dice que agregará etiquetas a todas las publicaciones sobre votaciones que dirijan a los usuarios a información autorizada de los funcionarios electorales estatales y locales. Esto incluye publicaciones del presidente.

8 de julio de 2020: una auditoría de derechos civiles cuasi independiente critica las "decisiones desconcertantes y desgarradoras" de Facebook con respecto a los derechos civiles y la desinformación electoral, incluidos los tweets de Trump sobre la votación por correo.

Agosto de 2020: después de años de un enfoque de no intervención, Facebook restringe el movimiento de conspiración QAnon, pero no lo prohíbe por completo.

3 de septiembre de 2020: Facebook frena los anuncios políticos, aunque solo durante siete días antes de las elecciones estadounidenses.

6 de octubre de 2020: Facebook prohíbe todos los grupos que apoyan a QAnon.

7 de octubre de 2020: Facebook limita aún más los anuncios políticos, prepara más etiquetas para las publicaciones de los candidatos que declaran prematuramente la victoria o impugnan los resultados oficiales, y prohíbe el uso de "lenguaje militarizado" en relación con las llamadas a ver las encuestas.

1
$ 0.36
$ 0.36 from @TheRandomRewarder
Sponsors of mamyan
empty
empty
empty
Avatar for mamyan
Written by
3 years ago

Comments