Youtube espera hasta un mes después de las elecciones para actuar contra las falsas acusaciones

Aunque tardó un mes en ponerlo en práctica, Youtube por fin ha cedido ante la presión del público para actuar en (...)

Compartir
Suscríbete
Suscríbete a Nuestro Boletín
Recibe por email las noticias más destacadas

Aunque tardó un mes en ponerlo en práctica, Youtube por fin ha cedido ante la presión del público para actuar en contra de las falsas acusaciones concernientes a las elecciones presidenciales de 2020.

  • Un mes después de las elecciones presidenciales, Youtube toma la decisión de retirar el contenido que promueva noticias falsas concernientes a posibles fraudes 
  • Hasta el momento, Youtube ha permitido la carga de videos con este tipo de contenido, a pesar de las constantes críticas del público
  • Así, se une a Twitter y Facebook en la búsqueda de crear un escenario de transparencia para los usuarios

De acuerdo con un reporte de la cadena NBC, Youtube dio a conocer que comenzarán a retirar el contenido que promueva noticias falsas o que insinúan cualquier tipo de fraude o error relacionado con las elecciones del pasado 3 de noviembre.

Tuvo que pasar más de un mes para que la plataforma llegara a esta determinación, aún después de que se cerraran las casillas electorales y el candidato demócrata Joe Biden fuera proyectado como ganador virtual.

Sin embargo, la tardanza de Youtube en tomar una decisión ha causado que la plataforma haya recibido duras críticas por parte de los usuarios, ya que durante todo el mes posterior a las elecciones permitió la carga de videos en los que se llegó a insinuar un supuesto fraude electoral.

Según la compañía, tomaron la decisión de prohibir este tipo de videos después de que la mayoría de los estados certificaron de manera oficial el conteo de votos.

Con esta decisión, Youtube se une a plataformas como Twitter y Facebook para monitorear de manera activa todas las publicaciones relacionadas con las elecciones presidenciales; para esto, han implementado medidas como la aplicación de etiquetas que limitan su propagación.

En un blog publicado en su sitio web, Youtube explicó que “Ayer fue la fecha límite para las elecciones presidenciales de Estados Unidos y la mayoría de los estados han certificado los resultados de la elección para determinar a un presidente electo.”

Añadieron que “Debido a esto, comenzaremos a eliminar cualquier tipo de contenido cargado hoy que confunda a las personas al asegurar que ocurrieron fraudes o errores que cambiaron el resultado de las elecciones presidenciales de 2020.”

Así, Youtube eliminará videos que sugieran que Joe Biden ganó debido a errores de software o a malos conteos. 

Aún así, Youtube continúa siendo blanco de las críticas debido a que permitió la propagación de este tipo de videos, y se le acusa de ser más permisivo en cuanto a la creación de contenido que promueva la desinformación.

Al respecto, la compañía aclaró: “Comprendemos la necesidad de un escrutinio exhaustivo en nuestro trabajo relacionado con las elecciones. Nuestros equipos trabajan arduamente para asegurar que alcancemos un balance entre permitir un largo alcance de libertad de expresión política, y asegurarnos de que nuestra plataforma no sea utilizada para incitar daños en el mundo real o propagar desinformación.”

Por último, Youtube dio a conocer que ha eliminado al menos 8,000 canales y miles de videos que pasan por alto sus políticas actuales.

Foto: Shutterstock

Youtube, una de las plataformas que se han unido para poner un alto a la propagación de información falsa

Uno de los fenómenos más latentes dentro de las redes sociales es el relacionado con la aparición de grupos radicales, que usan a las plataformas para compartir información falsa o no verificada con respecto a temas como las elecciones, la pandemia o las vacunas.

Uno de los tópicos más delicados que las redes sociales han tratado de controlar últimamente son los relacionados con la pandemia, que en un inicio se llegó a pensar que era un engaño por parte del gobierno.

Sin embargo, a casi un año del inicio de la pandemia, la vacuna contra el coronavirus se presenta como uno de los temas más recurrentes tanto en Facebook como Youtube y Twitter.

Por lo menos en Facebook, se han retirado todos los anuncios relacionados con las vacunas, ya que muchos de estos promueven la propagación de información no confirmada por medios especializados.

En este sentido, Youtube también ha tratado de frenar la propagación de información falsa relacionada con una potencial vacuna contra el Covid; en meses pasados, la plataforma aseguró que eliminará todos los videos que contengan información falsa o no confirmada acerca de estas vacunas o del coronavirus.

Para Youtube, esto significa que no se permitirá la creación o carga de contenido relacionado con teorías de conspiración, especialmente aquellas relacionadas con el coronavirus.

Youtube está decidido a bloquear el contenido en el que se mencionan teorías de conspiración  acerca del Covid o  que ponga en duda cualquier información oficial emitida por la Organización Mundial de la Salud o las agencias especializadas de cada país.

Esta medida ha sido adoptada por la mayoría de las redes sociales, que han recurrido a la colocación de etiquetas especiales en el contenido que se considera no apto o poco confiable.

De acuerdo con los comunicados emitidos por Facebook, Twitter y Youtube, el mayor peligro es normalizar la creación o propagación de contenido malicioso o de dudosa procedencia, por lo que Youtube eliminará de la plataforma todo video en el que se asegure que las vacunas pueden ocasionar la muerte o infertilidad; además, retirará los videos en los que se insinúe que las personas que se vacunen serán víctimas de la implantación de un microchip.

Al igual que Facebook y otras aplicaciones de redes sociales, Youtube permitirá que los usuarios expongan sus preocupaciones o dudas con respecto a la vacuna contra el Covid, siempre y cuando no violen las reglas actuales de la plataforma.

Foto: Shutterstock
Continua artículo relacionado