Buscar
Aprieta "Enter" para buscar o "ESC" para cerrar.

Twitter RACISTA: Inteligencia Artifical corta afroamericanos de las fotos

¿Twitter racista? Eso es lo que piensan algunos usuarios al descubrir un fallo en las herramientas de Inteligencia Artificial.
Suscríbete a Nuestro Boletín
Recibe por email las noticias más destacadas

¿Twitter racista? Al menos eso es lo que piensan algunos usuarios después de que se descubriera un fallo en las herramientas de Inteligencia Artificial de la plataforma.

Un usuario descubrió hace unas semanas que la plataforma contaba con una programación que seleccionaba las fotografías de personas blancas para aparecer en las portadas de los tuits.

Lo anterior puso en evidencia que la Inteligencia Artificial de Twitter seleccionada a personas blancas por encima de personas con otro tipo de piel para aparecer como imagen predeterminada en los tuits.

Durante varios días se planteó la idea de que esta programación fuera determinada, y que los desarrolladores de Twitter tenían pleno conocimiento de esta problemática.

La plataforma ya ha respondido, ¿quieres saber lo que dijeron? ¡Continúa leyendo!

  • Los problemas de Twitter parecen no tener fin: esta vez, un problema con su Inteligencia Artificial los puso en aprietos
  • ¿Twitter racista? Esto es lo que algunos usuarios piensan de este fallo
  • Descubre cuáles han sido las declaraciones de los ejecutivos de Twitter al respecto y la manera en la que solucionarán el problema

El 2020 se ha presentado como un año de polémica para la red social Twitter.

Aunque a lo largo de la década se ha posicionado como una de las plataformas más utilizada por usuarios de todo el mundo, esa misma exposición ha ocasionado que Twitter se haya vuelto el centro de la conversación en más de una ocasión.

Esta vez, a la par de los acontecimientos políticos y de la expectativa por las próximas elecciones de 2020, Twitter se ha visto envuelta en un nuevo escándalo; en esta ocasión, se trata de una supuesta programación que incita el racismo dentro de la aplicación.

Foto: Shutterstock

En esencia, cuando una persona decide publicar un tuit en el que se incluyen imágenes, Twitter parece seleccionar aquellas con piel blanca para mostrar de manera principal.

Es decir, aunque se publicaran varias imágenes con personas de diferentes tonos de piel, el algoritmo seleccionaba aquella de piel más clara para aparecer como imagen principal.

Esto generó una serie de comentarios negativos en contra de Twitter, pues algunos usuarios consideraron que esto no se trataba de una falla en el algoritmo, sino de una decisión premeditada por parte de la aplicación.

Recientemente, Twitter anunció una serie de medidas para prevenir que esta situación vuelva a ocurrir.

Estos cambios serán aplicados a sus programas de Inteligencia Artificial; sin embargo, aseguran, se darán a la tarea de investigar para dar con la causa exacta por lo que Twitter presenta esta falla.

En una entrada de blog publicada por Twitter en su sitio web, los desarrolladores detrás de la aplicación aseguraron que la empresa estaba “comprometida con investigar el principio de diseño que denominan como ‘Lo que ves es lo que hay’”, después de que los usuarios descubrieran que se estaban recortando las imágenes previas que se reflejan cuando los usuarios visitan sus páginas de inicio. Es decir, el algoritmo recortaba las vistas previas de las fotos para enseñar únicamente los rostros de personas blancas.”

En un principio, Twitter se mostró reacio a aceptar que se trataba de un error, asegurando que la selección era completamente aleatoria.

En una de sus declaraciones ante la prensa, la empresa externó que “Nuestro equipo hizo un test de sesgo y no encontró evidencia de sesgo racial o de género. Pero lo que sí queda claro a partir de estos ejemplos es que aún tenemos mucha más investigación por realizar. Continuaremos compartiendo nuestros hallazgos, y compartiremos nuestros análisis de manera que otros puedan analizarlo y replicarlo.”

Tony Arcieri, programador de Twitter, dio un ejemplo de este problema de programación con una imagen en la que se incluía al senador Mitch McConnell y al expresidente Barack Obama. En esta demostración, se encontró que la vista previa únicamente enseñaba el rostro de McConnell, aún cuando Arcieri intercambió la posición de la imagen y los colores.

Barack Obama en el escenario para el mitin de la campaña presidencial
Foto: Shutterstock

Este mismo ejemplo se replicó con otra imagen en la que se mostraban dos personajes de la caricatura ‘Los Simpson’: Lenny, un personaje blanco, y Carl, afroamericano. En esta ocasión, Twitter recortó a Carl y únicamente procedió a mostrar en la vista previa a Lenny.

Twitter se disculpa: ¿Qué medidas tomará la aplicación para reparar esta falla?

Twitter ha salido ya a disculparse por este error, y ha declarado que implementará acciones contundentes para evitar que esto vuelva a ocurrir en un futuro, asegurando que no tenía conocimiento al respecto de esta falla.

Uno de los primeros pasos ha sido anunciado, y consistirá en la eliminación de las vistas previas; es decir, que en el futuro los usuarios que deseen publicar imágenes en twitter podrán ver la totalidad de la foto, en lugar de solo una vista previa seleccionada de manera aleatoria por la plataforma.

En el blog, también se señaló que “Aún hay mucho trabajo por realizar, pero estamos agradecidos por todas las personas que alzaron la voz y que compartieron esta retroalimentación con nosotros. Estamos dispuestos a mejorar, e iremos compartiendo futuras actualizaciones y mejoras tan pronto como las tengamos.” finalizaron.

Esta falla en twitter reportada por los usuarios representa un golpe más para sus usuarios, quienes en los últimos meses han acusado a la plataforma no solo de sesgo racial en sus imágenes, sino de una supuesta censura hacia la libertad de expresión.

Esto se ha dado a partir del reciente diagnóstico de Covid-19 presentado por el presidente Donald Trump, el cual ha generado una serie de comentarios que Twitter ha catalogado como violentos.

En este caso, la aplicación ha declarado que recurrirá a medidas como la prohibición de este tipo de mensajes, así como una suspensión temporal o definitiva de las cuentas que publiquen mensajes catalogados como violentos en repetidas ocasiones.

Trump se quita mascarilla
Foto: GettyImages
Artículo relacionado
Regresar al Inicio