Twitter tiene anunció los resultados competencia abierta para encontrar sesgos algorítmicos en su sistema de edición de fotografías. La empresa desactivó el recorte automático de fotografías en marzo después de que los usuarios de Twitter lo probaran el año pasado Caras blancas preferidas frente a las niñas«Entonces» lanzó un algoritmo de error para intentar analizar el problema más de cerca.
La competencia confirmó estos descubrimientos anteriores. El: Publicar arriba demostró que el algoritmo de desarrollo de Twitter es beneficioso para «el color de piel delgado, joven, claro o cálido, la textura de la piel suave y las expresiones faciales estereotípicamente femeninas». Los registros del segundo y tercer lugar mostraron que existía el sistema sesgado hacia las personas con cabello blanco o gris, lo que sugiere discriminación por edad, և En las fotos, prefiere el inglés al árabe.,
En: presentación de estos resultados En la conferencia DEF CON 29, Ruman Chaudhur, líder del equipo META de Twitter (que estudia la ética, la transparencia y la responsabilidad del aprendizaje automático), elogió a los solicitantes por mostrar los verdaderos efectos del sesgo algorítmico.
«Cuando pensamos en los sesgos de nuestros modelos, no es solo académico o experimental […] «¿Pero cómo funciona con nuestra forma de pensar en la sociedad?», Dijo Chaudhour. “Utilizo la frase ‘la vida imita al arte, imita la vida’. Creamos estos filtros porque creemos que son hermosos, terminan aprendiendo nuestros modelos, impulsan estas ideas poco realistas de lo que significa ser atractivo «.
El primer lugar en la competencia se ganó con el premio de $ 3500 Bogdan Kulinich, Estudiante de posgrado de EPFL, Swiss Research University. Kulinich utilizó un programa de inteligencia artificial llamado StyleGAN2 para crear una gran cantidad de rostros realistas, que distinguió por el color de la piel, femenino և rasgos masculinos և delgadez. Luego incorporó estas opciones en el algoritmo de edición de fotos de Twitter para averiguar cuál prefería.
Como señala Kulinich en su resumen, estos sesgos algorítmicos refuerzan el sesgo en la sociedad al cortar literalmente «aquellos que no se ajustan a las preferencias del algoritmo de peso corporal, edad, color de piel».
Estos sesgos también son más frecuentes de lo que cree. Otro concursante, Vincenzo di Cico, quien recibió una mención especial por su enfoque innovador, mostró que el algoritmo de recorte de imágenes también Emoji favorito con tonos de piel más claros en emoji con tonos de piel más oscuros. Entrada del tercer lugar, por: Roya Pakzad, Taraaz, fundador de la Organización de Defensa Tecnológica, descubrió que los sesgos se aplican a las características escritas. El trabajo de Pakzad comparó los memes con la escritura árabe-inglesa, lo que demuestra que el algoritmo corta regularmente la imagen para subrayar el texto en inglés.
Si bien los resultados de la competencia sesgada de Twitter pueden parecer decepcionantes, lo que confirma la naturaleza omnipresente del sesgo público en los sistemas algorítmicos, también muestra cómo las empresas de tecnología pueden combatir estos problemas abriendo sus sistemas al control externo. «La capacidad de las personas que participan en una competencia de este tipo para hundirse en cierto tipo de daño o prejuicio es algo de lo que los equipos corporativos no pueden darse el lujo», dijo Chaudhur.
El enfoque abierto de Twitter contrasta con las reacciones de otras empresas de tecnología cuando se enfrentan a problemas similares. Cuando los investigadores del director del MIT, Joe Buolamvini, se enteraron Sesgo racial և de género en los algoritmos de reconocimiento facial de Amazonpor ejemplo, la empresa lanzó una importante campaña para desacreditar a los involucrados, llamando a su trabajo «Engañoso» և «falso». Después de meses de luchar con los hallazgos, Amazon finalmente cedió a un prohibición temporal sobre el uso de los mismos algoritmos por parte de las fuerzas del orden.
El juez de competencia de Twitter և un investigador de inteligencia artificial que trabaja en la discriminación algorítmica enfatizó que tales sesgos existen en todos los sistemas de inteligencia artificial, ընկեր las empresas deben trabajar duro para encontrarlos. «La inteligencia artificial և el aprendizaje automático es simplemente el salvaje oeste, sin importar qué tan hábil crea que sea su equipo de ciencia de datos», dijo Hall. «Si no encuentra sus errores o no encuentra sus errores, entonces, ¿quién encuentra sus errores? «Porque definitivamente cometes errores».
Beer ninja. Internet maven. Music buff. Wannabe web evangelist. Analista. Introvertido