Facebook suma un nuevo escándalo y debió deshabilitar una función
Un vocero de la compañía se disculpó por “un error inaceptable de la inteligencia artificial” y dijo que el software de recomendaciones involucrado fue inhabilitado.
Facebook anunció el viernes que deshabilitó una función de recomendación de tópicos, luego de que asociara erróneamente hombres negros con "primates" en un video publicado de la red social.
Ocurrió en un video de un medio británico donde, al terminar, Facebook preguntaba si el usuario quería "seguir viendo videos sobre primates".
"Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas", se retractó la compañía. "Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo".
El programa de reconocimiento facial ha sido duramente criticado por defensores de derechos civiles, quienes señalan problemas de precisión particularmente con personas que no son blancas.
Según The New York Times, usuarios de la polémica red social en estos últimos días vieron el video de un diario británico protagonizado por hombres negros y recibieron un aviso generado automáticamente preguntando si querían "seguir viendo videos sobre primates" .
Darci Groves, antiguo jefe de diseño de contenido de Facebook, compartió una captura de pantalla de la recomendación. "Este aviso de 'seguir viendo' es inaceptable", escribió Groves en Twitter. "Esto es atroz".
Los problemas y polémicas acarreadas por el reconocimiento facial:
El vocero de Facebook, Dani Lever, dio más precisiones en un comunicado: “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer”.
El problema no es nuevo. Google, Amazon y otras compañías de tecnología han estado bajo escrutinio durante años por sesgos dentro de sus sistemas de inteligencia artificial, particularmente en torno a cuestiones raciales.
Los estudios han demostrado que la tecnología de reconocimiento facial está sesgada en contra de las personas de color y tiene más problemas para identificarlas, lo que lleva a incidentes en los que las personas negras han sido discriminadas o arrestadas debido a errores informáticos .
Por ejemplo, en 2015 Google Photos etiquetó erróneamente imágenes de personas negras como "gorilas". Google dijo que estaba "realmente arrepentido" y que trabajaría para solucionar el problema de inmediato. Más de dos años después, Wired descubrió que la solución de Google era censurar la palabra "gorila" de las búsquedas, mientras que también bloqueaba "chimpancé", "chimpancé" y "mono".
Los problemas racistas también causaron previamente problemas internos en Facebook. En 2016, Mark Zuckerberg, el director ejecutivo, pidió a los empleados que dejaran de poner la frase "Black Lives Matter" y la reemplazaran por "All Lives Matter" en un espacio común en la sede de la empresa en Menlo Park, California.
Cientos de empleados también realizaron una huelga virtual el año pasado para protestar por el manejo de la compañía de una publicación del presidente Donald J. Trump sobre el asesinato de George Floyd en Minneapolis.
Fuente: Clarín