Lo llaman otro caso de inteligencia artificial que salió mal, y Facebook dice que es un error “inaceptable”.

Facebook fue objeto de graves críticas por etiquetar videos de hombres negros como ‘primates’. A veces, para ayudar a personalizar su feed de Facebook, recibirá una notificación que le preguntará si prefiere lo que está viendo.

En este caso, era un video de un hombre negro siendo arrestado por un policía blanco, y apareció la característica de retroalimentación habitual.

El problema es que lo que debería haber sido una pregunta genérica, fue en cambio un insulto racista directo.

Según Republic World: La controversia pasó a primer plano después de que los usuarios de Facebook vieron un video publicado por The Daily Mail, que mostraba a hombres negros en altercados con civiles blancos y policías en Marina.

Una vez que un usuario terminó de ver el clip, apareció un mensaje automático solicitando comentarios sobre su preferencia de visualización. Si bien Facebook a menudo solicita comentarios para mejorar el feed y las recomendaciones de un usuario, surgió una controversia sobre el mensaje del algoritmo de inteligencia artificial en el video de los hombres negros.

El mensaje automático preguntaba: “¿Sigues viendo videos sobre primates?”. El video, fechado el 27 de junio de 2020, no tenía conexión con monos o primates.

Después de que el incidente salió a la luz, Facebook emitió una disculpa por poner la etiqueta ‘primate’ en videos de hombres negros afirmando que había desactivado la función de inteligencia artificial.

Dani Lever, portavoz de Facebook, dijo en un comunicado: “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas “.

Esta no es la primera vez que la inteligencia artificial ha etiquetado incorrectamente a las personas de color. En 2015, Google se disculpó después de etiquetar una foto de dos personas negras como gorilas.

Google Photos tuvo que censurar la palabra ‘gorila’ de sus búsquedas después de que los usuarios se quejaran de que sus amigos negros estaban siendo etiquetados como ‘gorilas’ en sus imágenes.

Al emitir una disculpa por su ‘IA racista’, Google dijo que estaba ‘realmente arrepentido’ y que trabajaría para corregir su algoritmo.

Seamos muy claros, la IA no es racista como lo son las personas detrás de la tecnología.

Según los tiempos de Nueva York:
Google, Amazon y otras compañías de tecnología han estado bajo escrutinio durante años por sesgos dentro de sus sistemas de inteligencia artificial, particularmente en torno a cuestiones raciales.

Los estudios han demostrado que la tecnología de reconocimiento facial está sesgada en contra de las personas de color y tiene más problemas para identificarlas, lo que lleva a incidentes en los que las personas negras han sido discriminadas o arrestadas debido a errores informáticos.