Activista Black Lives Matter: 'Muchos de los datos son racistas'

92
3
Activista Black Lives Matter: 'Muchos de los datos son racistas'

Ayo Opal Tometi, cofundador de Black Lives Matter, habla en una entrevista con Reuters en Lisboa.

El sector tecnológico puede actuar rápidamente contra el racismo en sistemas como el reconocimientofacial, a medida que aumentan las preocupaciones por el bias racial en la inteligencia artificial, según el cofundador de Black Lives Matter Opal Tometi.

Muchos de los datos son racistas, según el activista estadounidense que cofundó BLM en 2013, muchos de los algorithmos y muchos de los datos son racistas, un portavoz del activista estadounidense que habló en medio de la Cumbre Web de Lisboa.

Dijo que necesitamos tecnología para entender de cualquier manera el racismo surja en las tecnologías que están desarrollando.

La inteligencia artificial puede ser utilizada en varios sectores, desde mejorar la detectación temprana de enfermedades hasta resolver datos y resolver problemas complejos.

Hay preocupaciones acerca de ello.

La ética de las tecnologías de AI se ha visto subestimada en los últimos años, y los críticos dijeron que esos sistemas podrían comprometer la privacidad, apuntalar a grupos marginalizados y normalizar la vigilancia intrusiva.

Algunas compañías de tecnología piensan que alguno reconocimientofacial impulsado por la AI, que son populares entre los minoristas y los hospitales para fines de seguridad, podría ser erróneo.

El miércoles, Facebook dijo que estaba cerrando su sistema de reconocimientofacial, citando preocupaciones sobre su uso, y Microsoft dijo que últimamente esperaría la regulación federal antes de vender la tecnología de reconocimientofacial a la policía.

La policía en los Estados Unidos y Gran Bretaña utilizan el reconocimientofacial para identificar a sospechosos. Un estudio realizado por el National Institute of Standards and Technology de los EE.UU. descubrió que la tecnología no es tan precisa para identificar las caras afroamericanas y asiáticas en comparación con las caras caucas.

El primer arresto sospechoso basado en el reconocimientofacial ocurrió el año pasado en Estados Unidos. El caso se relaciona con el hecho de que la herramienta se ha entrenado en caras blancas como ejemplo de las amenazas causadas por la falta de diversidad en el sector tecnológico.

Las empresas de tecnología deben ser muy cuidadosas porque la tecnología tiene la capacidad de expedir valores que de otra manera llegarían más lentamente, dijo Tometi. El impacto será peor, más rápido a medida que la tecnología acelere todo. Se le dijo a los desarrolladores de software que deben prestar atención a todos los detalles, diciendo que deberían escuchar más a la gente negra.

Decía que siente que las empresas de tecnología tienen una larga vía para construir un puente con la comunidad.

Una de las razones por las que los sistemas de AI no son inclusivos es la composición blanca de los equipos de desarrolladores, según el grupo de defensa digital Algorítmica Justicia League.

Tometi dijo que necesitamos soluciones para el futuro, para los desafíos futuros, pero esas soluciones deben ser muy inclusivas. Necesitan proteger a las comunidades vulnerables y marginalizadas, eso es su deber.