Tecnología para los negocios - ¿Son los algoritmos racistas?


¿Son los algoritmos racistas?

En plena era en la que los derechos humanos, particularmente el de la igualdad, han adquirido una importancia fundamental por los múltiples movimiento que reclaman una defensa real de los mismos, la tecnología continúa avanzando y algunos expertos creen que podríamos estar ante una discriminación racial tecnológica.

No es la primera vez que se lanza al aire el titular de los algoritmos racistas, pero hoy en nuestro blog queremos indagar un poco más sobre si esto es una realidad, por qué podría producirse y hasta qué punto es posible evitarlo.

Hace algún tiempo, el ingeniero Arcieri publicó dos fotografías que ponían en entredicho al algoritmo de Twitter. De hecho, el tweet se hizo viral y a partir del mismo surgieron varios reportajes, entrevistas y cobertura de informaciones similares en las que se debatía sobre el asunto a finales del año pasado.

Ahora que aquella viralidad deja paso a un análisis más calmado, analizamos si ese supuesto racismo es real.

Algoritmos racistas vs información sesgada

Una de las cuestiones que más controversia genera entre los que defienden que no tiene sentido alguno hablar de algoritmos racistas y que bien puede ser un razonamiento objetivo es que solo los humanos tienen capacidad para comportarse de un modo u otro, y por ende, para tener comportamientos racistas o no tenerlos.

Sin embargo, los algoritmos no cuentan con esa habilidad, puesto que en la actualidad, incluso aquellos que funcionan con Inteligencia Artificial se basan en una serie de datos masiva que introducen personas.

Lo que muchos defienden como correcto a la hora de debatir este tema es hablar de información sesgada en la programación del algoritmo que puede generar selecciones o resultados racistas, y no de algoritmos racistas como tal.

Puede que todo cobre mayor claridad si empezamos a comprender este tema desde el inicio. La pregunta de ¿qué es un algoritmo? es probablemente la clave.

El diccionario señala:

“Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas”.

¿Pueden ser las operaciones matemáticas racistas? Lo cierto es que difícilmente, porque los cálculos no distinguen entre cualidades de las personas, de hecho, esa materia queda completamente fuera de su estudio que son los números.

Así parece que los que señalan que es impreciso y confuso hablar de algoritmos racistas llevan razón.

Indagando más allá, los algoritmos que actualmente se utilizan con inteligencia artificial se basan en una especie de aprendizaje automático. El mismo sigue un patrón diseñado por humanos en los que se le indica a la máquina qué patrones debe seguir, proporcionándole ejemplos iniciales que luego la máquina utiliza para “aprender” y proseguir en los resultados. 

El problema está en esa fase inicial de selección que lleva al ordenador a incidir en un sesgo que luego repite a lo largo del proceso de “autoaprendizaje”.

Sesgos en los algoritmos con resultados de racismo ¿cómo evitarlos?

Todo parece indicar que el problema de los sesgos raciales está en la selección inicial de los datos y de las premisas para que la máquina distinga entre los mismos. Por tanto, las mejoras a implementar deben basarse en esos dos factores: el humano y el de la ampliación de los supuestos tras un análisis de los problemas que se han generado previamente.

Amazon AI: buscando soluciones tecnológicas a los sesgos que provocan racismo

Obviamente, los gigantes tecnológicos son conscientes de la importancia que tiene desarrollar soluciones innovadoras que impidan estos sesgos raciales. Uno de los que ha anunciado públicamente una herramienta específica para solventarlos es Amazon.

Concretamente en el departamento de inteligencia artificial (Amazon IA), su vicepresidente Swami Sivasubramanian adelantó que ya estaban implementando la herramienta SageMaker Clarify. Al parecer, se trata de un recurso que permite a los que trabajan en el diseño de los datos que se entregan al algoritmo detectar posibles perjuicios en los mismos que luego inciden en el entrenamiento posterior. De esta manera, se reducirían los resultados que generan situaciones de racismo.

A todo ello hay que añadir que algunas otras compañías buscan trabajar también en el factor humano. Considerando que los errores se derivan de esa primera selección de datos, y que la misma se hace por humanos, se debe mejorar la formación de los recursos humanos de la empresa para que comprendan qué deben cambiar, omitir u añadir para evitar los errores que luego reproduce la máquina.

Probablemente el asunto de los algoritmos con sesgos raciales no sea un tema preocupante en la pyme actual porque todavía no han alcanzado cuotas de digitalización en las que la inteligencia artificial se encargue de procesos de comunicación u otros procesos en los que las personas tienen un papel relevante.

Pero vistos los avances en la digitalización que se han vivido en la última década, y la relevancia que tiene la igualdad en los planes de responsabilidad social corporativa, se estima que pronto toda esa tecnología que hoy está naciendo sea de uso común incluso en empresas de dimensiones más reducidas.

Fuente: https://diarioti.com/nueva-herramienta-de-aws-busca-mitigar-prejuicios-en-ia/115176,  IMAGEN: Anthony Choren

Danos tu opinión

1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (No hay valoraciones)
Cargando...

SUSCRÍBETE A NUESTRO BOLETÍN

Recibe, cada dos semanas, todas las novedades sobre las tecnologías de la información para empresas.

Antes de enviar el presente formulario debe leer nuestra Política de Protección de Datos
que se encuentra disponible pulsando aquí

SOLUCIONES EMPRESAS CLUB CÁMARA TIC

PYMES
MAGNOLIA
AGENCIA USM
BETELING
AVIVA PUBLICIDAD
WOLTERS KLUWER
VODAFONE ESPAÑA
I-TRES TS
BUSINESS GO

EMPRESAS CLUB CÁMARA TIC

PKF Attest
GRUPO SOLUTIA
ALTEN
ROSSELLIMAC
INDEXA GEODATA
SOFTCOM
SOLTEL
HOMETEACHER
ECOTERRAE
GRUPO MPE
TEKNOSERVICE
TEAM2GO
GAMCO
FUJITSU
GRUPO STUDIUM
10CODE
T-SYSTEMS
TEKNEI
QVISION TECHNOLOGIES EUROPE
STARENLARED
ADAMO Business
NUNSYS
ARSYS
SPECIALIST COMPUTER CENTRES (SCC)
XTRARED
MONTERO ARAMBURU ABOGADOS
LAMAIGNERE
DELOITTE
COANDA/KYOCERA
GENERAL MACHINES TECHNOLOGY-GMT
DANTIA TECNOLOGÍA
SEIDOR
VS SISTEMAS
GRUPO A3SATEL
oga
SIGNATURIT
BE BEYOND
BOXPMO PROJECTS
AYESA
BABEL