Un algoritmo humano

La tecnología, como ya comentamos en el post sobre biometría ética, debe estar al servicio del hombre y no a la inversa. La acción y la supervisión humana es fundamental. Es por eso que debemos hacer de ella una herramienta que amplíe posibilidades, pero siempre de una forma respetuosa y consecuente. Y para poder dar con una tecnología inclusiva, previamente debemos hacer el ejercicio de reconocer los sesgos que hay en la sociedad y trabajar en algoritmos que aseguren un comportamiento responsable. Si no lo tenemos en cuenta, es posible que prejuicios o discriminaciones queden reflejados en el resultado, entonces habremos fracasado. No se trata de replicar el mundo en el vivimos, sino de crear uno nuevo y mejor.

Desde FacePhi creemos que la inteligencia artificial debe contemplar al usuario como principal prioridad. Por eso diseñamos nuestros algoritmos siguiendo los requisitos obligatorios y necesarios para que, ayudándose de un certero reconocimiento biométrico, no creen ni reproduzcan sesgos. 

Para ello, los datos de los que se nutren nuestros algoritmos, relacionados con el reconocimiento biométrico, son diseñados para asegurar una distribución justa con variedad, cantidad y calidad suficiente a lo largo de los grupos. La raza, el sexo, la edad, la religión, así como otro tipo de características técnicas cómo el tipo de dispositivo de captura, o la posición del objeto, no afectarán entonces al resultado. Estudiamos que no haya una desviación o sesgo que pueda favorecer o perjudicar a alguno de los grupos. 

“The data embeds the past, and not just the recent past, the dark past. So, we need to constantly monitor every process for bias” – Cathy O’neil, Coded Bias

Pero si esta tecnología inclusiva se diseña y utiliza adecuadamente, los sistemas de inteligencia artificial pueden contribuir a reducir los prejuicios y la discriminación estructural existente. Así como facilitar decisiones más equitativas y no discriminatorias como la contratación de personal o la solicitud de créditos.  

Por este motivo, los sistemas de inteligencia artificial deben ser técnicamente sólidos a fin de garantizar que la tecnología se ajuste a su finalidad y los falsos resultados positivos o negativos no afecten de manera desproporcionada a los grupos minoritarios. Para evitarlo debemos entrenarlos y ensayar con conjuntos de datos lo suficientemente representativos y posteriormente velar porque puedan solventarse mediante las medidas apropiadas de detección y corrección de sesgosi