Nuestra NEBRIJA 34 - julio 2020

20 Entrevista Humanos en Entornos Digitales de la Universidad de Deusto, y la figura del compliance officer en las empresas… ¿seguimos el rumbo correcto? Al menos en Europa vamos dando pasos en la línea ade- cuada. Queda mucho por hacer, pero se avanza en in- corporar a la agenda de los políticos la enorme preocupa- ción por el dato y, sobre todo, por la gestión de nuestros datos. También se empiezan a plantear iniciativas teniendo en cuenta los efectos éticos tanto en el diseño de estas herramientas como en sus soluciones. Por ejemplo, en la despersonalización de la res- ponsabilidad ante las decisio- nes que pueda tomar un algo- ritmo. Podemos ser optimistas. Ahora bien, la tan necesaria regulación no es una realidad en países que lideran la indus- tria “digital”. Y competimos en un mundo globalizado donde, por mucho que hagamos en una empresa, país o unión po- lítica de países, de nada sirve si otros no actúan de la misma manera. Solo hará que compi- tamos en peores circunstan- cias, dado que la regulación nos condicionará y a ellos no. No soy muy optimista en este aspecto. En esta búsqueda ética apela a la responsabilidad de los ciudadanos y no solo de los diseñadores de algoritmos. ¿Qué consejos puede darles si la mayoría “se siente bien en la pasividad de sus sillas frente a sus pantallas”? Somos corresponsables. Nues- tra pasividad es cómplice del uso de nuestros datos. No nos autoengañemos pensando que es un mal menor para poder utilizar todas las ventajas de las tecnologías. Con nuestros datos se enriquecen empresas, se nos puede controlar, se nos puede vigilar; no somos anó- nimos. Es muy importante que seamos conscientes de que hacer clic tiene consecuencias. “Nadie valida las tripas del cálculo. Podemos estar inmersos en el comienzo de un proceso de obsolescencia humana al dejar que sean las máquinas quienes tomen decisiones”. ¿Una sociedad hipertecnológica necesita una visión humanista? Es una de las cuestiones más relevantes. Los algoritmos nos van a servir, cada vez más, para los procesos de toma de decisiones. Algunas de esas decisiones pueden perfecta- mente afectar a juicios morales. No deberíamos dejar que las “máquinas” tomen decisiones por nosotros, sobre todo, si son decisiones que tienen que ver con juicios éticos o morales. Los propios diseñadores de los algoritmos deberían tener esto presente. Es muy impor- tante que no perdamos la re- ferencia humana para no caer en una obsolescencia humana de complejas consecuencias. Es francamente necesario que incorporemos una visión huma- nista y que no dejemos al libre devenir la tecnología. Resulta complicada la batalla por nuestra intimidad como usuarios, “materia prima” con la que las grandes corporaciones comercian. No obstante, propone recibir un dinero o salario a cambio de nuestros datos personales, lo que podría mitigar “el posible desempleo que se nos viene encima”. ¿Lo ve realmente factible? El dato es el nuevo oro negro, el nuevo petróleo. Nos hemos convertido en materia prima para grandes empresas, cor- poraciones y países que se enriquecen con nuestros da- tos, que generamos solo por movernos, por el simple hecho de vivir en un mundo conecta- do. Debería articularse una for- ma para que esa riqueza que generamos también compen- se los desequilibrios que esta transformación va a traer al mercado de trabajo. En La humanización de la era digital pone de manifiesto la uberización del trabajo, la confusión en el estatus del trabajador e incluso la “nueva” clase social de los precarios. ¿Qué alternativas hay si un software o un algoritmo determina la productividad? El problema vamás allá de si un algoritmo determina la produc- tividad o no de un trabajador. El problema es que la interme- “ N os hemos convertido en materia prima para grandes empresas , corporaciones y países que se enriquecen con nuestros datos ”

RkJQdWJsaXNoZXIy MjgwMjY=