Si bien los problemas de justicia social que involucran algoritmos reciben atención, hay poca discusión sobre el sesgo algorítmico por edad.
Los algoritmos están siendo atacados, pero hasta ahora, la puntuación parece ser Máquinas: 1, Humanos: 0. Si bien no hemos llegado al punto de Skynet Armageddon, las máquinas están haciendo avances significativos para seguir la pista y aprovechar las diversas formas de vida basadas en carbono en el planeta.
Antes de profundizar en los puntos más finos, repasemos dónde están las cosas en la cultura popular.
Ya hemos revisado la película documental The Social Dilemma de (sitio en inglés) de Netflix y hemos señalado los problemas sobre cómo las empresas de redes sociales comprometen nuestra privacidad general. También eché un vistazo a la serie de televisión de 2019 All Hail the Algorithm (sitio en inglés). Su cuarto episodio se centra en el abuso potencial de la biometría y, en particular, en cómo tenemos poco o ningún control sobre cómo se usan y se pueden abusar nuestras caras y otros datos biométricos.
Este también es el tema del último documental de Netflix, Coded Bias, que se lanzó el año pasado. La película cubre los problemas del uso de algoritmos para tomar decisiones sobre la contratación y el despido de empleados, el monitoreo de personas en libertad condicional y cómo China ha implementado su software de reconocimiento facial para rastrear a sus ciudadanos y autenticar sus compras y movimientos.
La película sigue a algunos activistas de la inteligencia artificial que intentan que el Congreso de los EE. UU. Apruebe leyes (como la Ley de Responsabilidad de Algoritmos) para regular cómo interactúan los algoritmos con nosotros y quién tiene, en última instancia, un recurso legal cuando los algoritmos fallan. También documenta la historia de origen del grupo llamado Liga de la Justicia Algorítmica, (sitio en inglés) a quien se mostró documentando algunos de los abusos más atroces del sesgo de la Inteligencia Artificial.
Finalmente, el otoño pasado, cubrimos el sesgo inherente en los algoritmos de IA como parte de nuestra cobertura de nuestra conferencia CyberSec & AI Connected (sitio en inglés). Planteamos algunos de los numerosos problemas relacionados con el sesgo, problemas que solo parecen estar empeorando. Echa un vistazo a este recurso (sitio en inglés), donde puede trazar qué ciudades ahora tienen prohibiciones en las herramientas de reconocimiento facial, qué espacios públicos (como los aeropuertos) usan las herramientas y otros datos. Además, esta publicación muestra cómo se usa el sesgo de la inteligencia artificial para predecir los futuros delincuentes utilizados en las pautas de sentencia por los jueces en los juicios penales.
Si bien los problemas de justicia social que involucran algoritmos continúan recibiendo cierta atención, hay poca discusión sobre el sesgo algorítmico de edad .
Cómo persiste la discriminación por edad en la cultura moderna
Como proclamó el comediante Bill Maher en 2014, "la discriminación por edad es el último prejuicio aceptable en Estados Unidos". Él tenía razón en ese entonces, y (lamentablemente) todavía lo es hoy. Gran parte de la investigación mencionada se refiere a la contratación de personas mayores.
Pero lo que crea la IA a veces también puede resolverse mediante modelos de IA mejor entrenados, como señala este estudio (sitio en inglés). Se han realizado investigaciones sobre cómo se pueden utilizar los modelos de IA para identificar esta discriminación en la contratación .
Si la contratación se basa en las habilidades y el desempeño, los gerentes pueden nivelar el campo de juego para los trabajadores mayores. Como se citó a Hari Kolam, director ejecutivo de la plataforma de inteligencia de personas Findem, en el artículo anterior, "la discriminación por edad es irónica, ya que es tan frecuente y tiene efectos tan rotundos en quienes buscan trabajo y en la diversidad de la fuerza laboral en general". Pero no tiene que ser tan sofisticado para ser parcial: "Si su ficha busca candidatos que sean 'enérgicos' y 'en una trayectoria profesional de rápido crecimiento' en lugar de 'experimentados' o 'experimentados', podría inadvertidamente tener un sesgo hacia un grupo de solicitantes más jóvenes ”, dice Kolam.
El vínculo entre el sesgo de contratación y la desinformación
Pero el sesgo de contratación es solo un lugar para los algoritmos de discriminación por edad. "Para los adultos mayores, existe la preocupación de que el sesgo algorítmico pueda tener impactos discriminatorios en la atención médica, la vivienda, el empleo y en cuestiones bancarias y financieras". Esto es del proyecto Get Older Adults Online, al que le preocupa que estos prejuicios puedan resultar en información errónea para los ancianos o en diversas formas de discriminación. Sin duda, es hora de hacer que los algoritmos de IA sean más inclusivos, tanto en términos de edad como de antecedentes culturales de las personas potenciales que forman parte del modelo.
Aparte de la inteligencia artificial, hay un problema mayor: filtrar la información errónea es una tarea enorme, e incluso los mejores de nosotros tenemos problemas para reenviar correos electrónicos o compartir contenido de redes sociales que contenga noticias falsas (o peor aún, con enlaces infestados de malware).
Tocamos algunos de estos temas brevemente en una serie de publicaciones de blog sobre seguridad en línea y cómo evitar que los adultos mayores sean estafados en línea. Pero para las personas mayores que usan las redes sociales, le recomendamos que echen un vistazo a cómo proteger mejor sus cuentas de redes sociales, como el uso de contraseñas únicas y tener cuidado con lo que hacen clic, especialmente aquellos sitios que tienen ofertas que son demasiado buenas para ser verdad.