Les préjugés algorithmiques liés à l'âge font l'objet de peu de discussions.
Les algorithmes sont attaqués, mais jusqu'à présent, le score semble être :
Machines : 1, Humains : 0.
Si nous n'avons pas encore atteint le stade de Skynet Armageddon, les machines font des progrès considérables pour suivre et exploiter les différentes formes de vie à base de carbone sur la planète.
Avant de nous plonger dans les détails, voyons où en est la situation dans la culture populaire.
Nous avons déjà examiné le docufilm The Social Dilemma de Netflix et souligné les problèmes liés à la façon dont les entreprises de médias sociaux compromettent notre vie privée en général. J'ai également jeté un œil à la série télévisée de 2019 All Hail the Algorithm. Son quatrième épisode se concentre sur l'abus potentiel de la biométrie - et, en particulier, sur la façon dont nous avons peu ou pas de contrôle sur la façon dont nos visages et d'autres données biométriques sont utilisés et peuvent être abusés.
C'est également le sujet du dernier documentaire de Netflix, Coded Bias, sorti l'année dernière. Le film couvre les problèmes liés à l'utilisation d'algorithmes pour prendre des décisions concernant l'embauche et le licenciement d'employés, la surveillance des personnes en liberté conditionnelle, et la façon dont la Chine a déployé son logiciel de reconnaissance faciale pour suivre ses citoyens et authentifier leurs achats et leurs déplacements.
Le film suit quelques activistes de l'IA qui tentent d'obtenir du Congrès américain l'adoption de lois (telles que l'Algorithm Accountability Act) pour réglementer la manière dont les algorithmes interagissent avec nous et pour déterminer qui a droit à un recours juridique lorsque les algorithmes tournent mal. Il retrace également l'histoire de l'origine du groupe appelé Algorithmic Justice League, qui a été montré en train de documenter certains des abus les plus flagrants de la partialité de l'IA.
Enfin, l'automne dernier, nous avons abordé la question des préjugés inhérents aux algorithmes d'IA dans le cadre de notre couverture de la conférence CyberSec&AI Connected. Nous avons soulevé certains des nombreux problèmes liés à la partialité - des problèmes qui ne font que s'aggraver. Jetez un coup d'œil à cette ressource, où vous pouvez déterminer quelles villes aux Etats-Unis ont interdit les outils de reconnaissance faciale, quels espaces publics (comme les aéroports) utilisent ces outils, et d'autres données. En outre, des études montrent comment le biais de l'IA est utilisé pour prédire les futurs criminels, utilisé dans les directives de condamnation par les juges dans les procès criminels.
Alors que les questions de justice sociale impliquant des algorithmes continuent de recevoir une certaine attention, il y a peu de discussion autour du biais algorithmique âgiste.
Comment l'âgisme persiste dans la culture moderne
Comme l'a proclamé l'humoriste Bill Maher en 2014, « l'âgisme est le dernier préjugé acceptable en Amérique ». Il avait raison à l'époque, et c'est (malheureusement) toujours le cas aujourd'hui. Une grande partie des recherches susmentionnées concerne l'embauche de personnes âgées.
Mais ce que l'IA crée peut parfois être résolu par des modèles d'IA mieux entraînés aussi. Des recherches ont été menées sur la façon dont les modèles d'IA peuvent être utilisés pour identifier cette discrimination à l'embauche.
Si l'embauche est basée sur les compétences et les performances, les managers peuvent égaliser les chances des travailleurs âgés. Comme Hari Kolam, PDG de la plateforme d'intelligence humaine Findem, cité dans l'article ci-dessus, « l'âgisme est ironique, car il est si répandu et a des effets si retentissants sur ceux qui cherchent un emploi et sur la diversité de la main-d'œuvre en général ». Mais il n'est pas nécessaire d'être aussi sophistiqué pour être biaisé : Si votre annonce recherche des candidats qui sont « énergiques » et « sur un parcours professionnel à croissance rapide » plutôt que « chevronnés » ou « expérimentés », elle peut, par inadvertance, être biaisée en faveur d'un groupe de candidats plus jeunes », explique M. Kolam.
Le lien entre les préjugés à l'embauche et la désinformation
Mais les préjugés à l'embauche ne sont qu'un endroit pour les algorithmes âgistes. « Pour les personnes âgées, on s'inquiète du fait que les biais algorithmiques pourraient avoir des impacts discriminatoires dans les domaines des soins de santé, du logement, de l'emploi, ainsi que dans les questions bancaires et financières ». Ces propos proviennent du projet Get Older Adults Online, qui craint que ces biais n'entraînent une désinformation des aînés ou diverses formes de discrimination. Il est certainement temps de rendre les algorithmes d'IA plus inclusifs, tant en ce qui concerne l'âge que les origines culturelles des personnes potentielles qui font partie du modèle.
Pour en savoir plus :
Guide du citoyen pour reconnaître les infox
Éradiquer les fake news : s’interroger avant de partager
En dehors de l'IA, il y a un problème plus important : filtrer les fausses informations est une tâche énorme, et même les meilleurs d'entre nous ont des problèmes avec le transfert par inadvertance d'e-mails ou le partage de contenu de réseaux sociaux contenant des fake news (ou pire encore, avec des liens infestés de logiciels malveillants).
Pour les aînés qui utilisent les réseaux sociaux, nous vous recommandons d'examiner comment mieux protéger vos comptes de médias sociaux, par exemple en utilisant des mots de passe uniques et en faisant attention à ce sur quoi vous cliquez, en particulier les sites qui proposent des offres trop belles pour être vraies.
Avast est un leader mondial de la cybersécurité et de la protection de la vie privée avec des centaines de millions d'utilisateurs dans le monde. Protégez tous vos appareils avec notre produits antivirus, anti-ransomware et de protection de la vie privée.