Comment la diversité des sujets de test est un angle mort technologique et que faire à ce sujet


Les gens interagissent avec les machines d’innombrables façons chaque jour. Dans certains cas, ils contrôlent activement un appareil, par ex. B. conduire une voiture ou utiliser une application sur un smartphone. Parfois, les gens interagissent passivement avec un appareil, comme s’ils étaient imagés par un appareil IRM. Et parfois, ils interagissent avec machines sans consentement ni connaissance de l’interaction, comme s’ils étaient scannés par un système de reconnaissance faciale des forces de l’ordre.

L’interaction homme-machine (IHM) est un terme générique qui décrit la façon dont les gens interagissent avec les machines. L’IHM est un aspect clé de la recherche, de la conception et du développement de nouvelles technologies et de l’étude de la façon dont les gens utilisent et sont influencés par la .

Les chercheurs, en particulier ceux qui ont une formation en ingénierie traditionnelle, adoptent de plus en plus une approche centrée sur l’humain pour développer des systèmes et des dispositifs. Cela signifie s’efforcer de développer une technologie qui fonctionne comme prévu pour les personnes qui l’utiliseront, en prenant ce que l’on sait sur les gens et en testant la technologie avec eux. Mais même si les chercheurs en génie accordent de plus en plus la priorité à ces considérations, certains dans le domaine ont un mort : la .

En tant que chercheur interdisciplinaire qui pense l’ingénierie et la conception de manière holistique et expert en dynamique et en matériaux intelligents avec un intérêt pour la politique, nous avons examiné le manque d’inclusion dans la conception technologique, les conséquences négatives et les solutions possibles.

personnes à portée de main

Les chercheurs et les développeurs suivent généralement un processus de conception dans lequel les fonctions et fonctionnalités clés sont testées avant que les produits ne soient rendus publics. Effectués correctement, ces tests peuvent être un élément clé de la conception compatissante. Les tests peuvent inclure des entretiens et des expériences avec des groupes de personnes représentant le public.

Dans le milieu universitaire, par exemple, la plupart des participants à l’étude sont des étudiants. Certains chercheurs tentent de recruter des participants hors campus, mais ces communautés ressemblent souvent à la population universitaire. Par exemple, les cafés et autres entreprises locales peuvent autoriser l’affichage de dépliants dans leurs installations. Cependant, la clientèle de ces établissements est souvent composée d’étudiants, d’enseignants et de personnel scientifique.

Dans de nombreuses industries, les employés servent de preneurs de pour les premiers travaux en raison de la commodité de recruter au sein d’une entreprise. Il est fastidieux d’inclure des participants externes et, lorsqu’ils sont utilisés, ils reflètent souvent la population majoritaire. Ainsi, de nombreuses personnes participant à ces études partagent des données démographiques similaires.






Tahira Reid parle de conception compatissante en ingénierie.

dégâts dans le monde réel

Il est possible d’utiliser un échantillon homogène de personnes lors de la publication de recherches qui font progresser l’ensemble des connaissances sur un sujet. Et certains chercheurs qui mènent des études de cette manière reconnaissent les limites des populations d’étude homogènes. Cependant, lorsqu’il s’agit de développer des systèmes basés sur des algorithmes, de telles omissions peuvent entraîner de réels problèmes. Les algorithmes ne sont aussi bons que les données utilisées pour les créer.

Les algorithmes sont souvent basés sur des modèles mathématiques qui capturent des modèles, puis informent un ordinateur de ces modèles pour effectuer une tâche spécifique. Imaginez un algorithme conçu pour détecter l’apparition de couleurs sur une surface claire. Si l’ensemble d’images utilisé pour former cet algorithme se compose principalement de nuances de rouge, l’algorithme peut ne pas reconnaître la présence d’une nuance de bleu ou de jaune.

En pratique, les algorithmes n’ont pas réussi à détecter les tons de peau plus foncés pour le programme de soins de la peau de Google et dans les distributeurs automatiques de savon ; identifier avec précision un suspect qui a conduit à l’arrestation injustifiée d’un homme innocent à Detroit ; et identifier de manière fiable les femmes de couleur. Joy Buolamwini, chercheuse en intelligence artificielle au MIT, décrit cela comme un biais algorithmique et a longuement discuté et publié des travaux sur ces questions.

De plus, alors que les États-Unis luttent contre le COVID-19, le manque de données de formation diverses sur les dispositifs médicaux est devenu évident. Les oxymètres de pouls, qui sont essentiels pour garder un œil sur votre santé à la maison et indiquer quand vous pourriez avoir besoin d’une hospitalisation, peuvent être moins précis pour les personnes à la peau mélanisée. Ces défauts de conception, comme ceux des algorithmes, ne sont pas inhérents à l’appareil mais peuvent être attribués à la technologie qui a été développée et testée auprès de populations qui n’étaient pas suffisamment diversifiées pour représenter tous les utilisateurs potentiels.

être inclusif

Les chercheurs universitaires sont souvent sous pression pour publier les résultats de la recherche le plus rapidement possible. Par conséquent, il est courant de s’appuyer sur un échantillonnage de commodité, c’est-à-dire des personnes faciles à joindre et auprès desquelles il est facile d’obtenir des données.






https://www.youtube.com/watch?v=gKUTDAVmNtA

De nombreux problèmes, comme ce distributeur de savon automatisé qui fonctionne pour une main blanche mais pas pour une main noire, pourraient être évités grâce à des tests plus approfondis.

Bien qu’il existe des comités d’examen institutionnels pour s’assurer que les droits des participants à l’étude sont protégés et que les chercheurs suivent une éthique appropriée dans leur travail, ils n’ont pas la responsabilité de dicter aux chercheurs qui embaucher. Lorsque les chercheurs sont pressés par le temps, la prise en compte de différentes populations peut entraîner des retards supplémentaires pour les participants à l’étude. Enfin, certains chercheurs peuvent tout simplement ne pas savoir comment diversifier de manière appropriée les sujets de leur étude.

Il existe plusieurs façons pour les chercheurs du milieu universitaire et de l’industrie d’accroître la diversité de leurs bassins de participants à l’étude.

L’une consiste à consacrer du temps au travail inconfortable et parfois difficile d’élaboration de stratégies de recrutement inclusives. Cela peut nécessiter une réflexion créative. L’une de ces méthodes consiste à recruter différents étudiants qui peuvent servir d’ambassadeurs pour différentes communautés. Les étudiants peuvent acquérir une expérience de recherche tout en servant de pont entre leurs communautés et les chercheurs.

Une autre consiste à permettre aux membres de la communauté de participer à la recherche et de donner leur consentement aux technologies nouvelles et inconnues dans la mesure du possible. Par exemple, les équipes de recherche peuvent former un conseil consultatif composé de membres de différentes communautés. Certains domaines incluent souvent un conseil consultatif dans le cadre de leurs plans de recherche financés par le gouvernement.

Une autre approche consiste à inclure dans l’équipe de recherche des personnes qui savent réfléchir aux implications culturelles de la technologie. Par exemple, l’utilisation d’un chien robotisé par le département de police de New York à Brooklyn, dans le Queens et dans le Bronx a suscité l’indignation des habitants. Cela aurait pu être évité s’ils avaient consulté des experts en sciences sociales ou en études scientifiques et technologiques, ou simplement consulté des dirigeants communautaires.

Après tout, la diversité n’est pas seulement une question de race, c’est aussi une question d’âge, d’identité de genre, d’origine culturelle, de niveau d’éducation, de handicap, de maîtrise de l’anglais et même de niveau socio-économique. Lyft a pour mission d’utiliser des taxis robotisés au cours de l’année prochaine, et les experts sont enthousiasmés par les perspectives d’utilisation de taxis robotisés pour transporter les personnes âgées et handicapées. Il n’est pas clair si ces aspirations incluent ceux qui vivent dans des communautés moins riches ou à faible revenu, ou s’ils manquent du soutien familial qui pourrait préparer les gens à utiliser le service. Avant d’utiliser un robotaxi pour transporter des grands-mères, il est important de considérer la diversité des personnes qui expérimenteront la technologie.


Comment étudier la distorsion faciale sans biais ?


Propulsé par La Conversation

Cet article a été republié par The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Devis: How Diversity of Test Subjects is a Technology Blind Spot, and what to do about it (18 janvier 2022), extrait le 18 janvier 2022 de https://phys.org/news/2022-01-diversity-subjects-technology -aboutit.html

Ce document est protégé par le droit d’auteur. Sauf pour le commerce équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est uniquement à des fins d’information.

Laisser un commentaire