Une grande partie de notre environnement construit a historiquement été conçu pour les hommes, par les hommes. Oui, des progrès ont été réalisés au cours des dernières années et décennies, mais certains standards et suppositions sont ancrés et leurs effets persistent.
Tout, de la conception des salles de bains aux réglages standard des thermostats, a été calculé en fonction des besoins d’un homme moyen d’âge moyen. Mais demandez à la plupart des femmes, à un utilisateur de fauteuil roulant, à un père célibataire ou aux personnes âgées si les installations de leur bureau ou de leur centre commercial local leur conviennent, et la réponse pourrait être décourageante.
Alors que se passe-t-il lorsque nous utilisons des exemples passés pour former l’intelligence artificielle et les modèles d’apprentissage automatique qui concevront l’avenir ? Nous obtiendrons plus de la même chose.
Et que se passe-t-il lorsque les données sur les prêts de crédit sont utilisées pour former des modèles d’évaluation de la solvabilité future ? Si des segments de la société sous-représentés ou précédemment défavorisés ont historiquement reçu moins de financement, alors le modèle de données peut “apprendre” cela en tant que règle et perpétuer le biais, conduisant à un accès encore plus inégal au crédit pour les femmes et les autres.
Si un système de gestion des bâtiments est formé sur des réglages de température historiques, qui ont été conçus en utilisant le corps masculin comme point de référence, alors il ne fera qu’appliquer plus de la même chose. Ou si un programme architectural d’IA conçoit automatiquement des salles de bains en fonction de ce qui a été fait dans le passé, il ne saura pas que ce qui existe actuellement ne répond pas aux besoins différents des femmes.
Les modèles de données utilisés pour la planification des villes intelligentes ne tiennent peut-être pas compte pleinement des besoins spécifiques et des préférences des femmes ou des personnes handicapées. Par exemple, les modèles de données sur les transports peuvent prioriser la construction de routes par rapport à des infrastructures favorables aux piétons, ce qui peut potentiellement avoir un impact sur la sécurité et la mobilité dans les zones urbaines pour tous.
L’industrie de l’immobilier évolue rapidement pour tirer parti des données et de l’analyse dans différents domaines, notamment l’évaluation des biens immobiliers, les décisions d’investissement, l’analyse du marché et l’évaluation des risques. Les algorithmes d’apprentissage automatique peuvent aider à prévoir les prix des biens immobiliers, recommander des opportunités d’investissement et améliorer l’expérience client. Avec la technologie à la base de la transformation et des décisions de l’industrie, l’importance des perspectives diverses dans le processus de modélisation des données – et les données elles-mêmes – devient encore plus critique.
Malgré les avantages de la prise de décision basée sur les données, il existe des risques inhérents de biais dans les ensembles de données, les modèles et les résultats. Les biais peuvent découler des données historiques qui reflètent les normes sociales injustes et les stéréotypes de genre, entraînant la perpétuation des disparités basées sur le genre dans le futur. Pour garantir des résultats justes et impartiaux, il est impératif de maintenir des ensembles de données équilibrés et représentatifs.
Il est clair que l’efficacité et la réussite des modèles de données et de l’intelligence artificielle dans l’immobilier dépendront de la diversité des perspectives apportées. Les femmes, avec leurs compétences et leurs perspectives uniques, peuvent jouer un rôle essentiel pour surmonter les biais dans les données et les modèles, tout en garantissant des résultats inclusifs dans l’ensemble de l’industrie immobilière.
Les femmes apportent de l’empathie et des perspectives diverses à l’analyse des données, contribuant à s’assurer que les ensembles de données sont bien équilibrés et exempts de biais de genre, ainsi que d’autres préjugés ou prédispositions potentiellement injustes envers d’autres segments de la société, qu’il s’agisse de la race, de l’aptitude ou de la sexualité.
En scrutant les modèles et en remettant en question les suppositions sous-jacentes, les femmes peuvent apporter des points de vue uniques pour aider à identifier les problèmes potentiels dans les données et les résultats, conduisant à des résultats plus précis et équitables.
La capacité des femmes à interpréter les tendances d’une perspective sociale plus large garantit que les informations basées sur les données sont conçues pour l’ensemble de la population. La considération inhérente des femmes pour les populations utilisatrices diverses leur permet de reconnaître les défauts des modèles d’IA/apprentissage automatique qui peuvent exclure ou mal représenter certains segments de la société. En posant des questions qui répondent aux besoins divers des utilisateurs, les femmes contribuent à des processus de prise de décision inclusifs.
L’intégration des femmes dans le domaine des données et de l’analyse dans l’industrie immobilière, comme nous le faisons chez Cushman & Wakefield | BROLL, est une étape transformatrice vers un avenir plus juste et inclusif. En apportant des compétences et des perspectives diverses au premier plan, les femmes jouent un rôle essentiel dans la réduction des biais, la reconnaissance des problèmes potentiels et l’amélioration globale du processus de prise de décision. Leurs contributions inestimables garantissent que les informations basées sur les données répondent aux besoins de toutes les parties prenantes, ouvrant la voie à une industrie immobilière prospère et équitable. L’adoption de la diversité dans les données et l’analyse donne à l’industrie les moyens de relever les défis et d’embrasser un avenir de croissance inclusive et dynamique.
Jess Cleland, Directrice : Analyse stratégique et innovation, Cushman & Wakefield | BROLL.
Retour à l’accueil Worldnet