The New Jim Crow: Unmasking Racial Bias in AI Facial Recognition Technology within the Canadian Immigration System
The McGill Law Journal is now open access. To see the full article, please click here.
La Revue de droit de McGill est maintenant en libre accès. Pour voir l’article complet, veuillez cliquer ici.
Despite its purported neutrality, AI-based facial recognition technology (FRT) exhibits significant racial bias. This paper critically examines the integration of FRT within the Canadian immigration system. The paper begins with an exploration of the historical evolution of AI in border control—once rooted in physical barriers—which now relies on biometric surveillance that risks replicating historical patterns of racial discrimination.
The paper further contextualizes these issues within the broader discourse of algorithmic racism, highlighting the risks of embedding historical racial injustices into AI-powered immigration systems. Drawing a parallel between FRT and Jim Crow laws that segregated and marginalized Black communities in the United States, it argues that biased FRT systems function as a modern mechanism of racial exclusion, risk denying Black and racialized immigrants access to refugee protection, and exacerbating deportation risks. It warns against the normalization of AI use in immigration decision-making without proper oversight, transparency, and regulatory safeguards.
The paper concludes by calling for enhanced government transparency and adherence to procedural fairness in the deployment of FRT within the Canadian immigration system. It further advocates for a “technological civil rights movement” to ensure that AI technologies, including FRT, uphold human rights and promote equity rather than perpetuate systemic racism.
Malgré sa neutralité prétendue, la technologie de reconnaissance faciale (TRF) alimentée par l’intelligence artificielle (IA) fait preuve de préjugés raciaux importants. Cet article examine critiquement l’intégration de la TRF dans le système d’immigration Canadien. Il commence avec une exploration de l’évolution historique de l’IA dans le contrôle des frontières — autrefois ancré dans les barrières physiques — qui se repose désormais sur la surveillance biométrique qui risque de reproduire les schémas historiques de la discrimination raciale.
L’article discute davantage ces questions dans le contexte plus étendu du racisme algorithmique, en soulignant les risques d’intégration des injustices raciales historiques dans les systèmes d’immigration alimentés par l’IA. En établissant un parallèle entre la TRF et les lois Jim Crow qui ségréguaient et marginalisaient les communautés noires aux États-Unis, cet article affirme que les systèmes de TRF biaisés fonctionnent comme un mécanisme moderne d’exclusion raciale qui risquent de priver les immigrants noirs et racialisés d’accès à la protection des réfugiés et d’exacerber les risques d’expulsion. Il met en garde contre la normalisation de l’utilisation de l’IA dans la prise de décision en matière d’immigration sans surveillance, transparence et garanties réglementaires adéquates.
L’article se conclut en faisant appel à une plus grande transparence gouvernementale et au respect de l’équité procédurale dans le déploiement du TRF au sein du système d’immigration Canadien. Il préconise en outre un « mouvement technologique des droits civiques » afin de s’assurer que les technologies de l’IA, y compris la TRF, respectent les droits de l’homme et favorisent l’équité au lieu de perpétuer le racisme systémique.
* PhD; Associate Professor and University Research Chair (AI and Law), Faculty of Law, University of Calgary. gideon.christian@ucalgary.ca. The author is grateful for the collaborative support provided by the Alberta Civil Liberties Research Centre (ACLRC) at the University of Calgary and for the research assistantship provided by Onyinye Odita, Karishma Akbari, Chidinma Duruiheoma, and Sabiha Meghji. Heartfelt thanks to the editors at the McGill Law Journal for their thoughtful review and feedback on the draft paper. This research project was funded by the Office of the Privacy Commissioner of Canada (OPC). The views expressed herein are those of the author and do not necessarily reflect those of the OPC.
.