(en) Pedreshi, « Discrimination-aware data mining », Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, (DOI10.1145/1401890.1401959, lire en ligne, consulté le ).
(en) Sam Corbett-Davies et Sharad Goel, « The Measure and Mismeasure of Fairness: A Critical Review of Fair Machine Learning », Arxiv.org, (lire en ligne).
(en) Kinjal Dave, « Systemic Algorithmic Harms », Data & Society, (lire en ligne).
doi.org
dx.doi.org
(en) Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3, , p. 120–119 (DOI10.1109/2.910905, lire en ligne, consulté le ).
(en) Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33, no 1, , p. 54–62 (DOI10.1109/2.816269, lire en ligne, consulté le ).
(en) Kate Crawford, « Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics », Science, Technology, & Human Values, vol. 41, no 1, , p. 77–92 (DOI10.1177/0162243915589635).
(en) Pedreshi, « Discrimination-aware data mining », Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, (DOI10.1145/1401890.1401959, lire en ligne, consulté le ).
(en) Alessandro Castelnovo, Riccardo Crupi, Greta Greco et Daniele Regoli, « A clarification of the nuances in the fairness metrics landscape », Scientific Reports, vol. 12, no 1, , p. 4209 (ISSN2045-2322, DOI10.1038/s41598-022-07939-1, lire en ligne, consulté le ).
Christine Chevret-Castellani et Sarah Labelle, « Transparence et loyauté, deux motifs de la régulation des algorithmes », Terminal. Technologie de l'information, culture & société, no 124, (ISSN0997-5551, DOI10.4000/terminal.4064, lire en ligne, consulté le ).
(en) Aylin Caliskan, Joanna J. Bryson et Arvind Narayanan, « Semantics derived automatically from language corpora contain human-like biases », Science, (DOI10.1126/science.aal4230, lire en ligne).
Jenna Burrell, « How the machine ‘thinks’: Understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, no 1, , p. 205395171562251 (ISSN2053-9517 et 2053-9517, DOI10.1177/2053951715622512).
Nick Seaver, « Algorithms as culture: Some tactics for the ethnography of algorithmic systems », Big Data & Society, vol. 4, no 2, , p. 205395171773810 (ISSN2053-9517 et 2053-9517, DOI10.1177/2053951717738104).
(en) Alessandro Castelnovo, Riccardo Crupi, Greta Greco et Daniele Regoli, « A clarification of the nuances in the fairness metrics landscape », Scientific Reports, vol. 12, no 1, , p. 4209 (ISSN2045-2322, DOI10.1038/s41598-022-07939-1, lire en ligne, consulté le ).
Christine Chevret-Castellani et Sarah Labelle, « Transparence et loyauté, deux motifs de la régulation des algorithmes », Terminal. Technologie de l'information, culture & société, no 124, (ISSN0997-5551, DOI10.4000/terminal.4064, lire en ligne, consulté le ).
Jenna Burrell, « How the machine ‘thinks’: Understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, no 1, , p. 205395171562251 (ISSN2053-9517 et 2053-9517, DOI10.1177/2053951715622512).
(en-US) « Google Is 2 Billion Lines of Code—And It's All in One Place », Wired, (ISSN1059-1028, lire en ligne, consulté le ).
Nick Seaver, « Algorithms as culture: Some tactics for the ethnography of algorithmic systems », Big Data & Society, vol. 4, no 2, , p. 205395171773810 (ISSN2053-9517 et 2053-9517, DOI10.1177/2053951717738104).
(en) Julia Powles, « New York City’s Bold, Flawed Attempt to Make Algorithms Accountable », The New Yorker, (ISSN0028-792X, lire en ligne, consulté le ).
(en) Catherine D'Ignazio et Lauren F. Klein, « 1. The Power Chapter », dans Data Feminism, MIT Press, (lire en ligne).
(en) Catherine D'Ignazio et Lauren F. Klein, « 2. Collect, Analyze, Imagine, Teach », dans Data Feminism, MIT Press, (lire en ligne).
media.mit.edu
(en) Joy Buolamwini et Timnit Gebru, « Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification – MIT Media Lab », Proceedings of Machine Learning Research, (lire en ligne).
nature.com
(en) Alessandro Castelnovo, Riccardo Crupi, Greta Greco et Daniele Regoli, « A clarification of the nuances in the fairness metrics landscape », Scientific Reports, vol. 12, no 1, , p. 4209 (ISSN2045-2322, DOI10.1038/s41598-022-07939-1, lire en ligne, consulté le ).
newyorker.com
(en) Julia Powles, « New York City’s Bold, Flawed Attempt to Make Algorithms Accountable », The New Yorker, (ISSN0028-792X, lire en ligne, consulté le ).
(en) Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3, , p. 120–119 (DOI10.1109/2.910905, lire en ligne, consulté le ).
(en) Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33, no 1, , p. 54–62 (DOI10.1109/2.816269, lire en ligne, consulté le ).
openedition.org
journals.openedition.org
Christine Chevret-Castellani et Sarah Labelle, « Transparence et loyauté, deux motifs de la régulation des algorithmes », Terminal. Technologie de l'information, culture & société, no 124, (ISSN0997-5551, DOI10.4000/terminal.4064, lire en ligne, consulté le ).
propublica.org
(en) Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine Bias », ProPublica, (lire en ligne)
(en) Aylin Caliskan, Joanna J. Bryson et Arvind Narayanan, « Semantics derived automatically from language corpora contain human-like biases », Science, (DOI10.1126/science.aal4230, lire en ligne).