[ethicalsofwaretesting] References

  • From: Adam L Smith <adamsmith@xxxxxxxxxxxxxxxxxxx>
  • To: ethicalsofwaretesting@xxxxxxxxxxxxx
  • Date: Thu, 14 Jun 2018 09:16:57 +0200

The following sources were referenced in the preparation of the latest
presentation I've given on the topic of algorithmic bias, and testing
for it.

[Galhotra et al., 2017, Fairness Testing: Testing Software for
Discrimination] 

[Tramer et al., 2016, “Discovering Unwarranted Associations in
Data-Driven Applications with the FairTest Testing Toolkit.”] 

IEEE Ethically Aligned Design Paper v2

  T. Calders and S. Verwer, “Three naive Bayes approaches for
discrimination-free classification,”

Data Mining and Knowledge Discovery, vol. 21, no. 2, pp. 277–292, Sep. 2010

B. T. Luong, S. Ruggieri, and F. Turini, “k-NN as an implementation of
situation testing for discrimination discovery and prevention,” 2011, p.
502.

D. Reisman, J. Schultz, K. Crawford, and M. Whittaker, “ALGORITHMIC
IMPACT ASSESSMENTS:,” p. 22.     

S. Ruggieri, “Using t-closeness anonymity to control for
non-discrimination,” p. 31, 2014. 

S. Ruggieri, D. Pedreschi, and F. Turini, “Data mining for
discrimination discovery,”

ACM Transactions on Knowledge Discovery from Data, vol. 4, no. 2, pp.
1–40, May 2010.

M. Veale, M. Van Kleek, and R. Binns, “Fairness and Accountability
Design Needs for Algorithmic Support in High-Stakes Public Sector
Decision-Making,” 2018, pp. 1–14.

Themis is a software fairness tester. LASER, 2018.

  “Amazon Doesn’t Consider the Race of Its Customers. Should It?”
[Online]. Available:
https://www.bloomberg.com/graphics/2016-amazon-same-day/.

 “Artificial intelligence copies human stereotypes in language, study
reveals | WIRED UK.” [Online]. Available:
https://www.wired.co.uk/article/machine-learning-bias-prejudice.  

“Big Data techniques to measure credit banking risk in home equity
loans.pdf.” .  “Can We Keep Our Biases from Creeping into AI?” [Online].
Available:
https://hbr.org/2018/02/can-we-keep-our-biases-from-creeping-into-ai. 

“Computer Says No: Part 1 - Algorithmic Bias - RSA.” [Online].
Available:
https://www.thersa.org/discover/publications-and-articles/rsa-blogs/2018/03/computer-says-no-part-1---algorithmic-bias?utm_medium=social&utm_source=twitter&utm_campaign=march-18-blogs&utm_content=report.
 


“How big data is unfair – Moritz Hardt – Medium.” [Online]. Available:
https://medium.com/@mrtz/how-big-data-is-unfair-9aa544d739de. 

“Machines Learn a Biased View of Women | WIRED.” [Online]. Available:
https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women/.
 


“Probing the Dark Side of Google’s Ad-Targeting System - MIT Technology
Review.” [Online]. Available:
https://www.technologyreview.com/s/539021/probing-the-dark-side-of-googles-ad-targeting-system/.
  


“The New Hot Take: Machine Learning is Racist – Towards Data Science.”
[Online]. Available:
https://towardsdatascience.com/the-new-hot-take-machine-learning-is-racist-1319943cf1fe.
  


“Written evidence - Dr Ansgar Koene.” [Online]. Available:
http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/artificial-intelligence-committee/artificial-intelligence/written/70498.html.
[Accessed: 17-Apr-2018].

-- 

 

Adam L Smith CITP

CTO, *Piccadilly Group* <http://www.piccadillygroup.com/>

+44 20785 14462 // +44 75407 64821

twitter: @adamleonsmith <https://twitter.com/adamleonsmith>

*/Is AI the next step in the evolution of management? See our AI
platform...meet neuro! <https://www.myneuro.ai>/*/

/Shortlisted for “Machine Learning / AI Project of the Year 2018” in the
Digital Technology Leader Awards/

/

Other related posts:

  • » [ethicalsofwaretesting] References - Adam L Smith