L’IA au service des banques : vers une discrimination invisible ?

Imaginez : vous êtes une femme, un immigrant, êtes issu d’un quartier populaire ou encore avez un emploi avec des revenus qui varient selon les saisons. Même avec un bon dossier, une analyse basée sur un algorithme pourrait être utilisée pour vous refuser un crédit … simplement parce que des caractéristiques similaires d’autres profils ont historiquement présenté des défauts de paiement ou se sont déjà vu refuser des crédits.

L’intelligence artificielle transforme le secteur bancaire : rapidité, efficacité, rentabilité. Néanmoins, derrière cette apparente neutralité algorithmique se cache une menace bien réelle. Si les données qui nourrissent ces systèmes sont biaisées, ce qui est souvent le cas, les IA sont formées à… discriminer.

Les biais ne sont pas toujours visibles : genre, origine, lieu de résidence, type de profession, tout peut être indirectement utilisé pour consolider un critère d’exclusion.

Avec Aziza Halilem et Kandet Oumar, à partir d’articles scientifiques, nous avons résumé en moins de 1000 mots ce qu’il faut comprendre de l’adoption d’outils basés sur les IA dans le secteur bancaire, les enjeux, les dérives et les pistes d’action.

Poursuivez la lecture au lien suivant sur TheConversation :

https://theconversation.com/ia-et-credit-comment-eviter-que-les-machines-ne-contribuent-a-reproduire-nos-biais-sociaux-252152

💬 Poursuivez la discussion sur LinkedIn et contribuer à la vulgarisation en partageant le post.

L’utilité publique, ça se partage😉 L’utilité publique, ça se discute! 🗣️

Laisser un commentaire