{"id":2742,"date":"2025-03-24T15:56:56","date_gmt":"2025-03-24T15:56:56","guid":{"rendered":"https:\/\/ecjo2.commu.isfsc.be\/?p=2742"},"modified":"2025-08-17T21:14:14","modified_gmt":"2025-08-17T21:14:14","slug":"biais-algorithmiques-les-algorithmes-sont-ils-racistes","status":"publish","type":"post","link":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/2025\/03\/24\/biais-algorithmiques-les-algorithmes-sont-ils-racistes\/","title":{"rendered":"Biais algorithmiques\u00a0: les algorithmes sont-ils racistes\u00a0?"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"850\" height=\"400\" src=\"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing.jpg\" alt=\"\" class=\"wp-image-2752\" srcset=\"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing.jpg 850w, https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-300x141.jpg 300w, https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-768x361.jpg 768w\" sizes=\"auto, (max-width: 850px) 100vw, 850px\" \/><figcaption class=\"wp-element-caption\">&nbsp;<br>Visualisation de ce qu&rsquo;est le&nbsp;\u00ab\u00a0machine learning\u00a0\u00bb. <strong>CC0 1.0<\/strong><\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Le \u00ab machine learning \u00bb, ou apprentissage automatique, serait-il responsable de la cr\u00e9ation de biais algorithmiques qui rendent certaines technologies \u00ab racistes \u00bb ?<\/h3>\n\n\n\n<p class=\"wp-block-paragraph\">Ce terme, devenu incontournable parmi les passionn\u00e9s de technologie ces derni\u00e8res ann\u00e9es, d\u00e9signe un sous-domaine de l\u2019intelligence artificielle (IA). Selon <a href=\"https:\/\/cloud.google.com\/learn\/what-is-machine-learning?hl=fr\" data-type=\"link\" data-id=\"https:\/\/cloud.google.com\/learn\/what-is-machine-learning?hl=fr\">Google Cloud<\/a>, il permet \u00e0 un syst\u00e8me d\u2019apprendre de mani\u00e8re autonome en analysant de grandes quantit\u00e9s de donn\u00e9es. Ce processus permet d\u2019optimiser de nombreuses t\u00e2ches dans divers domaines, qu\u2019il s\u2019agisse d\u2019innovation ou d\u2019applications concr\u00e8tes comme l\u2019investigation polici\u00e8re.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Cependant, cette automatisation n\u2019est pas sans risques. Lorsque les donn\u00e9es utilis\u00e9es pour entra\u00eener les algorithmes refl\u00e8tent des pr\u00e9jug\u00e9s ou des in\u00e9galit\u00e9s d\u00e9j\u00e0 pr\u00e9sentes dans la soci\u00e9t\u00e9, les syst\u00e8mes peuvent reproduire \u2014 voire amplifier \u2014 ces biais. <\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p class=\"wp-block-paragraph\">Cela soul\u00e8ve une question cruciale : nos algorithmes sont-ils vraiment objectifs, ou h\u00e9ritent-ils des discriminations humaines qu\u2019ils sont cens\u00e9s d\u00e9passer ?<\/p>\n<\/blockquote>\n\n\n\n<p class=\"wp-block-paragraph\"> Dans cet article, nous explorerons en profondeur comment et pourquoi ces biais apparaissent, leurs cons\u00e9quences et les pistes pour y rem\u00e9dier.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Comprendre le biais algorithmique<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Qu&rsquo;est-ce qu&rsquo;un biais algorithmique ?<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Un biais algorithmique est une d\u00e9viation syst\u00e9matique des valeurs attendues qui r\u00e9sulte d&rsquo;un algorithme automatis\u00e9 ou d&rsquo;une IA. Contrairement \u00e0 une machine autonome, un algorithme fonctionne en r\u00e8gle g\u00e9n\u00e9rale sur la base de donn\u00e9es pr\u00e9alablement fournies, et si ces donn\u00e9es ne sont pas suffisamment objectives, les r\u00e9sultats finaux seront sans aucun doute biais\u00e9s \u00e9galement. Il existe plusieurs types de ces biais tels que : biais de s\u00e9lection : se produit lorsque les donn\u00e9es d&rsquo;entra\u00eenement disponibles ne refl\u00e8tent pas avec pr\u00e9cision la v\u00e9ritable population. Biais de confirmation : l&rsquo;algorithme privil\u00e9gie des informations pr\u00e9\u00e9tablies qui sont plus susceptibles de renforcer les id\u00e9es existantes. Biais de cadrage : la mani\u00e8re dont une question est pos\u00e9e affecte le r\u00e9sultat. Biais d&rsquo;automatisation : d\u00e9pendance \u00e0 l&rsquo;intelligence des machines pour prendre des d\u00e9cisions sans examen.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Apprentissage automatique et donn\u00e9es : l&rsquo;\u00e9picentre du probl\u00e8me<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">L&rsquo;apprentissage automatique implique l&rsquo;utilisation de grands volumes de donn\u00e9es pour construire des mod\u00e8les capables d&rsquo;identifier des motifs. Cependant, ces donn\u00e9es proviennent des in\u00e9galit\u00e9s sociales, \u00e9conomiques et raciales du monde r\u00e9el. Si les algorithmes sont form\u00e9s \u00e0 partir de telles donn\u00e9es, le biais de la machine peut entra\u00eener le renforcement des in\u00e9galit\u00e9s\u2014parfois \u00e0 un degr\u00e9 encore plus grand.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Pour mieux comprendre le fonctionnement de la reconnaissance faciale face au machine learning, voici une vid\u00e9o qui l&rsquo;explique : <\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"Gender Shades\" width=\"800\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/TWWsW1w-BVo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe> \n<\/div><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Exemples concrets de discrimination accrue<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Les biais algorithmiques ne sont pas un probl\u00e8me th\u00e9orique. Voici quelques exemples concrets qui ont mis en lumi\u00e8re leur impact d\u00e9vastateur :<\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Technologie de reconnaissance faciale : une technologie partielle<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Des \u00e9tudes, comme celles men\u00e9es au <a href=\"http:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\" data-type=\"link\" data-id=\"http:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\">MIT Media Lab<\/a>, ont montr\u00e9 que certains syst\u00e8mes de reconnaissance faciale identifient correctement les visages des hommes blancs plus de 95 % du temps, mais les femmes afro-am\u00e9ricaines peuvent \u00eatre mal identifi\u00e9es 35 % du temps. Cela cr\u00e9e des probl\u00e8mes s\u00e9rieux lorsque ces technologies sont utilis\u00e9es pour la s\u00e9curit\u00e9 ou le maintien de l&rsquo;ordre.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Justice pr\u00e9dictive : l&rsquo;algorithme qui incrimine les individus noirs plus s\u00e9v\u00e8rement<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Le logiciel COMPAS utilis\u00e9 aux \u00c9tats-Unis pour estimer la probabilit\u00e9 qu&rsquo;un prisonnier r\u00e9cidive a montr\u00e9 un biais clair. Il consid\u00e9rera les individus noirs comme plus susceptibles de r\u00e9cidiver que les individus blancs, m\u00eame lorsque les crimes \u00e9taient similaires. Ce type de biais aggrave les in\u00e9galit\u00e9s d\u00e9j\u00e0 existantes dans le syst\u00e8me judiciaire.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Recrutement automatis\u00e9 : quand l&rsquo;IA pr\u00e9f\u00e8re les hommes<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Un outil de recrutement bas\u00e9 sur l&rsquo;IA a \u00e9t\u00e9 cr\u00e9\u00e9 par Amazon. Il a \u00e9t\u00e9 abandonn\u00e9 apr\u00e8s avoir commenc\u00e9 \u00e0 discriminer syst\u00e9matiquement les CV contenant des r\u00e9f\u00e9rences f\u00e9minines. Pourquoi cela ? L&rsquo;algorithme s&rsquo;appuyait sur des donn\u00e9es historiques qui \u00e9taient massivement masculines.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><strong>Syst\u00e8me de sant\u00e9 et discrimination syst\u00e9mique<\/strong><\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Un algorithme utilis\u00e9 dans les soins de sant\u00e9 am\u00e9ricains sous-estimait les soins n\u00e9cessaires pour les patients noirs. Leur historique m\u00e9dical, c&rsquo;est-\u00e0-dire leurs co\u00fbts m\u00e9dicaux, \u00e9tait utilis\u00e9. \u00c9tant donn\u00e9 que les soins \u00e9taient sous-fournis aux Noirs par le syst\u00e8me, ils apparaissaient comme ayant moins besoin d&rsquo;aide.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">D&rsquo;o\u00f9 viennent ces biais ?<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Pour comprendre pourquoi ces biais existent, il faut analyser les diff\u00e9rentes \u00e9tapes des processus de conception de l&rsquo;algorithme :&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Donn\u00e9es biais\u00e9es : Un algorithme ne peut pas \u00eatre meilleur que les informations qu&rsquo;il collecte, et il y a toujours un biais dans les donn\u00e9es.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Objectifs mal d\u00e9finis : Un algorithme con\u00e7u uniquement pour la performance n\u00e9gligera l&rsquo;\u00e9quit\u00e9.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Manque de diversit\u00e9 dans l&rsquo;\u00e9quipe de d\u00e9veloppement : Des \u00e9quipes homog\u00e8nes peuvent manquer certains biais.<\/li>\n<\/ul>\n\n\n\n<p class=\"wp-block-paragraph\">Joy Buolamwini, \u00e9tudiante dipl\u00f4m\u00e9e du MIT, travaillait avec un logiciel d&rsquo;analyse faciale lorsqu&rsquo;elle a remarqu\u00e9 un probl\u00e8me : le logiciel ne d\u00e9tectait pas son visage, car les personnes qui avaient cod\u00e9 l&rsquo;algorithme ne lui avaient pas appris \u00e0 identifier un large \u00e9ventail de teintes de peau et de structures faciales. Aujourd&rsquo;hui, elle s&rsquo;est donn\u00e9 pour mission de lutter contre les pr\u00e9jug\u00e9s dans l&rsquo;apprentissage automatique, un ph\u00e9nom\u00e8ne qu&rsquo;elle appelle le \u00ab regard cod\u00e9 \u00bb. Cet expos\u00e9 nous ouvre les yeux sur la n\u00e9cessit\u00e9 de rendre des comptes en mati\u00e8re de codage, \u00e0 l&rsquo;heure o\u00f9 les algorithmes prennent en charge de plus en plus d&rsquo;aspects de notre vie. <\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"How I&#039;m fighting bias in algorithms | Joy Buolamwini\" width=\"800\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/UG_X_7g63rY?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Quelles sont les solutions propos\u00e9es pour un demain plus \u00e9quitable ?<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Des solutions existent pour att\u00e9nuer certains biais, mais il est n\u00e9cessaire d&rsquo;investir des efforts techniques, humains et r\u00e9glementaires :&nbsp;<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Veiller \u00e0 la diversit\u00e9 dans les donn\u00e9es d&rsquo;apprentissage en incluant des \u00e9chantillons plus repr\u00e9sentatifs pour \u00e9viter les lacunes dans les donn\u00e9es. Assurer la transparence et explicabilit\u00e9, essayer de rendre les algorithmes lisibles pour permettre de comprendre leurs r\u00e9sultats. D&rsquo;autres solutions peuvent \u00eatre propos\u00e9s comme la r\u00e9alisation des audits et contr\u00f4les ind\u00e9pendants pour v\u00e9rifier les syst\u00e8mes avant de les d\u00e9ployer. Insister sur la diversit\u00e9 des \u00e9quipes : Avoir des \u00e9quipes diversifi\u00e9es permet une plus grande d\u00e9tection des biais et veiller au d\u00e9veloppement d&rsquo;algorithmes \u00e9thiques pour promouvoir des approches d&rsquo;IA justes et \u00ab d\u00e9-biais\u00e9es \u00bb.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Vers une utilisation plus \u00e9quitable de l&rsquo;IA ? Les algorithmes eux-m\u00eames n&rsquo;ont pas de nature discriminatoire, car ils ne font que reproduire les informations qui leur sont fournies et les personnes derri\u00e8re eux. Au lieu de consid\u00e9rer les technologies de mani\u00e8re n\u00e9gative, il est essentiel de les rendre plus ouvertes, \u00e9thiques et inclusives. L&rsquo;avenir des syst\u00e8mes intelligents d\u00e9pend de notre capacit\u00e9 \u00e0 identifier et \u00e0 rectifier ces biais avant qu&rsquo;ils ne deviennent cach\u00e9s\u2026 et in\u00e9vitables. Pensez-vous que la r\u00e9glementation est la solution, ou pensez-vous qu&rsquo;il appartient aux entreprises technologiques de prendre en charge ?<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Pour aller plus loin, des \u00e9tudes en Europe sont en cours. Une \u00e9tude sur <a href=\"https:\/\/rm.coe.int\/prems-107623-fra-2530-etude-sur-l-impact-de-ai-a5-web\/1680ac99e2\">l&rsquo;impact des syst\u00e8mes d&rsquo;intelligence artificielle et leur potentiel de promotion d&rsquo;\u00e9galit\u00e9<\/a> a \u00e9t\u00e9 fait par le Conseil de l&rsquo;Europe. Cette \u00e9tude permet de comprendre ce que l&rsquo;Europe fait par rapport aux discriminations algorithmiques et leurs recommandations. En esp\u00e9rant que ces actions continueront \u00e0 \u00eatre prises et recommand\u00e9es, pas seulement en Europe, mais partout dans le monde. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\"><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Le \u00ab machine learning \u00bb, ou apprentissage automatique, serait-il responsable de la cr\u00e9ation de biais algorithmiques qui rendent certaines technologies<\/p>\n","protected":false},"author":143,"featured_media":2842,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","_crdt_document":"","footnotes":""},"categories":[26,23,32],"tags":[58,59,443,81,36],"class_list":["post-2742","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-monde","category-societe","category-technologie","tag-ia","tag-intelligence-artificielle","tag-machine-learning","tag-societe","tag-technologie"],"magazineBlocksPostFeaturedMedia":{"thumbnail":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-150x150.jpg","medium":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-300x141.jpg","medium_large":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-768x361.jpg","large":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1.jpg","1536x1536":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1.jpg","2048x2048":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1.jpg","colormag-highlighted-post":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-392x272.jpg","colormag-featured-post-medium":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-390x205.jpg","colormag-featured-post-small":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-130x90.jpg","colormag-featured-image":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-800x400.jpg","colormag-default-news":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-150x150.jpg","colormag-featured-image-large":"https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1.jpg"},"magazineBlocksPostAuthor":{"name":"Marroquin Simar","avatar":"https:\/\/secure.gravatar.com\/avatar\/5dd9b91ec4fdcc8eefc8b449ac9e3ad1de024fac1733778ac165a59ff1901d21?s=96&d=mm&r=g"},"magazineBlocksPostCommentsNumber":false,"magazineBlocksPostExcerpt":"Le \u00ab machine learning \u00bb, ou apprentissage automatique, serait-il responsable de la cr\u00e9ation de biais algorithmiques qui rendent certaines technologies","magazineBlocksPostCategories":["Monde","Soci\u00e9t\u00e9","Technologie"],"magazineBlocksPostViewCount":108,"magazineBlocksPostReadTime":7,"magazine_blocks_featured_image_url":{"full":["https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1.jpg",850,400,false],"medium":["https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-300x141.jpg",300,141,true],"thumbnail":["https:\/\/ecjo2.commu.isfsc.be\/wp-content\/uploads\/2025\/03\/BSc-Computing-1-150x150.jpg",150,150,true]},"magazine_blocks_author":{"display_name":"Marroquin Simar","author_link":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/author\/marroquin-simar\/"},"magazine_blocks_comment":0,"magazine_blocks_author_image":"https:\/\/secure.gravatar.com\/avatar\/5dd9b91ec4fdcc8eefc8b449ac9e3ad1de024fac1733778ac165a59ff1901d21?s=96&d=mm&r=g","magazine_blocks_category":"<a href=\"#\" class=\"category-link category-link-26\">Monde<\/a> <a href=\"#\" class=\"category-link category-link-23\">Soci\u00e9t\u00e9<\/a> <a href=\"#\" class=\"category-link category-link-32\">Technologie<\/a>","_links":{"self":[{"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/posts\/2742","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/users\/143"}],"replies":[{"embeddable":true,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/comments?post=2742"}],"version-history":[{"count":13,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/posts\/2742\/revisions"}],"predecessor-version":[{"id":2841,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/posts\/2742\/revisions\/2841"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/media\/2842"}],"wp:attachment":[{"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/media?parent=2742"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/categories?post=2742"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ecjo2.commu.isfsc.be\/index.php\/wp-json\/wp\/v2\/tags?post=2742"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}