Le tribunal fictif : une scène d’exploration et de sensibilisation
Conçu comme une expérience ludique et éducative en ligne, cette expérience immersive a réuni nos collaborateurs du monde entier pour débattre de l’un des problèmes les plus épineux de l’IA : le biais de genre. L’audience de ce « tribunal » était invitée à voter de manière interactive et à rendre un verdict, tel le jury du procès, sur des questions autour de l’égalité de genre dans l’IA.
A ce sujet, Alexia, une participante de l’expérience souligne que c’était « une initiative très innovante car on traite d’un sujet crucial (les biais de genre d’une technologie qui fait déjà partie de notre quotidien) en l’abordant d’une manière ludique qui va beaucoup plus marquer les esprits qu’une conférence descendante très théorique. Les biais de l’IA ne sont pas un sujet nouveau mais cela permet, à coup de vrais exemples, de se rendre encore mieux compte du sujet et finalement de l’étendre aussi à notre société actuelle. C’est finalement une énième preuve par l’exemple qu’on a beaucoup de choses à faire évoluer dans notre société. »
L’IA est-elle coupable de sexisme ?
Parmi les accusations portées, on compte par exemple le fait que l’IA, notamment dans la génération d’images, ne reflète pas la réalité. La preuve ? Bien que les femmes représentent 39% des médecins, elles n’apparaissent que dans 7% des résultats d’images, révélant un écart significatif de 32 points (cf. Bureau of Labor Statistics, American Medical Association, National Association of Women Judges, Federal Judicial Center, Bloomberg analysis of Stable). Dans un monde où la génération d’images par IA devient de plus en plus courante, cette question de représentation équitable devient urgente.
Quentin, ayant assisté au tribunal, souligne ainsi que « Les sujets traités étaient hyper pertinents et les exemples pour les illustrer bien trouvés car tous étaient vraiment parlant. J’en ignorai d’ailleurs la plupart. »
Interactions et réflexions : un tribunal participatif
L’aspect le plus innovant de cet événement était peut-être son interactivité. Les participants étaient encouragés à partager leurs expériences personnelles avec les biais dans leur utilisation de l’IA et à réfléchir collectivement sur la manière de corriger ces biais. Ce qu’a particulièrement apprécié Margaux, ayant pris part à l’atelier : « J’ai adoré le format qui était très interactif. Ça a permis de rendre l’échange plus ludique et moins formel. De plus, lier les biais cognitifs à un sujet assez récent mais déjà important comme l’IA me semble très important, il faut le challenger. » En effet, en plus d’être un exercice de réflexion, ce tribunal appelait également à l’action en faveur d’une utilisation plus juste et sage de la technologie.
LittleBig Connection et l’engagement pour l’égalité de genre
Cette initiative s’inscrit dans le cadre plus large de l’engagement de LittleBig Connection en faveur de l’égalité. Dans la continuité des efforts déployés pour promouvoir la diversité et l’égalité de genre, notamment à travers ses pratiques de recrutement et ses politiques d’entreprise, LittleBig Connection continue de saisir et provoquer les opportunités permettant à ses collaborateurs de devenir acteurs responsables face aux enjeux sociétaux majeurs.
Vers un avenir plus inclusif
Les technologies d’IA continueront de façonner notre avenir, et il est de notre responsabilité collective de veiller à ce qu’elles le fassent de manière équitable et inclusive. Le tribunal fictif n’est qu’un exemple parmi tant d’autres de la manière d’initiatives que chacun peut proposer pour engendrer des réflexions critiques et favoriser un changement positif.
En tant qu’acteur du Future of Work, LittleBig Connection s’engage à construire des ponts, non seulement entre les entreprises et leurs partenaires externes, mais aussi vers un avenir où la technologie sert de catalyseur pour l’équité et l’inclusion.