Timnit Gebru

Timnit Gebru, né en 1982, est une informaticienne qui travaille sur les biais algorithmiques et l'exploration de données. Elle est une défenseure de la diversité dans la technologie et cofondatrice de Black in AI, une communauté de chercheurs noirs travaillant dans le domaine de l'intelligence artificielle. En décembre 2020, son emploi chez Google en tant que codirecteur technique de l'équipe d'intelligence artificielle éthique a pris fin après que des cadres supérieurs de Google lui aient demandé de retirer un article non encore publié ou de supprimer les noms de tous les employés de Google de ce document, c'est-à-dire cinq des six coauteurs, laissant Emily M. Bender.

Elle a refusé, exigeant de connaître les noms et les raisons de tous ceux qui ont pris cette décision, et a menacé de démissionner si on ne lui avait pas fourni cette information, mais Google n'a pas répondu à sa demande et a immédiatement mis fin à son emploi. Google a déclaré que l'article en question, intitulé "Sur les dangers des perroquets stochastiques: les modèles de langage peuvent-ils être trop grands?" ignorait les recherches récentes qui ont montré des méthodes pour atténuer les biais dans ces systèmes, cependant son départ a provoqué une controverse publique.

Jeunesse
Gebru est né et a grandi à Addis-Abeba, en Éthiopie, son père est mort quand elle avait cinq ans et elle a été élevée par sa mère. Ses deux parents sont originaires d'Érythrée et elle a finalement obtenu l'asile politique aux États-Unis du Derg, le régime militaire de l'époque.

Après avoir terminé ses études secondaires dans le Massachusetts, elle a été acceptée pour étudier à l'université de Stanford ou elle a obtenu son baccalauréat et sa maîtrise en génie électrique. Gebru a travaillé chez Apple Inc., développant des algorithmes de traitement du signal pour le premier iPad et Gebru a obtenu son doctorat sous la supervision de Fei-Fei Li à l'université de Stanford en 2017. Elle a utilisé l'exploration de données d'images accessibles au public et elle était intéressée par le montant d'argent dépensé par les organisations gouvernementales et non gouvernementales pour tenter de collecter des informations sur les communautés.

Pour étudier des alternatives, Gebru a combiné l'apprentissage en profondeur avec Google Street View pour estimer la démographie des quartiers des États-Unis, montrant que les attributs socio-économiques tels que les modes de vote, le revenu, la race et l'éducation peuvent être déduits des observations de voitures. Si le nombre de camionnettes dépasse le nombre de berlines, la communauté est plus susceptible de voter pour le parti républicain. Ils ont analysé plus de 15 millions d'images des 200 villes américaines les plus peuplées et le travail a été largement couvert dans les médias, étant repris par BBC News, Newsweek, The Economist et le New York Times.

Carrière et recherche
Gebru a présenté ses recherches au concours LDV Capital Vision 2017, où des scientifiques en vision par ordinateur présentent leurs travaux à des membres de l'industrie et à des capital-risqueurs. Gebru a remporté le concours, entamant une série de collaborations avec d'autres entrepreneurs et investisseurs, puis tant pendant son programme de doctorat en 2016 qu'en 2018, Gebru est retournée en Éthiopie avec la campagne de programmation AddisCoder de Jelani Nelson. Après avoir reçu son doctorat, Gebru a rejoint Microsoft en tant que chercheuse postdoctorale dans le laboratoire d'équité, de responsabilité, de transparence et d'éthique en IA.

Gebru a travaillé chez Google, où elle codirigeait une équipe sur l'éthique de l'intelligence artificielle avec Margaret Mitchell. Elle a étudié les implications de l'intelligence artificielle, cherchant à améliorer la capacité de la technologie à faire le bien social et elle a collaboré avec le groupe de recherche du MIT Gender Shades. Gebru a travaillé avec Joy Buolamwini pour étudier les logiciels de reconnaissance faciale, constatant que les hommes noires étaient 35% moins susceptibles d'être reconnues que les hommes blancs. Avec sa collègue Rediet Abebe, Gebru a fondé Black in AI, une communauté de chercheurs noirs travaillant dans le domaine de l'intelligence artificielle.

Gebru a également travaillé sur l'équité, la responsabilité, la transparence et l'éthique de Microsoft au sein de l'équipe IA. En 2017, Gebru a parlé de la conférence sur l'équité et la transparence, au cours de laquelle le MIT Technology Review l'a interrogée sur les préjugés qui existent dans les systèmes d'IA et sur la manière dont l'ajout de diversité dans les équipes d'IA peut résoudre ce problème.

Gebru et d'autres chercheurs en intelligence artificielle ont signé une lettre reflétant les problèmes systémiques qui résident dans le logiciel de reconnaissance faciale d'Amazon. Une étude menée par des chercheurs du MIT montre que le système de reconnaissance faciale d'Amazon avait plus de mal à identifier les femmes à la peau plus foncée que tout autre logiciel de reconnaissance faciale de la société de technologie. Dans une interview au New York Times, Gebru a en outre exprimé qu'elle pensait que la reconnaissance faciale était trop dangereuse pour être utilisée à des fins d'application de la loi et de sécurité en ce moment.

Gebru a cessé de travailler pour Google en décembre 2020, mais les circonstances de son départ sont contestées. Gebru et certains de ses collègues ont affirmé qu'elle avait été renvoyée de Google. Les dirigeants de Google, Jeff Dean et Megan Kacholia, ont affirmé qu'elle avait offert de démissionner et que sa démission avait ensuite été acceptée par Google, mais elle a déclaré qu'elle n'a jamais proposé de démissionner, mais qu'elle a seulement menacé de démissionner.

Gebru avait co-écrit un article sur les risques des très grands modèles de langage, concernant leurs coûts environnementaux et financiers, l'impénétrabilité menant à des biais dangereux inconnus, l'incapacité des modèles à comprendre les concepts sous-jacents à ce qu'ils apprennent et le potentiel de leur utilisation pour tromper les gens. Dans un courrier envoyé à une liste de collaboration interne, Gebru décrit comment elle a été convoquée à une réunion à bref délai où elle a été invitée à retirer le document et a dit que ses enquêtes ultérieures sur l'identité des examinateurs ainsi que comment ou pourquoi la décision avaient été prises ont été ignorées.

Gebru a demandé que certaines conditions soient remplies afin d'éviter sa démission, mais l'équipe IA de Google n'a pas voulu remplir ces conditions et a accepté sa démission le même jour. Dean, responsable de la recherche sur l'IA chez Google, a répondu par un e-mail affirmant qu'ils avaient pris la décision parce que le document ignorait trop de recherches récentes pertinentes sur les moyens d'atténuer certains des problèmes décrits, sur l'impact environnemental et les biais de ces modèles.

Suite à la controverse, le PDG de Google, Sundar Pichai, a présenté des excuses sans admettre de faute, mais près de 2 700 employés de Google et plus de 4300 universitaires et partisans de la société civile ont signé une lettre condamnant le licenciement présumé de Gebru. Dans la foulée, deux employés de Google ont démissionné de leurs fonctions au sein de l'entreprise.

Le 16 décembre 2020, l'équipe de recherche éthique de Google sur l'IA a demandé que la vice-présidente Kacholia soit retirée de la chaîne de gestion de l'équipe car Kacholia aurait licencié Gebru sans en avertir d'abord le directeur direct de Gebru, Samy Bengio. L'équipe d'intelligence artificielle de Google a également demandé à Kacholia et au chef de l'intelligence artificielle de Google, Dean, de s'excuser pour la façon dont Gebru a été traité.

__NOINDEX__