
Dans une enquête publiée aujourd’hui, le Guardian donne la parole à des travailleuses indiennes chargées de modérer et d’annoter des contenus signalés par des systèmes automatisés, une étape clé pour entraîner les algorithmes de reconnaissance de la violence, de l’abus et d’autres formes de préjudices.
Le reportage suit notamment Monsumi Murmu, 26 ans, qui travaille depuis son village de l’État du Jharkhand, parfois dans les rares endroits où le signal mobile est suffisamment stable. Elle explique visionner, certains jours, jusqu’à 800 images ou vidéos, puis prendre des décisions de classement qui servent à calibrer et améliorer les systèmes de détection des plateformes.
Au-delà de la cadence, l’enquête s’attarde au coût psychologique. Des travailleuses décrivent une phase initiale marquée par des troubles du sommeil et des images intrusives, puis une forme d’engourdissement émotionnel avec, parfois, des retours différés de symptômes. La sociologue Milagros Miceli, citée par le Guardian, estime que la modération de contenus s’apparente à un travail dangereux en raison de l’exposition répétée à des contenus nocifs.
Le texte décrit aussi la logique économique de cette chaîne de sous-traitance. Selon des estimations relayées par le journal et attribuées à l’industrie indienne, l’annotation de données mobilisait déjà environ 70 000 personnes en 2021, pour un marché évalué autour de 250 millions de dollars américains, avec une part importante de revenus provenant de clients étrangers, notamment américains.
Les entreprises privilégieraient des bassins ruraux et semi-ruraux où les coûts sont plus bas, et où une nouvelle génération de diplômés cherche des emplois plus réguliers que l’agriculture, ou que d’autres activités locales plus pénibles. L’amélioration de la connectivité permettrait d’intégrer ces territoires à des chaînes de production mondialisées de l’IA, sans déplacement vers les grandes villes.
Le Guardian souligne que les femmes représentent une part importante de cette main-d’œuvre. Les postes sont souvent présentés comme compatibles avec le travail à domicile, et décrits comme une opportunité « respectable » dans des contextes où la mobilité et l’emploi féminin restent socialement contraints. Des chercheuses citées dans l’article avancent aussi que cette « respectabilité » peut créer une attente de gratitude, et freiner la remise en question des dommages psychologiques.
Il faut rappeler que ce travail s’inscrit dans une chaîne de sous-traitance mondiale largement invisible. Les plateformes technologiques confient ces tâches à des intermédiaires locaux, souvent via des contrats temporaires ou à la pige, ce qui dilue les responsabilités en matière de conditions de travail. Les intitulés de poste restent volontairement flous, comme « annotation de données » ou « contrôle qualité », et ne reflètent pas la nature exacte des contenus à traiter. Plusieurs travailleuses interrogées expliquent n’avoir découvert l’ampleur ou la violence du matériel qu’après avoir commencé, une fois les contrats signés.
L’enquête met aussi en lumière un angle mort réglementaire. En Inde, les cadres juridiques du travail reconnaissent peu, voire pas du tout, les risques psychologiques liés à l’exposition répétée à des contenus violents ou abusifs. En l’absence de reconnaissance formelle de ces dommages, les travailleuses disposent de peu de leviers pour demander des aménagements, un soutien psychologique ou une reclassification de leur emploi. Pour les chercheurs et chercheuses cités, cette situation pose une question centrale pour l’industrie de l’IA : peut-on continuer à améliorer des systèmes présentés comme intelligents sans assumer pleinement le coût humain de celles et ceux qui les entraînent.
Source : The Guardian
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

