Google back then prided itself on broadcasting its Best Place To Work award, won year after year after year. Younger people will have trouble picturing this, but Google used to nurture an image of being the “good one” among megacorps; they championed open standards (except when they didn’t), supported open source projects (until they backstabbed them), and used language that corporate wasn’t supposed to use, like “don’t be evil” (until they, infamously and in a true dark comedy move, retracted that motto). The work environment was all colourful, nerdy cool, not a single necktie in sight—this was seen as brave and refreshing rather than cringe and tired, you see. And they made a big deal out of something called “20% time”: Every engineer was promised 1/5 of their work time for themselves, to do anything they want. (Google owners will still own whatever you create during your 20% time, natürlich). Famously, Gmail came out of someone exploring their interests during 20% time.
I don’t think much of anything else came out of it, though.
exploitation
Vous êtes ici
Le secteur technologique est de nouveau secoué par un scandale retentissant. Builder.ai, une entreprise autrefois présentée comme une étoile montante de l'intelligence artificielle, promettant de révolutionner la création d'applications en le rendant « aussi simple que de commander une pizza », s'est avérée être au cœur d'une vaste supercherie. Pendant huit ans, la société a fait croire à ses clients et investisseurs que sa plateforme était animée par une IA sophistiquée, alors qu'en réalité, une armée de programmeurs, principalement basés en Inde, accomplissait le travail manuellement. L'affaire a conduit à des pertes de plusieurs dizaines de millions de dollars pour les investisseurs et à la faillite de l'entreprise.
Invisible, isolated from one another, and with little income security – such is the lot of data workers. And yet without them, there would be no ChatGPT, Midjourney or Gemini.
Cartographie des métiers de l'IA et son impact sur les activités humaines.
AI can turn some impressive party tricks, but it's unsuited for solving serious problems in the real world. This is true of predictive AI, whose correlations are data-driven conspiracy theories, and of large language models like ChatGPT, whose plausible waffle is always trying to pull free of the facts. The real issue is not only that AI doesn't work as advertised, but the impact it will have before this becomes painfully obvious to everyone. AI is being used as form of 'shock doctrine', where the sense of urgency generated by an allegedly world-transforming technology is used as an opportunity to transform social systems without democratic debate.
[...]
Real AI isn't sci-fi but the precaritisation of jobs, the continued privatisation of everything and the erasure of actual social relations. AI is Thatcherism in computational form. Like Thatcher herself, real world AI boosts bureaucratic cruelty towards the most vulnerable. Case after case, from Australia to the Netherlands, has proven that unleashing machine learning in welfare systems amplifies injustice and the punishment of the poor. AI doesn't provide insights as it's just a giant statistical guessing game. What it does do is amplify thoughtlessness, a lack of care, and a distancing from actual consequences. The logics of ranking and superiority are buried deep in the make up of artificial intelligence; married to populist politics, it becomes another vector for deciding who is disposable.
Dans les lieux de travail, l’IA apparaît souvent de manière anodine, en étant peu à peu intégrée à des applications de travail existantes. Dans la pratique, l’automatisation remplace rarement les travailleurs, elle automatise très partiellement certaines tâches spécifiques et surtout reconfigure la façon dont les humains travaillent aux côtés des machines. Les résultats de l’IA générative nécessitent souvent beaucoup de retravail pour être exploitées. Des rédacteurs sont désormais embauchés pour réhumaniser les textes synthétiques, mais en étant moins payé que s’ils l’avaient écrit par eux-même sous prétexte qu’ils apportent moins de valeur. Les chatbots ressemblent de plus en plus aux véhicules autonomes, avec leurs centres de commandes à distance où des humains peuvent reprendre les commandes si nécessaire, et invisibilisent les effectifs pléthoriques qui leur apprennent à parler et corrigent leurs discours. La dévalorisation des humains derrière l’IA occultent bien souvent l’étendue des collaborations nécessaires à leur bon fonctionnement.
Dans [son] livre, le sociologue [Antonio Casilli] démontre combien ce travail invisible, qui est lié aux plateformes et aux datas, reproduit une dichotomie nord-sud. Le travail du clic est un job précaire réalisé par des millions de personnes et que l’on retrouve partout sur la planète. Parfois, ce sont des freelances aux États-Unis, des Philippins dans un cybercafé ou des milliers de travailleurs africains dans des fermes du clic. Il y a néanmoins des différences très importantes dans les conditions de travail. Tout en bas de l’échelle, on retrouve les travailleurs africains. Finalement, c’est une nouvelle dimension néocoloniale, loin de l’image épurée de la Silicon Valley. Le fait que les Big Tech invisibilisent ce travail sous-entend que celui-ci n’est pas très important – pourtant, il est essentiel. L’un des travailleurs que j’ai rencontré au Kenya m’a dit : « Il n’y a pas d’intelligence artificielle, seulement l’intelligence africaine. » Ça résume assez bien les choses.