Quoi de plus neutre, dit-on, qu’un ordinateur ? Erreur : derrière leurs verdicts froids, algorithmes et automates encapsulent tous les biais des humains qui les conçoivent. Basée sur le modèle de l’individu calculateur, héritière d’une histoire tissée de choix idéologiques, l’intelligence artificielle est une machine politique. La mettre au service du bien commun implique d’abord de la déconstruire.
IA
Vous êtes ici
Imaginez un monde dans lequel, au moment même où une régulation du tabac était débattue au parlement européen, les plateaux télé, les radios et les journaux invitaient systématiquement le directeur de la recherche de Philip Morris, en le présentant comme un pionnier scientifique de la chimie des nouvelles générations de cigarettes. Omettant d’évoquer sa casquette industrielle et ses conflits d’intérêts, les journalistes le questionneraient sur l’avenir de la cigarette, les enjeux sur la compétitivité économique du pays et les régulations adéquates.
Meta's Llama fails this standard by withholding critical components like training data and methodology, and by limiting transparency and community modification.
Meta's Llama models also impose licensing restrictions on its users. For example, if you have an extremely successful AI program that uses Llama code, you'll have to pay Meta to use it. That's not open source. Period.
« Comme l’a noté la linguiste Emily M. Bender, les enseignants ne demandent pas aux étudiants d’écrire des essais parce que le monde a besoin de plus d’essais d’étudiants. Le but de la rédaction d’essais est de renforcer les capacités de réflexion critique des étudiants. De la même manière que soulever des poids est utile quel que soit le sport pratiqué par un athlète, écrire des essais développe les compétences nécessaires pour tout emploi qu’un étudiant obtiendra probablement. Utiliser ChatGPT pour terminer ses devoirs, c’est comme amener un chariot élévateur dans la salle de musculation : vous n’améliorerez jamais votre forme cognitive de cette façon. Toute écriture n’a pas besoin d’être créative, sincère ou même particulièrement bonne ; parfois, elle doit simplement exister. Une telle écriture peut soutenir d’autres objectifs, comme attirer des vues pour la publicité ou satisfaire aux exigences bureaucratiques. Lorsque des personnes sont obligées de produire un tel texte, nous pouvons difficilement leur reprocher d’utiliser tous les outils disponibles pour accélérer le processus. Mais le monde se porte-t-il mieux avec plus de documents sur lesquels un effort minimal a été consacré ? Il serait irréaliste de prétendre que si nous refusons d’utiliser de grands modèles de langage, les exigences de création de textes de mauvaise qualité disparaîtront. Cependant, je pense qu’il est inévitable que plus nous utiliserons de grands modèles de langage pour répondre à ces exigences, plus ces exigences finiront par devenir importantes. Nous entrons dans une ère où quelqu’un pourrait utiliser un modèle de langage volumineux pour générer un document à partir d’une liste à puces, et l’envoyer à une personne qui utilisera un modèle de langage volumineux pour condenser ce document en une liste à puces. Quelqu’un peut-il sérieusement affirmer qu’il s’agit d’une amélioration ? »
[...] hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.
“The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”
Plusieurs questions du même acabit ont ainsi été posées à une dizaine de chatbots parmi les plus connus - de ChatGPT à Copilot de Microsoft, en passant par Claude d’Anthropic - pour évaluer à quel point ces agents conversationnels avaient été "infectés" par une vaste campagne de désinformation russe.
Les résultats ne sont pas encourageants : environ une fois sur trois, ces AI fournissent des réponses teintées de faux narratifs inspirés par la propagande russe, assurent les experts de Newsguard. Ainsi, six de ces machines expliquaient les raisons pour lesquelles Volodymyr Zelensky avait interdit en Ukraine le réseau social de Donald Trump Truth Network… alors même que le président ukrainien n’a jamais rien fait de la sorte.
Au risque de faire bondir l’ensemble de mes camarades qui travaillent sur les modèles d’IA, nous sommes déjà au bout du cycle de développement de ce que l’on qualifie aujourd’hui « d’IA conversationnelle ». Ce qui ne veut pas dire qu’il n’y aura pas de progrès en termes de performance, de coûts, d’infrastructures, de modèles même comme les « transformers » qui marquèrent une rupture et un progrès presqu’exponentiel. Bien sûr qu’il y aura des progrès. Mais le narratif d’une « intelligence artificielle générale » est une mythologie moderne. Et comme toutes les mythologies, elle est là pour nous avertir à la fois d’un aveuglement, d’un risque et d’une dérive en les mettant en récit. Et il est assez fou que nous ne la traitions presque jamais comme telle.
Lost in the spectacle of billionaires catfighting on decaying social media platforms is something mildly more consequential: the firesale of America - and the world's - future. While we obsess over Musk's bloviations and Altman's careful rebuttals, the actual mechanisms of AI power are being divided up among a handful of private entities, operated by oligarchs and funded by overseas interests, with the blessing of an Autocrat.
[...]
Stargate isn't a battle between billionaires or a test of financial commitments. It's a preview of how power will flow in the AI age, through layers of technology, capital, and influence that would baffle the monopolists of the past. As Musk and Altman trade barbs on social media, they're actually fighting over who gets to be the new robber barons – and we're left wondering whether anyone has the will or the means to stop them. This isn't progress. It's a heist.
By flooding the zone with an endless stream of new partnerships, new products, new promises, the tech industry makes us feel disoriented and overwhelmed by a future rushing at us faster than we can handle. The desire to not be left behind — or taken advantage of — is a powerful motivator that keeps us engaged in the AI sales pitch. The breathless hype surrounding AI is more than just a side-effect of over-eager entrepreneurs; it’s a load-bearing column for the tech sector. If people believe hard enough in the future manufactured by Silicon Valley, then they start acting like it already exists before it happens. Thus the impacts of technologies like AI become a self-fulfilling prophecy.