Le règlement européen de 2024 interdit certains usages de l’IA, comme la manipulation d’opinion ou le calcul de scores sociaux. Mais d’autres usages de systèmes plus modestes créent déjà des dommages. Un des cas les mieux documentés est celui des allocations familiales aux Pays Bas, où des algorithmes sont utilisés pour détecter les fraudes. Plusieurs dizaines de milliers de familles ont été poursuivies par erreur, avec des conséquences terribles pouvant aller jusqu’au divorce ou même le suicide.
Mediapart : Plus personne désormais n’ignore qu’Elon Musk est l’un des proches les plus influents du nouveau président américain. Est-il l’arbre qui cache la forêt de ces milliardaires de la tech fascinés par le trumpisme ?
Thibault Prévost : Elon Musk n’est évidemment pas tout seul. Les médias américains ont bien raconté comment tous ces milliardaires de la Silicon Valley, en tout cas ceux qui penchent le plus à droite, ont à la fois infiltré et phagocyté l’équipe de transition et le futur gouvernement Trump.
...
Il devient difficile de savoir si Elon Musk rejoint Donald Trump, ou si c’est le trumpisme qui est en train d’être altéré de l’intérieur par Musk.
Dans les meetings, Elon Musk portait par exemple une casquette « Dark Maga », qui fait référence au mouvement des « Lumières noires », qui a été théorisé par Curtis Yarvin. C’est un mouvement néofasciste qui défend l’idée qu’un pays idéal devrait être gouverné comme une entreprise, par le patron d’une entreprise.
...
Le plan de ces milliardaires d’extrême droite est-il en train de se réaliser ?
Oui. Pour les milliardaires de la tech, le programme, c’est de se libérer de la concurrence et de la régulation à la fois. En investissant la Maison-Blanche, ils sont en train de faire les deux. Et la théorie selon laquelle la Silicon Valley serait composée de libertariens a vraiment un coup dans l’aile.
Ce sont au contraire des gens dont la fortune est dopée par de gigantesques contrats publics et qui ne veulent pas du tout de la disparition de l’État. Ils veulent un État sur mesure. On assiste à l’aboutissement de la stratégie de capture réglementaire, qui consiste normalement à infiltrer les régulateurs pour devenir soi-même le régulateur. C’est une étape de plus : devenir carrément l’État et s’autodécerner des contrats militaires, des contrats de surveillance ou des contrats spatiaux, dans le cas de Musk. On assiste à la transformation d’une oligarchie [le gouvernement par une élite – ndlr] en pure ploutocratie [le gouvernement par les riches – ndlr].
...
On ne peut plus faire l’impasse sur cette filiation idéologique et il est urgent de nommer l’IA pour ce qu’elle est. L’IA porte un projet de redéfinition de la notion même d’être humain. Le discours qui promeut l’intelligence artificielle propose de refonder les architectures de la société. On retrouve là le projet transhumaniste, cher aux milliardaires de la tech.
Ce projet est très différent selon qu’il s’applique à eux-mêmes ou au reste du corps social. Pour eux-mêmes, l’IA, c’est le projet d’augmentation des capacités humaines, la mythologie du surhomme, la volonté d’hybrider son cerveau avec la machine. De défier la mort aussi.
Mais pour ces milliardaires, quand l’IA est appliquée au reste du corps social, elle devient un outil de contrôle et de servitude. Quand on regarde les utopies qu’ils défendent, par exemple les stations spatiales de Musk, le futur qui est promis pour la population, c’est la servitude algorithmée, aux mains de la machine, avec un capital qui se régénère quasiment automatiquement.
Un rappel pourtant essentiel :
L’IA n’est pas une technique, c’est une idéologie. C’est ce qu’explique d’ailleurs un de ses créateurs, John McCarthy. Quand il a lancé le terme Artificial Intelligence, c’était un choix conscient pour obtenir des financements. L’idée d’une machine anthropomorphique, qui va arriver non seulement à atteindre l’être humain, mais à le dépasser.
Et quand on humanise la machine, on mécanise l’humain – c’est la contre-proposition tacite. Cela devient extrêmement dangereux pour les sociétés, et notamment dans la sphère du travail. Quand on déploie des algorithmes dans l’entreprise, on pousse aussi les gens à se rapprocher de la machine. Et donc à réduire leur périmètre d’autonomie politique.
...
Il faut aussi rappeler que l’IA générative, présentée depuis l’arrivée de ChatGPT fin 2022 comme un outil déjà, ou bientôt, plus efficace que l’homme, ne marche pas si bien que cela. Pourquoi ?
Structurellement, on parle de machines qui font 5 à 20 % d’erreurs. Elles sont entraînées sur un corpus de données absolument gigantesque, et font des mises en relation entre des points, par inférence statistique. Tant qu’on reste dans une représentation du monde qui est proche de la médiane statistique, cela fonctionne très bien.
Mais plus on s’éloigne de la médiane, plus le modèle va avoir du mal à prédire et à modéliser le monde. Le problème est que la médiane politique du monde correspond à la bourgeoisie, à la blanchité, au genre masculin. Aux dominants, en fait.
Donc, plus on s’éloigne de la représentation du monde des dominants, plus on arrive dans les marges, plus on se retrouve avec une automatisation des inégalités, comme le dit la politiste Virginia Eubanks : la machine reproduit et amplifie les biais de classe, de race et de genre, qui soutiennent déjà le monde occidental. Toute machine algorithmique est une intervention politique sur le réel.
Dans une tentative de dépolitiser le problème, la Silicon Valley essaye de redéfinir les erreurs de l’IA comme des « hallucinations », en nous obligeant à une forme de tendresse par rapport aux machines, qu’il faudrait éduquer. Je suis absolument contre l’usage de ce terme : il s’agit d’erreurs de calcul, de désinformation, intrinsèques au modèle.
Et on découvre régulièrement que les machines autonomes ne le sont en fait pas.
On apprend par exemple que la voiture autonome nécessite une supervision humaine à distance [Le New York Times évalue la supervision nécessaire à 1,5 humain par véhicule autonome – ndlr] ou que les magasins automatiques Amazon où on ne passait pas à la caisse étaient gérés par un millier de travailleurs indiens sous-payés, qui devaient manuellement « flaguer » les achats des clients à travers des caméras de surveillance. Il faut davantage d’êtres humains pour gérer l’illusion de l’intelligence et de la machine autonome. Cela illustre bien l’inutilité massive de ce système.
Vendredi 7 février, dans le XIIIe arrondissement de Paris, des élu·es, des militant·es et des travailleurs et travailleuses du numérique se pressaient pour une journée organisée par l’eurodéputé, avec une ambition forte : « Réinventer l’IA. »
Pour les écologistes, le sommet prévu par l’Élysée élude de nombreuses questions de premier plan, sur le coût humain du développement de l’IA, sur son prix énergique ou encore sur ce qu’elle fera à nos démocraties et à nos lieux de travail. Des questions auxquelles les participant·es des conférences ont été amené·es à réfléchir.
Fin novembre de la même année, Thierry Breton, commissaire européen au marché intérieur, tente d’enrayer la machine diplomatique et s’accorde une sortie tonitruante dans La Tribune. « Je le dis pour tous ceux qui font du lobbying en France : d’où parlez-vous et pour les intérêts de qui ? », accuse l’ancien ministre de Jacques Chirac, reprochant nommément à MistralAI de « ne pas défendre l’intérêt général ». « Je ne suis dupe de rien, je vois tout », lance alors le commissaire français.
Quatorze mois plus tard, le débat a été définitivement tranché. L’AI Act est entré en vigueur dans une version très largement amoindrie, à la plus grande joie de Cédric O et de Mistral. Thierry Breton n’est plus commissaire européen, débarqué avec l’aval d’Emmanuel Macron au profit de Stéphane Séjourné, un fidèle parmi les fidèles.
« C’était le témoin gênant, note l’eurodéputé écologiste David Cormand, membre de la commission spéciale planchant sur l’IA au niveau européen, et qui a organisé un « contre-sommet » le 7 février à Paris, où Thierry Breton était l’invité vedette. Il incarnait une autre ligne, moins encline à sacrifier les droits fondamentaux au profit d’une minorité. »
Les entreprises qui développent des programmes d'intelligence artificielle pourraient intégrer dans leurs IA génératives des watermarks, ces signatures visibles (par un symbole superposé à l'image) ou invisibles (des motifs intégrés directement dans certains pixels de l'image, ou dans certains mots qui se répètent) qui peuvent ensuite être détectées. Mais l'application n'est pas toujours facile, et les entreprises y ont peu d'intérêt. D'après le Wall Street Journal(Nouvelle fenêtre), OpenAI a créé par exemple un détecteur de texte généré par ChatGPT efficace à 99,9%, mais refuse de l'ouvrir au grand public.
Tiens donc.
Publier des deepfakes pour montrer l'utilité de l'IA ? C'est moi ou c'est complètement con ?
Le fameux “gain de temps” vs les effets d’accélération: on gagne du temps mais du coup on nous en demande plus; le temps n'est pas gagné pour nous mais pour l'employeur.
La créativité à base figée vs la pollution informationnelle: l'IA ne sait que régurgiter ce qu'elle a dévoré... sa créativité est donc limité à une imitation et provoque un appauvrissement créatif.
L’automatisation des tâches répétitives vs l’effet coupe rase et la perte de compétences : comment devenir programmeur senior si les IA remplacent les programmeurs juniors ? La compétence acquise par les erreurs, le tâtonnement, la recherche de solution, la modélisation du problème est perdue si on utilise l'IA.
C'est tellement ça !
Et, évidemment, changer les méthodes de la police et n'utiliser la violence qu'en ultime recours => NON CERTAINEMENT PAS
Une nouvelle extension anti-IA ; j'espère qu'elle est mieux que celle de Mozilla, qui me déçoit un peu car ne fonctionnant que sur des textes en anglais.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Et elle peut aussi servir à signaler des sites.
Lien vers Add-ons Firefox : https://addons.mozilla.org/fr/firefox/addon/alerte-sur-les-sites-genai/
EDIT : je viens de tester sur ce site de merde : https://news.dayfr.com/, ça fonctionne.
"Tous pourront utiliser un 'agent conversationnel' pour effectuer des recherches, préparer des courriers, des synthèses ou des comptes-rendus, assurer parfois aussi des traductions"
Vous savez qu'on a pas besoin d'une IA pour faire ça, hein, vous le savez ? Hein... dites ?
Cette course à l'IA comme des poulets sans tête est un cauchemar. Il n'y a plus de fric (soi disant) pour les hôpitaux, pour la culture, pour la justice, mais on va cramer des dizaines de millions ? de milliards ? pour un truc inutile. J'enrage.
Deux pleines pages et une Une pour faire la pub de l'IA, "incontournable" sans qu'on sache bien pourquoi, et sans une seule mise en garde sur les dangers, bien réels, de cette technologie en plein essor. Aucune mention, dans le Parisien, de l'incompatibilité totale de l'IA avec la lutte contre le réchauffement climatique : l'intelligence artificielle détruit activement la planète et consomme tant de CO2 qu'elle a mené, en 2024, les géants du net à abandonner leurs objectifs de neutralité carbone. Aucune mention non plus, dans le Parisien, du fait que des centaines de spécialistes du sujet, y compris des ancien·nes salarié·es d'OpenAI et autres entreprises d'IA, ont signé une lettre ouverte dans le New York Times alertant sur le "risque existentiel pour l'humanité" que pose l'intelligence artificielle. La philosophe étatsunienne Shannon Vallor alerte également sur les dangers pour notre humanité, notre jugement moral et notre capacité à raisonner logiquement que pose l'habitude de se reposer sur l'IA pour penser et créer à notre place. Des dangers bien illustrés, inconsciemment, par cet article du Parisien, qui ressemble un peu trop à la prose de ChatGPT - et épouse en tout cas son optimisme fade et creux.
C'est un axiome qu'on peut lire dans les deux sens : l'IA rend cons, les cons aiment l'IA.
Bon, là c'est sûr, on va tous crever.
Non seulement ce sont des fascistes, mais en plus ils sont complètement débiles.
But given the widespread dismantling of regulations under the Trump administration, it also feels like an unbelievably precarious moment to be handing over any amount of control over nuclear weapons to a busted AI system.
La Direction Générale des Finances Publiques s’efforce de se positionner comme un des fers de lance de cette course effrénée à l’innovation. Les projets d’IA s’y multiplient : algorithmes de contrôle fiscal, Foncier Innovant détectant les piscines non déclarées, etc. Les personnels y ont-ils été pleinement associés ? Non. Solidaires Finances Publiques, première organisation syndicale de la DGFiP, a-t-elle été écoutée, entendue ? Certainement pas.
Au-delà des arguments techniques systématiquement mis en avant, se posent de réels choix de société. Quel service public souhaitons-nous ? Quels moyens techniques et humains veut-on valoriser pour lutter contre la fraude fiscale ?Solidaires Finances Publiques défend à la fois les compétences des personnels et une vision progressiste du service public. Si nous ne sommes pas opposés aux nouvelles technologies, nous refusons qu’elles soient déployées uniquement par souci d’économie et dans le but de supprimer des emplois.
Ni technophobes, ni technophiles, Solidaires Finances Publiques propose une vision technocritique des outils d’intelligence artificielle dans la fonction publique.
Donc, après le dessin, la création de vidéo ou d'enregistrements, l'écriture de poèmes et de romans, l'IA s'attaque au «surf sur le ouèbe»... Pour nous faire gagner du temps, sans doute... du temps qu'on pourra passer à se crever au travail jusqu'au cimetière pendant que les IA se gratteront leurs couilles virtuelles en glandant sur le net...
C'est à la fois drôle, triste et effrayant.
Merci pour cette description très juste à base d'IA qui se gratte les couilles, ça va me faire la journée.
Le Prix Nobel de physique va aux inventeurs de l'apprentissage automatique (les réseaux de neurones), dont Geoffrey Hinton, qui disait pas plus tard que l'an dernier (et il a coulé de l'eau sous les serveurs en surchauffe depuis) qu'il fallait tout arrêter parce que
l’information, l’éducation, la société et l’humanité tout entière sont en danger.
L'IA ne tient pas ses promesses (et ne pourra structurellement jamais les tenir, puisque ce sont globalement des mensonges) et une bulle financière énorme est en train de se constituer autour de ce secteur sur-côté.
Elle ne peut qu'exploser, et ça va faire des dégâts. Mais personne ne peut prévoir quand.
via Seb
Que ce soit via des images fixes ou des vidéos, les contenus ainsi générés ont tous servi à la promotion d’idées anti-Union européenne et anti-immigration.
Surtout, aucune des images répertoriées par AI Forensics n’était ouvertement signalée comme générée par IA par les partis en question (Le Monde relève de son côté la diffusion d’une vidéo pour laquelle Eric Zemmour précisait « c’est la première vidéo politique française entièrement réalisée avec l’IA »).
De même, contrairement à leurs conditions d’utilisation, aucune des plateformes sur lesquelles ces contenus ont été publiés n’ont su ajouter les étiquetages « généré par IA » théoriquement prévus.
via Seb
Tiens, à propos d'Auschwitz : bientôt, on n'aura même plus besoin des négationnistes pour dire que ça n'a jamais existé, parce que les vraies images des camps de concentration seront noyées au milieu de la merde produite par les IA génératives. Glaçant.