Je cite Seb qui cite l'article :
L'IA n'est pas une course aux armements, c'est un concours de prestidigitateurs, face auquel le scepticisme par défaut devient la seule attitude saine.
[...]
Les hallucinations sont inévitables. Elles sont une propriété structurelle de ces systèmes. Ça-ne-se-répare-pas. L'industrie le sait très bien.
L'IA c'est surtout... des humains. Mais des humains traités comme de la merde, attention. C'est ce qui fait tout l'intérêt de la chose.
derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".
[...]
Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo
Bref : l'IA, c'est surtout artificiel et pas vraiment intelligent, ce sont des tâcherons sous-payés qui doivent tout lui "expliquer" au pixel près (lisez l'article). Et encore une fois, les ingénieurs et les concepteurs sont blancs et/ou américains ; les exploités sont racisés/pauvres/vivant dans un pays du tiers-monde.
Bienvenue dans l'ère du colonialisme numérique.
La partie sur l'IA est quand même plus précise que les élucubrations de Ploum, mais je ne voudrais pas donner l'impression que je m'acharne.
Je ne partage qu'à moitié l'enthousiasme de SebSauvage vis à vis de cet article, que je qualifiai in petto de "pas trop con" (rien de personnel, mais je considère ce monsieur comme un cuistre, je me suis déjà exprimé là dessus plein de fois, on va pas y revenir) : c'est une synthèse (incomplète) de ce qu'est la technologie "IA" à un moment donné.
Ce qui ne veut pas dire que je ne suis pas d'accord avec certains points. Cette phrase, par exemple :
Exactement ce que la bulle AI est en train de faire avec le web en le merdifiant au-delà de tout espoir de sauver quoi que ce soit. Et en pourrissant toutes les données avec lesquelles s’entraineront les prochaines générations AI.
Encore que je ne sois qu'à moitié d'accord, le "au-delà de sauver quoi que ce soit", en vrai, il n'en sait rien. En revanche, les LLM en train de manger leur propre dégueulis, oui, on est en plein dedans.
En revanche, ce genre de phrase :
Nous avons trop souvent tendance à confondre l’aube avec le crépuscule.
Pfff... Vous trouvez peut-être ça trop stylé, je trouve ça ringard.
Tiens, tiens, ce n'est plus les affreux méchants pirates le problème ?
La législation prévoit une approche à deux niveaux. Les modèles d'IA à "usage général" devront respecter des obligations de transparence, ainsi que les règles européennes en matière de droit d'auteur. Quant aux systèmes considérés comme à "haut risque" – utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines ou le maintien de l'ordre –, ils seront soumis à des exigences plus strictes. Ils devront par exemple prévoir la mise en place d'une analyse d'impact obligatoire sur les droits fondamentaux.
Les images, textes ou vidéos générés artificiellement ("deep fakes") devront être clairement identifiés comme tels. Le texte interdit aussi les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l'identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines missions des forces de l'ordre comme la prévention d'une menace terroriste ou la recherche ciblée de victimes.
Les jeunes sont donc particulièrement vulnérables. En France, l'Office de lutte contre les violences faites aux mineurs (Ofmin) nous confirme d'ailleurs que le processus est déjà utilisé par des pédocriminels pour du chantage sexuel.
D'une manière générale, ne mettez pas de photos de vos enfants sur internet. Ne mettez pas de photos de vous. Ne mettez pas d'informations personnelles. Oh, et quittez Facebook, Instagram et Twitter-X. Je suis sérieux.
“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter. “La promotion de l’IA est une privatisation par une porte dérobée”, une privatisation sous stéroïde qui vient renforcer celle déjà à l’œuvre.
Je ne trouve pas ça particulièrement choquant, surtout qu'en l'espèce la forme rejoint le fond. C'est toujours mieux que d'autres qui recopie Wikipédia en espérant que ça se verra pas...
Une époque formidable, suite : d'un côté le DMCA qui pourrit la vie de tout le monde, artiste inclus ; de l'autre, des modèles d'IA ("parasites sans âme" dixit Boulet) qui pillent sans vergogne artistes et marques déposées.
J'ai ça qui traine dans mes onglets depuis avant les vacances, je profite que j'ai un peu de temps pour faire du tri.
Pas assez de profs ? Pas assez de moyens ? C'est pas grave, on va mettre une IA pour remplacer tout ça.
Cet assistant informatique pour l'aide aux devoirs et la remise à niveau est mis en place alors que l'Éducation nationale a de plus en plus de mal à attirer des candidats pour des postes d'enseignants devant les élèves.
La plateforme devrait proposer des exercices à l'élève avec une progression de niveau au cours de son utilisation. C'est cette progression « qui va être articulée par l'intelligence artificielle, grâce à un "algorithme de renforcement" »
Et pourquoi pas aussi de la blockchain et du métaverse, tant qu'on y est ?
C'est une excellente idée, je n'y avais pas pensé. Merci du conseil.
Bisous,
Gaby
Eh oui... nous sommes dans un monde où tout doit être en permanence remis en question. Intellectuellement stimulant, mais crevant à la longue.
Ceci étant, cette Une est intéressante : fake news, vraie conséquences. L'image est peut-être fausse, mais la réalité qu'elle recouvre est vraie.
A ce titre, je trouve l'explication de Libé assez juste :
Directeur de la publication de Libération, Dov Alfon fait cette réponse : «Beaucoup des pancartes brandies dans les manifestations du 17 octobre étaient en effet générées par IA, qui devient ces derniers mois le socle artistique de protestations, comme auparavant l’étaient des pantins, poupées ou squelettes. Cette photo de l’agence Associated Press représente justement «le spectre de l’embrasement», notre titre sur cette une (spectre : «apparition fantastique, généralement effrayante, d’un mort ou d’un esprit ; image effrayante, sinistre, aux contours irréels»). Le centre de la photo est le manifestant en colère, pour qui la vérité importe peu.»
Pantin, dessin ou fausse photo : ce ne sont que les symboles pour afficher une colère bien réelle. Je vais aller voir si André Gunthert en parle, tiens.
If you’d like to visit a place where danger from the natural world is omnipresent and where lunch costs $60, I encourage you to visit Iceland. It is a beautiful and brutal landscape whose natural wonders (and terrors) make for incredible photographs. I took a bunch on a recent trip to the country. But it is possible, as I’ve unfortunately discovered, to make them terrifying in entirely new ways.
I turned Adobe’s new AI-powered Generative Fill tool on my Icelandic vacation photos, with both “legitimate” photo editing tasks and a few ridiculous prompts that resulted in nightmare fuel. Generative Fill is in beta now, and it’s based on Adobe’s Firefly image generator. It’s not entirely new, but having it right alongside all your standard photo editing sliders is new. You use it by making a selection — lasso, magic wand, whatever you like — and then typing in a text prompt. It can remove and add elements to your photo, or extend the image.
C'est fascinant et terrifiant à la fois : une sélection "au lasso", et hop, les photos sont mieux que la vraie vie (sauf pour les poneys, mais on ne peut pas tout avoir). Rien de nouveau, direz-vous ? Si, parce que ça ne demande quasiment aucune compétence : on sélectionne grossièrement, on rentre du texte pour dire ce que l'on veut et c'est l'IA qui fait le reste.
Pour moins de deux dollars de l’heure, les salariés avaient pour mission de labelliser des "dizaines de milliers de bribes de texte" inappropriés explique le Time. Un travail de fourmi qui a laissé les travailleurs traumatisés. "C'était de la torture", témoigne l’un d’entre eux au magazine. Plusieurs employés ont déclaré devoir lire entre 150 et 250 passages de texte par roulement de neuf heures, certains décrivant des scènes de pédophilie, de meurtre, de torture ou encore d'inceste. Un accompagnement par des conseillers en "bien-être" leur était proposé, mais ces séances étaient rares et peu effectives selon les salariés.
Une situation réfutée par Sama, l’entreprise sous-traitante en charge de la prestation, qui a néanmoins décidé de rompre précipitamment son contrat avec OpenAI quatre mois plus tard. Présente au Kenya, en Inde et en Ouganda, l’entreprise est spécialisée dans l’étiquetage des données pour les géants de la tech, comme Google ou Microsoft. Bien que Sama affirme fournir un "travail digne aux personnes qui en ont besoin", elle n’en est pas à son premier scandale. Le sous-traitant avait déjà été au centre d’une enquête du Time en février 2022. Le média avait alors dénoncé les conditions de travail éprouvantes des salariés, là aussi au Kenya, chargés de modérer et supprimer les contenus violents ou interdits du réseau social Facebook.
Derrière les technologies soit disant "intelligentes", il y a des humains, souvent mal traités et sous payés.
Rappelez-vous : les IA, les ordinateurs sont CONS. Ils ont besoin d'un cerveau humain pour corriger ce qu'ils piochent "sans filtre" sur internet.
Les images du lien ont été faites grâce à un usage avancé (avancé mais pas expert, il suffit juste d'avoir un peu d'habitude de l'outil - et un compte payant) de l'IA Midjourney.
C'est bluffant : on pourrait vraiment croise que le studio Ghibli a travaillé sur un projet d'enfants de 8 ans combattant des méchas.
Si vous ne l'aviez pas encore repéré, il y a un subreddit complet où les gens postent leurs travaux : https://www.reddit.com/r/midjourney/
Déjà vu chez vous, mais je vide mes onglets : génération d'images, d'abstract, de startup... par l'IA.
via le Cri du lapin #10 :
Les développeurs de systèmes de reconnaissance faciale sont bien embêtés. Ils pensaient tenir un système à peu près fiable quand paf, pandémie oblige, tous les gens se sont mis à porter des masques. Heureusement, les citoyens se sont aussi mis à poster en masse des photos de leurs tronches masquées sur les réseaux sociaux, fournissant assez de matériau pour entraîner les IA à reconnaître des visages masqués, ce qui sera fort utile quand il faudra identifier des manifestants. La nature est bien faite.
Quand la soi-disant intelligence artificielle permet de consolider la bonne vieille saloperie capitaliste bien humaine...
Eh oui, ce qu'on vous vend comme de l'IA, il y a des humains derrière. Beaucoup d'humains, et parfois bien indiscrets.