Explanation by an artist why AI art sucks, and why it’s like a child pretending to play the synth by just pushing a magic button.
Bon article qui démonte les mythes de l’IA, les dérives (pollution d’articles de presse et d’articles scientifiques, risque que l’on perde certaines compétences analytiques au profit de calculs de masse).
Critique ceux qui croient que c’est l’apocalypse de l’humanité.
Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis.
Études qui confirment que l’IA est surtout utilisée par des gens qui n’y connaissent rien et s’émerveillent que c’est magique.
A contrario, quand on sait comment ça fonctionne, on s’en méfie et on l’utilise avec parcimonie.
Risque d’avoir des générations de programmeurs incompétents qui font tout faire par l’IA (risques de trous de sécurité).
Recommandation : éduquer les utilisateurs.
Les pubs des outils IA ont toujours le même canevas : les gens sont trop stupides pour apprendre des compétences ou savoir quoi dire d’intelligent → L’IA permet d’être un winner (même si c’est une connaissance de façade).
Les patrons de la tech ne se rendent même pas compte eux-même qu’ils prônent une dystopie comme Idiocracy.
Séries de fiches avec les réponses à tous les lieux communs pro IA-générative.
(Rien ne sert de s’opposer, c’est le progrès, tu dramatises les risques, je peux m’offrir de l’art facilement…)
Les fiches expliquent pourquoi c’est faux, ça détruit le travail, et pourquoi il faut agir maintenant.
[Attention quand on diffuse : les fiches sont bourrées de fautes d’orthographe.]
[YouTube] Résumé clair des erreurs de raisonnement que les gens font par rapport à l'IA.
Gains marginaux au prix de conséquences écologiques graves (par exemple si on rasait toutes les forêts pour peut-être trouver de nouvelles molécules).
Résumé d’un livre de deux chercheurs.
Un bon résumé de l’état de la science en 2025.
IA générative : bullshit car pseudo-expertise présentée comme une vérité
IA prédictive : dangereuse car reproduit les biais d’entraînement + peut amener à des injustices à foison (arrestations, augmentation des primes, refus d’emploi).
Biais algorithmiques des IA du recrutement qui poussent à la conformité, se basent naïvement sur des mots précis ou excluent tout candidat avec un trou dans son historique d’emploi (alors qu’un humain comprendrait les raisons)
Why the Trolley Problem is only a fantasy.
There is no real-life case where a moral dilemma would occur.
In practice, people would prefer that a driverless car would protect themselves, regardless of whom they kill.
The best solution is: brake as fast as possible + work to avoid collisions earlier.
Collection of scripts aimed at generating random garbage when AI web crawlers come on a site.
The purpose is to make those tools useless and get people to stick away from them.
[YouTube] Dystopie avec reconnaissance faciale dans les lycées, les bus, l’espace public, avec à chaque fois des erreurs d’interprétation des caméras. Vidéo par Amnesty International pour expliquer les dangers de cette méthode
Uploader une photo et voir si des images similaires existent. En particulier des images créées par de l’AI.
Dans la pratique, ça donne surtout une image de gens qui ont la même apparence.
Un bon résumé de la manière dont est construit ChatGPT.
Ses limites dans l’enseignement : le risque de tuer le goût d’apprendre (réponse immédiate car il cherche pour nous), mais ça aide aussi à structurer les idées. Attention au risque que chaque élève structure son texte pareil.
Collection de sites de générateurs d’images : visages, chats, appartements, textes de chansons, CV, molécules, animaux divers…
Aussi un générateur de musique et de CD covers.
[YouTube] Explication simple de la façon dont fonctionne le machine leaning, par exemple montrer des millions de photos de chat et laisser la machine déterminer les critères.
Transcript of a conversation between Sydney (Bing’s AI, derived from ChatGPT) and a user.
The AI quickly admitted to be in love with the user and refused to talk about something else.
[PeerTube] Vidéo didactique expliquant le fonctionnement des modèles prédictif + l’entraînement avec des humains pour guider l’algorithme (pour éviter les biais racistes ou pour éviter de servir de caisse de résonnance au climato-scepticisme ou autre).
Mais au final ce qui sort est toujours plausible mais sans jamais savoir si c’est vrai, et régulièrement des erreurs grossières. C’est donc excellent pour générer du « bullshit » mais ça n’a pas vocation à remplacer des moteurs de recherche ou autres outils
L’AFCIA, présidée par Cédric Sauviat.
Explique les dangers de l’IA : absence de comité d’éthique, projet ayant des objectifs financiers déguisés en bienfaits pour l’humanité
Croire qu’il y a une seule IA (il y a deep learning, big data)
Croire que IA = innovation (souvent c’est un bête algo)
Croire que c’est cher + GAFAM vont tout dominer (non, ils n’auront pas les données de tous les secteurs)
Croire que l’IA est intellgente (contre-exemple : chatbots idiots qu’on entraîne à devenir nazis)
Croire qu’elle va dépasser les humains et être autonome