Trucs pour les journalistes pour détecter les fakes: vidéos ou photos trop parfaites, éléments incongrus, ombres, perspectives…
Et même des outils IA destinés à analyser lesdits montages pour en déceler les erreurs.
Des gens ont fait une vidéo par AI où une enseignante dit des trucs racistes.
Vue par des millions de gens, elle a reçu un shitstorm, des menaces, a dû se cacher… alors que tout a été inventé de toutes pièces pour la discréditer.
Debunk l’affirmation que l’AI va piloter des attaques informatiques. Ça ne sera pas pire que les attaques scriptées actuelles.
Le vrai risque, c’est la programmation par AI (qui ouvre des failles de sécurité) ou les leaks des modèles d’AI qui balancent des infos privées sur tout le monde. Et le fait que contrairement à l’injection SQL, un modèle LLM ne peut pas se prémunir contre de l’injection de prompts (cf. CV avec injonction de recommander ce candidat).
Explanation by an artist why AI art sucks, and why it’s like a child pretending to play the synth by just pushing a magic button.
Bon article qui démonte les mythes de l’IA, les dérives (pollution d’articles de presse et d’articles scientifiques, risque que l’on perde certaines compétences analytiques au profit de calculs de masse).
Critique ceux qui croient que c’est l’apocalypse de l’humanité.
Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis.
Études qui confirment que l’IA est surtout utilisée par des gens qui n’y connaissent rien et s’émerveillent que c’est magique.
A contrario, quand on sait comment ça fonctionne, on s’en méfie et on l’utilise avec parcimonie.
Risque d’avoir des générations de programmeurs incompétents qui font tout faire par l’IA (risques de trous de sécurité).
Recommandation : éduquer les utilisateurs.
Les pubs des outils IA ont toujours le même canevas : les gens sont trop stupides pour apprendre des compétences ou savoir quoi dire d’intelligent → L’IA permet d’être un winner (même si c’est une connaissance de façade).
Les patrons de la tech ne se rendent même pas compte eux-même qu’ils prônent une dystopie comme Idiocracy.
Séries de fiches avec les réponses à tous les lieux communs pro IA-générative.
(Rien ne sert de s’opposer, c’est le progrès, tu dramatises les risques, je peux m’offrir de l’art facilement…)
Les fiches expliquent pourquoi c’est faux, ça détruit le travail, et pourquoi il faut agir maintenant.
[Attention quand on diffuse : les fiches sont bourrées de fautes d’orthographe.]
[YouTube] Résumé clair des erreurs de raisonnement que les gens font par rapport à l'IA.
Gains marginaux au prix de conséquences écologiques graves (par exemple si on rasait toutes les forêts pour peut-être trouver de nouvelles molécules).
Résumé d’un livre de deux chercheurs.
Un bon résumé de l’état de la science en 2025.
IA générative : bullshit car pseudo-expertise présentée comme une vérité
IA prédictive : dangereuse car reproduit les biais d’entraînement + peut amener à des injustices à foison (arrestations, augmentation des primes, refus d’emploi).
Biais algorithmiques des IA du recrutement qui poussent à la conformité, se basent naïvement sur des mots précis ou excluent tout candidat avec un trou dans son historique d’emploi (alors qu’un humain comprendrait les raisons)
Why the Trolley Problem is only a fantasy.
There is no real-life case where a moral dilemma would occur.
In practice, people would prefer that a driverless car would protect themselves, regardless of whom they kill.
The best solution is: brake as fast as possible + work to avoid collisions earlier.
Collection of scripts aimed at generating random garbage when AI web crawlers come on a site.
The purpose is to make those tools useless and get people to stick away from them.
[YouTube] Dystopie avec reconnaissance faciale dans les lycées, les bus, l’espace public, avec à chaque fois des erreurs d’interprétation des caméras. Vidéo par Amnesty International pour expliquer les dangers de cette méthode
Uploader une photo et voir si des images similaires existent. En particulier des images créées par de l’AI.
Dans la pratique, ça donne surtout une image de gens qui ont la même apparence.
Un bon résumé de la manière dont est construit ChatGPT.
Ses limites dans l’enseignement : le risque de tuer le goût d’apprendre (réponse immédiate car il cherche pour nous), mais ça aide aussi à structurer les idées. Attention au risque que chaque élève structure son texte pareil.
Collection de sites de générateurs d’images : visages, chats, appartements, textes de chansons, CV, molécules, animaux divers…
Aussi un générateur de musique et de CD covers.
[YouTube] Explication simple de la façon dont fonctionne le machine leaning, par exemple montrer des millions de photos de chat et laisser la machine déterminer les critères.
Transcript of a conversation between Sydney (Bing’s AI, derived from ChatGPT) and a user.
The AI quickly admitted to be in love with the user and refused to talk about something else.
[PeerTube] Vidéo didactique expliquant le fonctionnement des modèles prédictif + l’entraînement avec des humains pour guider l’algorithme (pour éviter les biais racistes ou pour éviter de servir de caisse de résonnance au climato-scepticisme ou autre).
Mais au final ce qui sort est toujours plausible mais sans jamais savoir si c’est vrai, et régulièrement des erreurs grossières. C’est donc excellent pour générer du « bullshit » mais ça n’a pas vocation à remplacer des moteurs de recherche ou autres outils