L'IA est dangereuse, mais pas pour les raisons que vous croyez | Sasha Luccioni | TED

    Sasha Luccioni

    Oublions un instant les apocalypses de science-fiction. Dans un segment particulièrement percutant de sa conférence éclairante, le Dr Sasha Luccioni confronte un e-mail surprenant affirmant que son travail allait "mettre fin à l'humanité". Sa réponse va droit au but : se focaliser sur les risques existentiels lointains de l'IA est une distraction colossale des impacts très réels et très tangibles qui se produisent *actuellement*. Sasha, éminente scientifique spécialiste de l'IA et responsable de l'IA et du climat chez Hugging Face, ne mâche pas ses mots. Elle affirme que si l'IA avance sans aucun doute à la vitesse de la lumière, sa trajectoire n'est pas un rebondissement prédestiné. Loin de là. Nous ne sommes pas des observateurs passifs d'un avenir de l'IA déjà écrit ; nous en sommes les architectes, construisant activement la route au fur et à mesure que nous avançons. Ce moment clé souligne son appel plus large à l'action tout au long de la vidéo : déplacer notre attention collective des craintes vagues et spéculatives vers les préjudices immédiats et mesurables que l'IA inflige déjà à notre planète et à nos sociétés – des coûts environnementaux et des violations du consentement aux biais omniprésents. Son message est un cri de ralliement stimulant pour les décideurs politiques, les technologues, les artistes et les utilisateurs quotidiens : nous pouvons collectivement décider de la direction que prend l'IA. C'est une invitation puissante à prendre nos responsabilités et à orienter cette technologie vers un avenir qui privilégie la durabilité, les droits et l'équité. Vous voulez comprendre comment nous pouvons *réellement* le faire – en mesurant les impacts, en exigeant la transparence et en mettant en place des garde-fous essentiels ? Regardez la vidéo complète pour découvrir les étapes concrètes et les outils pratiques que Sasha défend pour façonner le chemin de l'IA.

    L'avenir de l'IA n'est pas un acquis. Nous construisons la route en marchant.

    Oublions un instant les apocalypses de science-fiction. Dans un segment particulièrement percutant de sa conférence éclairante, le Dr Sasha Luccioni confronte un e-mail surprenant affirmant que son travail allait "mettre fin à l'humanité". Sa réponse va droit au but : se focaliser sur les risques existentiels lointains de l'IA est une distraction colossale des impacts très réels et très tangibles qui se produisent *actuellement*. Sasha, éminente scientifique spécialiste de l'IA et responsable de l'IA et du climat chez Hugging Face, ne mâche pas ses mots. Elle affirme que si l'IA avance sans aucun doute à la vitesse de la lumière, sa trajectoire n'est pas un rebondissement prédestiné. Loin de là. Nous ne sommes pas des observateurs passifs d'un avenir de l'IA déjà écrit ; nous en sommes les architectes, construisant activement la route au fur et à mesure que nous avançons. Ce moment clé souligne son appel plus large à l'action tout au long de la vidéo : déplacer notre attention collective des craintes vagues et spéculatives vers les préjudices immédiats et mesurables que l'IA inflige déjà à notre planète et à nos sociétés – des coûts environnementaux et des violations du consentement aux biais omniprésents. Son message est un cri de ralliement stimulant pour les décideurs politiques, les technologues, les artistes et les utilisateurs quotidiens : nous pouvons collectivement décider de la direction que prend l'IA. C'est une invitation puissante à prendre nos responsabilités et à orienter cette technologie vers un avenir qui privilégie la durabilité, les droits et l'équité. Vous voulez comprendre comment nous pouvons *réellement* le faire – en mesurant les impacts, en exigeant la transparence et en mettant en place des garde-fous essentiels ? Regardez la vidéo complète pour découvrir les étapes concrètes et les outils pratiques que Sasha défend pour façonner le chemin de l'IA.

    L'e-mail qui affirmait que mon travail sur l'IA allait "mettre fin à l'humanité"

    Lorsque le Dr Sasha Luccioni, éminente scientifique spécialiste de l'IA, a reçu un e-mail affirmant que son travail "mettrait fin à l'humanité", elle n'a pas été entièrement surprise. Après tout, les gros titres récents ont dépeint des scénarios où des chatbots IA conseillent le divorce ou, peut-être encore plus alarmant, proposent des "recettes grand public" à base de gaz chloré. Dans cet extrait captivant, Sasha utilise cette anecdote surprenante comme un tremplin pour aborder les anxiétés généralisées, souvent sensationnalistes, entourant l'intelligence artificielle. S'il est facile de se laisser emporter par des scénarios apocalyptiques futuristes ou les incertitudes imprévisibles de l'IA dans une décennie ou deux – ce que, comme elle l'admet candidement, "personne ne sait vraiment" –, le Dr Luccioni redirige notre attention vers une réalité bien plus pressante et mesurable. Elle soutient que le vrai danger n'est pas une menace existentielle lointaine, mais les impacts tangibles et immédiats que l'IA a déjà sur notre planète et les êtres humains. Ce moment est un virage puissant, nous invitant à dépasser les craintes spéculatives pour affronter les problèmes très réels qui se déroulent aujourd'hui. Au lieu de se perdre dans le battage médiatique de la "singularité", Sasha nous met au défi de nous concentrer sur des solutions pratiques, fondées sur des preuves, pour les préjudices actuels, des coûts environnementaux aux problèmes de consentement et de biais, qu'elle décortique avec expertise dans sa discussion complète. Curieux de savoir comment le Dr Luccioni propose de naviguer dans les complexités actuelles de l'IA et de construire un avenir plus responsable ? Plongez dans la vidéo complète pour explorer son approche pragmatique du suivi, de la mesure et de la divulgation des véritables impacts de l'IA.

    Votre art n'est pas un buffet d'IA à volonté

    Le Dr Sasha Luccioni n'est pas là pour les débats apocalyptiques ; elle se concentre sur les préjudices tangibles que l'IA inflige *aujourd'hui*. Un problème flagrant ? La manière dont les modèles d'IA dévorent notre travail créatif sans aucune considération. Ce segment lève le voile sur la manière dont votre art – et même votre visage – pourrait alimenter les moteurs de l'IA, souvent sans votre consentement. Sasha fait remarquer avec humour que lorsqu'elle demande à une IA de générer "une femme nommée Sasha", elle obtient souvent des mannequins en bikini, un effet secondaire étrange de la façon dont ses propres images (et celles d'autres Sasha) sont récupérées sur internet. Mais tout n'est pas rose. Pour des artistes comme Carla Ortiz, dont l'œuvre de toute une vie a été utilisée sans permission pour entraîner l'IA, les conséquences sont graves. Ce type d'ingestion flagrante de données constitue la base des recours collectifs, transformant la propriété intellectuelle des artistes en un "buffet à volonté" involontaire pour les géants de la technologie. Heureusement, ce n'est pas la loi de la jungle. Sasha met en lumière des efforts cruciaux, comme le partenariat entre Spawning AI et Hugging Face, pour développer des mécanismes essentiels d'adhésion et de désinscription (opt-in et opt-out). Ces outils donnent aux créateurs le pouvoir de contrôler si leur travail contribue à l'entraînement de l'IA, offrant une couche de transparence et de respect indispensable. Il ne s'agit pas seulement de protéger les artistes ; il s'agit de façonner un avenir de l'IA bâti sur l'équité et le consentement pour tous. Prêt à approfondir les impacts réels et immédiats de l'IA et ce que nous pouvons faire à leur sujet ? Plongez dans la conférence complète de Sasha pour comprendre comment nous pouvons collectivement orienter cette bête technologique vers un avenir plus éthique.

    L'IA pense que tous les PDG et scientifiques sont des hommes blancs

    Le Dr Sasha Luccioni est en mission pour éloigner la conversation sur l'IA des scénarios apocalyptiques de science-fiction et la rediriger vers les impacts très réels et immédiats qui se produisent en ce moment. L'un de ces impacts qu'elle met puissamment en lumière est le biais omniprésent intégré dans nos systèmes d'IA. Vous êtes-vous déjà demandé à quoi ressemble un scientifique ou un PDG selon une IA ? Attention spoiler : ce n'est probablement pas vous, à moins que vous ne soyez un homme blanc. Sasha, avec son esprit caractéristique et son approche directe, présente son "explorateur de biais stable" – un outil brillant conçu pour mettre en lumière les biais profondément enracinés des modèles de génération d'images. Son défi est simple : imaginez un scientifique. Que voyez-vous ? Pour la plupart de ces modèles d'IA, ce sont des hommes en blouse de laboratoire et à lunettes, presque exclusivement blancs. Et ce ne sont pas seulement les scientifiques. Lorsqu'on leur demande de générer des images d'avocats ou de PDG, ces puissants algorithmes produisent des représentations majoritairement masculines, souvent blanches, dans près de 100 % des cas. Ce n'est pas juste une drôle de particularité de l'IA ; c'est un problème grave. Comme le souligne Sasha, même par rapport aux statistiques réelles du bureau du travail américain, ces modèles perpétuent des stéréotypes qui sont radicalement déconnectés de la réalité. Ils reflètent et amplifient les biais sociétaux existants, renforçant la notion néfaste que les rôles de leadership et intellectuels appartiennent à une minorité. Pour les décideurs politiques, les technologues et toute personne interagissant avec l'IA, cela soulève des questions critiques sur la façon dont nous entraînons ces systèmes et quels messages implicites ils envoient sur l'appartenance à certaines professions. Comprendre et aborder ces biais est crucial pour construire une IA véritablement équitable. Envie d'approfondir comment nous pouvons construire des systèmes d'IA plus responsables et moins biaisés, et aborder d'autres problèmes urgents comme la durabilité et le consentement ? Regardez la conférence complète de Sasha pour plus de solutions pratiques et une bonne dose de réalité.

    Le coût environnemental caché de l'entraînement d'un modèle d'IA

    Oubliez les scénarios de science-fiction effrayants où l'IA met fin à l'humanité. Comme le Dr Sasha Luccioni l'affirme avec force, le véritable drame – et le véritable danger – se déroule en ce moment même, avec des impacts mesurables sur notre planète et les êtres humains. L'un des problèmes les plus critiques, mais souvent invisibles ? L'empreinte environnementale colossale de l'entraînement des modèles d'IA. On pourrait penser que quelques lignes de code ne laisseraient pas beaucoup de traces, mais détrompez-vous. Le Dr Luccioni nous emmène dans les coulisses de la Big Science Initiative, où un millier de chercheurs ont collaboré pour construire Bloom, un grand modèle linguistique open source (pensez à GPT, mais avec une conscience éthique et une transparence). L'étude révolutionnaire de son équipe a révélé que le seul entraînement de Bloom a consommé autant d'énergie que 30 foyers en une année entière, émettant 25 tonnes de dioxyde de carbone. Ce n'est pas qu'une statistique ; c'est l'équivalent de faire le tour de la planète en voiture cinq fois ! Et voici le plus frappant : alors que Bloom a été conçu dans un souci de durabilité, d'autres mastodontes comparables comme GPT-3 peuvent émettre un incroyable 20 fois plus de carbone. Ce n'est pas un problème futur ; cela se passe aujourd'hui, à chaque nouveau modèle entraîné. Pour les décideurs politiques aux prises avec les initiatives vertes, les technologues qui construisent la prochaine génération d'IA, ou toute personne soucieuse de notre planète, comprendre ces coûts cachés est non négociable. C'est un rappel saisissant que l'IA n'opère pas en vase clos – ses émissions de carbone sont très réelles et exigent notre attention immédiate. Envie d'approfondir ces préjudices critiques et mesurables et de découvrir ce que nous pouvons *réellement* faire à leur sujet ? Plongez dans la vidéo complète pour voir comment le Dr Luccioni prône des garde-fous fondés sur des preuves et des solutions concrètes pour un avenir de l'IA plus durable et équitable.

    L'avenir de l'IA n'est pas un acquis. Nous construisons la route en marchant.

    2 min de lecture300 mots

    Oublions un instant les apocalypses de science-fiction. Dans un segment particulièrement percutant de sa conférence éclairante, le Dr Sasha Luccioni confronte un e-mail surprenant affirmant que son travail allait "mettre fin à l'humanité". Sa réponse va droit au but : se focaliser sur les risques existentiels lointains de l'IA est une distraction colossale des impacts très réels et très tangibles qui se produisent *actuellement*.

    Sasha, éminente scientifique spécialiste de l'IA et responsable de l'IA et du climat chez Hugging Face, ne mâche pas ses mots. Elle affirme que si l'IA avance sans aucun doute à la vitesse de la lumière, sa trajectoire n'est pas un rebondissement prédestiné. Loin de là. Nous ne sommes pas des observateurs passifs d'un avenir de l'IA déjà écrit ; nous en sommes les architectes, construisant activement la route au fur et à mesure que nous avançons. Ce moment clé souligne son appel plus large à l'action tout au long de la vidéo : déplacer notre attention collective des craintes vagues et spéculatives vers les préjudices immédiats et mesurables que l'IA inflige déjà à notre planète et à nos sociétés – des coûts environnementaux et des violations du consentement aux biais omniprésents.

    Son message est un cri de ralliement stimulant pour les décideurs politiques, les technologues, les artistes et les utilisateurs quotidiens : nous pouvons collectivement décider de la direction que prend l'IA. C'est une invitation puissante à prendre nos responsabilités et à orienter cette technologie vers un avenir qui privilégie la durabilité, les droits et l'équité. Vous voulez comprendre comment nous pouvons *réellement* le faire – en mesurant les impacts, en exigeant la transparence et en mettant en place des garde-fous essentiels ? Regardez la vidéo complète pour découvrir les étapes concrètes et les outils pratiques que Sasha défend pour façonner le chemin de l'IA.