Une fois par mois, Clémentine Mossé, co-fondatrice et Directrice de The Greener Good, prend la parole au micro de RCF Lyon, pour vous donner des conseils pour un quotidien plus respectueux de l’environnement.
Au micro :
- Anaïs Sorce, journaliste chez RCF Lyon
- Clémentine Mossé, co-fondatrice et Directrice de The Greener Good
Retranscription du podcast
🎙️ Anaïs : On a l’impression depuis quelque temps que l’intelligence artificielle est omniprésente : on en parle dans les médias, et sur RCF évidemment, on la teste dans notre quotidien parfois même sans le savoir, et c’est même devenu un outil de travail à part entière pour certaines professions. Pour autant, on ne peut que se demander si son développement exponentiel est vraiment compatible avec les enjeux écologiques actuels. C’est ce qu’on va voir dans cette nouvelle chronique avec Clémentine Mossé, directrice et fondatrice de The Greener Good. Bonjour Clémentine !
🌿 Clémentine : Bonjour Anaïs !
🎙️ Anaïs : Pour mieux comprendre de quoi on parle, est-ce qu’on peut déjà rappeler ce qu’on appelle une “intelligence artificielle”, une “IA” pour le dire rapidement ?
🌿 Clémentine : Oui, bien sûr. J’ai regardé dans différentes ressources et d’après Larousse, c’est un ensemble de théories et de techniques qui visent à réaliser des machines capables de simuler l’intelligence humaine, et qui nous aident à résoudre des problèmes complexes. Aujourd’hui, on en trouve des applications dans de multiples domaines. Par exemple : les moteurs de recherche sur le web, l’aide au diagnostic médical, les robots conversationnels comme le fameux ChatGPT, les voitures autonomes, les assistants vocaux, ou encore les générateurs d’images.
Même si on en entend parler depuis assez peu de temps, l’IA n’est pas nouvelle : elle a été théorisée au milieu du 20e siècle. Mais elle a explosé très récemment, notamment avec le succès des outils que j’ai cités, comme ChatGPT dès la fin 2022.
🎙️ Anaïs : Quels sont les impacts écologiques et éthiques de l’IA, pour ce qui nous concerne ?
🌿 Clémentine : On va commencer par les impacts énergétiques, puisque visiblement il y aurait un coût énergétique important. Même Sam Altman qui est le fondateur d’OpenAI, la société qui a créé ChatGPT, l’affirme. En effet, le 16 janvier dernier, il a dit, je cite : “Nous ne mesurons pas encore pleinement les besoins en énergie de cette technologie”. Et selon un rapport de l’Agence internationale de l’énergie publié en janvier dernier, l’électricité consommée par les data centers, qui stockent nos données numériques, devrait doubler d’ici 2026 – c’est demain ! -, notamment en raison de l’essor de l’IA et des cryptomonnaies.
On a aussi un problème éthique : les IA ne sont pas magiques, elles sont pensées et codées par des humains bien réels, qui ont leurs propres biais. Il faut garder en tête que l’IA donne une réponse, la plus probable, à une demande : elle s’appuie sur des milliers de données, et donc si les données elles-mêmes comportent des biais, racistes, sexistes ou autres, les réponses seront également biaisées. Donc, attention.
🎙️ Anaïs : Comment est-ce qu’on fait alors, pour mieux s’en servir, de cette IA ?
🌿 Clémentine : Comme avec tout outil : un outil peut être utile mais il peut aussi être néfaste lorsqu’il est mal utilisé.
Par exemple, dans mon expérience dans des écoles d’enseignement supérieur, certains élèves utilisent allègrement l’IA sans se poser de questions, en copiant le résultat qui est généré par ChatGPT par exemple. Bien entendu ils n’apprennent rien, ils ne vont pas faire fonctionner leur cerveau. C’est assez dommage, quand on passe des heures en cours, de copier une IA…
Un autre exemple : beaucoup de personnes utilisent l’IA comme un moteur de recherche. Or on l’a vu, l’IA comporte des biais et raconte même parfois des bêtises : il faut donc toujours veiller à limiter les requêtes superflues, mais aussi, surtout, chercher sur plusieurs pages différentes, croiser les sources, vérifier que l’IA prend ses informations dans des sources qui sont vraiment fiables.
Finalement, l’idée ce serait que l’IA puisse nous assister, comme les outils numériques qui nous aident déjà depuis quelques dizaines d’années, sans qu’on leur délègue complètement nos capacités d’analyse. Pour ma part, il m’arrive de faire appel parfois à de l’IA pour retravailler un texte, pour me donner quelques idées sur un sujet bien précis, ou bien pour travailler certaines données. Rappelons-nous que le cerveau humain est lui-même très créatif. L’IA, elle, n’est pas créative : elle génère des réponses à partir de ce qui existe déjà.
Je voulais aussi vous partager ce que j’ai appris la semaine dernière lors d’une conférence sur le numérique : on a tendance à penser qu’ l’IA va résoudre tous nos problèmes, or il existe beaucoup d’autres formes d’intelligence qui sont parfois bien plus efficaces, comme l’intelligence du vivant. Est-ce que vous savez, par exemple, que des chiens peuvent être entraînés pour détecter la maladie de Parkinson ? Et aux JO 2024, cet été, il y a des chiens qui ont été entraînés pour renifler les explosifs. Vous voyez, on n’a pas forcément besoin de déployer des machines très complexes.
Donc, gardons en tête que l’IA peut nous être utile mais qu’on ne doit pas lui déléguer toute notre intelligence, notre esprit critique et notre créativité.
🎙️ Anaïs : Est-ce qu’il y a aussi, peut-être, des intelligences artificielles pour nous aider à mieux comprendre le climat ?
🌿 Clémentine : Oui, il y a Climate Q&A, qui répond à des questions sur le climat en se basant sur des sources très fiables comme les rapports du GIEC.
🎙️ Anaïs : Donc n’hésitez pas à télécharger et aller voir directement.
NDLR : L’IA et l’intelligence de manière générale a été le fil directeur du Greener Festival, le festival des solutions pour vivre autrement, organisé par The Greener Good. Sa 9e édition a eu lieu les 5 et 6 octobre 2024 au château de Monchat dans le 3e arrondissement de Lyon.
La conférence plénière a eu pour sujet “Comment mettre l’intelligence au service de la transition écologique ?”. L’intelligence humaine, l’intelligence artificielle et plus généralement l’intelligence du vivant ont été évoquées par les intervenants : Hugues Mouret, directeur d’Arthropologia ; Mehdi Khamassi, enseignant-chercheur ; Maéva Bigot, psychologue sociale et environnementale. Un atelier proposé par les e-novateurs, le média du numérique responsable, a consisté à apprendre à créer une IA de reconnaissance d’images. Enfin, Alexandre Maurin, PDG d’Odiss, a donné une conférence intitulée “Sobriété numérique et IA : un paradoxe insolvable ?”.
