L’IA, c’est-à-dire l’intelligence artificielle (ou AI en anglais) est en train d’envahir le monde à toute vitesse. Pour donner un exemple : on s’attend à ce qu’en 2027, le marché mondial de l’IA atteigne une valeur de 407 milliards de dollars, alors qu’en 2022, il ne valait encore « que » 87 milliards de dollars. Selon une enquête du cabinet de conseil McKinsey, au niveau mondial, 55 pour cent des entreprises ont actuellement déjà recours à une forme d’IA.

Peter Olofsen, analist bij Triodos Investment Management
Peter Olofsen, analyste chez Triodos Investment Management

Ce n’est pas sans raison. L’IA peut présenter de nombreux avantages, que ce soit par exemple pour accroître la productivité, réduire les coûts, innover ou améliorer le service à la clientèle. Et bien que cet article appelle à la prudence, la Banque Triodos est par ailleurs très enthousiaste quant aux possibilités qu’offre cette technologie. « Prenons pour exemple le monde médical. », propose Peter Olofsen. « Cela fait déjà plusieurs années qu’on y utilise le machine-learning, ou apprentissage automatique, pour améliorer les machines capables de détecter un cancer du sein. Aujourd’hui, l’IA permet de poser de meilleurs diagnostics. »

Consommation d’énergie, chômage et discrimination

On comprend donc l’enthousiasme pour l’IA. Mais l’essor de l’IA s’accompagne également de préoccupations et de risques. Par exemple, les systèmes d’IA sont très gourmands en énergie. D’après l’Agence internationale de l’Énergie, dans les cinq prochaines années, la quantité d’électricité consommée par les data-centers pour l’IA va plus que doubler, pour atteindre 945 térawattheures, c’est-à-dire l’équivalent de ce que consomme actuellement le Japon en une année. Et dans les années suivantes, cette consommation ne fera qu’augmenter. La consommation accrue d’eau (pour refroidir les serveurs) est également un problème urgent.

Sans parler des diverses préoccupations d’ordre éthique liées à l’IA. Citons par exemple la discrimination due au biais algorithmique, ou les atteintes à la vie privée liées à l’identification des personnes dans les lieux publics, par la reconnaissance faciale et/ou la biométrie. Ou encore l’utilisation de l’IA à des fins contraires à l’éthique voire carrément dangereuses, comme les systèmes d’armes autonomes capables de détecter et d’attaquer des cibles par eux-mêmes, selon un ensemble de règles préprogrammées.

Législation et réglementation à la traîne

En raison des préoccupations évoquées et d’autres encore, les pouvoirs publics s’attellent actuellement à élaborer une réglementation de l’IA. Mais comme c’est souvent le cas avec la législation et les règlements, suivre la pratique quotidienne s’avère compliqué, en particulier dans le cas d’une technologie telle que l’IA, qui se développe à une vitesse fulgurante. La loi européenne sur l’intelligence artificielle (ou AI Act) est entrée en vigueur en août 2024, mais ses dispositions ne seront appliquées que dans le courant de 2025 et 2026. Cet ensemble de règles interdit notamment d’utiliser d’utiliser l’IA à certaines fins, telles que les systèmes de crédit socialD’autres applications de l’IA telles que l’analyse des CV lors des procédures de recrutement doivent répondre à des critères très stricts.

Par ailleurs, l’Union européenne a publié en 2019 les Lignes directrices en matière d’éthique pour une IA digne de confiance, une directive s’adressant aux personnes qui développent et utilisent l’IA afin qu’elles fassent un usage responsable et fiable de la technologie. Cela suffit-il ? « L’UE compte incontestablement parmi les pionniers en matière de régulation de l’IA. Il est toutefois trop tôt pour dire si les directives et réglementations actuelles sont suffisantes. », constate Federica Masut. « On décèle déjà des failles et des lacunes potentielles. Par exemple, le texte stipule, entre autres, que l’IA doit être utilisée de manière éthique. L’intention est louable, mais ce sont ensuite les entreprises elles-mêmes qui déterminent ce qu’elles considèrent précisément comme ‘éthique’. Par ailleurs, les dispositions de la loi sur l’IA ne s’appliquent pas aux activités de défense et à la sécurité nationale, où la technologie peut donc toujours être mise en œuvre de manière irresponsable, potentiellement en violation des droits humains ».

Un domaine concurrentiel

En d’autres termes, on ne peut pas (encore) avoir la certitude que la législation et la réglementation garantiront un usage responsable de l’IA. Pouvons-nous compter sur les entreprises pour relever elles-mêmes ce défi ? Peter Olofsen : « Nous avons eu plusieurs conversations sur l’IA avec des entreprises technologiques de notre portefeuille d’investissement. Nous constatons qu’elles ont formulé à ce sujet des politiques qui font également l’objet d’un suivi. C’est une bonne nouvelle. Toutefois, une analyse plus large (d’un plus grand nombre d’entreprises, notamment en dehors de notre portefeuille d’investissement) révèle qu’il y a encore du pain sur la planche. Notamment en matière de disclosure ». (ndlr, Le concept de « disclosure » ou de publicité correspond à la mesure dans laquelle les entreprises communiquent aux investisseurs potentiels des informations susceptibles d’influencer une décision d’investissement.)

Institutions financières à la rescousse

Pour l’instant, on constate donc que ni la réglementation ni les entreprises ne sont en mesure de garantir une utilisation responsable et éthique de l’IA. C’est pourquoi la Banque Triodos appelle les institutions financières à assumer elles aussi leurs responsabilités dans ce domaine. Et c’est possible de différentes manières. Federica Masut : « Pour commencer, il est évidemment important que nous utilisions nous-mêmes l’IA de manière éthique et responsable. En effet, dans le secteur financier, le recours à l’IA comporte de grands risques, du biaisalgorithmique dans le cadre des octrois de crédit au respect de la vie privée. Nous devons donc nous poser à nous-mêmes les questions critiques que nous posons aux entreprises présentes dans notre portefeuille d’investissement ».

En outre, les institutions financières disposent de deux moyens d’avoir un impact dans le domaine des investissements. Le premier est le choix d’investir ou non dans une entreprise, voire de retirer un investissement dans une entreprise dont la gestion en matière d’IA s’avère discutable. « Les institutions financières ne doivent pas se laisser hypnotiser par les rendements financiers potentiels de l’IA, même s’ils peuvent être attrayants », explique Federica Masut. « Posez des questions critiques, faites savoir que vous cherchez plus qu’un simple rendement financier et posez vos exigences dans ce domaine ».

Le second moyen est l’engagement, c’est-à-dire dialoguer avec les entreprises et les convaincre de différentes manières de contribuer à un impact positif. Il est non seulement important que les institutions financières le fassent, mais aussi qu’elles s’y engagent collectivement, affirme Peter Olofsen : « En tant que Banque Triodos, nous signalons régulièrement que nous estimons qu’il est important de faire un usage responsable et éthique de l’IA. Mais si ce message est partagé par des dizaines d’institutions financières, l’impact est multiplié d’autant. L’union fait la force. Cela s’est déjà produit lorsque, avec 50 investisseurs institutionnels, nous nous sommes affiliés à la Collective Impact Coalition for Ethical Artificial Intelligence de la World Benchmarking Alliance ».

Sortir de l’ombre

Federica Masut constate que de plus en plus d’institutions financières se préoccupent du sujet et élaborent des politiques en la matière, mais que cela se fait encore principalement en interne. Et il est précisément important qu’elles donnent une visibilité à cette thématique, insiste-t-elle : « Soyez critiques, posez des limites et faites-le savoir. L’IA a le pouvoir de changer notre société, tant dans un sens positif que négatif. Il est essentiel que les institutions financières assument elles aussi leurs responsabilité sur ce sujet important ».