Les visages contradictoires de l’intelligence artificielle

IA • Chaque jour, les humains intègrent de plus en plus de produits issus de l'intelligence artificielle (IA), capables d'imiter et d'améliorer les connaissances humaines. Mais celle-ci menace également des millions d'emplois. (Par Sergio Ferrari)

(Alexandra Kocj, Pixabay)

Au cours de la première semaine de mars, Axel Springer, le plus grand groupe de presse allemand et éditeur des journaux Bild et Die Welt, a prévu une réduction importante de ses effectifs. Selon le géant allemand, la restructuration, qui se déroulera jusqu’à la fin de l’année, est motivée par les derniers développements des technologies de l’information et de la communication (1). Mathias Döpfner, directeur du groupe, a envoyé une lettre à ses collaborateurs dans laquelle il affirme que « l’intelligence artificielle va révolutionner le journalisme et l’industrie des médias » en remplaçant diverses activités de la profession.

Potentiel et menaces

Un moteur de recherche sur Internet, une tondeuse automatique sans fil, un calculateur de distance ou de taux de change, de multiples traducteurs en ligne, des assistants audio, des voitures sans chauffeur ou des robots chirurgicaux… Toutes ces avancées technologiques gagnent rapidement du terrain grâce à l’intelligence artificielle. Celle-ci résulte de la combinaison d’algorithmes – séquences d’étapes logiques structurées en programmes – qui permettent de créer des machines ou des instruments dotés de capacités égales, voire supérieures, à celles de l’être humain.

Cependant, souligne M. Tallent dans un récent article publié dans The Conversation (2), « la collecte massive de données et l’utilisation généralisée d’algorithmes constituent également une menace pour la société et la démocratie ». Il explique qu' »en échange d’un service (presque toujours gratuit), les utilisateurs délèguent consciemment ou inconsciemment une partie de leur pouvoir de décision et la possibilité d’influencer leurs choix et leurs opinions ».

Le philosophe français rappelle que les systèmes d’IA sont construits pour traiter d’énormes quantités de données et que leur but est de prendre les décisions les plus éclairées et les plus objectives possibles. Cependant, précise-t-il, ce déploiement logique à grande échelle répond à des choix politiques et à la promotion de ce que certains intellectuels appellent la « rationalité algorithmique ».

Tallent prévient que les géants du numérique (les grandes multinationales du secteur) connaissent nos préférences, nos opinions et nos désirs. De plus, les contenus conformes à nos idées sont dominants et les opinions alternatives sont absentes, ce qui facilite et augmente la diffusion des « fake news », qui ont un plus grand potentiel de diffusion. En conséquence, nous partageons de moins en moins les vérités et les expériences communes nécessaires au fonctionnement de la démocratie.

Intelligent et invasif

En analysant nos données personnelles dans le but de prédire notre comportement, le système dominant devient un « capitalisme de surveillance », selon les termes de la célèbre sociologue américaine Shoshana Zuboff, que Tallent cite dans son article. Selon Zuboff, pour ces entreprises, les individus ne sont plus des clients, mais des produits pour les annonceurs ou les fournisseurs de données, et ces données permettent de déposséder les consommateurs potentiels de leur propre volonté.

Tallent souligne que « le fait que nous soyons exposés à une telle publicité ciblée démontre les doutes que nous avons sur nos propres désirs. Nous ne savons plus vraiment si nous avons voulu l’objet que nous avons acheté ou si nous l’avons acheté parce qu’on nous l’a montré à l’avance. Notre désir est automatisé.

En livrant nos données et nos informations, conclut Tallent, nous transférons une partie de notre libre arbitre et de notre capacité à exprimer notre propre opinion. Nous limitons ainsi fortement notre capacité à influencer les processus électoraux, c’est-à-dire l’exercice même de la démocratie.

Comment redistribuer les bénéfices?

En 2020, le syndicat des médias et de la communication Syndicom a approuvé neuf principes directeurs à défendre dans le développement de l’intelligence artificielle (3). Il s’agit notamment de l’exercice de l’autonomie et du contrôle, du respect des droits de l’homme et des droits fondamentaux, de la responsabilité éthique et sociale, de la garantie de la transparence, de l’exercice de la responsabilité, de l’adoption du partenariat social et de la codétermination des travailleurs, et de la reconnaissance d’une transformation numérique équitable et durable.

La transformation numérique équitable est au cœur des postulats du syndicat et touche directement à la question de la redistribution des revenus. Pour Syndicom, cette transformation doit améliorer la situation du plus grand nombre par la redistribution et la recherche de l’égalité entre les hommes et les femmes. « Les gains de productivité que l’utilisation de l’IA peut apporter doivent être durablement réinvestis au profit des populations ». Et il prévient que « à l’ère de la quatrième révolution industrielle, le système économique a changé de visage. Il vise à fonctionner avec le moins de travailleurs possible et à s’éloigner des relations contractuelles garanties par les conventions collectives ». Cette vision « n’est pas une innovation technologique, mais une rupture historique et sociale. Les raisons ne sont pas à chercher dans l’automatisation numérique, mais dans le système économique dominant », conclut l’organisation syndicale suisse.

Quant à l’utilisation abusive possible des bases de données, élément essentiel de l’IA, la proposition de Syndicom est de promouvoir des parapluies de protection car le big data et l’IA peuvent aussi être conçus pour nuire aux personnes. Ces vastes quantités d’informations, de données, d’IA et de systèmes intelligents sont des outils ingénieux aux mains d’une multitude d’acteurs, dont beaucoup sont politiquement puissants ainsi que des criminels.

Il convient d’en tenir compte lors de la conception et de la réglementation de l’IA. Cependant, les dommages potentiels « ne sont pas une caractéristique du développement technologique, mais le résultat de son utilisation. C’est pourquoi il est si important que les différents acteurs étatiques réglementent l’espace numérique afin d’empêcher d’autres personnes de s’en emparer et de le manipuler, même au-delà des frontières nationales.

(1) https://www.rfi.fr/fr/europe/20230304-le-groupe-allemand-axel-springer-va-supprimer-des-postes-au-profit-de-l-intelligence-artificielle
(2) https://theconversation.com/exploitation-des-donnees-un-changement-de-contrat-social-a-bas-bruit-199038
(3) https://syndicom.ch/fr/themes/dossier/intelligenceartificielleia/resolution/