L’intelligence artificielle va-t-elle rendre l’humain superflu? Est-elle une opportunité ou une malédiction? Dans le cadre du workshop interdisciplinaire Quali+, Franck Missonnier-Piera (sciences économiques), Michel Heinzmann (droit), Ivo Wallimann-Helmer (humanités environnementales) et Gianfranco Soldati (philosophie) ont soumis cette révolution technologique, et peut-être sociétale, au crible de leurs algorithmes respectifs.
Parce que trop disruptive, l’intelligence artificielle (IA) requiert-elle l’adoption d’un moratoire sur son développement? Si rien n’est fait, risque-t-on de se retrouver toutes et tous au chômage, de surcroît dans un monde submergé de fausses informations? Les promesses et les menaces de l’intelligence artificielles sont telles qu’il est difficile de préjuger de l’avenir qu’elle nous réserve. Afin d’y voir plus clair, le traditionnel workshop de la filière Quali+, cuvée 2023, propose de scruter l’IA selon quatre perspectives et d’en dresser un premier bilan. Morceaux choisis par une intelligence limitée, mais 100% naturelle.Point de vue de l’économiste
Pour Frank Missonnier-Piera, il est incontestable que l’IA affecte déjà la vie des entreprises: «Elle permet d’agréger très rapidement une masse considérable de données comptables pour savoir, par exemple, quels biens ou quels services il faudrait fournir en priorité aux client·e·s. Du côté des fournisseurs·euses, l’IA peut aider à mieux gérer le stockage des marchandises de sorte à éviter des ruptures de flux.» Selon le titulaire de la Chaire Comptabilité et Analyse financière, l’IA va en particulier impacter les métiers comptables, en facilitant notamment la préparation des états financiers de l’entreprise. «Un logiciel peut non seulement aider à repérer des erreurs ou des anomalies, par exemple une facture erronée, mais aussi aider à se conformer à des normes complexes, environnementales ou juridiques, qui varient d’un pays à l’autre.»
Au niveau micro-économiques, l’IA permet donc de dégager du temps et des ressources pour des activités à forte valeur ajoutée. En revanche, elle représente un risque majeur au niveau financier car, en anticipant les tendances de marché, les algorithmes peuvent générer des effets boule de neige catastrophiques. «Si tous les agent·e·s économiques vendent en même temps, alertés par l’IA d’une tendance baissière imminente, les cours peuvent chuter de manière précipitée et provoquer un crash éclair. Il faut donc maîtriser ces outils!»
Point de vue du juriste
Rebondissant autant sur les propos de Frank Missonnier-Piera que sur l’actualité, Michel Heinzmann, titulaire de la Chaire de procédure civile, entame sa présentation en se demandant si, dans le fond, le crash du Crédit suisse ne serait pas lui-même dû à un algorithme. «L’impact juridique a été immédiat, poursuit-il, puisque le week-end même le Conseil fédéral produisait une ordonnance forçant UBS à racheter le Crédit suisse». Pour Michel Heinzmann, les spécialistes du droit disposent déjà d’une certaine forme d’IA, bien qu’encore rudimentaire. «Des moteurs de recherche nous permettent, par exemple, d’avoir accès aux arrêts du Tribunal fédéral, la plus haute instance juridique du pays. Cela facilite l’accès aux données avec, revers de la médaille, le risque de se voir noyé·e sous un flot d’informations.» A cela s’ajoute, selon lui, le risque d’atteintes à la personnalité. «En croisant les données, l’IA pourrait permettre de lever le secret et désanonymiser les données. Cela requiert une règlementation !» D’aucun·e·s craignent également un ralentissement de l’évolution du droit et sa déconnexion de l’évolution sociétale, puisque l’IA se nourrit d’un corpus de données existantes. Les mêmes causes produisant les mêmes effets, il est à craindre que l’IA n’affecte la justice prédictive. «On peut imaginer que les personnes appartenant à des minorités ethniques, les plus représentées dans le monde carcéral, soient victimes de biais reproduits par l’AI». Et Michel Heinzmann de conclure, avec des accents missonniens, que «l’IA va nous aider à libérer des ressources en automatisant les tâches simples, mais elle ne remplacera jamais l’humain dans l’exercice de la justice».
Point de vue de l’éthicien
Avec plusieurs collègues, Ivo Wallimann-Helmer, professeur au Département des géosciences, a développé un modèle servant à évaluer la durabilité des algorithmes. «Nous en sommes encore aux balbutiements, admet-il, mais notre but serait, par exemple, de pouvoir évaluer la durabilité économique et sociale des algorithmes utilisés par une banque.» Selon lui, il convient en effet de définir un cadre permettant une numérisation de la société qui soit à la fois durable et éthique. Pour y parvenir, il faudrait s’accorder sur des normes légales, éthiques et environnementales afin de savoir ce qui «est ok ou ce qui pose problème». En somme, il convient d’adopter «une approche intégrée de l’éthique numérique». Parfois considérée comme le pétrole du XXIe siècle, la digitalisation en a aussi les inconvénients: «Les serveurs consomment une énergie folle!»
Point de vue du philosophe
La question fondamentale que Gianfranco Soldati se pose est la suivante: «Est-ce que l’IA constitue un danger pour nous, les humain·e·s? Va-t-elle prendre des décisions à notre place, notamment sur des aspects fondamentaux de notre vie?» Ces questions, selon le philosophe, laissent entendre qu’il y aurait une substitution progressive de l’humain par l’IA. Gianfranco Soldati, dans un exercice d’origine cartésienne, essaie de faire réfléchir l’auditoire à l’origine de cette crainte. Pour lancer la discussion, il avance l’hypothèse selon laquelle cette peur provient d’une conception fausse que nous nous sommes faites de nous-mêmes en tant qu’humain·e. «Sous l’influence des sciences humaines, qui nous réduisent à une sorte de mécanisme, nous avons développé une image de nous-mêmes qui ressemble beaucoup à l’IA…. D’où notre crainte que l’IA puisse nous dépasser.»
L’Unifr, au cœur de l’IA
Si l’IA a au moins un mérite, c’est celui d’échauffer les circonvolutions de nos petits cerveaux, car cette technologie soulève d’innombrables questions et éveille des craintes légitimes. Il n’empêche, l’Université de Fribourg, avec ses cinq facultés, est l’endroit idéal pour appréhender la problématique de manière aussi holistique que possible. Il ne reste plus qu’à espérer une saine émulation entre chercheuses et chercheurs de tous horizons. Et même s’il n’en a pas été question durant le workshop, il est bon de rappeler que l’Université de Fribourg est l’une des chevilles-ouvrières du Swiss Center for Augmented Intelligence (SCAI), le centre de compétence national pour le développement et l’implémentation de l’intelligence augmentée.
__________
- Programme Quali+
- Natali Helberger: Gefahren und Chancen von KI - 20.11.2024
- Une journée haute en couleurs! - 15.11.2024
- Université: ChatGPT chamboule les méthodes d’évaluation - 11.11.2024