Une Préface Pour <<Un droit de l’intelligence artificielle: entre règles sectorielles et régime général>>

I was very honored to be asked to write the preface for Un droit de l’intelligence artificielle: entre règles sectorielles et régime général. Perspectives de droit comparé (Céline Castets-Renard, Jessica Eynard, eds.) which should be forthcoming shortly. An English edition is due to follow in a few months.

Since a Preface is short, I decided to compose it in French, relying on the able editors to correct any infelicities and the occasional failure to agree gender or the like. The result is not my first foreign-language publication, nor even the only one due this year, but it is the first where the foreign version is not a translation. Here it is en version originale:

L’intelligence artificielle sera bientôt, si elle ne l’est déjà, une des technologies les plus importantes et aussi une des plus dangereuses que nous n’ayons jamais rencontrées. Comme William Gibson nous avertit, « l’avenir est déjà ici, il n’est tout simplement pas encore uniformément réparti ».

L’enfant de l’informatique et des mégadonnées, l’apprentissage automatique, dit l’intelligence artificielle (IA), a infiltré plusieurs domaines, y compris des décisions gouvernementales (soit les bénéfices sociaux ou l’administration de la justice), les services de santé, le champ  de bataille, et des tentatives de manipulation des élections et de l’espace public, ainsi que les marchés financiers.

Actuellement, les systèmes d’IA ont tendance à être opaques. Jusqu’à ce que nous ayons appris à en construire de meilleurs, il restera difficile d’identifier les informations spécifiques les plus susceptibles de déterminer une conclusion donnée. De même, sans schéma de provenance des données, il restera difficile de détecter les caractéristiques subtiles qui peuvent entraîner diverses formes de discriminations involontaires, mais néanmoins indésirables, et même illégales.

L’IA soulève de nombreuses questions sociales, tel que l’avenir du travail. Tous, des ouvriers d’usine aux professionnels tels que les médecins et les avocats, pourraient voir leurs emplois transformés. Ce que nous ignorons encore est de savoir si l’IA deviendra notre conseiller, notre collègue, notre patron (et notre surveillant qui voit tout), ou si peut-être certains d’entre nous ne travaillerons plus du tout parce que les IA auront pris nos emplois, étant à la fois plus précises et plus perspicaces.

Nous juristes avons tendance à considérer que le rôle de la loi et de la réglementation est au cœur de l’enquête sur l’IA. Je reconnais que les choix sociaux concernant la configuration et le déploiement de l’IA ne devraient pas être laissés au marché sans contrôle légitime. Mais ce qui devrait passer en premier, ce sont les questions éthiques liées à l’IA. Les principes éthiques de l’introspection et de l’engagement sont essentiels pour tous ceux qui construisent, entretiennent, réglementent ou utilisent l’IA et, encore plus certainement, lorsque nous considérons les intérêts de ceux qui font l’objet des actions prises par l’IA. Mais cela doit être fait de manière soignée. Actuellement, la prolifération des standards éthiques aux États-Unis, par exemple, permet aux moins scrupuleux de chercher le standard qui leur permettra de revendiquer la vertu sans la pratiquer.

Même si l’on croit qu’il n’y a aucune chance que la technologie actuelle produise une IA consciente, il est concevable que, tôt ou tard, une IA puisse si bien imiter une personne que nous ne pourrions pas discerner le silicium sous le sourire. Cela finira plus probablement dans la fraude que dans la sensibilité. Bien sûr, il pourrait devenir commode d’adopter une fiction juridique dans laquelle nous attribuons certains aspects de la personnalité à l’entité computationnelle artificielle, tout comme nous le faisons pour certains aspects d’entités économiques artificielles – les entreprises. Dans tous les cas, les questions essentielles seront ce que nous voulons que nos machines fassent, et ne fassent pas, des questions qui devraient éclairer le chemin vers l’établissement des règles qui encourageront des résultats favorables.

Les problèmes éthiques et juridiques créés par l’IA sont  interdisciplinaires, mais pour compliquer encore les choses, ils sont également transnationaux. Premièrement, n’étant que des données et des logiciels, à la fois les algorithmes et les méthodes de formation pour générer de nouveaux algorithmes, peuvent être partagés dans le monde entier en open source, dans la littérature académique, ou vendus au-delà des frontières. D’un autre côté, certains pays considèrent les informations sur leurs citoyens, par exemple les données nationales sur la santé, comme une ressource stratégique faisant partie de la politique économique nationale… mais les données et le code sont difficiles à enfermer.

Deuxièmement, la réglementation de l’IA est dans une période de débat, de développement rapide, et de concurrence. L’Union européenne, les ÉtatsUnis, la Chine et de nombreux autres pays sont confrontés au double défi de contrôler l’IA tout en l’encourageant – par peur d’être laissé derrière dans ce qu’ils décrivent comme une compétition commerciale et militaire. Dans le cas de l’UE, le RGPD crée chez certains un appétit bien compréhensible pour une seconde occasion de la création d’une norme transnationale, c’est-à-dire un système potentiellement extraterritorial, même viral.

L’IA doit-elle être réglementée en tant que technologie, de haut en bas ou de manière sectorielle par des experts versés dans les différents domaines où l’IA sera déployée ? Je prédis que l’IA deviendra trop importante, trop dominante, pour nous permettre d’avoir un seul organisme de réglementation, car cet organisme contrôlerait non seulement la majeure partie de l’économie, mais une grande partie du gouvernement, ainsi que de nombreux aspects de la vie privée. Mais cela ne signifie pas que des efforts réglementaires plus ciblés ne puissent ou ne doivent pas être guidés par des principes généraux et, en effet, nous pourrions avoir besoin à la fois des principes généraux et des règles ciblées pour maximiser les avantages de l’IA tout en minimisant ses effets secondaires.

Quelle que soit la nature de la réponse de la société (ou devrais-je dire des sociétés ?) aux bénédictions et aux malédictions mitigées de l’IA, il est clair que nous ne sommes qu’au début d’une longue évolution. Je suis convaincu que nous avons beaucoup à apprendre les uns des autres, tant au niveau transnational qu’à travers les disciplines académiques et techniques. Les savants et experts contributeurs à cet ouvrage se sont lancés dans ce projet essentiel d’enseignement et d’apprentissage, et nous devons tous leur en être reconnaissants.

Coral Gables, Floride, États-Unis
Avril 2022

Amusingly, when I agreed to write this, I was not aware that the awesome editors were planning an English edition. I was thus a little surprised when they offered to translate the French into English for me, but I said I would do it myself.

So, here’s the English version too:

Artificial intelligence will soon be, if it is not already, one of the most important and also one of the most dangerous technologies that we have ever encountered. As William Gibson warned, “The future has arrived – it’s just not evenly distributed yet.”[1]

The child of computer science and Big Data, machine learning – commonly called artificial intelligence (AI) – has worked its way into multiple domains including government decisions (be it benefits administration or the administration of justice), healthcare, the battlefield, attempts to manipulate elections and the public sphere more generally, and the financial markets.

Today, AI systems have a tendency to be opaque. Until we improve the state of the art, it will remain difficult to identify the specific factors that are most likely to have determined a given decision. Similarly, without a schema for training data provenance, it will remain difficult to detect the subtle characteristics that can build in different forms of discrimination, discrimination which may be unintentional yet undesirable, and even illegal.

AI raises a number of social questions, such as the future of work. All of us, from factory workers to professionals such as doctors and lawyers, may see our working conditions transformed. What we do not know yet is whether AIs will become our advisors, our colleagues, our bosses (and our all-seeing overseers), or if perhaps some of us will no longer be working at all because the AI will have taken our jobs, being both more observant and more precise.

We lawyers tend to think that the role of the law and regulation is at the heart of the inquiry regarding AI. I recognize that social choices about AI configuration and deployment are not areas where the market can be trusted to decide on its own without legitimate supervision. But what needs to come first are fundamental ethical questions relating to AI. Ethical introspection and commitment are essential for all those who build, maintain, regulate, or use AI, and even more so when we consider the interests of those who are or will be the subject of an AI’s decisions. But that has to be done carefully. Today in the United States, for example, the proliferation of AI-related ethical standards allows the less scrupulous to shop for the standard that will permit them to claim virtue without practicing it.

Even if one thinks that there is no chance that today’s technology will produce a sentient AI, it is conceivable that, sooner or later, an AI will be able to imitate a person so well that we will not be able to discern the silicon behind the smile. That eventuality, however, is more likely to sound in fraud than in consciousness. Nonetheless, we may decide that it is convenient to adopt a legal fiction in which we attribute some aspects of personhood to the artificial computational entity, just as we do for some aspects of familiar artificial economic entities – firms. In any event, the essential questions will be what we want our machines to do and not do, questions that should light the way toward the establishment of rules which will encourage positive outcomes.

AI creates ethical and legal problems that are deeply interdisciplinary; to further complicate matters, they are also equally transnational. Firstly, being only data and software, both algorithms and training methods to generate new algorithms can be shared worldwide as open source, in academic literatures, or sold across borders. On the other hand, some countries consider the data on their citizens, for example national health data, to be a resource that is part of a strategic plan for national economic growth… but data and code are hard to keep locked up.

Secondly, AI regulation is in a period of ferment – and competition. The European Union, the US, China, and many other nations are confronting the dual challenge of cabining AI while encouraging it – if only in fear of being left behind in what is often portrayed as a technological competition both commercially and militarily. In the case of the EU, the GDPR not only creates a model for potentially extraterritorial, and maybe viral, regulation, but it creates in some an understandable appetite for a second helping of trans-national standard setting.

Should AI as a technology be regulated, top-down, or sectorally by experts versed in the various domains where AI will be deployed? My own guess is that AI will become too big, too dominant, to make it possible to have it subject to a single regulatory body, as that body would control not just most of the economy, but much of the government, and many aspects of private life also. But that does not mean that more targeted regulatory efforts cannot or should not be guided by general principles, and we may indeed need both the general principles and the targeted rules to maximize the advantages of AI while minimizing its undesirable side-effects.

Whatever the nature of society’s (or should I say societies’?) response to the mixed blessings and curses of AI, it is clear that in these early days we have a great deal to learn; I have no doubt that we have much to learn from each other, both transnationally and across academic and technical disciplines. The learned and expert contributors to this collection have embarked on this essential project of both teaching and learning, and we should all be grateful to them.

Coral Gables, Florida, USA
April, 2022

[1] https://quoteinvestigator.com/2012/01/24/future-has-arrived/.

This entry was posted in AI, Writings. Bookmark the permalink.