Par Thierry Berthier.
Le thème de l’intelligence artificielle (IA) est de plus en plus présent dans les salles de cinéma à mesure que les progrès scientifiques de la discipline deviennent visibles du grand public. Depuis trois décennies, Hollywood s’est emparé du sujet de l’IA et le décline désormais sous tous les angles qu’offre la science fiction. S’il est facile aujourd’hui de recenser les succès et les échecs cinématographiques liés à l’IA, il est en revanche bien plus complexe de mesurer la puissance des biais cognitifs et des fantasmes qui orientent les scénari actuels. Livrons-nous à un inventaire non exhaustif des « lois de Godwin » qui influencent consciemment ou non les scénaristes travaillant sur l’IA…
Une loi et un point de Godwin pour le traitement de l’IA au cinéma…
D’après Wikipédia, » la « loi » de Godwin s’appuie sur l’hypothèse selon laquelle une discussion qui dure peut amener à remplacer des arguments par des analogies extrêmes. L’exemple le plus courant consiste à comparer le thème de la discussion avec une opinion nazie ou à traiter son interlocuteur de nazi. En l’absence de précision de Mike Godwin sur les extensions possibles, on hésite à parler de point Godwin pour une comparaison avec tout régime dictatorial autre que le nazisme. Si le sujet de la discussion était très éloigné d’un quelconque débat idéologique, une comparaison de ce genre est considérée comme un signe d’échec de la discussion. On estime alors qu’il est temps de clore le débat, dont il ne sortira plus rien de pertinent : on dit que l’on a atteint le « point Godwin » de la discussion « .
Il est désormais assez facile de définir le point de Godwin dans un film traitant de l’IA. C’est typiquement le moment du film ou l’IA commence à se retourner contre ses créateurs ou contre les personnages centraux « fédérateurs » du scénario qui sont confrontés à cette IA. La loi de Godwin sous-jacente peut alors s’énoncer simplement : » Il existe dans tout film (hollywoodien ou non) un instant dans le scénario à partir duquel l’IA devient contreproductive, néfaste, maléfique ou destructrice pour les héros de l’histoire « . On peut bien entendu décliner cette loi en la nuançant quelque peu. Ainsi, la version faible de la loi s’énonce comme suit : « Il existe un instant dans le film à partir duquel les intérêts et les objectifs de l’IA divergent de ceux des personnages avec lesquels le public s’identifie« .
Les productions cinématographiques traitant de l’IA se répartissent en trois catégories. Dans la première catégorie, l’IA est présentée dès le début du scénario, comme un personnage néfaste et « conspiratif ». Le point de Godwin correspond alors à la première image du film. Les héros humains combattent cette IA tout au long de l’intrigue jusqu’à sa destruction finale. Ce modèle manichéen peut sembler rudimentaire mais fonctionne en général assez bien en terme de réussite commerciale. C’est le cas avec Terminator (1984), I, Robot (2004), (pour l’IA centralisée), Matrix (1999), et avec une très longue liste de films de série B tous dérivés du scénario de Terminator.
Il existe ensuite une deuxième catégorie de film pour lesquels le point de Godwin n’est pas apparent au début mais s’installe petit à petit, dans une progression logique. Le scénario est en général moins manichéen que celui de la première catégorie mais l’épilogue reste le même. L’IA devenue envahissante, aliénante, totalitaire ou destructrice est combattue puis vaincue par des humains parfois alliés à de petites IA se situant du côté du « bien » pour combattre le mal (l’IA centrale). Dans cette catégorie, on passe souvent de la version faible de la loi de Godwin à sa version forte en cours de scénario. On retrouve ce cheminement dans Transcendance (2014), dans 2001 l’Odyssée de l’espace (1968), et dans de nombreux téléfilms de série B qui méritent d’être vite oubliés. Parmi les films ne relevant que de la version faible de la loi de Godwin, on peut citer Her (2013), Ex Machina (2015) et dans une moindre mesure Uncanny (2015) qui utilise les « ficelles » du test de Turing et de la célèbre Uncanny Valley, étudiée en robotique.
Il existe enfin une troisième catégorie de film dans lesquels l’IA n’est pas le personnage central mais joue les seconds rôles, en appui d’humains occupés à relever un défi d’importance vitale. Cette IA est entièrement dévouée au superviseur humain. On la rencontre dans de nombreux films traitant de la conquête spatiale, comme dernièrement, Interstellar (2014). Le robot Tars d’Interstellar ne ressemble pas à un homme. Il n’y a pas de confusion possible à ce niveau, ce qui permet d’éviter les effets d’Uncanny Valley. Tars est bienveillant, autonome mais pas trop. Son sens de l’humour est paramétrable de 0 à 100 % ainsi que sa franchise. L’IA de Tars est moins développée que celle de HAL dans 2001 l’Odyssée de l’espace ou que celle de Skynet dans Terminator. Les trois lois d’Asimov sont également parfaitement respectées par le robot Tars qui n’hésite pas à se sacrifier pour garantir l’avenir de l’humanité. Comme R2D2 dans Star Wars, Tars demeure totalement dévoué à son créateur et n’échappe pas à son statut de fidèle outil.
Les films traitant d’une IA qui ne dégénèrent pas en cours de scénario vers un conflit sont donc très rares. L’augmentation de l’autonomie installe ainsi presque toujours une situation de duel avec l’homme. Pour les scénaristes, la cohabitation ou la coopération pacifique entre l’IA et le genre humain semblent réellement incompatibles. Comment expliquer ce traitement de l’IA toujours mené à charge ?
Au cinéma, l’IA forte ne peut être bienveillante…
Les raisons en sont multiples. La première d’entre elles relève des contraintes spécifiques du traitement cinématographique : elles imposent la construction d’une intrigue avec trois types d’acteurs : les « bienveillants », les « neutres » et les « nuisibles ». Lorsque l’IA tente de s’émanciper de sa tutelle humaine, elle devient un personnage à part entière et échappe ainsi à son statut de simple outil intelligent (celui de Tars). Ce personnage doit alors entrer dans l’un des trois types. Plus l’IA est développée et plus le type « neutre » semble incompatible. Une IA forte prend des décisions fortes qui influencent fortement le scénario. Il ne reste donc à cette IA forte que les types des personnages « bienveillants » ou « nuisibles ». Si l’IA s’inscrit dans le type des bienveillants, elle doit alors s’opposer à des nuisibles, qui sont indispensables à l’intrigue et à la conflictualité sous-jacente. Qui mettre alors en face, chez les nuisibles ? une autre IA forte ? Cela reviendrait à exclure l’homme des rôles principaux du scénario et présenterait un risque pour la réussite commerciale du film. Si le type des nuisibles est occupé par les hommes et celui des bienveillants par l’IA, il semble alors difficile pour le spectateur de s’identifier au héros du film quand celui-ci n’est pas humain. Un tel scénario aurait peu de chance de fédérer un public et constituerait encore un risque d’échec commercial pour le film. Bref, la distribution la plus simple à mettre en œuvre et la moins risquée en terme commercial est celle d’une IA nuisible dès le début du film ou qui le devient vite au fil du scénario, confrontée alors à des humains bienveillants.
Nos biais cognitifs et nos peurs ancestrales rejettent l’IA forte
D’autres raisons, plus profondes et plus subtiles, viennent renforcer le tropisme du traitement négatif de l’IA. Elles s’appuient en général sur les biais cognitifs humains et sur les peurs ancestrales qui opèrent pour la sauvegarde de l’espèce humaine (comme la peur des araignées chez certaines personnes). Une IA forte dotée d’une totale autonomie échapperait définitivement à la supervision humaine. Elle serait alors instinctivement considérée comme une menace par nos curseurs darwiniens. La perception négative de l’IA résulterait d’un réflexe de survie inscrit dans nos gènes au cours de l’évolution humaine. L’émergence d’une IA forte, trop brutale par rapport à l’échelle de temps darwinienne, n’aurait ainsi aucune chance d’être admise ou assimilée par nos capteurs ancestraux. Le phénomène d’Uncanny Valley bien connu en robotique résulte de mécanismes assez semblables. Il définit le fossé entre l’humain et l’imaginaire qui n’entre pas dans sa zone d’admissibilité. La perception négative d’une IA forte résulterait ainsi d’une vallée encore plus profonde et plus large que celle de l’Uncanny Valley, nous séparant d’une acceptation instinctive. Le cinéma ne ferait alors que reproduire ce schéma fédérateur dans l’ensemble de ses films évoquant l’IA.
Le traitement cinématographique de l’IA agit comme un révélateur fidèle de l’image que nous nous en faisons. Il projette à l’écran nos peurs ancestrales, nos biais de perception et nos fantasmes alors même que la montée en puissance de l’intelligence artificielle vient bouleverser notre quotidien. Nous devons désormais souhaiter que la vallée qui s’ouvre devant nous ne devienne pas infranchissable…
Je trouve ce sujet très intéressant, en ce qu’il permet de nous interroger sur la nature humaine, en lui proposant une sorte d’alter ego, ou un avatar créé artificiellement.
Mais au cinéma l’IA n’est pas systématiquement considérée comme malveillante: dans le film Automata, les robots accèdent à la conscience de soi et l’individualité en faisant sauter un verrou placé par les humains pour les en empêcher. Ils ne deviennent pas pour autant hostiles aux humains, ils expriment juste le souhait de vivre leur vie, de devenir indépendants mais de façon pacifique. Ce sont les humains qui s’opposent à ce projet et exercent une violence contre laquelle les robots ne font que se défendre.
Il est par contre vrai qu’accéder à l’individualité entraîne mécaniquement, si j’ose dire, l’apparition de divergences, et donc oppositions, conflits, violences, guerre, etc. Mais nul besoin d’IA pour observer ce mécanisme: c’est l’histoire même de l’humanité, c’est inscrit dans la nature humaine, et cela se manifeste dès que l’enfant accède à la conscience de lui-même, en exprimant pour la 1ère fois le « non ».
De même, Transcendance ne s’inscrit pas exactement dans une logique d’opposition IA/humain tranchée. L’intrigue se fonde sur une fusion de l’humain et de l’IA dans le but d’apporter des transformations positives pour l’homme et la planète, transhumanisme à laquelle s’oppose une partie des humains qui y voient au contraire une menace. La fin du film montre que cette entité IA a survécu et fusionné avec des végétaux, dans une conclusion qui me semble vouloir nous convaincre que le transhumanisme sera un processus inéluctable, contre lequel il serait dommage de lutter.
Citation tirée d’Automata:
Homme: « vous n’êtes que des machines »
Robot: « c’est votre point de vue d’humain, mais que penseriez-vous si je vous disais que vous n’êtes que des singes? »
Il y a vraiment beaucoup à dire sur ce passionnant sujet!
Merci pour votre lecture attentive.
Effectivement, le film Automata évite de classer l’IA comme une entité malveillante. La concurrence entre humains et IA s’installe pourtant rapidement. Les intérêts de chacun divergent. Il n’y a pas de coopération entre les différents acteurs dans cette quête d’émancipation de l’IA…
Pour Transcendance, l’IA est clairement considérée comme un phénomène en expansion qui s’infiltre partout, comme un virus, pour finir par devenir « ubiquitaire » à l’échelle planétaire. Il me semble que le traitement est très en charge dans ce cas.
Je trouve très pertinente l’analyse fournie par l’article, je pense néanmoins qu’utiliser la notion de point Godwin, terme du domaine de la réthorique, de plus assez connoté, ne permet pas une représentation claire de votre analyse, inventez votre propre concept ! L’échelle de Berthier pourquoi pas 😉
Merci. Pour le concept, il attendra. l’article n’a pas de prétention particulière si ce n’est de clôturer le dossier « Défense au cinéma » ouvert en décembre 2015 sur notre site EchoRadar et que je vous invite à visiter. Quant à l’échelle, la seule que je possède est dans mon grenier 😉
Article intéressant, hier je regardais le film moon (2009), dans lequel se trouve une intelligence artificielle faisant un peu penser à Hal9000.
L’intelligence en question ne prend jamais vraiment position contre/pour le personnage principal. Elle nuit au personnage à plusieurs reprises sous les ordres que quelqu’un d’autre mais lorsque le personnage l’interroge sur ce qui se passe elle ne tente pas de cacher les faits et aide même le personnage à plusieurs reprises même s’il n’a rien demandé.
D’un côté elle ne fait que suivre les ordres mais d’un autre côté elle se montre bienveillante sans nécessairement avoir reçu d’ordre.
Les humains sont faits dans le même moule. On a au final des motivations, des schémas de pensée, des peurs, des failles qui sont semblables même quand elles semblent différentes. L’empathie nous permet de comprendre l’autre – même s’il est un adversaire ou s’il est un « monstre ».
En revanche, avec une IA on pourrait avoir de sacrées surprises. Cette IA qui ne suit pas les « règles » me semble quelque-chose de vraisemblable. Mais on pourrait avoir la même chose avec un E.T. : ne jamais pouvoir déterminer si on a affaire à un ami ou à un ennemi. Et cela fatalement si les processus décisionnels sont issus d’une émotivité qui nous échappe ou d’une logique qui nous est supérieure et inaccessible.
L’idée du robot protocolaire c-6po, snob, ridicule et parfois inefficace peut sembler ridicule à première vue. J’ai vu l’idée reprise dans d’autres romans de SF. C’est un ressort comique, mais au delà de ça c’est peut-être parfaitement logique : implanter une personnalité humaine dans une IA afin d’être en mesure de la comprendre et de la contrôler.
En revanche, de telles entités auraient besoin d’un bon psy pour concilier leurs émotions et leur nature réelle. Comme c-3po qui veut qu’on lui prélève ses rouages pour sauver r2d2 …
L’intelligence est l’arme ultime, c’est elle qui nous permet de dominer les autres créatures.
Il n’y a donc pas de moyen terme entre la domination et la soumission. Il peut y avoir, tout au plus, que évitement ou alliance entre deux intelligence comparable.
Mais une IA n’est forcément pas comparable. Elle ne peut être que très supérieure ou très inférieure.
Des films où les humains ne sont que des animaux domestiques de la grande IA ont déjà été fait. C’est 1984, c’est Brazil.
Car une bureaucratie c’est déjà une IA.
« Car une bureaucratie c’est déjà une IA » => « Une bureaucratie, c’est une IC » pour Intelligence Collective biologique mais pas artificielle
Le traitement de l’intelligence artificielle est très compliqué dans le sens ou une véritable IA n’existe pas encore. On peut se poser la question de savoir ce qu’est un vrai IA. Si on considère le fait qu’un système artificielle atteignant un niveau d’intelligence humaine et devenant autonome, il ne sera pas soumis à des limitations biologiques dans son développement et continuera à développer son intelligence. On peut aisément se faire une image de quelque chose 2 ou 3 fois plus intelligent, mais qu’en est-il de quelque chose de 100 fois plus intelligent. Une fois atteint un certain niveau d’intelligence, l’augmentation de celle-ci pour un système artificielle deviendrait exponentielle et quasi sans limite. En fonction des ressources à sa disposition, l’IA atteindrait un niveau d’intelligence qu’on ne peut conceptualiser en très peu de temps. Et cela évidemment c’est impossible à faire passer dans un film. Peut-on imaginer une « super-intelligence » être mis en échec comme dans Terminator ou Matrix par quelques humains motivés ? ce serait comme si une bande de fourmi arrivait à arrêter un homme. Le jour ou un système atteindra un niveau d’autonomie et d’intelligence équivalent à celui d’un être humain, ce sera l’étincelle vers une explosion de ce niveau d’intelligence, explosion qui en fonction des cas ne pourrait prendre que quelques jours pour que l’IA passe à un niveau de super intelligence.
J’ajoute dans votre liste les « cyborgs » utilisés dans Alien et Prométhéus. Les objectifs des cyborgs diffèrent de ceux des équipages et viennent progressivement s’y opposer. La notion de « bien » ou de « mal » est esquivée dans l’interprétation du comportement des cyborgs mais permet de mettre en évidence que l’homme doit s’adapter à la situation qui se présente à eux pour survivre. La survie n’est pas un élément moteur de l’IA ce qui transparait dans pratiquement tous les films de SF hors dans Blade Runner (non cité également ici), de mémoire.