Intelligence artificielle : la voiture autonome face au dilemme du piéton

Artificielle oui, intelligence peut-être. Peut-on mettre l’éthique en pilote automatique ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Intelligence artificielle : la voiture autonome face au dilemme du piéton

Les points de vue exprimés dans les articles d’opinion sont strictement ceux de l'auteur et ne reflètent pas forcément ceux de la rédaction.
Publié le 9 juillet 2016
- A +

Les voitures de demain n’auront pas seulement une meilleure autonomie ; elles auront leur autonomie. Elles auront des passagers, mais pas de conducteur. L’idée peut être inquiétante au premier abord, mais il y a fort à parier que nous refuserons un jour de monter à bord d’une voiture conduite par un humain. Si cette voiture arrive.

La machine à vapeur et la machine à calculer

La voiture autonome est un bon exemple de ce que l’intelligence artificielle peut nous apporter. Conduire une voiture est une tache complexe ; le pilote automatique pourra percevoir et analyser un environnement qui change à chaque mètre parcouru, anticiper les réactions du véhicule et des autres conducteurs, le tout en suivant le meilleur itinéraire. Avec de telles facultés, il n’est pas difficile d’imaginer les robots effectuant d’autres taches. Chirurgien ? Bibliothécaire ? Commerçant ? Agriculteur ? Un jour remplacés, peut-être.

By: Les ChatfieldCC BY 2.0

Comme la domestication a remplacé le travail manuel, la cueillette et la marche à pied – pour être remplacée par la machine à vapeur, le moteur à explosion, l’électricité et tout le reste. S’il y avait beaucoup d’emploi chez les premiers hommes, c’est parce que le travail rapportait peu – il fallait dépenser beaucoup d’énergie pour s’alimenter. Puis, le rendement s’est amélioré, et des « emplois » dans l’agro-alimentaire ont disparu. Ce qui a permis le développement de l’artisanat, du commerce, etc. Difficile pour autant d’affirmer qu’il y avait plus d’emploi : l’humanité n’a jamais été aussi nombreuse, aussi riche et fait autant de choses.

L’intelligence artificielle est déjà là. Il y a plus d’ordinateurs dans les bureaux, mais y a-t-il moins de gens ? Comme toute technique et technologie, elle crée plus d’emplois qu’elle n’en détruit. Dans les banques, les guichets automatiques ont réduit le coût d’activités à faible valeur ajoutée (compter les billets et enregistrer la transaction). Outre le fait qu’ils sont accessibles jour et nuit et réduisent les risques pour la banque, ils sont peu coûteux (on peut en mettre partout) et libèrent le temps des conseillers, qui peuvent solliciter plus longuement leurs clients pour ouvrir des comptes, placer leur épargne et souscrire des assurances et crédits. Youpi.

Sarah Connor ?

By: Brian TurnerCC BY 2.0

Tous les métiers seront-ils remplaçables ? Mieux vaut espérer que le plus vieux métier du monde – soldat – ne le sera pas. Des robots pour protéger les hommes, mais de qui ? Faudra-t-il leur inculquer le nationalisme ? Se mettront-ils à protéger l’humanité d’elle-même, contre son gré et de force (I, Robot) ? Ou voudront-ils tout simplement nous exterminer (Terminator, 2001 : l’Odyssée de l’Espace) ?

Le fantasme d’Hollywood d’une intelligence artificielle hors de contrôle est la version 2.0 de la créature de Frankenstein. Cette fiction a 200 ans, et Elon Musk, Steven Hawking et Bill Gates, qui n’ont pas la réputation de porter des chapeaux en aluminium, lui ont donné du crédit. Si nous jouons les apprentis-sorciers, notre créature pourrait nous échapper. Mais qu’elle nous échappe ou non, peut-on confier à une intelligence artificielle le droit de vie et de mort sur un humain ?

Dans cette situation : A. Je tue le piéton, B. Je tue mes passagers

By: Travis WiseCC BY 2.0

C’est ce qui ralentit la voiture autonome. La technologie est prête, mais pas nous. La route n’est pas un champ de bataille, mais un pilote automatique peut être lui aussi confronté à des questions morales. Si la voiture se trouve devoir choisir entre

  • écraser un piéton, et
  • conduire ses passagers à une mort certaine en sortant de la route,

que doit-elle faire ? Peut-on la laisser décider ? Et si c’est seulement possible, peut-elle nous confier le volant au moment fatidique, où nous saurions que selon ses calculs nous avons une vie entre les mains ? La question morale soulevée par la voiture autonome a 50 ans. Le dilemme du piéton est la version 2.0 du dilemme du tramway :

Vous conduisez une rame de tramway lancée à pleine vitesse quand, soudain, vous réalisez que des gens travaillent sur la voie. Vous allez les écraser.

  • Si vous ne faites rien, vous allez en écraser 5.
  • Si vous tournez à droite, vous n’en tuerez qu’un.

Que feriez-vous ?

Le cycle des robots, le cycle éternel ?

Dans son exploration visionnaire du thème des robots, Isaac Asimov imaginait un système d’exploitation éthique1 composé de Trois Lois garantissant l’innocuité des robots.

Si un robot ne peut décider en fonction de son éthique robotique, il se bloque. En théorie, ça fonctionne. Mais en pratique, ça ne fonctionne pas comme ça : le robot exécute et prend les décisions qui s’imposent pour atteindre son but, mais ne décide pas de son but. Nous sommes son créateur, nous sommes aussi son maître. Nous ne pouvons pas le rendre pleinement autonome ; l’intelligence artificielle n’existe pas.

By: Oliver PonsoldCC BY 2.0

Ce n’est pas vraiment de moi, mais de Leibniz. L’idée a 300 ans. C’est nous qui concevons, programmons, développons, utilisons l’intelligence artificielle ; elle n’a rien d’artificiel, c’est la nôtre. Et, dans la mesure où elle n’est qu’un outil – comme un microscope est un outil pour l’œil – elle n’est peut-être qu’une augmentation de notre intelligence, sans existence propre.

Robot, je suis ton père

L’intelligence artificielle n’existera donc jamais réellement si elle n’existe pas indépendamment de nous. Elle sera bien artificielle tant qu’elle n’aura pas appris à exister sans nous – c’est à peine si nous pouvons la laisser apprendre sans nous. Pourra-t-elle apprendre à se fixer des objectifs ? à poser des questions ? pourra-t-elle apprendre à faire de l’humour ? à raconter des histoires ?

Mais quand saura-t-on qu’elle est intelligente ? Nous en savons finalement peu sur l’intelligence, à part qu’elle est multiple2 et difficile à définir.

By: Ray MacLeanCC BY 2.009

Parmi les questions soulevées par l’intelligence artificielle, celle de l’intelligence multiple est la plus récente : elle n’a que 30 ans. Soit à peu près moitié moins que l’intelligence artificielle moderne, conçue pendant la Seconde Guerre Mondiale. Ou 10 fois moins que ses précurseurs les plus anciens, la Pascaline et le cylindre cannelé de Leibniz.

Les robots n’ont ni éthique ni intelligence (mais ils auront leur taxe). Nous leur prêtons les nôtres, mais celle de qui précisément ? Peut-on s’accorder sur ce qui est éthique, ce qui est moral, si notre premier réflexe est d’en faire une arme-soldat ?

Parviendrons-nous à nous adapter aux évolutions qui viennent au rythme où elles arriveront ? Y aura-t-il des métiers de demain pour tout le monde ?

  1. Dans les dents, Karl Marx
  2. Il y aurait une intelligence verbo-linguistique / logico-mathématique / spatiale / intra-personnelle / interpersonnelle / corporelle-kinesthésique / musicale-rhytmique / naturaliste-écologiste / existentielle, et d’autres encore
Voir les commentaires (30)

Laisser un commentaire

Créer un compte Tous les commentaires (30)
  • Le problème de la voiture intelligente et des piétons est un intéressant problème éthique, mais pas un problème pour les programmeurs de la voiture. Le fait qu’elle a une intelligence artificielle signifie justement que le programmeur n’a pas à envisager les cas tordus.

    C’est comme pour le jeu de go: on programme les règles du jeu, et on lui apprend à évaluer les situations. Mais tout l’intérêt ensuite, c’est que l’ordinateur se débrouille seul, et généralement mieux qu’un humain, dans les situations compliquées.

    A part ça, pour la cohabitation des voitures autonomes avec les piétons, il faudra évidemment qu’elles respectent toujours des règles simples et prévisibles, comme de rester coûte que coûte sur la route. Après tout, un tramway reste toujours dans ses rails, même si ça conduit à la catastrophe, et ça ne choque personne qu’on n’ai pas inventé un dérailleur d’urgence, ou je ne sais quel truc improbable.

    • Oui ,si en tant qu’ ouvrier ,je travail sur une voie de chemin de fer sans mettre assuré qu’il n’y avait pas de danger, tampis pour moi !

      • Les ouvriers de la SNCF (des sous-traitants) travaillent sur les voies entre 2 passages de train. Pour cela ils s’en remettent uniquement à des personnes qui en amont des travaux dans les 2 sens utilisent des radios ou des cornes de brume et c’est donc à une chaîne de personnes ( 6 minimum) que s’en remet celui qui oeuvre sur la voie sans compter les problèmes de visibilité et de bruit. Ayant vu comment ça fonctionne je ne voudrais pas être à leur place quand un train arrive en roulant à 300km/h soit 5km à la minute, 1km toutes les 12 secondes. Il y a de temps en temps des accidents.
        Il me semble que la SNCF développe un système automatique à partir d’une pédale actionnée par le passage d’un train et déclenchant à distance des hurleurs, vibreurs, flashes etc… dont le but est de fiabiliser les alertes et de réduire les coûts. Perso j’aurais plus confiance en un système automatique fiable plutôt qu’à une chaîne humaine…. surtout des collègues de travail !

    • j’ai suivi le débat sur le blog du MIT et ma concusion est que c’est un sujet idiot, ou pris de façon stupide.

      en fait il faut que la voiture, humaine ou pas, ait un comportement prévisible, pour que les autres véhicules puissent elles même avoir une stratégie.

      le dilemme du tramway, le génocide pour sauver la planète, ou cet épisode de twilightzone ou une fusée partie pour alpha centauri s’écrase à Las Vegas (et que un astronaute tue tout le monde pour survivre sur une planete hostile), ce sont de gigantesque preves de hubris.

      si il y a un congère de bonne secours sur la route qui traverse comme des malades, tu freine mais tu te plante pas dans une pile de pont.
      si ca se trouve c’est juste des braqueurs de voitures, ou des fumeurs de LSD…
      et si ca se trouve te voyant freiner ells vont dégager devant la pile de pont où tu pensait te planter.

      je suis cycliste véhiculaire depuis 20 ans, et être prévisible est le problème.
      d’ailleurs je suis furieux contre les piétons indécis, ou surprenant, qui sont dangereux. a pied je m’éloigne du passage ou je fait un signe de passage, selon, mais pas de truc pas clair…

      enfin ca me fait rire qu’on parle de ces cas rares alors que tout les jours des sociopathes de la route, avec un permis D,C,B,A (dans l’ordre de sociopathie décroissante), font des trucs inracontables, et que des boulets dans mon style, gentils mais limités (jeune conducteur) évitent de peu ces malades (a vélo j’était mieux, je pouvait les piloter ou les éviter).

      la conduite automobile ets une des activité cognitive les plus complexe qui soit, loin devant le pilotage d’avion (sauf à NYC par tempête de neige un jour de retour de vacance) et le parachutisme (sauf grand saut). et confier ca à des humains…

      pourquoi voler le travail d’un robot au lieu de bosser utilement à des trucs que les humains font bien?

  • Article très intéressant pour les champs de réflexion qu’il ouvre.

    Ceci dit, taxer les robots, c’est fait depuis longtemps : même s’ils se déplacent automatiquement dans une chaine de montage, ces robotssont considérés comme de l’outillage et taxés à ce titre.

  • la peur n’évite pas le danger mais l’amplifie..et c’est là que l’IA sera toujours supérieure aux hommes lorsqu’elle devra prendre une décision…mortelle ..écraser le piéton est l’unique décision a prendre, je le sais et vous le savez , si une autre décision entraine la mort des occupants de la voiture ou de graves préjudices.combien de morts pour éviter d’écraser un chien ou un animal sauvage (bien moins rare que cette histoire de piéton)?

  • La voiture autonome …. qu’elle soit face au dilemme du piéton …. ou pas …. est une ineptie.
    Pour ceux qui n’aiment pas conduire … ou qui ne savent pas …. L’un étant le plus souvent lié à l’autre, quand il n’en est pas la conséquence !… Hé bien, ça tombe bien, il existe les transports en commun…. avec l’intelligence artificielle … ou pas … ça évite de conduire … et c’est très bien pour les autres !… Ce qui a un immense mérite … c’est que cela fait un peu plus de place sur la route, pour ceux qui souhaitent conduire.
    Et là, cela n’a pas grand chose à voir avec l’intelligence artificielle, qui elle aussi peut avoir des soucis face au dilemme du piéton, comme évoqué ici.
    « Si un robot ne peut décider en fonction de son éthique robotique, il se bloque » … et en cas de dysfonctionnement, il fait quoi ?
    Alors si c’est la peur de l’accident qui en est la motivation …. il faut savoir que vivre, est aussi un danger… puisque ça conduit inévitablement à la mort.
    Donc pour éviter ça, et s’en prémunir, le mieux serait de se suicider dès la naissance !

    • Quand vous êtes en avion, vous prenez les manettes ?

      • Justement, cela rejoint précisément ce que je disais ci-dessus … il s’agit d’un transport en commun.
        De plus, les espaces autour sont beaucoup plus grands, et ils n’y a pas de platane en face… Ce qui, on l’a vu à plusieurs reprises, même avec un pilotage automatique, ne garanti pas la finalité…
        Ceci dit, dans l’avion je préférerais que soit moi qui ait les manettes …. ce qui impliquerais qu’il s’agit de mon avion. Et dans ce cas, je ne peux m’en remettre qu’a moi-même.

        • Oui c’est bien ce que je disais :
          « Pour ceux qui n’aiment pas conduire … ou qui ne savent pas …. L’un étant le plus souvent lié à l’autre, quand il n’en est pas la conséquence !… Hé bien, ça tombe bien, il existe les transports en commun. »

          Les accidents c’est toujours les autres.

          • « Les accidents c’est toujours les autres. » … En ce qui me concerne, c’est le cas …
            C’est d’ailleurs ce que je disais, il y a quelque temps, à un flic qui m’avait arrêté . Je lui ai formulé comme ça : Cela fait plus de quarante ans que je conduis, et je n’ai jamais tué personne …. Même si dans bien des cas, il y en a qui l’auraient largement mérité.
            Un peu désappointé, il m’a laissé repartir.
            Mais ce n’est pas le sujet de l’article, qui soulève entre autre des problèmes techniques, éthiques et de liberté individuelle qui peuvent être liés.
            Surtout pour ce qui est des libertés individuelles, où la voiture autonome peut être un formidable outil pour pister encore plus les individus, qu’ils ne le sont déjà (1984).

            • « Cela fait plus de quarante ans que je conduis, et je n’ai jamais tué personne … »
              Comme 99.4% des conducteurs. et vous n’êtes pas exceptionnel
              Il n’y a qu’un mort pour 160 millions de km parcourus.

              Il n’y a pas de mon avis de problèmes de libertés individuelles si toutes les voitures passent un jour en mode automatique : cela fait déjà un moment qu’on ne tolère plus les chevaux ou les diligences sur les grands axes de circulation et personne ne s’en émeut.

        • Les transports en commun auront-ils un intérêt, à part vous emmener à distance de là où vous voulez aller par rapport à une voiture autonome qui vous dépose devant? Ensuite, la vitesse du véhicule autonome n’est plus vraiment un problème. Vous ne perdez plus de temps à conduire et pouvez faire ce que vous voulez en roulant. La vitesse n’est plus un besoin, seule la sécurité compte, le conflit éthique a beaucoup de temps pour se résoudre et il se fait à moindre vitesse donc avec moins de danger.

  • Ce dilemme du piéton face à l’IA est intéressant d’un point de vue éthique. C’est un joli défi pour le programmeur. Mais il est peu pertinent pour la question politique d’autoriser ou non les voitures autonomes.
    Quelle est en effet l’alternative? Conserver un pilote humain. Si on met cet humain dans la même situation, il est certes capable d’un jugement moral, ou plutôt il est capable d’en saisir les enjeux. Mais dans le temps d’un accident, il ne peut pas peser sa décision. Elle est de pur réflexe. Tout au plus aura-t-il la possibilité de regretter son choix par la suite.
    Du point de vue de la sécurité, le facteur le plus déterminant, ce n’est pas le sens moral, mais le temps de réaction. Et là, l’avantage sera (est déjà?) du côté du robot.

    • Il ne faut pas croire qu’un réflexe est irréfléchi, il est conduit par l’instinct de survie du conducteur : un ravin à gauche, un groupe de piéton droit devant, un rocher à droite… c’est les piétons qui vont prendre !

    • Vous avez raison. C’est une situation que nous pourrions rencontrer aussi et si nous savons pas ce que la voiture devrait faire dans cette situation, nous ne sommes pas plus aptes qu’elle à prendre la route. Sans doute même moins, puisque notre décision serait moins consciente et moins bien exécutée.
      S’il fallait interdire quelque chose (loin de moi cette idée) par prudence vis-à-vis de ce scénario théorique, ce serait la voiture tout court.

      Les questions éthiques de l’intelligence artificielle sont un joli défi, et pas seulement pour le programmeur. Qui serait responsable en cas d’accident d’une voiture sans pilote ? Si une « loi » impose qu’on tue le piéton, est-on tenu de la respecter ?

      • Fastoche… en cas de problème la voiture lâche le volant !
        Ca me rappelle un soleil que j’avais fait en moto au-dessus d’une voiture en voyant la conductrice (une intelligence artificielle) se mettre les mains devant les yeux après m’avoir coupé la route alors qu’elle aurait eu le temps de dégager au lieu de s’arrêter.
        Je suis retombé sur mes pieds et suis allé la voir, elle était prostrée…et m’a dit : quand je vous ai vu j’ai fermé les yeux… Oui j’avais vu.

  • C’est un sujet intéressant.

    Je n’accepterais jamais d’etre dans une voiture autonome qui ne met pas MA vie au top de ses priorités quitte à tuer 3 piétons imprudents et je pense qu’il en est de même pour la plupart des gens.

    Sur le fond je pense qu’il faut que ces voitures soient en partie programmées pour suivre froidement « la loi » bien plus qu’a essayer de préserver des vies humaines:
    Exemple: 5 piétons traversent alors que le bonhomme est rouge, deux autres piétons, eux sont bien restés en attente au bord de la route, si la voiture ne peux pas freiner assez court, il me semble évident que la voiture doit écraser les 5 piétons au lieu de les sauver en tournant et écrasant les 2 qui sont bien restés à leur place… 5 personnes sont mortes au lieu de 2 mais l’inverse serait extrêmement immoral

    • Je suis totalement d’accord.
      L’alternative voudrait dire que les bons comportements pourraient être punis (les gens écrasés sur le trottoir) au profit de ceux qui ont eu un comportement dangereux.

  • Est-ce bien pour demain ?
    Je possède un véhicule équipé des dispositifs d’aide à la conduite (AAC, détection piétons, assistance embouteillages, ..)
    Très bien d’un point de vue sécurité mais très très loin d’un pilotage sans chauffeur.
    L’intelligence artificielle ne solutionne pas tout et ce n’est pas demain la veille.
    Un simple arrêt d’un véhicule en livraison dans une rue étroite nécessitant de monter sur le trotoire pour passer et là pas de solution simple programmable.
    Dès que l’on sort des « sentiers battus » les solutions deviennent difficiles.
    La plupart des pays de la planète ne disposent pas du balisage suffisant et des infrastuctures routières suffisantes pour envisager les voitures sans pilote.
    Même en France j’aimerais observer le comportement des prototypes existants place de l’étoile à Paris aux heures de pointe.

  • « La technologie est prête, mais pas nous. »

    Non ! L’arnaque est prête; alors il faut nous la vendre !

    Un heureux propriétaire de voiture autonome vient de mourir de cette arnaque. La soit-disant « intelligence » artificielle de la voiture ne sait pas faire la différence entre un élément de signalisation en hauteur et un obstacle mobile – ce qui nécessiterait une réelle compréhension de son environnement – alors comme toujours dans ces cas la on remplace la véritable analyse par un algorithme approximatif : le système (et non l’intelligence) analyse les objets au sol en effectuant un balayage bas de la route. Manque de chance, la remorque était en hauteur, mais pas suffisamment pour le toit de la voiture …

    Cela n’empêchera probablement pas ces systèmes automatiques de prendre de plus en plus de place, et probablement de piloter les voitures à terme. Moyennant de fortes réductions de vitesses et des contraintes de sécurité bloquant les systèmes (plus que de raison), on aura globalement une baisse des accidents. N’empêche que « l’intelligence artificielle » – celle qu’on nous vend, et va prétendument rapidement changer le monde – n’est rien d’autre qu’une grosse arnaque, poussée en avant par une foule d’affairistes, et de vendeurs d’idées utopiques ou malthusiennes.

    • Tesla avait fait le choix fort et clair de ne pas mettre de LIDAR (laser de mesure de distance pour simplifier) sur son véhicule car il ne trouvait pas cela utile et il utilisait donc de simples caméras en mode stéréo pour apprécier cette distance : sauf qu’un remorque blanche sur un fond blanc (illuminé) ça le fait pas : c’est vraiment le choix techno qui a conduit à cet accident. Il y en aura certainement d’autres d’accidents pour d’autre raisons comme il y a des accidents avec des fusées, des trains, des médicaments, des ponts roulants etc… peut-être même avec des OGM c’est comme ça qu’on avance.

  • -Ce sont les assureurs qui seront probablement le juge de paix face au « dilemme du piéton ».
    Le problème est que le début de la voiture autonome a toutes les chances d’être chaotique parce qu’elle engage un grand nombre d’acteurs : les constructeurs d’automobiles, les sous-traitants, les infrastructures routières, la météo, les réseaux de données, le GPS, les assurances, les conducteurs, et puis dans le fond…n’importe qui : le piéton qui traverse sans regarder, les tuiles qui tombent du toit etc.
    Qui sera responsable en cas d’accident ?

    -Le problème est que les assureurs n’assurent que les risques connus par les statistiques. Par exemple, l’automobile actuelle est responsable d’environ 3500 morts/an, 500 000 blessés sans oublier les dégâts matériels… Cette connaissance est suffisante pour calculer les couts, ajouter une marge (confortable) et ne jamais perdre d’argent. Qu’en sera t-il avec la voiture autonome à grande échelle ? mystère ! Tant que les assureurs ne pourront pas calculer les couts des sinistres de la voiture autonome, ils refuseront probablement de l’assurer (à grande échelle).

    -La voiture autonome pose des questions intéressantes. Les voies de circulation devront être adaptées, beaucoup d’options sont possibles. A l’époque du principe de précaution et du risque zéro, il sera tentant pour l’état d’en profiter pour réduire drastiquement la vitesse (les écolos vont applaudir) afin de l’adapter à la voiture autonome. Tant qu’à faire : contrôler en temps réel (et archiver) qui fait quoi ? avec les meilleurs intentions du monde, évidemment ! 🙂 par exemple pour éviter les bouchons, vous devrez faire une demande de trajet à l’avance, on vous dira si c’est possible ? en cas de réponse positive, on vous « soumettra » le trajet, l’heure de départ etc.

    Pour finir sur une touche d’humour, je propose « l’AUTONOLIB » une voiture autonome entourée d’un gros boudin de caoutchouc noir pour la sécurité. La vitesse sera limitée à 10..15 km/h. Une perche de 3m de hauteur sera installée à l’arrière de chaque véhicule (électrique comme il se doit) pour récolter l’électricité verte diffusée généreusement par une sorte de grillage placée au dessus des voies de circulation. Il faudra introduire des jetons vendus à grands frais par l’état dans une fente du dit véhicule 🙂

    Bonnes vacances

  • Pour le dilemme du piéton, l’éthique ne peut pas choisir, le marché le fera.

  • La voiture de demain sera juste assez intelligente pour envoyer ses passager dans un platane pour sauver la vie d’un enfant … quand une poule traversera la route !

    Pour les dilemmes moraux, il faudra faire des progrès dans l’analyse d’image … et dans la compréhension des priorités humaines. Pour l’être humain, cela nécessite en plus des fonctions « normales » du cerveau quelques millions de « neurones miroir ». Et tout le monde n’en est pas également équipé. Le jour où les voitures bailleront en réponse au bâillement de leur propriétaire, alors elles feront la différence entre une poule et un enfant.

  • Article et sujet aux multiples facettes.
    Asimov a traité ces thème avec brio et élégance je crois.
    Ce qui nous trompe sur notre propre vision d’un tel sujet est que nous le regardons avec nos prismes actuels.
    Hollywood nous présente systématiquement une IA qui prend le pas sur l’homme (sauf peut-être dans « Transcendance »). Mais ce retournement de la créature contre son créateur n’a aucune raison propre de se produire : c’est considérer qu’un comportement humain issu de rapport dominant/dominé se transpose nécessairement dans une IA. Et ce n’est pas le cas. Ce serait même en principe le contraire : la « créature » n’a nullement besoin de se sentir inférieure, redevable, reconnaissante devant l’Homme-Créateur.
    On cherche des questions de responsabilités, d’indemnisation, d’assurance : tout ceci semble pertinent mais encore une fois c’est notre paradigme, notre propre vision des choses, nos propres concepts sociaux. Rien ne s’oppose à ce que tout ou partie de ces concepts évolue. Disparaisse même… Ce questions n’ont d’ailleurs pas forcément toujours existé, à toutes les épiques ou dans toutes les civilisations.
    On oppose la voiture individuelle à la voiture automatique, et on met en vis-à-vis les transports en commun. Une fois encore on juge par rapport à notre présent, pas en se projetant dans le futur. Nos besoins de déplacement n’impliquent nullement d’être propriétaire du moyen en question, qu’il soit individuel ou collectif. C’est l’usage qui prime, et donc la disponibilité, la sécurité, la polyvalence, etc.
    Si demain (au sens large) je souhaite aller chercher une pizza, en quoi ai-je besoin de ma voiture, mon scooter, mon vélo, mes chaussures ? Je peux me la faire livrer. Je peux prendre le bus. Je peux utiliser une « voiture » qui passe par là, quelle que soit sa technologie. La conduire moi-même n’apporte rien à mon souhait de pizza.

    Franchement, l’IA existe, s’améliorera sans fin, très vite, et se répandra dans tous les domaines de la vie quotidienne. Dans moins d’un siècle on se demandera comment on faisait avant ça, et on souciera des angoisses et des questions soulevées aujourd’hui.

    Penser que l’IA autonome (quel que soit son domaine d’autonomie) n’arrivera pas me semble être une erreur. C’est comme imaginer qu’en répandant les caractères mobiles d’imprimerie on avait considéré que ce serait toujours limité à imprimer La Bible. Folie que de penser qu’un innovation sociale de cette ampleur puisse être limitée par la volonté durable de l’Homme.

    Il en va de même pour l’IA.

    • Oui beaucoup mélangent ici le moyen et le résultat. SI ça les démange de conduire ils pourront toujours aller sur un circuit.
      Perso je prendrai le téléporteur.

  • Votre article est d’une actualité extraordinaire alors qu’un robot policier vient de tuer un « exterminateur » à Dallas!

    • Non, le robot n’a rien fait et en plus ce n’était pas un robot. Un simple véhicule radio-commandé muni d’une charge explosive (comme un jouet d’enfant en fait)
      Quelqu’un a appuyé sur le bouton. Fin de l’histoire.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Il faut sauver la liberté d’expression, comme nous l’avions évoqué, face à la prolifération des deepfakes en évoquant, avec le Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM)  « le paradoxe du ChatBlanc » (cf. « Autopiégés par les deepfakes : où sont les bugs ? » Contrepoints, 11 février 2024 ) pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expressio... Poursuivre la lecture

OpenAI, avec sa vision d'une IA géante et coûteuse, se retrouve face à des concurrents proposant des IA plus économiques.

OpenAI persiste et signe, pour le futur il faut une IA encore plus grosse que chatGPT-4. Son CEO, Sam Altman, réclame donc 50 milliards de dollars par an, après avoir déjà englouti 11 milliards dont 700 000 dollars par jour rien que pour les coûts des serveurs.

Le pape de l’IA est surtout de plus en plus seul dans sa vision d’IA gigantesque et coûteuse. La startup française Mistral a marqué le début d’une aut... Poursuivre la lecture

À quand des questions sur la recherche européenne dans les médias ? À quelques jours des élections européennes, les débats sur la recherche et l’innovation sont inexistants ! Il s’agit pourtant des fondamentaux européens. Dès 1972, la commission européenne a cherché à définir et à mettre en place une politique de recherche communautaire. Où en sommes-nous en 2024 ?

 

Des moyens et des résultats limités

Pourquoi la recherche est-elle absente des débats sur l’Europe, alors que partout ailleurs on parle des défis en matière d’... Poursuivre la lecture

Voir plus d'articles