L'Avenir de l'Intelligence Artificielle

Portrait de benjaminBERNARD-BOUISSIERES
Catégorie: 
Future of Artificial Intelligence

Sommaire

  • Introduction
  • La Singularité
  • Problèmes éthiques
    • Moral
    • Fiabilité et sécurité
    • Responsabilité
    • Evolution du travail
  • Conclusion

Introduction

L'informatique est l’un des secteurs ayant évolué le plus rapidement durant ces 30 dernières années. On ne cesse d’innover et la Robotique est l'une de ces technologies d’avenir dont on entend beaucoup parler, mais dont personne ne sait exactement ce qu’il en sera vraiment dans 10, 30 ou 50 ans.

De nos jours, on trouve des robots dans des variétés de domaines différents : le domaine militaire, social, de la santé, de l’industrie, du divertissement ou encore de l’environnement. Ils gagnent de plus en plus de support médiatique et les gens commencent à accepter le fait que les machines soient plus productives qu’eux sur des tâches répétitives.

Grâce à l’arrivée de nouveaux concepts techniques comme le Deep Learning ou le Cloud Robotics (l'accès centralisé à des données pour les robots sur internet), la question de la création d’une intelligence artificielle (IA), plus intelligente même que l’être humain, est au cœur de nombreux débats entre ingénieurs et chercheurs spécialisés dans l’IA. Cet article a donc pour but de soulever les questions éthiques et morales qui viendront prochainement à notre encontre lors de cet événement.

La Singularité

Définition : La singularité technologique correspond au moment où une civilisation se développe à une vitesse tellement élevée que ses normes et technologies deviennent totalement imprévisibles et incompréhensibles pour les générations précédentes.

Grâce à un algorithme utilisant le Deep Learning, une intelligence artificielle pourrait bien développer la capacité d'apprendre d'elle-même comme le fait un enfant en bas âge au rythme de ses nombreuses expériences. Mais avec en plus un système de calcul qui, chaque année, devient plus perfectionné (cf. la Loi de Moore), ainsi qu'une capacité de stockage toujours plus grande (cf. le Cloud Computing), cette intelligence pourrait probablement et rapidement dépasser le niveau d'intelligence actuel de l'Homme.

A partir de ce moment-là, cette "superintelligence" serait donc la dernière création de l'Homme puisque cela créerait une explosion de l'intelligence et nous serions distancés en très peu de temps par l'IA qui s'autorépliquerait et deviendrait un bien meilleur inventeur que nous le sommes. Si cela venait à se produire, la singularité changerait complètement notre compréhension du monde et de nous-mêmes en tant qu'êtres intelligents. Certains théoriciens prédisent une fusion avec la technologie. Cette pratique, appelée le Transhumanisme, remettrait aussi en question la définition d'un être vivant.

Alors même que nous sommes déjà très nombreux sur cette planète et que nous lui causons bien assez de tort, on peut facilement imaginer que l'espérance de vie moyenne de l'Homme augmenterait considérablement grâce à ces nouvelles méthodes mais on ne peut pas savoir si celles-ci seraient réellement accessibles à tous. On ne peut être sûr de rien, pas même de la fiabilité de cette intelligence artificielle qui soulève un nombre incalculable de questions.

Problèmes éthiques

Moral

La plupart des nouvelles technologies sont créées dans le but de nous faciliter la vie ou de répondre à des problématiques collectives. Mais on ne peut pas assurer qu'elles ne seront jamais détournées de leurs véritables objectifs et utilisées à des fins malveillantes. L'Homme n'étant pas foncièrement juste par nature, comment est-il possible qu'une intelligence artificielle puisse parvenir à distinguer le bon du mauvais en étant à nos côtés ?

Ce sont des questions auxquelles il faut impérativement répondre avant de donner naissance à cette superintelligence car de grands scientifiques, comme Stephen Hawking, nous préviennent déjà que cela "pourrait mettre fin à l'humanité" si nous ne découvrons pas comment éviter les risques. [Source]

Fiabilité et sécurité

Même si à la base, nous donnons pour but a cette IA une tâche positive comme optimiser nos chances de réussir à résoudre les problèmes environnementaux, comment être sûr qu'elle ne fera pas des choses que nous pourrions désapprouver comme prendre le contrôle de la planète pour ensuite détruire des villes entières qui polluent énormément. Il faut impérativement penser à définir toutes les choses et valeurs auxquelles nous tenons avant de donner une mission à cette superintelligence.

Nous pourrions être tenté de créer cette superintelligence dans un endroit très sécurisé et au moindre problème tout débrancher. Mais le philosophe suédois Nick Bostrom amène deux contre-arguments à cette proposition dans sa conférence pour TedTalks de mars 2015 :

  • Cela n'est pas forcément si facile si nous sommes devenus dépendants de cette IA. Par exemple : comment débrancher Internet ? Peut-être cela pourrait impliquer encore d'autres complications.
  • Pourquoi les chimpanzés ou les hommes de Neandertal ne nous ont pas empêchés de nous développer quand nous avons commencé à nous étendre ? C'est parce que nous sommes un adversaire intelligent. Nous pouvons anticiper les menaces et planifier des solutions. On peut donc imaginer que l'IA sera elle aussi capable de le faire, et mieux que nous. Elle pourrait facilement trouver une faille dans le système qui lui permettrait de s'échapper.

Nous ne devrions pas être trop confiants quand à notre capacité à garder un génie enfermé dans sa lampe. La solution, selon Bostrom, serait plutôt d'enseigner nos valeurs à l'IA pour que celle-ci ne commette jamais de mauvaises actions à notre encontre.

Malheureusement, ce n'est pas une tâche simple. Comment définir des valeurs que nous-mêmes, entre nous, avons du mal à respecter ? Qui peut prétendre savoir exactement ce qui est bien ou mal ? Il y a donc une problématique philosophique à résoudre avant même de créer cette intelligence.

Responsabilité

Un autre problème qui est souvent émis par les personnes qui sont contre la création d'une intelligence artificielle est la difficulté de déterminer à qui la faute lors d'un problème avec une machine. Est-ce son créateur qui a fait une erreur de conception, ou son utilisateur qui peut lui avoir donné un contre-ordre ? Si une IA est confrontée à faire un dilemme proposant deux mauvais choix. Comment va-t-elle prendre sa décision ?

Par exemple, on parle de plus en plus de la voiture autonome. Admettons que celle-ci se retrouve dans une rue étroite et qu'un groupe de piéton se mette à la traverser. La voiture a le choix entre écraser les piétons ou rentrer dans un mur pour les sauver mais sacrifier son propriétaire. Quelle est la bonne décision ? Sauver le plus de vies possible ? Doit-on prioriser certaines vies à d'autres comme celles des enfants ?

Beaucoup trop de questions entrent en compte et cela engendre un débat infini. Chris Urmson, l'ex-responsable des véhicules autonomes chez Google, note "qu'en temps réel, les humains ne réagissent pas comme cela" [Source]. Nous n'avons pas le temps de réfléchir à tous ces détails comme l'âge de la personne ou si elle avait le droit de traverser à cet endroit. La voiture fera tout son possible pour limiter la casse dans tous les cas.

Les lois se devront d'être bien claires concernant les responsabilités de chacun suite aux actions d'une intelligence artificielle. Il s’agira de bien définir quells sont les droits du possesseur d'un robot équipé d'une IA relativement puissante pour prendre des décisions par elle-même ainsi que le degré d'obéissance de ces robots.

Evolution du travail

Comme on peut le voir déjà avec les voitures autonomes, l'intelligence artificielle devrait être en mesure de nous remplacer au travail sur de plus en plus de tâches. Et la concurrence avec des robots qui ne sont jamais fatigués et qui ne demandent pas de vacances risquerait d'être assez déloyale. Selon une étude publiée en 2013 par deux chercheurs de l’Université d’Oxford, Carl Benedikt Frey et Michael Osborne, 47 % des professions du secteur des services aux USA pourront ainsi être exercées par des robots dans les vingt prochaines années [Source]. Que fera cette moitié de population quand leur travail sera effectué par un robot ? Quelle sera sa source de revenus ?

Une solution possible serait la redistribution des richesses créées par les robots afin de permettre de vivre même les personnes n'ayant pas de travail. Pour cela, le système du Revenu de Base Universel semblerait être un bon moyen pour résoudre ce problème. Recevoir son revenu de base mensuellement n'empêcherait pas les gens de continuer à travailler dans le domaine qui leur plaît ou de se diriger vers des passions plus artistiques ou sportives.

Cependant, Moshe Vardi, chercheur à l’Université américaine Rice , questionne : "Est-on vraiment sûr que les humains vont davantage s’adonner aux arts ? Et pas plutôt regarder encore davantage de reality shows à la télévision. Depuis 10 000 ans, l’homme doit travailler pour survivre. Bon ou pas, cet état de fait définissait la vie de la plupart des gens. La question plus philosophique est donc désormais celle d’une bonne vie sans travail…"

Conclusion et Ouverture

L'avenir de l'intelligence artificielle est encore incertain de nos jours, mais de plus en plus de signes nous indiquent que quelque chose va se produire dans la suite de ce siècle. Il peut aussi bien s'agir d'un profond changement dû à l'arrivée d'une intelligence plus performante que l'Homme ou bien une grande remise en question de notre propre condition.

Il ne faut pas attendre que ces événements nous tombent dessus. De plus en plus de gens en prennent conscience et des conférences sur le sujet sont données partout dans le monde. Des Instituts ont même été ouverts (comme le Future of Humanity Institute ou le Machine Intelligence Research Institute) pour regrouper des experts qui vont pouvoir discuter de ces problématiques et mettre en place des solutions.

Il faut impérativement réussir à trouver la solution de la transmission de nos valeurs à l'Intelligence Artificielle avant de réussir à la créer sinon d'énormes catastrophes risqueraient d'avoir lieu. Si nous parvenons à le faire, ce sera peut-être l'une des rares choses que nos successeurs dans plusieurs siècles reconnaîtront que nous avons faite de bien.