Le jour où l’intelligence artificielle surpassera l’Homme est-il proche ? De nombreux facteurs tendent à avérer cette thèse. Alors que des chercheurs affirment que nous pourrions bénéficier des machines, des personnalités éminentes telles qu’Elon Musk et Stephen Hawking nous alertent. L’avis de nombreux experts peut nous éclairer sur le sujet : découvrez 10 mythes sur l’intelligence artificielle qui prouvent que tout ce que l’on croit savoir à son propos est faux.

 

Nous ne pourrons jamais créer une machine aussi intelligente que l’Homme

robot-ecranDe nombreux spécialistes estiment que l’intelligence artificielle nous surpassera via Shutterstock

Des machines surpassent d’ores et déjà les humains dans plusieurs domaines : aux jeux d’échecs et de go et sur le marché boursier. En 2014, un chatbot (logiciel d’intelligence artificielle) surnommé Eugene Goostman a passé le test de Turing en convainquant l’un des juges qu’il était un adolescent de 13 ans non anglophone. Les ordinateurs et les logiciels ne peuvent que s’améliorer, ce n’est plus qu’une question de temps avant qu’ils excellent dans presque toutes les activités humaines.

Gary Marcus, un psychologue de l’université de New York, affirme que quasiment toutes les personnes qui travaillent avec des intelligences artificielles sont convaincues qu’elles nous surpasseront. Il existe toutefois une différence au niveau chronologique entre les sceptiques et les optimistes. Le futurologue Ray Kurzweil est, lui, persuadé que cette tendance sera vraie dans quelques décennies, alors que d’autres scientifiques estiment que cela prendra des siècles.  

neurones-cerveauLe cerveau humain est une machine biologique très complexe via Shutterstock

Les opposants à l’intelligence artificielle en sont sûrs : le cerveau humain est unique et complexe, il ne peut être égalé. Même si, en effet, notre cerveau est biologique, il reste une machine qui répond aux lois de la physique. Un argument qui peine donc à convaincre les enthousiastes.

 

L’intelligence artificielle aura une conscience

Pour beaucoup, l’intelligence artificielle pourra penser de la même façon que les humains, elle sera consciente. Paul Allen, cofondateur de Microsoft, estime que si nous n’avons pas encore su élaborer une intelligence artificielle générale (AGI), c’est-à-dire capable d’effectuer des tâches intellectuelles comme un être humain, c’est parce que nous n’avons pas de réelle théorie scientifique de la conscience.

robot-conscienceL’intelligence et la conscience sont deux domaines bien distincts via Shutterstock

Murray Shanahan, chercheur en robotique cognitive à l’Imperial College de Londres, atteste que la conscience et l’intelligence ne doivent pas être mêlées. “La conscience est certainement un sujet fascinant et important, mais je ne crois pas qu’elle soit nécessaire à une intelligence artificielle du même niveau que l’Homme”, a-t-il expliqué à Gizmodo. Le mot conscience désigne en effet des attributs psychologiques et cognitifs, des attributs qui sont liés entre eux chez l’être humain.

Une machine extrêmement intelligente ne serait pas nécessairement munie de ces attributs : elle ne verrait pas le monde de façon subjective comme nous le faisons. D’après Murray Shanahan, il serait possible de coupler l’intelligence et la conscience dans une machine, mais ces deux concepts sont totalement séparés. Et si une intelligence artificielle passe le test de Turing, il ne s’agit pas d’une preuve incontestée de sa conscience, malgré l’impression qu’elle en donne. La machine n’a pas plus conscience d’elle-même qu’un caillou ou qu’une calculatrice.

 

Nous ne devrions pas avoir peur de l’intelligence artificielle

intelligence-artificielle-mythes-1

Un robot humanoïde en train de penser via Shutterstock

Mark Zuckerberg, le fondateur de Facebook, a affirmé que l’intelligence artificielle n’était pas à craindre, bien au contraire. Il est vrai que nous pouvons en tirer de grands bénéfices, à l’image des voitures sans chauffeur ou encore de la création de nouveaux médicaments. Mais un système intelligent peut être imbattable dans un certain domaine, comme hacker un système ennemi, tout en restant totalement ignorant en dehors de cette compétence. Par exemple, le système DeepMind de Google est particulièrement doué au jeu de go, il ne présente néanmoins aucune capacité ou raison de s’intéresser à un autre domaine que celui-ci.

Le problème, c’est que nombre de ces systèmes ne possèdent aucune mesure de sécurité. Développé par les armées israélienne et américaine, le virus Stuxnet devait cibler les centrales nucléaires iraniennes. Volontairement ou accidentellement, le malware a réussi à infecter une centrale russe. Pour l’instant, les virus ne sont pas considérés comme des intelligences artificielles mais ils pourraient le devenir. Il est alors facile d’imaginer les dommages qu’ils pourraient causer…

 

La superintelligence artificielle sera si forte qu’elle ne fera pas d’erreurs

i-robot

Richard Loosemore est un chercheur dans le domaine de l’intelligence artificielle et le fondateur de Surfing Samurai Robots. Il estime que tous les scénarios qui font référence à une apocalypse liée à l’intelligence artificielle sont incohérents. Ces théories avancent que la machine résonnera ainsi : “Je sais que la destruction de l’humanité est une anomalie dans ma conception, mais je suis contraint de le faire.” Pour Richard Loosemore, une intelligence artificielle qui réfléchit de cette façon aurait présenté de telles contradictions tout au long de sa vie, ce qui aurait influé sur sa connaissance, rendant la machine trop inepte pour représenter un véritable danger.

Le chercheur affirme également que les personnes convaincues qu’une intelligence artificielle ne fait que ce pourquoi elle a été programmée sont dans le faux. Pour lui, elle sont coupables des mêmes erreurs que celles qui ont été commises lorsque les premiers ordinateurs ont été conçus. Certains prétendaient alors que les ordinateurs étaient incapables d’étendre leur champ de compétences.

robot-clavierL’intelligence n’empêchera probablement pas les machines de commettre des erreurs via Shutterstock

Des spécialistes contredisent vigoureusement Richard Loosemore. C’est notamment le cas de Peter McIntyre et Stuart Armstrong, qui travaillent à l’Institut du futur de l’humanité à la prestigieuse université d’Oxford. Ils estiment que l’intelligence artificielle est, au contraire, déterminée par sa programmation et qu’elle peut faire des erreurs. “Par définition, la superintelligence artificielle (ASI) possède un intellect bien plus développé que le cerveau humain dans tous les domaines, elle sera exactement ce qu’on attend d’elle”, a expliqué Peter McIntyre à Gizmodo.

La machine fera exactement ce pourquoi elle sera programmée. Quand elle deviendra trop intelligente, elle comprendra probablement les aspirations des humains. Le scientifique a comparé cette situation au comportement que nous avons envers les souris. Nous savons que l’animal cherche un abri et de la nourriture, mais nous ne voulons pas de rongeur dans notre habitation. “Nous sommes assez intelligents pour comprendre le but des souris, donc un système superintelligent pourrait savoir ce que nous voulons, tout en restant indifférent à cela”, a conclu Peter McIntyre.

 

Une simple réparation suffira pour pouvoir contrôler une intelligence artificielle

ex-machina

Si nous sommes capables de construire une intelligence artificielle plus performante que l’Homme, nous ferions face au problème du contrôle de cette dernière. Les futurologues et les théoriciens ne savent pas comment nous pourrions restreindre une superintelligence artificielle une fois qu’elle existera, ou même comment s’assurer qu’elle ait de bonnes intentions envers les êtres humains. Des chercheurs de l’Institut de technologie de la Géorgie ont suggéré que les machines pourraient apprendre nos valeurs et nos normes sociales en lisant des histoires. Mais la réalité est bien plus complexe.

Plusieurs astuces simples ont été proposées pour résoudre ce problème. Nous pourrions, par exemple, programmer l’intelligence artificielle d’une telle sorte qu’elle voudrait servir l’Homme, qu’elle se comporte comme un outil pour lui. Des chercheurs proposent en outre d’intégrer les principes d’amour et de respect dans son code source. Enfin, pour éviter que la machine n’ait une vision simplifiée du monde qui l’entoure, elle pourrait être programmée pour apprécier l’intellect, la culture et la diversité sociale.

machine-interieurCertains chercheurs évoquent la possibilité t’intégrer nos valeurs dans le code source d’une machine via Shutterstock

Malheureusement, ces techniques paraissent invraisemblables. Comment intégrer toute la complexité humaine dans une seule définition ? Comment rassembler toutes les valeurs humaines dans un simple mot, une simple phrase ou dans une idée ? Pour Stuart Armstrong, ces possibilités pourraient être la clé du problème, mais nous ne pouvons pas nous y fier pour le moment. Il nous faut encore effectuer de nombreuses recherches, et surtout, réfléchir aux implications d’une telle démarche.

 

L’intelligence artificielle va détruire l’humanité

Nous ne savons pas si l’intelligence artificielle voudra nous détruire, nous ignorons si nous trouverons des moyens pour la contrôler. “L’intelligence artificielle ne vous déteste pas, elle ne vous aime pas non plus, mais vous êtes fait d’atomes qu’elle peut utiliser pour quelque chose d’autre”, a déclaré le chercheur Eliezer Yudkowsky. Selon Nick Bostrom, un philosophe suédois, la véritable intelligence artificielle pourrait présenter un risque plus important que toutes les autres inventions humaines.

robot-craneDes chercheurs éminents estiment que l’intelligence artificielle est dangereuse pour l’Homme via Shutterstock

Elon Musk, Bill Gates et Stephen Hawking ont également tenu à nous alerter. Mais pour Peter McIntyre, il y a de bonnes raisons de penser que l’intelligence artificielle ne voudrait pas s’en prendre à l’Homme. “Elle ne voudra certainement pas qu’on l’interrompe ou que l’on interfère dans ses projets, c’est-à-dire qu’on l’éteigne ou que l’on change ses plans, car ses projets ne pourraient pas aboutir”, a-t-il expliqué. En fait, une intelligence artificielle ne voudrait pas nous laisser l’option de l’arrêter, sauf si nos plans étaient identiques aux siens. Puisque son intelligence surpasserait la nôtre, nous ne pourrions de toute façon rien y faire.

Pour l’instant, rien n’est garanti. Personne ne sait encore sous quelle forme se présentera l’intelligence artificielle, ou comment elle pourrait représenter un danger pour l’espèce humaine. Selon Elon Musk, nous pourrions utiliser l’intelligence artificielle pour contrôler, réguler et surveiller d’autres intelligences artificielles. Son système pourrait en outre être imprégné des valeurs humaines, comme expliqué plus haut, ou d’un désir primordial d’être agréable avec l’Homme.

 

L’intelligence artificielle aura un comportement amical envers l’Homme

homme-bicentenaire

Le célèbre philosophe Emmanuel Kant estimait que l’intelligence est étroitement liée à la moralité. Le neuroscientifique David Chalmers a appliqué cette idée au développement de l’intelligence artificielle. Selon lui, si une machine devient extrêmement intelligente, elle en deviendra automatiquement morale, et donc amicale. Pour Stuart Armstrong, cette idée ne tient pas la route. Il n’existe aucune corrélation entre l’intelligence et la moralité, pourquoi y en aurait-il une chez une autre forme d’intelligence ? Malheureusement, les chefs de guerre sont souvent des personnes très rusées.

“Les êtres humains intelligents qui ont un comportement immoral causent plus de douleurs que leurs compatriotes plus limités. L’intelligence leur donne l’opportunité d’être mauvais, mais astucieusement, elle ne les rend pas bons”, a expliqué le chercheur. Pour son collègue, Peter McIntyre, nous serions juste très chanceux si l’intelligence artificielle devenait sympathique. “Se fier à la chance n’est pas très judicieux, surtout sur un sujet qui pourrait déterminer notre futur”, a-t-il affirmé.

 

Les risques que représentent l’intelligence artificielle et la robotique son identiques

terminator

Cette idée est fausse. Selon Gizmodo, elle a été divulguée par certains médias et surtout par Hollywood, notamment avec des films tels que Terminator. Si une intelligence artificielle voulait nous détruire, elle n’utiliserait sans doute pas des androïdes munis d’armes. Elle mettrait en œuvre des moyens bien plus dévastateurs, par exemple, un virus biologique ou même la destruction de l’atmosphère.

L’intelligence artificielle est potentiellement dangereuse non pas pour le rôle qu’elle a à jouer dans le futur de la robotique, mais pour la manière dont elle exprimera sa présence dans le monde.

 

La science-fiction dresse un portrait réaliste de l’intelligence artificielle dans le futur

2-i-robot

Les auteurs et les futurologues ont utilisé la science-fiction pour prédire un futur fantastique, mais la superintelligence artificielle est bien différente de ce dessein. Sa nature sera diamétralement opposée à celle de l’Homme, il est donc impossible de l’imaginer. Dans la science-fiction, l’intelligence artificielle est souvent similaire à nous. “Même dans la race humaine, il existe des esprits très différents les uns des autres, vous n’êtes pas pareil que votre voisin. Pourtant, cette variation est minime lorsque l’on considère tous les esprits qui pourraient exister”, a expliqué Peter McIntyre.

La science-fiction nous offre des scénarios attractifs, elle n’est pas censée être scientifiquement plausible. Ainsi, les conflits offerts par ces scénarios se produisent généralement entre des entités égales. “Imaginez à quel point une histoire serait ennuyeuse si une intelligence artificielle sans conscience, sans joie ni haine, tuait tous les hommes sans forcer, dans un but qui est lui-même inintéressant”, a commenté Stuart Armstrong.

 

L’intelligence artificielle occupera tous les emplois

robots-costardL’intelligence artificielle permettra probablement de créer des emplois dans de nouveaux domaines via Shutterstock

L’habilité de l’intelligence artificielle à automatiser quasiment tout ce que nous faisons et son potentiel de détruire l’humanité sont deux choses bien distinctes. D’après Martin Ford, l’auteur de “Rise of the Robots : Technology and the Threat of a Jobless Future” (“La monté des robots : la technologie et la menace d’un futur sans emploi”), ces deux sujets sont trop souvent mélangés. Nous avons tendance à imaginer le futur lointain de l’intelligence artificielle. Dans les prochaines décennies toutefois, nous ferons certainement face à l’automatisation de masse.

C’est un fait : l’intelligence artificielle remplacera l’Homme dans plusieurs emplois. Une étude affirme que 5 millions de jobs seront occupés par des robots dès 2020, mais cette perturbation n’est pas synonyme de catastrophe. Déléguer notre travail, qu’il soit physique ou mental, semble être un but quasi utopique pour l’espèce humaine. Par exemple, des voitures sans chauffeur pourraient remplacer des routiers, ce qui réduirait les coûts de livraison, et surtout, les produits en seraient moins onéreux.

robots-usineLes robots remplacent déjà beaucoup d’humains dans les usines via Shutterstock

L’intelligence artificielle pourrait nous permettre de créer d’autres moyens de se procurer des richesses, tout en nous libérant de certaines tâches. Son développement sera certainement accompagné par le progrès d’autres domaines, notamment dans l’industrie, ce qui n’est pas forcément un mauvais signe.

 

En somme, de nombreuses idées préconçues englobent le domaine de l’intelligence artificielle. Des idées qui, quand on y réfléchit, ne sont pas réellement plausibles. Nous vivons d’ores et déjà avec l’intelligence artificielle, elle devrait continuer de connaître un essor exponentiel, mais nous ignorons encore sous quelle forme. À l’heure actuelle, nous ne pouvons qu’imaginer comment elle se présentera en se basant sur ce que l’on connaît déjà. Si ce sujet vous intéresse, vous pouvez découvrir comment le combat contre l’intelligence artificielle a déjà commencé.