Intelligence Artificielle: quels bienfaits et quels dangers

Home   /   Intelligence Artificielle: quels bienfaits et quels dangers

De SIRI aux automobiles à conduite personnelle, l’intelligence synthétique (IA) progresse rapidement. Alors que la science-fiction dépeint fréquemment l’IA comme des robots aux caractéristiques individuelles, l’IA peut tout englober, des techniques de recherche de Google à Watson d’IBM en passant par les armes autonomes. L’intellect artificiel est aujourd’hui correctement connu sous le nom d’IA étroite (ou IA affaiblie), en ce sens qu’il doit être créé pour effectuer une tâche mince (par exemple, uniquement la reconnaissance du traitement du visage ou uniquement des requêtes sur le World Wide Web ou uniquement la conduite d’un véhicule). Cependant, l’objectif à long terme de plusieurs scientifiques est toujours de créer une IA commune (AGI ou IA forte). Alors que l’intelligence artificielle mince peut surpasser les humains dans tous les domaines, comme jouer aux échecs ou résoudre des équations, l’AGI surpasserait les gens dans presque tous les processus mentaux. À court terme, l’objectif de maintenir l’impact de l’IA sur la société motive l’investigation dans de nombreux domaines, de l’économie d’entreprise et de la réglementation aux domaines techniques tels que la vérification, l’applicabilité, la protection et le contrôle. Bien que ce ne soit guère plus qu’un ennui mineur si votre ordinateur portable se heurte ou est piraté, il deviendra encore plus important qu’un système d’IA fasse ce que vous voulez qu’il fasse si cela gère votre voiture, votre avion, votre stimulateur cardiaque, votre investissement informatisé. programme ou peut-être votre réseau électrique. Un autre problème d’expression rapide consiste à éviter une course aux armements dévastatrice dans l’armement autonome mortel. À long terme, une question importante est de savoir ce qui se passera si la poursuite d’une IA puissante réussit et si un programme d’IA devient meilleur que les humains dans tous les emplois cognitifs. Comme le note I.J. Génial en 1965, développer des techniques d’IA plus sages est en soi un travail intellectuel. Un tel système peut potentiellement passer par un auto-développement récursif, déclenchant une explosion de l’intellect laissant l’intellect de l’être humain nettement derrière. En créant de nouvelles technologies révolutionnaires, une telle superintelligence pourrait nous aider à nous débarrasser de la guerre, de la maladie et de la pauvreté, de sorte que l’introduction d’une IA solide pourrait être la plus grande célébration de l’histoire individuelle. Certains experts ont cependant exprimé leur inquiétude, qui pourrait également devenir la toute dernière, à moins que nous ne trouvions comment aligner les cibles de l’IA avec les nôtres avant qu’elle ne devienne superintelligente. Il y en a plusieurs qui se demandent si une IA forte sera jamais atteinte, ainsi que d’autres qui exigent que le développement d’une IA superintelligente soit sûr d’être bénéfique. Chez FLI, nous reconnaissons ces deux opportunités, mais identifions également la possibilité qu’un programme intellectuel créé par l’homme cause volontairement ou accidentellement d’excellents dommages. Nous savons que les enquêtes de nos jours nous aideront à mieux nous préparer à prévenir de tels effets potentiellement négatifs à l’avenir, profitant ainsi des avantages de l’IA tout en évitant les pièges. La plupart des experts s’accordent à dire que l’IA superintelligente est peu susceptible de montrer des pensées intérieures de l’être humain telles que jouir ou détester, ce qui n’est pas une cause à laquelle on peut s’attendre à ce que l’IA devienne délibérément bienveillante ou malveillante. Au lieu de cela, quand il s’agit de savoir comment l’IA peut éventuellement devenir un danger, les professionnels pensent que deux circonstances sont les plus probables: L’IA est développée pour prendre des mesures désastreuses: les armes autonomes sont des techniques d’intelligence synthétique programmées pour éliminer. Entre les mains de la personne incorrecte, ces armes pourraient sans effort entraîner des pertes massives. De plus, une course de biceps et de triceps avec l’IA pourrait accidentellement provoquer une guerre de l’IA entraînant des pertes massives. Pour éviter d’être contrecarré par l’adversaire, ces armes seraient conçues pour être extrêmement difficiles à «détourner», de sorte que les gens pourraient de manière plausible abandonner le contrôle de ce genre de scénario. Ce danger existe malgré une IA mince, mais augmentera à mesure que l’intelligence de l’IA et l’autonomie augmenteront. L’IA est développée pour rendre un mouvement avantageux, mais elle construit une manière dangereuse d’atteindre son objectif: cela peut arriver si nous oublions d’aligner complètement les objectifs de l’IA avec les nôtres, ce qui peut être extrêmement difficile. Si vous demandez à un véhicule intelligent et obéissant de vous considérer au terminal de l’aéroport le plus rapidement possible, cela peut vous permettre de vous y rendre poursuivi par des hélicoptères et inclus dans le vomi, en effectuant non pas ce dont vous aviez besoin, mais littéralement ce que vous avez demandé. Lorsqu’une méthode superintelligente se voit confier le travail d’une tâche de géo-ingénierie engagée, elle pourrait causer des dommages à cet écosystème comme un effet secondaire, et considérer que l’individu essaie de l’arrêter comme une menace à affronter. Comme le montrent ces illustrations, la préoccupation concernant l’IA avancée n’est pas la malveillance mais la compétence. Une IA super intelligente va être incroyablement efficace pour atteindre ses objectifs, et au cas où ces objectifs ne seraient pas alignés sur les nôtres, il y a un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui agit sur les fourmis par malice, cependant, si vous êtes aux commandes d’un projet hydroélectrique de vitalité verte et qu’il y a une fourmilière dans la région pour devenir surchargée, trop nocive pour les fourmis. Un objectif clé de la recherche sur la sécurité de l’IA est de ne jamais placer l’humanité à la place de ces fourmis.