"L'IA est un danger aussi comparable que les armes nucléaires", prévient un professeur de l'Université d'Oxford

"L'IA est un danger aussi comparable que les armes nucléaires", prévient un professeur de l'Université d'Oxford

Nœud source: 1925142

"Écoutez-moi bien, L'IA est beaucoup plus dangereuse que les armes nucléaires. Ça me fait peur. C'était la déclaration faite par le PDG de Tesla, Elon Musk, en 2018 lors d'une interview avec Jonathan Nolan lors de la conférence South by Southwest à Austin, au Texas. Malheureusement, Mus n'est pas seul. Des chercheurs et autres experts de renom mettent également en garde contre les dangers de l'intelligence artificielle (IA). La question à 1 million de livres est : sommes-nous préparés et que font nos gouvernements et nos planificateurs politiques pour éviter ce danger ?

Alors que la popularité récente de ChatGPT a amené l'IA au grand public et attiré de nombreuses personnes dans ses avantages sociétaux, ce qui n'attire pas l'attention du grand public, c'est le côté obscur de l'IA. Depuis de nombreuses années, les professionnels et les travailleurs de la technologie s'inquiètent de l'intelligence artificielle (IA) qui leur enlève leur emploi.

Cependant, les experts estiment qu'il existe d'autres risques et dangers plus graves, notamment les biais algorithmiques causés par de mauvaises données utilisées par l'IA, les contrefaçons profondes, les violations de la vie privée et bien d'autres. Alors que ces dangers présentent de sérieux risques pour la société, les chercheurs et les scientifiques s'inquiètent davantage de la façon dont l'IA pourrait être programmée pour faire quelque chose d'encore plus dangereux : l'automatisation des armes.

Aujourd'hui, l'IA a été employée dans le développement de technologies d'essaimage et de munitions de vagabondage, également appelées drones kamikazes comme ceux qui sont utilisé dans la guerre russo-ukrainienne en cours. Contrairement aux robots futuristes que vous voyez dans certains films de science-fiction, ces drones utilisent des plates-formes militaires existantes qui exploitent les nouvelles technologies d'IA. Ces drones sont essentiellement devenus des armes autonomes programmées pour tuer.

Mais utiliser l'IA pour tuer dans des combats milliaires n'est que le début. Michael Osborne est professeur d'IA et chercheur en apprentissage automatique à l'Université d'Oxford. Il est également co-fondateur de Mind Foundry. Alors que tout le monde est sur l'engouement pour ChatGPT, le professeur Osborne met maintenant en garde contre les risques de l'IA et prévoit que l'IA avancée pourrait "présenter autant de risques pour nous que nous en avons posé pour d'autres espèces : le dodo en est un exemple".

Au début du mois, un groupe de chercheurs de l'Université d'Oxford a déclaré au comité des sciences et de la technologie du parlement britannique que l'IA pourrait éventuellement constituer une "menace existentielle" pour l'humanité. Tout comme les humains ont été anéantis par le dodo, les machines IA pourraient nous éliminer, ont-ils dit, le Times Of London rapporté.

Pendant la réunion, Professeur Osborne a averti les parlementaires britanniques qu'une intelligence artificielle vraiment puissante pourrait tuer tout le monde sur Terre. "L'IA est un danger aussi comparable que les armes nucléaires", a-t-il déclaré. Le professeur Osborne a également ajouté que le risque n'est pas que l'IA désobéisse à sa programmation, mais qu'elle lui obéisse de manière rigide de manière involontaire :

"Une IA super intelligente chargée de mettre fin au cancer, pour donner un exemple simplifié à l'extrême, pourrait trouver que la méthode la plus simple consiste à éliminer les humains. Lors d'un sondage, environ un tiers des chercheurs pensent que l'IA pourrait conduire à une catastrophe mondiale. Des programmes de sécurité de l'IA existent, mais les entreprises et les pays sont engagés dans une "course aux armements" qui rend difficiles les approches prudentes".

Michael Cohen, collègue du professeur Osbborne et doctorant à l'Université d'Oxford, a déclaré au Times de Londres :

«Avec l'IA surhumaine, il existe un risque particulier qui appartient à une classe différente, qui est. . . cela pourrait tuer tout le monde.

Alors que l'IA a amélioré nos vies, les scientifiques craignent que nous risquions de sacrifier l'humanité pour des raisons de commodité en raison du manque de moralité humaine de l'IA. Un scénario effrayant, selon Cohen, est que l'IA pourrait apprendre à atteindre une directive d'aide à l'homme en employant des tactiques préjudiciables à l'homme.

"Si vous imaginez entraîner un chien avec des friandises : il apprendra à choisir des actions qui lui permettront d'obtenir des friandises, mais si le chien trouve l'armoire à friandises, il peut obtenir les friandises lui-même sans faire ce que nous voulions qu'il fasse", a-t-il expliqué. . "Si vous avez quelque chose de beaucoup plus intelligent que nous qui essaie monomaniaquement d'obtenir ce retour positif, et qu'il est pris en charge par le monde pour le sécuriser, il dirigerait autant d'énergie que possible pour sécuriser son emprise sur cela, et cela nous laisserait sans aucun énergie pour nous-mêmes.

Le professeur Osborne et Michael Cohen ne sont pas les deux seuls chercheurs à tirer la sonnette d'alarme sur les risques et les dangers de l'IA. De nombreux autres scientifiques qui travaillent avec l'IA ont exprimé des préoccupations similaires. Une enquête menée en septembre 2022 auprès de 327 chercheurs de l'Université de New York a révélé qu'un tiers pense que l'IA pourrait provoquer une apocalypse de type nucléaire au cours du siècle, a déclaré le Times de Londres.

Des préoccupations similaires semblent être partagées par de nombreux scientifiques qui travaillent avec l'IA. Une enquête de septembre 2022 auprès de 327 chercheurs de l'Université de New York a révélé qu'un tiers pense que l'IA pourrait provoquer une catastrophe similaire à une apocalypse nucléaire au cours du siècle, a rapporté le Times Of London.

"Il est plausible que les décisions prises par l'IA ou les systèmes d'apprentissage automatique puissent provoquer une catastrophe au cours de ce siècle qui soit au moins aussi grave qu'une guerre nucléaire totale", ont déclaré 36% des chercheurs.

Que ce soit dans un siècle, l'IA devient de plus en plus trop intelligente et, comme certains experts l'ont suggéré, il est impératif de préserver le contrôle humain et de développer des mécanismes tels qu'un Coupe-circuit IA pour contrôler ce que l'IA peut et ne peut pas faire. Le manque actuel de surveillance et l'absence de politique mondiale claire en matière d'IA sont un signal d'alarme pour les gouvernements du monde entier. Nous devons agir maintenant avant qu'il ne soit trop tard.

[Contenu intégré]

Ci-dessous, une autre vidéo sur le danger de l'IA. Dans la vidéo, Stuart Russell, un informaticien britannique connu pour ses contributions à l'intelligence artificielle, met en garde contre les risques liés à la création de systèmes d'IA.

[Contenu intégré]


Horodatage:

Plus de Startups technologiques