Le danger du nouveau supercalculateur de Meta est l'entreprise derrière lui

Nœud source: 1884057

Avez-vous manqué une session du dernier événement de GamesBeat ? Rendez-vous sur la page GamesBeat & Facebook Gaming Summit & GamesBeat Summit: Into the Metaverse 2 On Demand ici.


Fin janvier, Meta — la maison mère de Facebook — annoncé il travaillait sur un supercalculateur d'intelligence artificielle qui sera le plus rapide au monde après son achèvement cet été. La Supercluster de recherche en IA, ou RSC, aidera l'entreprise à créer de nouveaux modèles d'IA qui pourraient éventuellement former l'épine dorsale du métaverse. 

L'annonce a renouvelé le débat sur l'éthique de l'ajout d'un autre supercalculateur avancé à notre arsenal de technologies à grande échelle en émergence rapide. Les réactions au RSC allaient de "effrayant" à "dystopique".

Mais l'évolution de la technologie n'est pas le problème. Au lieu de cela, ce sont les humains derrière cela - comme les PDG obsédés par le profit qui ont accès à des trésors de données sur les consommateurs - qui devraient nous préoccuper.

Les chefs d'entreprise adoptent de plus en plus la technologie de l'IA pour rendre leurs opérations plus efficaces, augmenter la productivité, stimuler l'innovation et attirer davantage de clients. Dans un sondage réalisé auprès de dirigeants d'entreprise l'année dernière, plus de 85% ont déclaré que l'IA est en train de devenir une "technologie grand public" dans leur entreprise. 

L'IA fait désormais partie intégrante de notre quotidien. Il est utilisé pour organiser le contenu suggéré sur Netflix et Spotify. Il permet d'estimer la vitesse du trafic sur les applications de navigation. Lorsque vous saisissez une question dans Google, l'IA parcourt Internet à la recherche de contenu pertinent.

Parce que nous rencontrons désormais l'IA au quotidien, les lacunes et les implications éthiques de la technologie ont été de plus en plus portées aux yeux du public.

Les tristement célèbres dénonciateurs de Facebook l'automne dernier ont déclenché des audiences du Congrès et un examen accru des algorithmes de la plate-forme de médias sociaux. Des documents internes ont révélé que Facebook utilise sciemment l'IA pour pousser les utilisateurs vers un contenu radical afin de stimuler l'engagement des utilisateurs. L'entreprise dit maintenant il espère utiliser l'IA pour résoudre ces problèmes.

Il y a eu une indignation à la fin de l'année dernière lorsque Alexa d'Amazon a dit à une fille de 10 ans de brancher un chargeur de téléphone à mi-chemin dans une prise et de toucher un centime sur les broches exposées. L'assistant vocal aurait trouvé le défi "sur le Web."

Des considérations éthiques comme celles-ci et bien d'autres - des effets des préjugés raciaux de l'IA aux préoccupations concernant la confidentialité et la surveillance - prendront plus d'importance à mesure que l'IA continuera de progresser. Et la prochaine génération d'intelligence artificielle émerge rapidement.

OpenAI d'Elon Musk et DeepMind de Google prétendent développer l'intelligence générale artificielle - une technologie autonome qui peut apprendre et comprendre les tâches humaines intellectuelles. Le système d'OpenAI a écrit un essai convaincant pourquoi le recyclage est mauvais pour le monde. Le supercalculateur de Meta tombe clairement en panne la même route.

Et puis il y a l'intelligence artificielle générale - une IA qui ne se limite pas à quelques capacités spécifiques, mais qui peut apprendre une variété de tâches différentes, tout comme les humains. (Ma propre entreprise, FutureAI, est dans cet espace.) Il y a certainement des risques liés à la technologie AGI. Puisque l'IAG peut apprendre indépendamment des humains, elle dépassera un jour de loin l'intelligence humaine. Mais avant de commencer à nous inquiéter des scénarios apocalyptiques mettant en scène des armées de robots de type Terminator, nous devons nous rappeler que les humains seront ceux qui programmeront et exploiteront les AGI.

L'IA et son futur cousin plus général AGI sont des systèmes orientés vers un objectif. Cela signifie que le comportement des AGI sera le résultat direct des objectifs que les humains leur donnent. Si nous programmons des AGI avec des objectifs humains de richesse, d'argent et de pouvoir, alors ils auront des défauts potentiellement dangereux et humains. 

Il n'est pas difficile d'imaginer un scénario dans lequel cela se produit. Nous avons déjà été témoins des conséquences - ingérence électorale et autres efforts pour influencer l'opinion, par exemple - de l'intelligence artificielle tombant entre de mauvaises mains. 

Avec une technologie de plus en plus intelligente, les acteurs malveillants pourraient plus efficacement créer des profits ou prendre le contrôle politique. Si, par exemple, les PDG commençaient à expérimenter des systèmes AGI qui pourraient monétiser les données des consommateurs encore plus efficacement, nous pourrions avoir des raisons de nous inquiéter. 

Mais si les humains entraînent les systèmes AGI à poursuivre des objectifs d'exploration et de découverte, ils seront plus bénins. Dans ce scénario, les AGI découvriront des phénomènes au-delà de la compréhension humaine.

Bien sûr, il est impossible de garantir que l'avenir d'AGI sera entièrement positif. Il y a toujours une possibilité que des pirates puissent usurper les systèmes AGI. Et puisque l'AGI sera éventuellement capable de concevoir par elle-même des générations successives, les humains auront peu de contrôle sur elle à ce stade, quels que soient les objectifs que les humains lui ont initialement prescrits.

C'est pourquoi il nous incombe de diriger les premières générations d'AGI avec des objectifs bienveillants. Lorsqu'ils commenceront à créer leurs propres générations futures, les AGI suivront les mêmes règles de bonne humeur que nous avons suivies en les créant.

À l'heure actuelle, la réalité est que Meta ne peut pas être empêché de développer son supercalculateur IA, et la société a mis d'énormes ressources derrière sa poursuite du métaverse. Mais cela pourrait changer. Méta juste perdu $ 200 milliards de sa valeur marchande en raison d'une baisse du nombre d'utilisateurs de Facebook. Ainsi, alors que des problèmes éthiques émergent avec le métaverse AI et sont largement médiatisés, nous pouvons nous attendre à ce que Meta soit également maîtrisé par ses utilisateurs.

Plus important encore, il y a sans aucun doute des systèmes d'IA encore plus intelligents à venir sur les talons du supercalculateur de Meta. Bien que nous ne puissions pas arrêter la demande insatiable de technologies avancées, nous pouvons choisir comment - et qui - programmera celles qui restent à venir.

Charles J. Simon est fondateur et PDG de FutureIA, une société de technologie profonde en phase de démarrage basée à DC qui développe l'intelligence artificielle générale.

La mission de VentureBeat est d'être une place publique numérique permettant aux décideurs techniques d'acquérir des connaissances sur la technologie d'entreprise transformatrice et d'effectuer des transactions. En savoir plus

Source : https://venturebeat.com/2022/02/04/the-danger-of-metas-new-supercomputer-is-the-company-behind-it/

Horodatage:

Plus de AI - VentureBeat