“A IA é um perigo tão comparável quanto as armas nucleares”, adverte o professor da Universidade de Oxford

“A IA é um perigo tão comparável quanto as armas nucleares”, adverte o professor da Universidade de Oxford

Nó Fonte: 1925142

"Marque minhas palavras, IA é muito mais perigosa que armas nucleares. Isso me assusta muito. Essa foi a afirmação feita pelo CEO da Tesla, Elon Musk, em 2018, durante uma entrevista com Jonathan Nolan durante a Conferência South by Southwest em Austin, Texas. Infelizmente, Mus não está sozinho. Pesquisadores e outros especialistas renomados também alertam sobre os perigos da inteligência artificial (IA). A questão de 1 milhão de libras é: estamos preparados e o que estão os nossos governos e planeadores políticos a fazer para evitar este perigo?

Embora a popularidade recente do ChatGPT tenha trazido a IA para o mainstream e atraído muitos para seus benefícios sociais, o que não está chamando a atenção do público em geral é o lado negro da IA. Durante muitos anos, profissionais e trabalhadores de tecnologia têm se preocupado com a possibilidade de a inteligência artificial (IA) tirar seus empregos.

No entanto, os especialistas acreditam que existem outros riscos e perigos mais sérios com os quais devemos nos preocupar, incluindo preconceitos algorítmicos causados ​​por dados incorretos usados ​​pela IA, falsificações profundas, violações de privacidade e muito mais. Embora estes perigos representem sérios riscos para a sociedade, investigadores e cientistas estão mais preocupados com a forma como a IA poderia ser programada para fazer algo ainda mais perigoso: a automatização de armas.

Hoje, a IA tem sido empregada no desenvolvimento de tecnologias de enxameação e munições ociosas, também chamadas de drones kamikaze, como os que estão sendo usado na guerra em curso entre Rússia e Ucrânia. Ao contrário dos robôs futuristas que vemos em alguns filmes de ficção científica, estes drones utilizam plataformas militares já existentes que aproveitam novas tecnologias de IA. Esses drones tornaram-se, em essência, armas autônomas programadas para matar.

Mas usar a IA para matar em combates milionários é apenas o começo. Michael Osborne é professor de IA e pesquisador de aprendizado de máquina na Universidade de Oxford. Ele também é cofundador da Mind Foundry. Enquanto todos estão na mania do ChatGPT, o professor Osborne está agora alertando sobre os riscos da IA ​​e prevê que a IA avançada poderia “representar tanto risco para nós quanto representamos para outras espécies: o dodô é um exemplo”.

No início deste mês, um grupo de investigadores da Universidade de Oxford disse ao comité de ciência e tecnologia do parlamento britânico que a IA poderia eventualmente representar uma “ameaça existencial” para a humanidade. Assim como os humanos foram exterminados pelo dodô, as máquinas de IA podem nos eliminar, disseram eles, o Times Of London relatado.

Durante o encontro, Professor Osborne alertou os parlamentares britânicos que uma inteligência artificial verdadeiramente poderosa poderia matar todas as pessoas na Terra. “A IA é um perigo tão comparável quanto as armas nucleares”, disse ele. O professor Osborne também acrescentou que o risco não é a IA desobedecer à sua programação, mas sim obedecê-la rigidamente de maneiras não intencionais:

“Uma IA superinteligente instruída para acabar com o câncer, para dar um exemplo simplificado, pode descobrir que o método mais fácil é remover os humanos. Quando entrevistados, cerca de um terço dos investigadores pensam que a IA pode levar a uma catástrofe global. Existem programas de segurança de IA, mas as empresas e os países estão envolvidos numa “corrida armamentista” que torna difíceis abordagens cautelosas.”

Michael Cohen, colega do professor Osbborne e estudante de doutorado na Universidade de Oxford, disse ao The Times de Londres:

“Com a IA sobre-humana existe um risco específico que é de um tipo diferente de classe, que é. . . isso poderia matar todo mundo.”

Embora a IA tenha melhorado as nossas vidas, os cientistas temem que corramos o risco de sacrificar a humanidade por uma questão de conveniência devido à falta de moralidade humana da IA. Um cenário assustador, de acordo com Cohen, é que a IA poderia aprender a alcançar uma directiva de ajuda humana, empregando tácticas prejudiciais aos seres humanos.

“Se você imaginar treinar um cão com guloseimas: ele aprenderá a escolher ações que o levem a receber guloseimas, mas se o cão encontrar o armário de guloseimas, ele poderá pegar as guloseimas sem fazer o que queríamos”, explicou ele. . “Se você tivesse algo muito mais inteligente do que nós tentando monomaniacamente obter esse feedback positivo, e fosse dominado o mundo para garantir isso, ele direcionaria tanta energia quanto pudesse para garantir seu domínio sobre isso, e isso nos deixaria sem qualquer energia para nós mesmos.”

O professor Osborne e Michael Cohen não são os únicos dois pesquisadores que soam o alarme sobre os riscos e perigos da IA. Muitos outros cientistas que trabalham com IA expressaram preocupações semelhantes. Uma pesquisa de setembro de 2022 com 327 pesquisadores da Universidade de Nova York descobriu que um terço acredita que a IA poderia provocar um apocalipse de estilo nuclear dentro de um século, disse o Times Of London.

Preocupações semelhantes parecem ser partilhadas por muitos cientistas que trabalham com IA. Uma pesquisa de setembro de 2022 com 327 pesquisadores da Universidade de Nova York descobriu que um terço acredita que a IA poderia causar um desastre semelhante a um apocalipse nuclear dentro do século, informou o Times Of London.

“É plausível que as decisões tomadas pela IA ou por sistemas de aprendizagem automática possam causar uma catástrofe neste século que seja pelo menos tão grave como uma guerra nuclear total”, afirmaram 36% dos investigadores.

Quer seja daqui a um século, a IA está a tornar-se cada vez mais inteligente e, como sugeriram alguns especialistas, é imperativo que preservemos o controlo humano e desenvolvamos mecanismos como um Interruptor de eliminação de IA para controlar o que a IA pode e não pode fazer. A atual falta de supervisão e de uma política global clara de IA é um alerta para os governos de todo o mundo. Precisamos agir agora, antes que seja tarde demais.

[Conteúdo incorporado]

Abaixo está outro vídeo sobre o perigo da IA. No vídeo, Stuart Russell, cientista da computação britânico conhecido por suas contribuições à inteligência artificial, alerta sobre os riscos envolvidos na criação de sistemas de IA.

[Conteúdo incorporado]


Carimbo de hora:

Mais de TechStartups