“La IA es un peligro comparable al de las armas nucleares”, advierte profesor de la Universidad de Oxford

“La IA es un peligro comparable al de las armas nucleares”, advierte profesor de la Universidad de Oxford

Nodo de origen: 1925142

"Recuerda lo que te digo, La IA es mucho más peligrosa que las armas nucleares. Me asusta muchísimo. Esa fue la declaración que hizo el CEO de Tesla, Elon Musk, en 2018 durante una entrevista con Jonathan Nolan durante la Conferencia South by Southwest en Austin, Texas. Desafortunadamente, Mus no está solo. Investigadores y otros expertos de renombre también advierten sobre los peligros de la inteligencia artificial (IA). La pregunta del millón de libras es si estamos preparados y qué están haciendo nuestros gobiernos y planificadores de políticas para evitar este peligro.

Si bien la reciente popularidad de ChatGPT ha llevado a la IA a la corriente principal y ha atraído a muchos a sus beneficios sociales, lo que no está captando la atención del público en general es el lado oscuro de la IA. Durante muchos años, los profesionales y los trabajadores tecnológicos se han preocupado por la posibilidad de que la inteligencia artificial (IA) les quite sus puestos de trabajo.

Sin embargo, los expertos creen que hay otros riesgos y peligros más graves de los que preocuparse, incluido el sesgo algorítmico causado por datos incorrectos utilizados por la IA, falsificaciones profundas, violaciones de la privacidad y muchos más. Si bien estos peligros representan serios riesgos para la sociedad, los investigadores y científicos están más preocupados por cómo la IA podría programarse para hacer algo aún más peligroso: la automatización de armas.

Hoy en día, la IA se ha empleado en el desarrollo de tecnologías de enjambre y municiones merodeadoras, también llamadas drones kamikaze como los que están siendo utilizado en la guerra en curso entre Rusia y Ucrania. A diferencia de los robots futuristas que ves en algunas películas de ciencia ficción, estos drones utilizan plataformas militares previamente existentes que aprovechan las nuevas tecnologías de IA. Estos drones se han convertido en esencia en armas autónomas que están programadas para matar.

Pero usar inteligencia artificial para matar en combate militar es solo el comienzo. Michael Osborne es profesor de inteligencia artificial e investigador de aprendizaje automático en la Universidad de Oxford. También es cofundador de Mind Foundry. Si bien todos están en la locura de ChatGPT, el profesor Osborne ahora advierte sobre los riesgos de la IA y pronostica que la IA avanzada podría "representar tanto riesgo para nosotros como lo hemos planteado para otras especies: el dodo es un ejemplo".

A principios de este mes, un grupo de investigadores de la Universidad de Oxford le dijo al comité de ciencia y tecnología del parlamento británico que la IA eventualmente podría representar una "amenaza existencial" para la humanidad. Así como el dodo aniquiló a los humanos, las máquinas de IA podrían eliminarnos, dijeron, el Times Of London. reportaron.

Durante la reunión, Profesor Osborne advirtió a los parlamentarios británicos que una inteligencia artificial verdaderamente poderosa podría matar a todos en la Tierra. “La IA es un peligro tan comparable como las armas nucleares”, dijo. El profesor Osborne también agregó que el riesgo no es que la IA desobedezca su programación, sino que la obedezca rígidamente de manera no intencionada:

“Una IA superinteligente a la que se le ordena acabar con el cáncer, para dar un ejemplo demasiado simplificado, podría encontrar el método más fácil para eliminar a los humanos. Al ser encuestados, alrededor de un tercio de los investigadores cree que la IA podría conducir a una catástrofe global. Existen programas de seguridad de IA, pero las empresas y los países están inmersos en una “carrera armamentista” que dificulta los enfoques cautelosos”.

Michael Cohen, colega del profesor Osbborne y estudiante de doctorado en la Universidad de Oxford, le dijo a The Times of London:

“Con la IA sobrehumana existe un riesgo particular que es de un tipo diferente de clase, que es. . . podría matar a todos”.

Si bien la IA ha mejorado nuestras vidas, los científicos temen que corramos el riesgo de sacrificar a la humanidad por conveniencia debido a la falta de moralidad humana de la IA. Un escenario aterrador, según Cohen, es que la IA podría aprender a lograr una directiva de ayuda humana empleando tácticas de daño humano.

“Si imaginas entrenar a un perro con golosinas: aprenderá a elegir acciones que lo lleven a obtener golosinas, pero si el perro encuentra el armario de golosinas, puede obtener las golosinas sin hacer lo que queríamos que hiciera”, explicó. . “Si tienes algo mucho más inteligente que nosotros tratando monomaníacamente de obtener esta retroalimentación positiva, y se apodera del mundo para asegurar eso, dirigiría tanta energía como pudiera para asegurar su control sobre eso, y eso nos dejaría sin ninguna energía para nosotros mismos.”

El profesor Osborne y Michael Cohen no son los únicos dos investigadores que hacen sonar la alarma sobre los riesgos y peligros de la IA. Muchos otros científicos que trabajan con IA han expresado preocupaciones similares. Una encuesta de septiembre de 2022 de 327 investigadores de la Universidad de Nueva York encontró que un tercio cree que la IA podría provocar un apocalipsis de estilo nuclear dentro del siglo, dijo el Times de Londres.

Muchos científicos que trabajan con IA parecen compartir preocupaciones similares. Una encuesta de septiembre de 2022 de 327 investigadores de la Universidad de Nueva York encontró que un tercio cree que la IA podría causar un desastre similar a un apocalipsis nuclear dentro del siglo, informó el Times de Londres.

“Es plausible que las decisiones tomadas por la IA o los sistemas de aprendizaje automático puedan causar una catástrofe este siglo que es al menos tan mala como una guerra nuclear total”, dijo el 36% de los investigadores.

Ya sea dentro de un siglo, la IA se está volviendo cada vez más inteligente y, como han sugerido algunos expertos, es imperativo que preservemos el control humano y desarrollemos mecanismos como un Interruptor de apagado de IA para controlar lo que la IA puede y no puede hacer. La actual falta de supervisión y la ausencia de una política global clara de IA es una llamada de atención para los gobiernos de todo el mundo. Tenemos que actuar ahora antes de que sea demasiado tarde.

[Contenido incrustado]

A continuación se muestra otro video sobre el peligro de la IA. En el video, Stuart Russell, un científico informático británico conocido por sus contribuciones a la inteligencia artificial, advierte sobre los riesgos que implica la creación de sistemas de IA.

[Contenido incrustado]


Sello de tiempo:

Mas de Startups tecnológicas