Baidu está implementando un fondo de inteligencia artificial de capital de riesgo de $ 145 millones

Baidu está implementando un fondo de inteligencia artificial de capital de riesgo de $ 145 millones

Nodo de origen: 2119941

El miércoles, un alto funcionario de la UE dijo que la Unión Europea y Estados Unidos esperan redactar un código de conducta voluntario sobre inteligencia artificial en unas semanas. La medida se produce en medio de preocupaciones sobre los riesgos potenciales de la IA para la humanidad, y a medida que se intensifican los llamados a la regulación.

La vicepresidenta de la Comisión Europea, Margrethe Vestager, dijo que Estados Unidos y la Unión Europea deberían promover un código de conducta voluntario para que la IA brinde salvaguardas a medida que se desarrolla una nueva legislación.

Ella habló en una reunión del Consejo de Comercio y Tecnología (TTC) UE-EE. UU., que está dirigido conjuntamente por funcionarios estadounidenses y europeos. Cualquier nueva regla sobre IA no entrará en vigencia hasta al menos después de tres años, dijo. Por lo tanto, se espera que el código cierre esa brecha.

Lea también: El jefe antimonopolio de la UE intensifica la retórica sobre el metaverso y la regulación de la IA

Tecnología de IA revolucionaria

“Necesitamos inteligencia artificial responsable. La IA generativa es un cambio de juego completo”, dijo Vestager después de la reunión del consejo en Suecia, AP reportaron.

“Todos saben que esta es la próxima cosa poderosa. Entonces, en las próximas semanas, avanzaremos un borrador de un código de conducta de IA”.

Ella dijo que los funcionarios recopilarán comentarios de las empresas que desarrollan y usan IA y otros actores de la industria. Vestager espera que haya una propuesta final "muy, muy pronto para que la industria se comprometa voluntariamente".

El secretario de Estado de EE. UU., Antony Blinken, dijo que tuvo una discusión "intensa y productiva" sobre IA con sus homólogos europeos en el foro TTC.

“[El consejo tiene] un papel importante que desempeñar para ayudar a establecer códigos de conducta voluntarios que estarían abiertos a todos los países de ideas afines”, dijo Blinken.

La IA podría acabar con la raza humana

El desarrollo de la IA ha suscitado preocupaciones sobre su potencial para ser utilizada con fines nocivos, como la discriminación, la vigilancia y la guerra nuclear. También ha habido preocupaciones sobre el potencial de la IA para crear desempleo masivo.

Como MetaNews anteriormente reportaron, uno de los temas centrales es lo que los expertos describen como el “problema de alineación”. Esencialmente, el problema se refiere a la dificultad de garantizar que las metas y objetivos de un sistema de IA estén alineados con los de sus creadores humanos.

Los críticos dicen que el peligro es que un sistema de IA pueda desarrollar sus propias metas y objetivos que entren en conflicto con los de sus creadores, lo que lleva a resultados desastrosos. El martes, unos 350 científicos y expertos firmaron un ambiental pidiendo que la regulación de la IA sea una prioridad global.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, afirma el comunicado.

La declaración es del Center for AI Safety, una organización sin fines de lucro con sede en San Francisco. Fue firmado por los directores ejecutivos de Google DeepMind y los creadores de ChatGPT OpenAI, junto con otras figuras importantes en la investigación de inteligencia artificial.

En mayo, los líderes de las llamadas naciones del G7 se reunieron en Japón y pidieron el desarrollo de estándares técnicos para mantener la IA como "confiable". Instaron al diálogo internacional sobre la gobernanza de la IA, los derechos de autor, la transparencia y la amenaza de la desinformación.

Según la Vestager, se necesitan acuerdos específicos, no solo declaraciones generales. Sugirió que la UE de 27 naciones y los EE. UU. podrían ayudar a impulsar el proceso.

“Si los dos tomamos la iniciativa con amigos cercanos, creo que podemos impulsar algo que nos hará sentir mucho más cómodos con el hecho de que la IA generativa ahora está en el mundo y se está desarrollando a velocidades asombrosas”, dijo.

Preocupación mundial

Estados Unidos y la Unión Europea no son las únicas jurisdicciones que trabajan en la regulación de la IA. La Administración del Ciberespacio de China ya emitió nuevas regulaciones que prohíben el uso de contenido generado por IA para difundir “noticias falsas."

En Australia, el ministro de Industria y Ciencia, Ed Husic, dijo que la regulación llegará pronto.

"Hay una especie de sentimiento en la comunidad de que quieren tener la seguridad... de que la tecnología no se está adelantando a sí misma y no se está utilizando de una manera que cree desventajas o riesgos para las personas", dijo. conforme a los informes de los medios locales.

“Es por eso que el [gobierno federal] quiere establecer las próximas reformas que puedan dar confianza a la gente de que estamos reduciendo los riesgos y maximizando los beneficios”.

Sello de tiempo:

Mas de MetaNoticias