Connect with us

TECNOLOGÍA

La Inteligencia Artificial podría causar la extinción humana, afirman los expertos

Comparte con amigos

En los últimos meses, muchos expertos y ejecutivos de IA han hecho sonar la alarma sobre los peligros del desarrollo avanzado de IA. La última salva es una nueva declaración de 22 palabras que equipara el riesgo global de la IA con el de las pandemias y la guerra nuclear. No todos los expertos están preocupados, y algunos dicen que la IA no está lo suficientemente avanzada como para acabar con la existencia humana.

Muchas personas están preocupadas por el futuro de la IA, incluidas las mentes involucradas en la creación de ese mismo futuro. Los ejecutivos tecnológicos y los directores ejecutivos de corporaciones de IA, incluidas empresas como OpenAI y Deepmind, firmaron una declaración simple pero inquietante de 22 palabras sobre los peligros potenciales de la IA: “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

La declaración es deliberadamente vaga y evita detalles sobre cómo mitigar este riesgo creciente debe ser una prioridad, pero la declaración muestra un alto nivel de preocupación por la IA entre las mismas personas detrás de la tecnología floreciente. La declaración, publicada en el Centro para la Seguridad de la IA, es una “salida del armario” para los expertos en IA preocupados por el futuro de la tecnología, según el director ejecutivo del centro, Dan Hendrycks.

“Hay un concepto erróneo muy común, incluso en la I.A. comunidad, que solo hay un puñado de doomers [sic]”, dijo Hendrycks a The New York Times. “Pero, de hecho, muchas personas en privado expresarían su preocupación por estas cosas”.

Las amenazas de la IA no son necesariamente que una forma de vida artificial súper avanzada esclavice y extermine a la humanidad como en The Terminator. El sitio web del Centro para la Seguridad de la IA detalla una visión más sutil de nuestra perdición, incluido el papel potencial de la IA en el diseño de armas químicas más efectivas, las campañas de desinformación y la exacerbación de la desigualdad social.

Estas preocupaciones no son nada nuevo. Los temores sobre la IA son casi tan antiguos como el inicio de la tecnología y han jugado un papel importante en la ciencia ficción durante casi un siglo. Isaac Asimov creó las Tres leyes de la robótica en 1942, y en la novela de ciencia ficción Dune de 1965, la IA está completamente prohibida en toda la galaxia conocida en un intento por salvar a la humanidad.

En marzo, los líderes tecnológicos, incluido Elon Musk (un portavoz de larga data de los peligros de la IA) y otros importantes investigadores de IA, pidieron una moratoria de seis meses en la investigación de IA “más poderosa que GPT-4”, la última versión del gran modelo multimodal de OpenAI. . En abril, la Asociación para el Avance de la Inteligencia Artificial publicó su propia carta instando al desarrollo de formas de “garantizar que la sociedad pueda cosechar la gran promesa de la IA mientras gestiona sus riesgos”. Y a principios de este mes, el experto en IA Geoffrey Hinton, conocido como el “padre de la IA”, expresó de manera similar sus temores sobre el crecimiento de la tecnología, y llegó a decir que lamentaba el trabajo de su vida.

No todos los expertos en IA se están uniendo a la discusión. Un científico informático de la Universidad de Princeton le dijo a la BBC que “la IA actual no es lo suficientemente capaz para que estos riesgos se materialicen. Como resultado, distrae la atención de los daños a corto plazo de la IA”, como su comportamiento sesgado y excluyente. Independientemente, tanto Microsoft como OpenAI han pedido al gobierno de los EE. UU. que regule el desarrollo de la IA, y el subcomité judicial del Senado celebró un panel sobre la supervisión de la IA a mediados de mayo.

El futuro pesimista de la IA aún no está escrito, y algunos ejecutivos y expertos en tecnología están tratando de mantenerlo así.

Continue Reading
Advertisement