Inteligencia Artificial

Altman lo advierte: la IA fuera de control podría acabar con la humanidad de forma inminente

Esta es la gran amenaza para la humanidad de la IA según los expertos

La inteligencia emocional en las máquinas: ¿es posible la empatía artificial?

Altman lo advierte: la IA fuera de control podría acabar con la humanidad de forma inminente
La inteligencia artificial.
Gemma Meca
  • Gemma Meca
  • Licenciada en Historia, máster en Periodismo y Comunicación Digital. Redactora en Ok Diario. Cuento historias, soy amante de los astros, sigo a la luna, los TT de Twitter y las tendencias en moda. Experta en noticias de consumo, lifestyle, recetas y Lotería de Navidad.

La IA representa una amenaza para toda la humanidad, podría acabar con la humanidad de forma inminente tal y como advierte Altman. Uno de los expertos y principales impulsores de un tipo de sistema que ha acabado siendo un problema para muchos. Esta nueva realidad a la que nos enfrentamos. Ese futuro que parecía propio de una película es, hoy en día una dura realidad que debemos empezar a poner en práctica y que realmente podría cambiarlo todo, sin duda alguna, nos espera un futuro nada bueno.

Los riesgos de la Inteligencia Artificial los hemos visto en unas películas que han acabado siendo una dure realidad. Lo que tenemos por delante, puede acabar siendo la antesala de algo más, un primer paso para poder afianzar algunos nuevos retos que serán una realidad y que puede acabar siendo lo que marque un antes y un después. Ha llegado el momento de empezar a pensar en el futuro de la humanidad con una IA que puede escaparse de su control y que preocupa a los expertos. Bill Gates, ya ha dado algunas señales de cambio en su discurso y otro de los visionarios, Altman ya advierte del peligro que todos corremos.

Lo advierte Altman

Altman es el genio que está detrás de la OpenAI que se nos presenta como: «OpenAI es una empresa estadounidense de investigación y despliegue de inteligencia artificial fundada en 2015 e, inicialmente, sin ánimo de lucro. Su misión original era asegurar que la inteligencia artificial general fuese desarrollada como código libre y en beneficio de toda la humanidad. No obstante, en 2019 se convirtió en una empresa híbrida, con una entidad sin ánimo de lucro y otra con fines lucrativos. Desde entonces cuenta con varios inversores como Microsoft, ​que proporcionó a OpenAI una inversión de mil millones de dólares en 2019 y otra de diez mil millones en 2023.3​4​ Además, los sistemas informáticos de OpenAI se ejecutan en una plataforma de supercomputación basada en Azure, producto de Microsoft.»

Con este hombre que no terminó sus estudios de informática en Stanford, debemos tener en cuenta que forma parte de los primeros que apostó directamente por esta nueva tecnología. El Elon Musk o el Mark Zuckerberg de la Inteligencia Artificial tiene muy claro que una IA fuera de control podría acabar con la humanidad.

La IA fuera de control podría acabar con la humanidad de forma inminente

La humanidad puede tener los días o las horas contados, depende de cómo se mire, los peores miedos surgen de una nueva Inteligencia Artificial que podría acabar con todos nosotros. Al más puro estilo Terminator, quizás estamos a las puertas de un cambio en la humanidad que debemos evitar a toda costa.

Altman forma parte del grupo Center for AI Safety que según sus bases: «Los expertos en IA, los periodistas, los responsables de las políticas y el público en general están debatiendo cada vez más sobre un amplio espectro de riesgos importantes y urgentes que plantea la IA. Aun así, puede resultar difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada. La breve declaración que figura a continuación tiene como objetivo superar este obstáculo y abrir el debate. También pretende crear un conocimiento común entre el creciente número de expertos y figuras públicas que también se toman en serio algunos de los riesgos más graves de la IA avanzada».

Los principales riesgos de esta IA siguiendo esto grupo serían:

  • Uso malintencionado : las personas podrían utilizar de forma intencionada inteligencias artificiales potentes para causar daños generalizados. La inteligencia artificial podría utilizarse para diseñar nuevas pandemias o con fines de propaganda, censura y vigilancia, o podría liberarse para perseguir de forma autónoma objetivos dañinos. Para reducir estos riesgos, sugerimos mejorar la bioseguridad, restringir el acceso a modelos de inteligencia artificial peligrosos y responsabilizar a los desarrolladores de inteligencia artificial de los daños que puedan causar.
  • Carrera de la IA : la competencia podría empujar a las naciones y corporaciones a apresurar el desarrollo de la IA, cediendo el control a estos sistemas. Los conflictos podrían salirse de control con las armas autónomas y la ciberguerra habilitada por la IA. Las corporaciones se enfrentarán a incentivos para automatizar el trabajo humano, lo que podría conducir al desempleo masivo y a la dependencia de los sistemas de IA. A medida que proliferen los sistemas de IA, la dinámica evolutiva sugiere que serán más difíciles de controlar. Recomendamos regulaciones de seguridad, coordinación internacional y control público de las IA de propósito general.
  • Riesgos organizacionales : existen riesgos de que las organizaciones que desarrollan IA avanzada provoquen accidentes catastróficos, en particular si priorizan las ganancias sobre la seguridad. Las IA podrían filtrarse accidentalmente al público o ser robadas por actores maliciosos, y las organizaciones podrían no invertir adecuadamente en investigación sobre seguridad. Sugerimos fomentar una cultura organizacional orientada a la seguridad e implementar auditorías rigurosas, defensas de riesgo de múltiples capas y seguridad de la información de última generación.
  • IA rebeldes : corremos el riesgo de perder el control sobre las IA a medida que se vuelven más capaces. Las IA podrían optimizar objetivos defectuosos, desviarse de sus metas originales, volverse ávidas de poder, resistirse a ser desconectadas y participar en engaños. Sugerimos que las IA no se implementen en entornos de alto riesgo, como perseguir de forma autónoma objetivos abiertos o supervisar infraestructuras críticas, a menos que se demuestre que son seguras. También recomendamos avanzar en la investigación sobre seguridad de la IA en áreas como la solidez frente a adversarios, la honestidad de los modelos, la transparencia y la eliminación de capacidades no deseadas.

Lo último en Curiosidades

Últimas noticias