INTELIGENCIA ARTIFICIAL

Luis Sotillos: «El primer peligro de la inteligencia artificial es que sustituya a las personas»

Ver vídeo

En pleno debate sobre las bondades, riesgos y peligros de la inteligencia artificial (IA), en esta bisagra entre el mundo que conocemos y la distopía, Geoffrey Hinton acaba de renunciar a su cargo en Google para poder expresar abiertamente sus preocupaciones sobre cómo la IA y Sam Altman de decir que su mayor miedo es que causemos con la IA un daño significativo al mundo.

De hecho, ya ha adelantado que cree que no estamos tan lejos de una IA que dé miedo. Hoy ya hay máquinas capacitadas para comprender y analizar imágenes y vídeos. Se espera que se realicen avances mayores en áreas como el reconocimiento facial, la detección de objetos y la comprensión de escenas complejas. Neuralink, la empresa de Elon Musk, acaba de anunciar que ya tiene luz verde para probar sus implantes cerebrales en humanos (en principio para curar algunos tipos de parálisis y unos casos de insomnio; aunque el universo de capacidades y mejoras se divisa, como todos los universos, infinito).

Conviene recordar, como les digo en el vídeo, las palabras de Claude Shannon, padre del bit y de la teoría de la información, afirmando (hace más de medio siglo) que visualizaba un momento en el que seremos para los robots lo que los perros son para los humanos. Él no tenía dudas. Apostaba por las máquinas. ¿Llegará esa era? Las preguntas para cada uno de nosotros son numerosas. Los interrogantes ante ellas, innumerables. ¿Subirías tu cerebro a la nube con la idea de un día transferirlo a otro cuerpo?, ¿te implantarías un chip en el cerebro para ser más inteligente o tener más capacidades?

La clave es regular los límites que demarquen hasta dónde se puede llegar para que su desarrollo y aplicación sean éticos y responsables (al menos, hasta donde lo deseemos los humanos). El propio Altman solicita unos límites legales más estrictos para la IA. Los límites son necesarios. Sobre todo en ​ temas como el sesgo algorítmico, la privacidad de los datos y la toma de decisiones éticas en sistemas autónomos. La brecha está abierta. ¿Qué ocurre si no hay una regulación mundial y cada país hace la suya (si es que la hacen)? En Europa y EEUU las regulaciones que se preven para los siguientes meses pretenden controlar el desarrollo de la IA porque los peligros son numerosos. El primero de ellos es la sustitución de personas por IA en el mercado laboral, nos lo cuenta Luis Sotillos economista y consultor de compañías sobre tecnología e IA. «Lo importante de la IA es que los humanos nos liberemos de las tareas repetitivas», nos dice.

El temor principal sobre la IA ahora mismo es la creación de IA de carácter general (hacer todo lo que hace un ser humano, pero con mayor efectividad). Parece, según nos cuenta Luis Sotillos, lo más cercano que tenemos ahora mismo es la inclusión de IA de forma limitada en las aplicaciones que conocemos y usamos actualmente. Veremos qué nos espera. Ponemos algo de luz en esta entrevista.

Lo último en Ciencia

Últimas noticias