Ellie Abraham
El físico Stephen Hawking lanzó una severa advertencia a la humanidad antes de su muerte sobre las capacidades y la amenaza de la inteligencia artificial.
El astrofísico falleció en 2018, pero antes de su muerte nos advirtió sobre cómo podría caer la humanidad, incluyendo una advertencia contra intentar comunicarse con civilizaciones alienígenas. Mucho antes de que la mayoría de nosotros supiéramos siquiera qué era la inteligencia artificial, Hawking ya iba un paso por delante, e intentó advertirnos sobre lo que podría depararnos un futuro con IA.
En una entrevista con la BBC en 2014, Hawking sugirió: “El desarrollo total de la inteligencia artificial podría significar el fin de la raza humana”.
Aunque la tecnología apenas estaba empezando a surgir, Hawking tuvo la previsión de teorizar sobre cómo podría desarrollarse y afectar nuestras vidas, especialmente si superaba a la inteligencia humana. Explicó que “despegaría por sí sola y se rediseñaría a un ritmo cada vez mayor”, y añadió: “Los humanos, limitados por la lenta evolución biológica, no podrían competir y serían sustituidos”.
En 2015, Hawking fue uno de los aproximadamente 100 expertos que firmaron una carta abierta a la ONU advirtiendo sobre los peligros del desarrollo sin control de la inteligencia artificial. Asimismo, en 2017, un año antes de su muerte, declaró a la revista Wired: “Me temo que la IA podría reemplazar por completo a los humanos”.
En su libro Brief Answers to the Big Questions (Respuestas breves a las grandes preguntas), publicado pocos meses después de su muerte, profundizó aún más en la amenaza y escribió: “Podríamos enfrentarnos a una explosión de IA que, en última instancia, daría lugar a máquinas cuya inteligencia superaría a la nuestra en mayor medida de lo que la nuestra supera a la de los caracoles”.
Concluyó: “Es tentador descartar la idea de las máquinas altamente inteligentes como mera ciencia ficción, pero sería un error, y posiblemente el peor error de nuestra historia”.

