ImagÃnate un mundo donde la tecnologÃa no solo iguala, sino que supera por mucho la inteligencia humana en prácticamente cualquier tarea. No es el guion de una nueva pelÃcula de ciencia ficción, sino un futuro que, según muchos expertos, podrÃa estar a la vuelta de la esquina. Y es precisamente este escenario el que ha llevado a una coalición increÃblemente diversa de más de 800 personalidades a nivel mundial a decir: "un momento, vayamos más despacio".
Una carta abierta, promovida por la organización sin fines de lucro Future of Life Institute (FLI), está dando la vuelta al mundo. Su mensaje es directo y contundente: piden una prohibición sobre el desarrollo de la superinteligencia artificial (ASI) hasta que existan dos condiciones clave: un consenso cientÃfico amplio de que se puede hacer de forma segura y controlada, y un fuerte respaldo por parte de la sociedad.
¿Quiénes están detrás de esta llamada de atención?
Lo más sorprendente de esta iniciativa es la increÃble variedad de sus firmantes. No hablamos solo de un grupo de académicos preocupados. La lista es un verdadero quién es quién que cruza todas las barreras ideológicas, profesionales y geográficas.
Entre los signatarios encontramos a figuras legendarias del mundo tecnológico y cientÃfico:
- Geoffrey Hinton y Yoshua Bengio, a menudo llamados los "padrinos de la IA" y ganadores del prestigioso Premio Turing, el equivalente al Nobel de la computación.
- Steve Wozniak, el cofundador de Apple, una voz siempre respetada en Silicon Valley.
- Stuart Russell, profesor de ciencias de la computación y autor de uno de los libros de texto de referencia sobre inteligencia artificial.
Pero la lista no termina ahÃ. Se han sumado empresarios de renombre como Richard Branson, fundador de Virgin Group. Y, para demostrar que la preocupación es universal, también han estampado su firma figuras polÃticas de todo el espectro, como Steve Bannon, ex asesor de Donald Trump, y Susan Rice, quien fue asesora de seguridad nacional durante la administración Obama. Incluso lÃderes religiosos como Paolo Benanti, consejero del Papa en temas de IA, se han unido a la causa.
La repercusión mediática se ha disparado con la adhesión de celebridades como el rapero Will.i.am, el actor Joseph Gordon-Levitt y, notablemente, el PrÃncipe Harry y su esposa Meghan Markle, Duques de Sussex. En una nota personal, el PrÃncipe Harry declaró: "El futuro de la IA debe servir a la humanidad, no reemplazarla".
Superinteligencia: ¿El próximo gran salto o un riesgo existencial?
Para entender la urgencia de esta carta, es clave diferenciar conceptos. La Inteligencia Artificial (IA) que conocemos hoy, como ChatGPT o los asistentes de voz, es una IA "estrecha", diseñada para tareas especÃficas. El siguiente paso serÃa la Inteligencia Artificial General (IAG), un sistema con la capacidad de aprender y realizar cualquier tarea cognitiva a nivel humano.
La superinteligencia, el foco de la carta, va un paso más allá: es una IA que superarÃa significativamente el intelecto humano en casi todos los dominios, incluyendo la creatividad, la resolución de problemas y la planificación.
Los firmantes advierten que la carrera desenfrenada entre gigantes tecnológicos como Google, OpenAI y Meta para alcanzar este hito podrÃa traer consecuencias catastróficas e irreversibles. Los riesgos que se mencionan van desde la obsolescencia económica masiva y la pérdida de control humano sobre nuestra civilización, hasta amenazas a la seguridad nacional y, en el peor de los casos, la extinción humana. Como dijo una vez el propio CEO de OpenAI, Sam Altman, la superinteligencia es "probablemente la mayor amenaza para la existencia continuada de la humanidad".
No es la primera advertencia
Esta no es la primera vez que el Future of Life Institute lanza una advertencia. En marzo de 2023, publicaron otra carta pidiendo una pausa de seis meses en el entrenamiento de sistemas más potentes que GPT-4. Aunque aquella iniciativa generó un debate global, no logró su objetivo de frenar el desarrollo. Esta nueva campaña es más especÃfica y ambiciosa, apuntando directamente a la meta final de la superinteligencia, un hito que algunos creen que podrÃa llegar en tan solo unos pocos años.
El debate está servido. Mientras algunos ven esta carrera tecnológica como el camino hacia soluciones para los grandes problemas de la humanidad, un número creciente de voces influyentes cree que estamos corriendo a ciegas hacia un precipicio. La pregunta que plantean no es si podemos construir una superinteligencia, sino si debemos hacerlo sin antes tener la certeza de que podemos controlarla.
Una perspectiva necesaria
Como periodista que sigue de cerca la evolución tecnológica, es imposible no sentir un escalofrÃo ante la magnitud de lo que está en juego. La carta del Future of Life Institute no es un manifiesto ludita contra el progreso; es una llamada a la prudencia y la responsabilidad. La diversidad de sus firmantes demuestra que esta no es una preocupación de nicho, sino una cuestión fundamental sobre el futuro de nuestra especie. Delegar decisiones que podrÃan alterar el curso de la historia humana a un puñado de empresas tecnológicas, por muy brillantes que sean, parece una apuesta demasiado arriesgada. La tecnologÃa debe ser una herramienta a nuestro servicio, y para garantizarlo, es crucial que la conversación sobre sus lÃmites sea abierta, democrática y global. Quizás, antes de acelerar hacia un futuro desconocido, sea el momento de hacer una pausa y mirar bien el mapa.
