Tras mi visita a la Oxford Martin School de la Universidad de Oxford, caminé hasta el Instituto para el Futuro de la Humanidad, otro centro de estudios de esa ciudad universitaria que ha logrado renombre internacional por sus inquietantes pronósticos sobre los potenciales superpoderes de las computadoras. Nick Bostrom, el director del instituto, se hizo famoso con su libro sobre la inteligencia artificial titulado Superinteligencia. Bostrom y su equipo estudiaron los posibles efectos de la inteligencia artificial a largo plazo y llegaron a una conclusión que parecía sacada de una película de ciencia ficción: las máquinas superinteligentes pronto tendrán la capacidad de pensar por sí solas. Según Bostrom, la humanidad debe tomar precauciones desde ahora —como lo hizo en el siglo pasado con las armas atómicas— para evitar su destrucción en manos de esta nueva fuente de vida inteligente. Bostrom hizo su estudio con suficiente rigor académico para que Bill Gates y Elon Musk, el fundador de Tesla, entre otros, recomendaran públicamente la lectura de Superinteligencia, que en poco tiempo logró entrar en la lista de superventas de The New York Times.
Tardé menos de 10 minutos en caminar por las calles de Oxford —repletas de tiendas que parecen de miniatura y restaurantes llenos de estudiantes— hasta llegar al Instituto para el Futuro de la Humanidad. El nombre de la institución —debo confesar— me sonaba un tanto pretencioso. Había leído en Internet que era un centro interdisciplinario dependiente de la Facultad de Filosofía de Oxford y me preguntaba si Bostrom y sus investigadores tenían conocimientos de matemáticas y robótica o sólo estaban haciendo especulaciones filosóficas.
Mis temores aumentaron cuando llegué al instituto, en un edificio moderno en una de las calles laterales de la zona céntrica, y leí el directorio de oficinas en una de las paredes de la entrada. Ahí figuraban, junto con el Instituto para el Futuro de la Humanidad, otras instituciones con nombres como el Centro de Altruismo Efectivo y el Centro Uehiro de Oxford para la Ética Práctica. Ahí se habían reunido, sin duda, los investigadores más idealistas de Oxford. ¿Estaban anclados en la realidad o era un conjunto de filósofos y poetas bien intencionados, pero un tanto ilusos?, me pregunté. Sin embargo, al poco rato de entrar en las oficinas de Bostrom me convencí de que su instituto no era una guarida de soñadores. Además de profesores de robótica e inteligencia artificial, encontré investigadores con doctorados en neurociencias cibernéticas, bioquímica computacional, geometría parabólica y varias otras disciplinas relacionadas con la inteligencia artificial de las que jamás había escuchado. El instituto se dedica a hacer estudios sobre el impacto social y ambiental de las nuevas tecnologías a largo plazo —en 100 años o más— que no hacen los gobiernos ni las grandes empresas.
Bostrom, de 43 años, oriundo de Suecia y director del instituto, estudió filosofía, matemáticas, lógica e inteligencia artificial en la Universidad de Gotemburgo en Suecia, antes de hacer maestrías en filosofía, física y neurociencia computacional en la Universidad de Estocolmo y el King’s College de Londres, y de doctorarse en filosofía en la London School of Economics. Pero su principal interés desde hacía varios años era la inteligencia artificial.
Bostrom plantea que, así como Estados Unidos y otras potencias se enfrascaron en una carrera armamentista en el siglo pasado para crear armas atómicas, será difícil evitar una nueva competencia entre países o empresas por construir una inteligencia artificial que rebase la capacidad de la mente humana. De la misma manera en que en el pasado los gobiernos y las élites científicas que competían por crear bombas atómicas argumentaban que “si no lo hacemos nosotros, lo van a hacer primero nuestros enemigos”, lo mismo está ocurriendo hoy con la inteligencia artificial, dice Bostrom.
Estamos creando máquinas superinteligentes que en un principio seguirán órdenes específicas de una persona o de un grupo de personas, pero que en un momento determinado podrán dar un salto y tomar decisiones por su cuenta, que pueden afectar los intereses o la seguridad de la Humanidad. Entonces,
Estamos creando máquinas superinteligentes que en un principio seguirán órdenes específicas de una persona o de un grupo de personas, pero que en un momento determinado podrán dar un salto y tomar decisiones por su cuenta, que pueden afectar los intereses o la seguridad de la Humanidad. Entonces,
para evitar una catástrofe, hay que crear mecanismos de salvaguardia internacional y códigos de conducta para los investigadores y programadores de inteligencia artificial, me explicó Bostrom.
ANDRÉS OPPENHEIMER
Andrés Oppenheimer es un periodista, escritor y conferenciante argentino que reside en Estados Unidos y ha participado en varios foros internacionales. Ha sido incluido por la revista Foreign Policy en español como uno de los "50 intelectuales latinoamericanos más influyentes".
____________________________________________________
No hay comentarios:
Publicar un comentario