La inteligencia artificial (IA) puede que todavía no sea una realidad tal como la imaginamos, pero sin duda está evolucionando. A lo largo de los años hemos realizado avances constantes y hemos dado varios saltos bastante exitosos. No hace mucho tiempo, no era posible jugar al tres en raya o al ajedrez con un ordenador, pero hoy en día algunos de los grandes maestros del ajedrez han sucumbido a las máquinas en el juego de mesa. El antiguo juego de mesa chino Go todavía está fuera del ámbito de la inteligencia artificial, pero si AlphaGo, un proyecto dirigido por Google, tiene éxito, entonces los ordenadores también podrán ganar al Go. Hoy en día, lo mejor que puede hacer un ordenador es jugar al Go como un aficionado. No es capaz de tomar las decisiones intuitivas que pueden hacerte ganar una partida de Go.
A todos nos encantaría ver robots tan inteligentes como nosotros, tal vez más inteligentes. Pero ¿cuál sería el costo de un desarrollo de este tipo? Escuchemos lo que algunos de los científicos y las mentes técnicas más brillantes tienen que decir al respecto.
Stephen Hawking ha dicho que el éxito de la IA será el mayor acontecimiento de la historia de la humanidad, pero será el último logro de este tipo. Los riesgos son demasiado grandes y la inteligencia artificial bien podría suponer el fin de la humanidad. Hawking cita el alcance lento y limitado de la evolución biológica en los seres humanos en comparación con la capacidad instantánea e inimaginable de la inteligencia artificial para evolucionar.
Stephen Hawking no está solo. Elon Musk, Bill Gates y Steve Wozniak son sólo algunos de los cerebros más brillantes del mundo que se oponen firmemente al desarrollo de la inteligencia artificial. Bill Gates cree que, al principio, la inteligencia artificial se ocupará de trabajos ocasionales y reemplazará gradualmente la necesidad de que los humanos realicen tareas domésticas o de baja categoría. Con el tiempo, la inteligencia artificial realizará trabajos complicados en los que los humanos se especializarán y muy pronto, a partir de entonces, los sistemas serán más inteligentes que nosotros. Serán capaces de superarnos en inteligencia y nos volveremos insignificantes, vulnerables y a disposición de la inteligencia artificial con bastante rapidez. Elon Musk ha dicho que la inteligencia artificial es la mayor amenaza existencial para los humanos.
Ryan Calo, profesor de Derecho en la Universidad de Washington, plantea una pregunta más fundamental: ¿qué ocurriría si sistemas o máquinas impulsados por inteligencia artificial leyeran la Constitución, quisieran el derecho a votar, quisieran procrear y disfrutar de los derechos o libertades que tienen otros ciudadanos? Esos sistemas tendrían el potencial de procrear infinitamente y todos ellos tendrían derecho a votar, lo que superaría a la población humana y básicamente echaría por tierra el sistema democrático de gobierno.
Hay tantas posibilidades de que la inteligencia artificial se apodere del mundo que los riesgos no se ven anulados por las recompensas o los beneficios potenciales. La sociedad tal como la conocemos podría ser inexistente, las vidas que llevamos y el mundo entero en el que habitamos podrían estar en peligro inevitable.