[SE}– El mito de las máquinas omnipotentes

11 DIC 2016

Eduardo Castelló Ferrer

Los computadores, por muy complejos que sean, carecen de capacidad para entender por qué hacen las cosas. Quedan barreras por romper.

Rodney Brooks, uno de los padres de la robótica moderna (director desde 2004 hasta 2007 del famoso Laboratorio de Informática e Inteligencia Artificial del MIT) y creador de iRobot, la empresa con más beneficios en el sector hasta la fecha, dijo hace unas décadas: “Me han llamado conservador por decir que es probable que los robots no conquisten el mundo”.

Frente a algunas celebridades científicas y a la ciencia-ficción —que auguran un futuro catastrófico en el que la tecnología nos ha consumido—, los científicos e ingenieros que trabajamos en los sectores de la robótica y la inteligencia artificial (AI, en inglés) nos mostramos mucho más escépticos sobre el supuestamente desproporcionado auge de esas tecnologías en años venideros.

¿A qué se debe esta divergencia de opiniones tan marcada? Quienes auguran una catástrofe se basan en una premisa errónea: dan por hecho que, si la capacidad de proceso de las máquinas se dobla aproximadamente cada dos años (Ley de Moore), sucederá lo mismo con la AI. Pero esto no es así.

Cuando oímos hablar sobre cómo la AI va a revolucionar el mundo, se trata normalmente de un tipo de AI muy específica: un conjunto de técnicas que tienen como único fin perfeccionar una tarea concreta. Estas técnicas no son nuevas, pues hace tiempo que funcionan, por ejemplo, los programas que juegan al ajedrez.

Pero nuevas herramientas como Internet o los smartphones generan grandes cantidades de datos valiosos que pueden combinarse con estas técnicas. Esta mezcla ha contribuido al desarrollo de productos como Siri (aplicación telefónica con funciones de asistente personal) o Nest (aplicación domótica). Todo esto promete desarrollar una economía más eficiente y próspera, donde, por ejemplo, los algoritmos se conviertan en verdaderos expertos a la hora de realizar tareas específicas y se supere el error humano.

Pero la posibilidad de que los científicos e ingenieros dedicados a la AI logremos erradicar algunos errores humanos no significa que seamos capaces de eliminar los errores propios de las máquinas. En un sector sin regulación ni estándares de diseño, el sentido común del ser humano sigue siendo necesario para poder llevar a cabo incluso hasta las tareas más sencillas fuera de un laboratorio.

Uno de los ejemplos más claros es el de las terminales de facturación en los aeropuertos. Aunque se hayan reducido las colas de facturación, sigue siendo necesario que un operario de la aerolínea compruebe qué pasa cuando la máquina no funciona correctamente. Lo mismo sucede cuando un robot nos contesta al llamar a un número de atención al cliente y queremos que nos atienda un operador de carne y hueso.

La única solución a muchos de nuestros problemas parece que sigue siendo el sentido común (humano) y no sólo la rapidez o conveniencia de un algoritmo. Por ello, expertos como el profesor Ken Goldberg empiezan a vislumbrar un futuro en el que, en lugar de que con los humanos, hablemos con los robots, y serán los robots quienes nos llamen para pedir consejo ante una situación que no saben resolver.

Por otro lado, la AI que vemos reflejada en películas o novelas tiene un componente mucho más generalista. La conciencia cibernética que retratan (y que casi siempre acaba dándose cuenta de que no somos tan útiles como especie) tiene la rara capacidad de generalizar, es decir, de pasar de la resolución de un problema (jugar al ajedrez) a otro completamente distinto (dominar el mundo).

En la actualidad, estamos muy lejos de este tipo de sistema generalista, ya que las máquinas, por muy complejas que sean, siguen siendo incapaces de entender los problemas a los que se enfrentan, pues ningún computador es capaz de contestar a esta pregunta: ¿sabes lo que estás haciendo?

Nuevos avances en diversas disciplinas, tales como la informática, la Física e, incluso, la biología y neurociencia serán necesarios para romper las barreras que nos impiden conseguir la generalización de la AI. Algo que no parece demasiado factible a corto o medio plazo.

Pero es posible que esta sea la era en que la AI pase de ser un problema exclusivo del mundo de las Ciencias de la Computación a ser una cuestión que tenga que ser abordada por otros campos como la filosofía, la economía o la política.

Expertos de todo el mundo vaticinan que el auge de estas tecnologías producirá “sociedades laborales de extremos”, en las que sólo los ejecutivos que toman las decisiones de alto nivel y los trabajadores con salarios más bajos podrán justificar su trabajo.

Sin embargo, la AI, como cualquier otra tecnología, ha sido creada por personas y para personas. Y, por ejemplo, la confianza que depositamos en el farmacéutico, la enfermera o el profesor no pueden sustituirse por un algoritmo, por muy rápido o conveniente que éste sea.

Es evidente que seguiremos utilizando calculadoras, quizás más rápidas, más fáciles de usar y con más funciones. Pero eso no significa que el que siga apretando los botones no sea un humano de carne y hueso. No olviden que el último mensaje de telégrafo fue enviado en 2014.

Fuente

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *