Un precedente inquietante puede estar cobrando forma poco a poco, sin pretenderlo, en algunos laboratorios de universidades y centros punteros de investigación sobre robots y disciplinas relativas a la inteligencia artificial. Uno de esos pequeños logros que quizás a la larga pueden representar un cambio de paradigma de nuestra actual concepción del futuro.
Allá por el año 1940, uno de los considerados máximos exponentes del género literario de la ciencia-ficción, el célebre escritor Isaac Asimov, establecería durante una reunión que mantuvo con el que sería uno de sus editores a la postre, John Wood Campbell, Jr., las denominadas tres Leyes de la Robótica. Son las normas que resumen el código ético que debería regular el comportamiento y funcionamiento de los robots en nuestra sociedad, y fueron concebidas para proteger al ser humano frente a una hipotética rebelión de las máquinas dotadas de inteligencia propia. Una estructura de pensamiento que el autor introduciría en su obra un par de años después, para así argumentar todo su universo creativo en esa sociedad del futuro en la cual los humanos conviven con robots.
Estas tres reglas interrelacionadas entre sí serían:
- Primera ley: Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
- Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
- Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Sobre este corpus se ha ido fundamentando todo el desarrollo de la ciencia robótica. Pero la idea preocupante a la que hacíamos referencia al principio es: ¿es posible que ya hayamos logrado los primeros robots que puedan incumplir por sí mismos este código? ¿que desobedezcan las órdenes que les demos, a pesar de estar en principio programados para ello?
Por el momento aún no estamos en ese escenario, pero se están dando pasos en esa dirección que nos acercan, en un futuro quizás no muy lejano, a esa posibilidad.
No hablamos por tanto de robots que violen los tres principios enunciados por Asimov. Pero sí se está estudiando, y esto es lo interesante, cómo crear mecanismos que capaciten a los robots para desobedecer una orden dada por los seres humanos bajo unos determinados condicionantes preestablecidos.
En esta interesante línea de investigación, por su trascendencia futura, se hallan inmersos investigadores del laboratorio de interacción humana-robot de la Universidad de Tufts, una institución privada ubicada cerca de Boston, en el estado norteamericano de Massachusetts.
La cuestión que los expertos en robótica Gordon Briggs y Matthias Scheutz se plantearon responder es: ¿Deben los robots obedecer siempre?
Más información en: http://www.navedelmisterio.com/robots-aprenden-a-desobedecer-ordenes-humanas/
Comentarios