El dilema del tranvía. ¿Androides con ética?

blank

hombre_robotLa literatura, digo más, la ficción es muy poderosa. Seguramente tendría que matizar la rotundidad de mi oración inicial, pero lo creo de verdad. Desde las predicciones futuristas de escritores de ciencia ficción que hoy son realidad, como casi todo Verne, hasta el establecimiento de una línea de pensamiento que cambie o afiance los argumentos de un estado de opinión (que no tiene que ser verdadero), como Harriet Beecher Stowe o Dan Brown, hay montones de ejemplos de argumentos de cómo la literatura deja su impronta en un amplio grupo de personas.

Tengo un recuerdo, cuando leí por primera vez El sol desnudo, aquella desconcertante novela de Isaac Asimov, donde revisitaba (ya los había enunciado antes) sus principios de la robótica, que hoy son de prácticamente obligada cita cuando de androides se habla, incluso por hombres de ciencia, ya sea para afianzarlos o negarlos:

1) Un robot no debe de agredir a un humano ni, con su inacción, permitir que un humano sufra algún daño.

2) Un robot debe obedecer las órdenes dadas por los seres humanos salvo si dicho mandato entra en conflicto con la primera de las leyes arriba formulada.

3) Un robot debe proteger su propia existencia siempre y cuando no entre en conflicto con la primera y la segunda de estas leyes.

Recientemente no pude dejar de regresar a los principios al leer la noticia de que el Departamento de Investigación de la Marina de los Estados Unidos, en colaboración con varias universidades, está implementando una especie de código ético para robots en casos extremos. Ojo, que hablo de código para robots, no para seres humanos. ¿Pero es posible? ¿Cómo crear un programa que funcione como guía inevitable para un robot, de un montón de principios básicos que definen nuestra esencia como seres humanos?

Es obvio que los principios de Asimov (si bien son para androides) tienen una hermosa lucidez como argumentos morales y universales, vistos desde nuestra perspectiva como seres humanos, pero nadie se los cree como normas de obligado cumplimiento para un robot. ¡Hasta ahora! Y tiene lógica.

Imaginemos un segundo que eres un controlador de trenes y te ves envuelto en la famosa paradoja del tranvía: aquella que te hace ver un tren que va a atropellar a un grupo de personas, y la única manera de evitar el accidente, es desviarlo, pero (la famosa maldita palabra de los idiomas) si lo haces, atropellas a otra persona que va por la vía adonde debes desviarlo.

El dilema del tren, tiene varias versiones, pero la idea es la misma: ¿Estás dispuesto a matar a una persona si con su deceso evitas la muerte de muchos más? Ya hablamos de este tema alguna vez por aquí aplicado a los seres humanos, pero la idea de aplicarlos a un robot es cuanto menos, nueva e inquietante.

Los participantes en este estudio lo tienen claro: por primera vez unen científicos y filósofos para que un robot tome SOLO (activo las mayúsculas) aquellas decisiones morales que para un ser humano son difíciles o imposibles.

¿A quién salvar primero de un incendio si no puedes con los tres: un niño, una embarazada o un anciano? Que un ser humano pueda activar mentalmente la decisión de salvar primero a la persona que más lo necesita depende de la educación ética y moral previa de quien decide, que siempre cargará con las culpas de no haber podido salvar a alguno de ellos si llegara el caso, y lo que es peor, que mientras toma la decisión, puede haber perdido un tiempo precioso para salvar a los tres, si se hubiese podido.

La idea de que un robot no necesita más que ser programado para decidir por nosotros en menos tiempo es interesante para los que no nos aterrorizamos con la tecnología, y nos libera como seres humanos de cargar con la culpa de no haber tomado la mejor decisión, pero me deja con el temor de saber cómo se programa al androide para que tome la decisión.

¿Salvar antes un famoso (entiéndase por famoso alguien que aporte algo más que salir por la televisión gritando) que a un desconocido? ¿Cómo reaccionaría el robot? Seguramente no tendría esta programación, pero ¿y si decidieran que sí la tuviera?

En cualquier caso, la ciencia ficción se adelantó al dilema cuando Asimov escribió su relato Runaround, y seguramente estaría contento de dejarnos su opinión, donde quiera que esté, porque una vez más, la ficción nos hizo pensar en algo que dejó o dejará de ser ficción para ser solo ciencia. ¿Robots con ética? ¿Por qué no?

Un comentario sobre “El dilema del tranvía. ¿Androides con ética?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *