Tenemos mayores obligaciones morales con los robots que con los humanos

Como sus creadores y guardianes, tendremos mayor responsabilidad ante los robots inteligentes que ante otros humanos

Baja HotBot 4b al volcán. Estamos en el año 2050 o 2150, y la inteligencia artificial ha avanzado lo suficiente como para poder construir robots con inteligencia, creatividad y deseos de grado humano. HotBot perecerá ahora en esta misión científica. ¿Tiene derechos? Al ordenarle que se hunda, ¿hemos hecho algo moralmente incorrecto?

El estatus moral de los robots es un tema frecuente en la ciencia ficción, que se remonta al menos a las historias de robots de Isaac Asimov, y el consenso es claro: si algún día conseguimos crear robots que tengan vidas mentales similares a las nuestras, con planes, deseos y un sentido del yo similares a los humanos, incluida la capacidad de gozo y sufrimiento, entonces esos robots merecen una consideración moral similar a la que se concede a los seres humanos naturales. Los filósofos e investigadores de la inteligencia artificial que han escrito sobre esta cuestión suelen estar de acuerdo.

Quiero cuestionar este consenso, pero no de la forma que podrías predecir. Creo que, si algún día creamos robots con capacidades cognitivas y emocionales similares a las humanas, les deberemos más consideración moral de la que normalmente deberíamos a seres humanos similares en otros aspectos.

He aquí por qué: habremos sido sus creadores y diseñadores. Por tanto, somos directamente responsables tanto de su existencia como de su estado feliz o infeliz. Si un robot sufre innecesariamente o no alcanza su potencial de desarrollo, será en gran parte debido a nuestro fracaso: un fracaso en nuestra creación, diseño o cuidado de él. Nuestra relación moral con los robots se parecerá más a la relación que los padres tienen con sus hijos, o la que los dioses tienen con los seres que crean, que a la relación entre extraños humanos.

En cierto modo, esto no es más que igualdad. Si creo una situación que pone en peligro a otras personas -por ejemplo, si destruyo sus cultivos para construir un aeródromo-, tengo la obligación moral de compensarlas, mayor que mi obligación para con las personas con las que no tengo ninguna relación causal. Si creamos robots auténticamente conscientes, estaremos profundamente conectados causalmente con ellos y, por tanto, seremos sustancialmente responsables de su bienestar. Ésa es la raíz de nuestra obligación especial.

El monstruo de Frankenstein le dice a su creador, Víctor Frankenstein:

Soy tu criatura, y seré incluso suave y dócil con mi señor y rey natural, si tú también cumples tu parte, la que me has encomendado. Oh, Frankenstein, no seas equitativo con todos los demás, y atropéllame sólo a mí, a quien más se debe tu justicia, e incluso tu clemencia y afecto. Recuerda que soy tu criatura: Debo ser tu Adán….

O bien sólo debemos crear robots lo suficientemente simples como para que sepamos que no merecen consideración moral -como ocurre con todos los robots existentes en la actualidad-, o bien debemos darles existencia sólo con cuidado y solicitud.

A este deber de diligencia se suma otro, el del conocimiento: el deber de saber cuáles de nuestras creaciones son realmente conscientes. ¿Cuáles de ellas tienen corrientes reales de experiencia subjetiva, y son capaces de alegría y sufrimiento, o de logros cognitivos como la creatividad y el sentido del yo? Sin ese conocimiento, no sabremos qué obligaciones tenemos para con nuestras creaciones.

Sin embargo, ¿cómo podemos adquirir el conocimiento pertinente? ¿Cómo distinguir, por ejemplo, entre una corriente genuina de experiencia emocional y emociones simuladas en una mente artificial? No basta con programar una simulación superficial de la emoción. Si pongo un procesador informático estándar fabricado en 2015 en un dinosaurio de juguete y lo programo para que diga “¡Ay!” cuando apriete su interruptor de apagado, no habré creado un robot capaz de sufrir. Pero, ¿qué tipo de procesamiento y complejidad son necesarios exactamente para dar lugar a una auténtica conciencia similar a la humana? Según algunos puntos de vista – el de John Searle, por ejemplo- la conciencia podría no ser posible en cualquier entidad programada; podría requerir una estructura biológicamente similar al cerebro humano. Otros puntos de vista son mucho más liberales sobre las condiciones suficientes para la conciencia robótica. El estudio científico de la conciencia aún está en pañales. La cuestión sigue muy abierta.

Si seguimos desarrollando formas sofisticadas de inteligencia artificial, tenemos la obligación moral de mejorar nuestra comprensión de las condiciones en las que podría surgir realmente la conciencia artificial. De lo contrario, nos arriesgamos a una catástrofe moral, ya sea la catástrofe de sacrificar nuestros intereses por seres que no merecen consideración moral porque experimentan la felicidad y el sufrimiento sólo falsamente, o la catástrofe de no reconocer el sufrimiento de los robots y, por tanto, cometer involuntariamente atrocidades equivalentes a la esclavitud y el asesinato contra seres hacia los que tenemos una obligación casi paternal de cuidar.

Tenemos, pues, la obligación moral directa de tratar a nuestras creaciones reconociendo nuestra especial responsabilidad por su alegría, sufrimiento, consideración y potencial creativo. Pero también tenemos la obligación epistémica de aprender lo suficiente sobre las bases materiales y funcionales de la alegría, el sufrimiento, la reflexión y la creatividad para saber cuándo y si nuestras futuras creaciones potenciales merecen nuestra preocupación moral.

•••

Eric Schwitzgebel

es profesor de Filosofía en la Universidad de California, Riverside. Tiene un blog en The Splintered Mind y es autor de Perplejidades de la conciencia (2011) y Teoría de los gilipollas y otras desventuras filosóficas (2019). Actualmente trabaja en un libro titulado “La rareza del mundo”.

Total
0
Shares
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts