Una investigación muestra que las personas están dispuestas a salvar un robot a costa de vidas humanas en ciertas condiciones
No es extraño encontrar a gente que afirme que, ante una situación de peligro, salvaría antes a su perro que a una persona que no conociera de nada. Es menos habitual que afirmen algo similar respecto a un robot, por ejemplo.
Pero descubrir que, en determinados casos, antepondríamos la “supervivencia” de un robot a la de un congénere si salvar al segundo exige ‘matar al primero’, sería un hallazgo tan moralmente turbador como científicamente apasionante.
Y eso es lo que ha logrado demostrar un equipo de investigadores de la universidades de Radboud y Munich.
Una de las investigadores, la científica del comportamiento Sari Nijssen, explica el objetivo de emprender esta investigación:
“Se sabe que el personal militar puede llorar a los robots que el Ejército utiliza para limpiar minas; se organizan funerales para ellos. Queríamos investigar hasta dónde se extiende esta empatía por los robots y qué principios morales influyen dicho comportamiento. Se ha realizado poca investigación en este campo hasta el momento”.
Así, a los participantes en el estudio se les presentó un dilema moral y la pregunta de si sacrificarían a un individuo para salvar a un grupo de personas heridas. En los diferentes escenarios, el individuo podía ser una persona, un robot con rasgos humanos o un robot presentado como una máquina simple.
La conclusión a la que llegaron fue a que las personas están dispuestas a salvar un robot a costa de vidas humanas bajo ciertas condiciones. Una de ellas es que crean que el robot es capaz de experimentar dolor.
La clave reside en la empatía
La investigación indicó que el dilema se volvía más complejo para los sujetos cuanto más ‘humanos’ veíamos a los robots. Esto es, en la medida en que lo concebíamos como un ser consciente capaz de experimentar pensamientos, dolor y emociones, se reducía nuestra predisposición a sacrificarlo en favor de vidas humanas.
La ciencia ya había dejado claro antes que las ‘intuiciones afectivas’ influyen notablemente en nuestros juicios morales, y que cuanto más podamos empatizar con alguien, menor tendencia mostraremos a sacrificarlo para salvar a alguien anónimo.
Sin embargo, la novedad es que podemos también empatizar con ‘algo’, y valorarlo moralmente del mismo modo. Aquí es importante señalar que el estudio distingue entre atribuir voluntad a un robot y empatizar con él:
“Un robot que sólo es capaz de formar y ejecutar planes de acción no se incorpora a nuestro ‘círculo moral’, sin embargo, cuando creemos que un agente robótico puede tener experiencias afectivas, como el hambre, entendemos que es merecedor de nuestra preocupación moral”.
Hoy en día los robots son indispensables, directa o indirectamente, en muchas facetas nuestra vida: desde actividades prosaicas de nuestro día a día como la limpieza, a trabajos especializados de alto riesgo (como la citada detección de minas).
Y surge la duda de si seguirán siendo útiles para nosotros cuando hayamos empezado a convencernos de su ‘humanidad’. Si los perros, animales auxiliares de caza, pasaron a ser ‘mascotas’… ¿terminaremos integrando a los robots en nuestra familia?
“Un robot de aspecto humano puede causar sentimientos y comportamientos que contrastan con la función para la que fueron desarrollados: para ayudarnos. Y la pregunta es si esto es deseable para nosotros”.
Vía | Guilford Press
Imagen | Fotograma de ‘Ex Machina’, Universal Studios, 2015
También te recomendamos
Cuatro por 4K es 8K: la tecnología detrás de la resolución del futuro
–
La noticia
Una investigación muestra que las personas están dispuestas a salvar un robot a costa de vidas humanas en ciertas condiciones
fue publicada originalmente en
Xataka
por
Marcos Merino
.