cada día más cerca del Terminator..
EEUU promueve el sentido moral en los robots
La Oficina de Investigación Naval de EEUU concederá una subvención de
7,5 millones de dólares durante cinco años a investigadores de las
universidades de Tufts, Rensselaer Polytechnic Institute, Brown, Yale y
Georgetown para que investiguen cómo dotar a los sistemas robóticos
autónomos de sentido de la moral, informa Andes, que cita a la revista
‘Defense One’.
“Uno de los argumentos a favor de los robots
es que pueden ser mejores que los seres humanos a la hora de elegir qué
decisión moral tomar porque pueden tener en cuenta más opciones”, dijo el presidente del Grupo de Estudios Éticos en la Universidad Tecnológica de Yale, Wendell Wallach.
El ejército de Estados Unidos prohíbe robots completamente autónomos
letales. Y los robots semi-autónomos no pueden seleccionar y atacar
objetivos individuales o de grupos específicos que no han sido
previamente seleccionados por un operador humano autorizado, incluso en
el caso de que el contacto con el operador se corte, explicó Pablo
Bello, director del programa de ciencia cognitiva en la Oficina de de
Investigación Naval de Defensa.
“Incluso si estos sistemas no están armados, todavía pueden verse
obligados a tomar decisiones morales”, añadió Bello. Por ejemplo, en un
escenario de desastre, un robot puede ser obligado a tomar una decisión
acerca de quién debe evacuar o tratar en primer lugar, una situación en
la que un robot podría usar un poco de sentido del razonamiento ético o
moral.
Pero ¿cómo codificar algo tan abstracto como la lógica moral en un
montón de transistores? La gran apertura del problema es por qué el
enfoque de marco es importante, dice Wallach . Algunos tipos de
moralidad son más básicas , por lo tanto más capaces de código, que
otros.
“Uno de los argumentos a favor de dotar de moral a
los robots es que pueden ser incluso mejor que los seres humanos en la
selección de un curso de acción moral, ya que pueden considerar más
cursos de acción “, dijo el científico.
EI experto en robótica Noel Sharkey es un detractor y ha sido muy
crítico con aviones no tripulados armados, en general. Sharkey ha
argumentado que no se puede confiar en que los sistemas de armas
autónomas no se puede confiar respeten el derecho internacional.
Robots asesinos
Diplomáticos instaron el martes a adoptar nuevas leyes internacionales
para el uso de “robots asesinos” si esa tecnología se convierte en
realidad algún día.
En la primera reunión de Naciones Unidas dedicada al tema, los
representantes comenzaron a tratar de definir los límites y las
responsabilidades de los llamados sistemas de armas letales autónomas,
que podrían ir más allá de los aviones teledirigidos por humanos,
conocidos como drones.
El tono de la reunión de cuatro días fue establecido por Michael
Moeller, director en funciones de la sede europea de la ONU en Ginebra,
quien instó a los delegados a tomar “medidas audaces” para adoptar
nuevas leyes preventivas a fin de asegurar que siempre haya una persona
dirigiendo cualquier tipo de armamento.
“Con demasiada frecuencia el derecho internacional sólo responde a las
atrocidades y el sufrimiento una vez que ha ocurrido”, dijo Moeller, un
diplomático danés. “Ustedes tienen la oportunidad de tomar medidas
preventivas y asegurar que la decisión final de acabar con una vida siga
estando firmemente bajo control humano”.
Los delegados de muchos de los países dijeron que las leyes existentes
no cubren las armas futuras que podrían decidir sus blancos sin
intervención humana. “Es indispensable mantener el control de la
decisión de matar a otra persona”, dijo el embajador alemán Michael
Biontino en la reunión.
No hay comentarios:
Publicar un comentario