Skip to main content
European Commission logo print header

Article Category

Contenido archivado el 2023-04-03

Article available in the following languages:

Por qué adaptar al siglo XXI las leyes de la robótica de Asimov

Muchos proyectos financiados por la Unión Europea trabajan para mejorar los robots asistentes que ayudan a superar los distintos retos a los que se enfrenta la sociedad, como por ejemplo prestar cuidados a los más mayores o ayudar en labores de socorro tras una catástrofe. Un académico dedicado a uno de estos proyectos señala que las leyes de la robótica de Isaac Asimov no son una directriz moral sólida y que deberían actualizarse.

Isaac Asimov, uno de los escritores de ciencia ficción más memorables, formuló las célebres «tres leyes de la robótica», a saber: un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley; y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. La aplicación actual de las leyes de Asimov El profesor Tom Sorell de la Universidad de Warwick (Reino Unido) defendió recientemente que las tres leyes de Asimov son una respuesta natural a la idea de que los robots formarán parte del quehacer diario y habrá que programarlos para evitar que dañen a los humanos. No obstante, argumentó que si bien las leyes de Asimov se articulan en torno al valor moral de evitar dañar a los humanos, su interpretación no es sencilla. El profesor Sorell, experto en ética robótica, trabajó en el proyecto financiado con fondos europeos ACCOMPANY, en el que se desarrolló un robot acompañante para ayudar a los más mayores a llevar una vida independiente. Sorell explicó que las leyes de Asimov son, en principio, razonables dado que abordan un miedo legítimo a que los robots dañen a los humanos, como se puede extraer de los accidentes mortales recientes ocurridos en Estados Unidos provocados por automóviles autónomos defectuosos. Pero también nos encontramos en una época en la que los robots son cada vez más sofisticados y se emplean en tareas más complejas destinadas a proteger y cuidar a los humanos. Así pues, existen robots diseñados para ofrecer asistencia a los más mayores como los de ACCOMPANY (consulte el Results Pack de CORDIS sobre TIC para una vida independiente para obtener más información sobre proyectos financiados por la UE que emplean robots para asistir a los más mayores), pero también robots que se han diseñado para colaborar en operaciones de socorro. Un ejemplo de este tipo es el robot utilizado por un proyecto financiado con fondos europeos destinado a evaluar edificios pertenecientes al patrimonio cultural dañados tras el terremoto de la ciudad italiana de Amatrice. Robots nuevos, paradojas nuevas, ¿leyes nuevas? Las leyes de Asimov pierden solidez si se sopesa el desarrollo de los drones militares dirigidos por humanos y cuya función es asesinar a otros humanos a distancia. Paradójicamente, si un robot está dirigido por un controlador humano para salvar las vidas de sus conciudadanos matando a los humanos que los atacan, cabría decir que el robot está siguiendo y quebrando al mismo tiempo la primera ley de Asimov. Además, si el dron está dirigido por un humano, cabe argumentar que las muertes en combate son responsabilidad del humano y no del dron. Ciertamente, equipar a los ejércitos con drones reducirá enormemente la cantidad total de muertes, así que quizás sería preferible utilizar robots en lugar de humanos como carne de cañón. Por otro lado, las leyes de Asimov son adecuadas si el robot tiene como cometido principal garantizar la seguridad de una persona mayor. Muy a menudo, la robótica se enmarca en un abanico de tecnologías de asistencia que ayudan a los más mayores a conservar su independencia, precisamente el objetivo del proyecto ACCOMPANY. Esto implica que los mayores pueden tomar decisiones independientes, incluidas aquellas que podrían causarles lesiones, como por ejemplo las que dan lugar a caídas. Un robot que permita a un humano tomar este tipo de decisiones y que acaben en una lesión por caída estará quebrantando la primera ley por inacción. No obstante, Sorell indicó que tanto el resto de humanos como los robots deben respetar la autonomía de los humanos. Las decisiones de los más mayores que garanticen su independencia pero puedan aumentar el riesgo de lesión, también deben ser respetadas. Las leyes de Asimov han influido en los desarrolladores de robots durante decenios, pero quizá sea el momento de reevaluar su eficacia e iniciar un debate sobre un conjunto nuevo de leyes que se adapten a las innovaciones revolucionarias y sorprendentes que se están produciendo en Europa y en todo el mundo en los ámbitos de la robótica y la inteligencia artificial. Para más información, consulte: Sitio web de ACCOMPANY

Países

Reino Unido

Artículos conexos