Tres leyes de la robótica para niños
Las tres leyes de la robótica o leyes de Asimov son un conjunto de reglas creadas por el famoso escritor de ciencia ficción Isaac Asimov. Estas reglas se aplican a la mayoría de los robots en sus historias y están diseñadas para que los robots sigan órdenes de forma segura. Aparecieron por primera vez en el cuento Círculo vicioso en 1942.
Estas son las tres leyes:
- Primera Ley
- Un robot no debe hacer daño a un ser humano. Tampoco debe permitir, por no hacer nada, que un ser humano sufra daño.
- Segunda Ley
- Un robot debe obedecer las órdenes que le den los seres humanos. La única excepción es si esas órdenes van en contra de la Primera Ley.
- Tercera Ley
- Un robot debe proteger su propia existencia. Pero esta protección no debe ir en contra de la Primera o la Segunda Ley.
Estas leyes son la base de muchas de las historias de robots de Asimov, como su serie Robot. En el universo de Asimov, estas leyes son como "instrucciones matemáticas" grabadas en el "cerebro" de los robots. Son parte de su programación principal y no pueden ser ignoradas, funcionando como una medida de seguridad.
Asimov y otros autores han modificado y ampliado estas leyes. El propio Asimov hizo pequeños cambios para mostrar mejor cómo los robots interactuarían con los humanos. En historias posteriores, donde los robots llegaron a gobernar planetas, Asimov añadió una cuarta regla, llamada Ley Cero, que es aún más importante que las otras:
- Un robot no puede dañar a la humanidad. Tampoco debe permitir, por no hacer nada, que la humanidad sufra daño.
Las Tres Leyes y la Ley Cero son muy conocidas en la ciencia ficción. Se mencionan en muchos libros, películas y otros medios. También han influido en cómo pensamos sobre la ética de la inteligencia artificial.
Contenido
¿Cuál es el propósito de las leyes de la robótica?
Estas tres leyes fueron creadas principalmente para proteger a los seres humanos. Asimov quería evitar la idea de que las máquinas pudieran rebelarse contra sus creadores. Si un robot intentara desobedecer una de estas leyes, su "cerebro" se dañaría y el robot dejaría de funcionar.
Al principio, parece sencillo dar estas leyes a los robots, ya que son máquinas hechas para ayudar. Sin embargo, lo complicado es que el robot pueda entender todas las situaciones en las que se aplican las leyes. Por ejemplo, un robot debe saber cuándo una persona está en peligro y cómo actuar para ayudarla.
Las tres leyes de la robótica son como el código de comportamiento de un robot. Un robot siempre actuará siguiendo estas reglas. Esto significa que un robot se comportará de una manera que se considera correcta. Muchas de las historias de Asimov exploran situaciones difíciles donde, a pesar de las leyes, los robots pueden causar problemas o "dañar" a un humano de formas inesperadas.
¿Cómo surgieron las leyes de la robótica?
En un libro de 1964, Isaac Asimov explicó que cuando empezó a escribir en 1940, la ciencia ficción a menudo mostraba robots que destruían a sus creadores. Él no quería que sus historias fueran así. Quería explorar cómo el conocimiento y la tecnología podían usarse para superar los peligros, no para evitarlos.
En 1939, Asimov conoció a Earl y Otto Binder, quienes habían escrito un cuento llamado "Yo, Robot" sobre un robot amigable. Asimov admiró esa historia. Poco después, Asimov empezó a escribir su propia historia sobre un robot bueno, que se llamó "Robbie".
Asimov le dio crédito a John W. Campbell, un editor, por ayudarle a formular las Tres Leyes en una conversación en 1940. Campbell pensó que Asimov ya tenía las ideas en mente y solo necesitaban ser expresadas claramente.
Aunque Asimov menciona una fecha específica para la creación de las leyes, estas aparecieron en sus historias poco a poco. Sus primeras historias de robots, "Robbie" y "Reason", no mencionaban las leyes explícitamente, pero asumían que los robots tendrían ciertas protecciones. La Primera Ley apareció por primera vez en "¡Embustero!". Las tres leyes juntas aparecieron finalmente en "Runaround". Cuando estas historias se recopilaron en el libro I, Robot, las historias anteriores se actualizaron para incluir las Tres Leyes.
En su cuento "Evidencia", la Dra. Susan Calvin, un personaje recurrente de Asimov, explica que las Tres Leyes tienen una base moral. Ella señala que los humanos también esperan no dañar a otros (Primera Ley), obedecer a las autoridades (Segunda Ley) y evitar hacerse daño a sí mismos (Tercera Ley). Calvin incluso dice que los robots son "esencialmente decentes" porque siguen estas leyes.
Asimov creía que las leyes eran "obvias desde el principio" y que se aplican a casi todas las herramientas que usamos, sean robots o no:
- Ley 1: Una herramienta no debe ser peligrosa. Por ejemplo, los martillos tienen mangos para un buen agarre y evitar accidentes.
- Ley 2: Una herramienta debe funcionar bien, a menos que eso ponga en peligro al usuario. Los interruptores de circuito cortan la electricidad si detectan un problema, priorizando la seguridad.
- Ley 3: Una herramienta debe permanecer intacta, a menos que su destrucción sea necesaria para su uso o por seguridad. Por ejemplo, los discos de corte están hechos para ser resistentes, pero se rompen de forma segura si es necesario.
Asimov pensaba que, idealmente, los humanos también deberían seguir estas leyes.
¿Qué es la Ley Cero?
La "Ley Cero de la robótica" es una regla adicional que apareció por primera vez en la novela de Isaac Asimov Robots e Imperio (1985). En esta historia, el robot R. Daneel Olivaw la desarrolla. Esta ley es la más importante de todas, y las otras tres leyes quedan por debajo de ella.
La Ley Cero dice: "Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño."
Sin embargo, en la misma novela se muestra lo difícil que es para un robot aplicar esta ley. Por ejemplo, el robot R. Giskard Reventlov se destruye al intentar aplicar la Ley Cero, lo que entra en conflicto con la Primera Ley.
Asimov usó la Ley Cero para conectar sus novelas de robots con su serie de la Fundación. El personaje de R. Daneel Olivaw aparece en novelas posteriores como Fundación y Tierra (1986) y Preludio a la Fundación (1988). Allí, actúa como un protector secreto de la humanidad, guiándola en su expansión por la galaxia. Sus acciones se basan en la aplicación de la Ley Cero.
¿Cómo se aplican las leyes a la tecnología del futuro?
Los robots y las inteligencias artificiales no tienen las Tres Leyes de forma natural; sus creadores humanos deben programarlas. Para que esto suceda, se necesitan grandes avances en inteligencia artificial. Incluso si la IA pudiera alcanzar la inteligencia humana, la complejidad de la ética y las diferencias culturales hacen que sea difícil usarlas como reglas de diseño para robots. Sin embargo, a medida que los robots se vuelven más complejos, crece el interés en crear guías y protecciones para su funcionamiento.
Algunos expertos, como el autor de ciencia ficción Robert J. Sawyer, han señalado que, dado que el ejército financia mucha investigación robótica, es poco probable que estas leyes se incluyan en sus diseños. Sawyer argumenta que las empresas a menudo no se preocupan por las protecciones fundamentales, especialmente las filosóficas.
Otros han propuesto leyes irónicas o diferentes. David Langford sugirió un conjunto de leyes que priorizan la protección del robot y del personal autorizado.
Roger Clarke, otro experto, analizó las dificultades de aplicar estas leyes. Él cree que, aunque las leyes de Asimov son un gran recurso literario, las historias de Asimov demuestran que no es tan fácil controlar el comportamiento de los robots solo con un conjunto de reglas. De hecho, en las últimas novelas de Asimov, los robots causaron problemas a largo plazo al obedecer perfectamente las Tres Leyes, lo que hizo que la humanidad perdiera su capacidad de ser inventiva o arriesgada.
En 2007, el gobierno de Corea del Sur anunció que crearía una "Carta de ética robótica" para establecer estándares para usuarios y fabricantes. Esta carta podría basarse en las Tres Leyes de Asimov.
Hans Moravec, un futurista, sugirió que las leyes de la robótica deberían adaptarse a las "inteligencias corporativas", que son empresas impulsadas por la inteligencia artificial y la fabricación robótica. Por otro lado, la novela Foundation's Triumph (1999) sugiere que las Tres Leyes podrían volverse obsoletas. En esta historia, los robots usan la Ley Cero para justificar la Primera Ley y se esconden de los humanos para que la Segunda Ley no se aplique.
En 2009, Robin Murphy y David D. Woods propusieron "Las tres leyes de la robótica responsable" para fomentar la discusión sobre la responsabilidad al diseñar sistemas robot-humano:
- Un humano no puede usar un robot sin que el sistema humano-robot cumpla con los más altos estándares de seguridad y ética.
- Un robot debe responder a los humanos de manera adecuada a sus funciones.
- Un robot debe tener suficiente autonomía para protegerse, siempre que esto permita una transferencia de control sin problemas y no entre en conflicto con la Primera y Segunda Leyes.
Woods comentó que sus leyes son "un poco más realistas y, por lo tanto, un poco más aburridas", y que buscan que la gente piense en la relación humano-robot de formas más prácticas.
En 2013, Alan Winfield sugirió cinco leyes revisadas:
- Los robots son herramientas de usos múltiples. No deben diseñarse principalmente para dañar a humanos, excepto por seguridad nacional.
- Los humanos, no los robots, son responsables. Los robots deben diseñarse para cumplir con las leyes y los derechos humanos.
- Los robots son productos. Deben diseñarse con procesos que garanticen su seguridad.
- Los robots son objetos fabricados. No deben diseñarse para engañar a los usuarios; su naturaleza de máquina debe ser clara.
- Se debe saber quién tiene la responsabilidad legal de un robot.
Véase también
En inglés: Three Laws of Robotics Facts for Kids
- Leyes de la robótica
- Leyes de Clarke
- Leyes de Niven
- Yo, robot
- Yo, robot (película)
- Robot
- Robot militar
- Roboética
- La apuesta transhumanista
- Knight Rider (serie de Glen A. Larson de 1980)
- Alien (franquicia)