Hola!
Tres leyes de la robótica
En la ciencia ficción las tres leyes de la robótica son un conjunto de leyes escritas por Isaac Asimov, que la mayoría de los robots de las novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son formulaciones matemáticas impresas en los senderos positrónicos del cerebro de los robots. Asimov atribuye las tres Leyes a John W. Campbell de una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas y que los dos simplemente las expresaron de una manera más formal. Aparecidas por primera vez en el relato "Runaround" (1942), establecen lo siguiente:
Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
La forma en que se enuncian verbalmente es sólo convencional.
Propósito
Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es posible preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".
Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante por diez mil años más. Es lógico pensar que el nivel de desarrollo de los robots variaría con el tiempo, incrementándose su nivel de complejidad cada vez más.
Historia de las tres leyes de la robótica
Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, Robot) eran modelos poco avanzados. Era una época en donde la robopsicología no estaba bien desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley.
Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de "daño" según sus experiencias, y determinar niveles de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía (su amo, por ejemplo). También podría darse el caso de que un robot dañara físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.
Saludos!
2006-10-12 09:16:17
·
answer #1
·
answered by Susy 6
·
1⤊
0⤋
Ya te dijeron las tres, pero hay una ley adicional llamada Zeroth, que introdujo Asimov en su libro Robots and Empire, de 1985: "Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño". Asimov la creó porque decidió que las tres primeras eran insuficientes para proteger a la humanidad en gran escala.
2006-10-12 09:18:10
·
answer #2
·
answered by Anonymous
·
1⤊
0⤋
1. Un robot no puede herir un humano o, por inacción, permitir un humano sufrir daño.
2. Un robot debe obedecer las órdenes de un humano siempre que éstas no entre en conflicto con la Primera Ley.
3. Un robot debe proteger su existencia siempre que esta protección no conflija con la Primera o Segunda Ley.
2006-10-12 09:16:42
·
answer #3
·
answered by alejandrorodz 1
·
1⤊
0⤋
1. Un robot no puede herir un humano o, por inacción, permitir un humano sufrir daño.
2. Un robot debe obedecer las órdenes de un humano siempre que éstas no entre en conflicto con la Primera Ley.
3. Un robot debe proteger su existencia siempre que esta protección no conflija con la Primera o Segunda Ley.
2006-10-13 03:22:53
·
answer #4
·
answered by Martin M 2
·
0⤊
0⤋
Ya te han reponido correctamente a la pregunta, yo solo deseo aportar para tu cultura general que las tres leyes de la robótica originalmente fueron ideadas por Isaac Asimov uno de los principales autores de la ciencia ficción y las expuso en un cuento corto llamado Yo Robot que por cierto no tiene nada que ver con la película del mismo nombre y que es a mi muy humide entender una ofensa al gran autor y a sus fieles lectores.
Recomiendo ampliamente la lectura de este cuento corto que es una pequeña gran obra de arte.
2006-10-12 14:13:42
·
answer #5
·
answered by Anonymous
·
0⤊
0⤋
1 Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3 Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley
2006-10-12 09:11:18
·
answer #6
·
answered by mastermind 3
·
0⤊
0⤋