-Todo robot deberá tener un interruptor de emergencia para su apagado. Serviría en caso de que la Inteligencia Artificial supusiese un peligro para los humanos.
-Ningún robot podrá hacer daño a un ser humano. Lo que no explican es si por inacción también, como reza la norma imaginada por Asimov. Es preferible que no porque en sus novelas se observa que suele haber un pequeño desajuste en las mentes robóticas más avanzadas que pueden conducir al bloqueo al tener que decidir donde empieza su protección al ser humano y donde una intervención en los asuntos humanos puede considerarse peligrosa, incluso para los esquemas mentales del propio robot, ¿cómo proteger la ley de no dañar aplicándola a la mayor cantidad de humanos, a quién priorizo, a mi dueño? Un robot podría sentirse mal por no hacer algo que no fuese simplemente salvar una vida en una situación de apuro. Pongamos a una persona depresiva, el robot observaría que no intentando ayudar estaría obrando mal y dañando por inacción. Pero a la vez si se acercase lo suficiente descubrirían los humanos que se estaba extralimitando en sus funciones y lo podrían apagar. Es una idea que se relaciona con la siguiente ley propuesta:
- Prohibido crear vínculos afectivos con ellos. Ni de ellos contigo tampoco, añadiría.
-Seguro de daños con los de mayor tamaño para cubrir daños provocados por una mala programación.
-Robots, o como se les llama en el borrador personas electrónicas, que tengan derechos y obligaciones. La responsabilidad ante la ley de sus actos será compartida por sus desarrolladores y usuarios finales, o amos, si seguimos con al terminología de Asimov. Supongo que un uso indebido por un propietario o una modificación que derive en una infracción no atañerá a los programadores y desarrolladores originales.
-Deberán pagar impuestos. Serviría para compensar la perdida de trabajos en seres humanos al sustituirles.
[Tienes que estar registrado y conectado para ver este vínculo]