-Todo robot deberá tener un interruptor de emergencia para su apagado. Serviría en caso de que la Inteligencia Artificial supusiese un peligro para los humanos.
-Ningún robot podrá hacer daño a un ser humano. Lo que no explican es si por inacción también, como reza la norma imaginada por Asimov. Es preferible que no porque en sus novelas se observa que suele haber un pequeño desajuste en las mentes robóticas más avanzadas que pueden conducir al bloqueo al tener que decidir donde empieza su protección al ser humano y donde una intervención en los asuntos humanos puede considerarse peligrosa, incluso para los esquemas mentales del propio robot, ¿cómo proteger la ley de no dañar aplicándola a la mayor cantidad de humanos, a quién priorizo, a mi dueño? Un robot podría sentirse mal por no hacer algo que no fuese simplemente salvar una vida en una situación de apuro. Pongamos a una persona depresiva, el robot observaría que no intentando ayudar estaría obrando mal y dañando por inacción. Pero a la vez si se acercase lo suficiente descubrirían los humanos que se estaba extralimitando en sus funciones y lo podrían apagar. Es una idea que se relaciona con la siguiente ley propuesta:
- Prohibido crear vínculos afectivos con ellos. Ni de ellos contigo tampoco, añadiría.
-Seguro de daños con los de mayor tamaño para cubrir daños provocados por una mala programación.
-Robots, o como se les llama en el borrador personas electrónicas, que tengan derechos y obligaciones. La responsabilidad ante la ley de sus actos será compartida por sus desarrolladores y usuarios finales, o amos, si seguimos con al terminología de Asimov. Supongo que un uso indebido por un propietario o una modificación que derive en una infracción no atañerá a los programadores y desarrolladores originales.
-Deberán pagar impuestos. Serviría para compensar la perdida de trabajos en seres humanos al sustituirles.
[Tienes que estar registrado y conectado para ver este vínculo]
-Ningún robot podrá hacer daño a un ser humano. Lo que no explican es si por inacción también, como reza la norma imaginada por Asimov. Es preferible que no porque en sus novelas se observa que suele haber un pequeño desajuste en las mentes robóticas más avanzadas que pueden conducir al bloqueo al tener que decidir donde empieza su protección al ser humano y donde una intervención en los asuntos humanos puede considerarse peligrosa, incluso para los esquemas mentales del propio robot, ¿cómo proteger la ley de no dañar aplicándola a la mayor cantidad de humanos, a quién priorizo, a mi dueño? Un robot podría sentirse mal por no hacer algo que no fuese simplemente salvar una vida en una situación de apuro. Pongamos a una persona depresiva, el robot observaría que no intentando ayudar estaría obrando mal y dañando por inacción. Pero a la vez si se acercase lo suficiente descubrirían los humanos que se estaba extralimitando en sus funciones y lo podrían apagar. Es una idea que se relaciona con la siguiente ley propuesta:
- Prohibido crear vínculos afectivos con ellos. Ni de ellos contigo tampoco, añadiría.
-Seguro de daños con los de mayor tamaño para cubrir daños provocados por una mala programación.
-Robots, o como se les llama en el borrador personas electrónicas, que tengan derechos y obligaciones. La responsabilidad ante la ley de sus actos será compartida por sus desarrolladores y usuarios finales, o amos, si seguimos con al terminología de Asimov. Supongo que un uso indebido por un propietario o una modificación que derive en una infracción no atañerá a los programadores y desarrolladores originales.
-Deberán pagar impuestos. Serviría para compensar la perdida de trabajos en seres humanos al sustituirles.
[Tienes que estar registrado y conectado para ver este vínculo]
Hoy a las 1:29 am por Tatsumaru
» Buenas noches
Hoy a las 12:48 am por Laberinto
» VOX: Es lo que hay.
Hoy a las 12:41 am por Laberinto
» Como se le ve el plumero a TVE.
Hoy a las 12:11 am por el.loco.lucas
» Que ha pasado en el Libano a los terroristas de Hezbola
Ayer a las 11:57 pm por el.loco.lucas
» Sinónimos múltiples
Ayer a las 11:51 pm por NEROCAESAR
» Vejez, divino tesoro.
Ayer a las 11:45 pm por NEROCAESAR
» Feijoo
Ayer a las 11:41 pm por Laberinto
» Relaciona palabras
Ayer a las 11:21 pm por Laberinto
» Sustantivos y nombres propios en inglés.
Ayer a las 10:34 pm por NEROCAESAR
» Sustantivos y nombres propios en francés.
Ayer a las 10:28 pm por athenea
» Bichillos y animalillos en acción
Ayer a las 10:28 pm por Z
» Un minuto de baile:
Ayer a las 10:23 pm por Z
» Sustantivos y nombres propios en catalán.
Ayer a las 10:08 pm por NEROCAESAR
» El teatro de Will. (Videos)
Ayer a las 8:51 pm por Z
» En directo en TVE: Pedro Sánchez dando la tabarra y sus seguidores aplaudiendo como focas!
Ayer a las 7:14 pm por Séneca
» Begoña Gerpe:
Ayer a las 7:11 pm por Z
» Nuevo intento de asesinato de Trump...
Ayer a las 7:07 pm por Séneca
» El humor politico
Ayer a las 6:10 pm por NEROCAESAR
» Un abogado contra la demagogia. (Videos)
Ayer a las 5:50 pm por Z
» Música y danza de la India:
Ayer a las 5:26 pm por Z
» ¿Qué tal el tiempo de hoy?
Ayer a las 5:16 pm por Laberinto
» El gobierno de España implicado en el golpe de estado en Venezuela
Ayer a las 5:13 pm por Séneca
» Chorradas varias
Ayer a las 5:10 pm por Tatsumaru
» CNI y Venezuela.
Ayer a las 4:28 pm por Séneca
» Yoyomi.
Ayer a las 3:46 pm por Z
» Ayuso
Ayer a las 2:42 pm por marapez
» Carne Cruda
Ayer a las 2:28 pm por Laberinto
» ¿Y si gobernaran PP y Vox?
Ayer a las 1:54 pm por marapez
» Los Meconios desatados!
Ayer a las 1:51 pm por Z