Google
Por Tema

Por Revista

Marzo 2016
Febrero 2016
Enero 2016
Diciembre 2015 libre
Noviembre 2015 libre
Octubre 2015 libre
Septiembre 2015 libre
Agosto 2015, Q2 libre
Julio Agosto 2015 Q1 libre
Julio 2015, Q1 libre
Junio 2015, Q2 libre
Mayo Junio 2015 libre
Mayo 2015, Q1 libre
Abril 2015, Q2 libre
Abril 2015, Q1 libre

Pruébenos gratis
Suscríbase
¿Cómo funciona?
Preguntas frecuentes
Sobre nosotros
Atención al Cliente



Moral y máquinas



Revista: The Economist
Tema: Ética
Fecha: Junio 02, 2012
En el clásico cinematográfico de ciencia ficción 2001, la computadora de la nave, HAL, encara un dilema. Sus instrucciones le ordenan que lleve a cabo la misión de la nave (investigar un artefacto cerca de Júpiter) y, a la vez, evitar que la tripulación de la nave se entere de cuál es la misión. Para resolver esta contradicción, la computadora decide eliminar a la tripulación. A medida que los robots se vuelven más autónomos, la noción de una máquina controlada por una computadora que tiene que tomar decisiones morales se está convirtiendo cada vez más en un problema del mundo real. La sociedad necesita buscar la manera de que las máquinas tomen mejores decisiones que HAL.

No es una sorpresa que la tecnología militar esté al frente de las máquinas autónomas. La evolución de estas tecnologías están generando varias especies; por ejemplo: el RiSE es una cucaracha de seis patas capaz de escalar paredes; el LS3 es un robot en forma de perro capaz de llevar carga en terrenos difíciles; el SUGV, un robot en forma de maletín, puede identificar a un persona entre la multitud y perseguirla. Pero los robots también están de moda en el mundo civil. Baste mencionar que los aviones comerciales ya son capaces de aterrizar por sí mismos y que el nuevo Volvo V40 puede conducir sin que el piloto ponga las manos en el volante.

Hay algunas armas que ya no necesitan ser operadas por seres humanos. A medida que se empiecen a usar con más regularidad, estas armas se encontrarán con dilemas éticos. Por ejemplo, ¿qué decidirá hacer un avión no tripulado que debe atacar una vivienda en la que se está escondiendo un enemigo pero donde a la vez se están refugiando civiles? Este tipo de preguntas han llevado al surgimiento de la "ética de máquinas", que tiene como objetivo darles a las máquinas la capacidad de tomar decisiones apropiadamente; en otras palabras, discernir el bien del mal.

Las pautas éticas para robots más conocidas son las tres leyes de la robótica creadas en 1942 por el escritor de ciencia ficción Isaac Asimov. Dichas reglas requieren que los robots protejan a los humanos, obedezcan sus órdenes y se protejan a sí mismos (en ese mismo orden). Lamentablemente, estas reglas no tienen mucho uso en el mundo real. Por ejemplo, los robots militares tendrían que violar la primera regla. Por tanto, se necesita profundizar en tres áreas en particular:

Primero, las leyes deben determinar quién es el responsable (el diseñador, el programador, el fabricante o el operador) cuando un robot toma una mala decisión. En segundo lugar, los juicios éticos de los robots deberían de parecerles correctos a la mayoría de las personas. Aquí debería entrar en juego la filosofía experimental. Finalmente, se necesita una mayor cooperación entre ingenieros, filósofos, abogados y legisladores, pues cada uno de estos gremios escribiría reglas muy diferentes si lo hicieran aisladamente.




Este es el resumen del artículo "Moral y máquinas" publicado en Junio 02, 2012 en la revista The Economist.

Vea otros artículos publicados en The Economist u otros artículos sobre Ética.

deRevistas.com traduce y resume los mejores artículos publicados por las revistas más prestigiosas de Negocios y Gerencia. Cada quincena, le enviamos a nuestros suscriptores un nuevo ejemplar con unos 30 resúmenes.



 

Copyright 2003-2024 por Meltom Technologies Inc