|
Moral y máquinas |
|
| En el clásico cinematográfico de ciencia ficción 2001, la computadora de la nave, HAL, encara un dilema. Sus instrucciones le ordenan que lleve a cabo la misión de la nave (investigar un artefacto cerca de Júpiter) y, a la vez, evitar que la tripulación de la nave se entere de cuál es la misión. Para resolver esta contradicción, la computadora decide eliminar a la tripulación. A medida que los robots se vuelven más autónomos, la noción de una máquina controlada por una computadora que tiene que tomar decisiones morales se está convirtiendo cada vez más en un problema del mundo real. La sociedad necesita buscar la manera de que las máquinas tomen mejores decisiones que HAL.
No es una sorpresa que la tecnologÃa militar esté al frente de las máquinas autónomas. La evolución de estas tecnologÃas están generando varias especies; por ejemplo: el RiSE es una cucaracha de seis patas capaz de escalar paredes; el LS3 es un robot en forma de perro capaz de llevar carga en terrenos difÃciles; el SUGV, un robot en forma de maletÃn, puede identificar a un persona entre la multitud y perseguirla. Pero los robots también están de moda en el mundo civil. Baste mencionar que los aviones comerciales ya son capaces de aterrizar por sà mismos y que el nuevo Volvo V40 puede conducir sin que el piloto ponga las manos en el volante.
Hay algunas armas que ya no necesitan ser operadas por seres humanos. A medida que se empiecen a usar con más regularidad, estas armas se encontrarán con dilemas éticos. Por ejemplo, ¿qué decidirá hacer un avión no tripulado que debe atacar una vivienda en la que se está escondiendo un enemigo pero donde a la vez se están refugiando civiles? Este tipo de preguntas han llevado al surgimiento de la "ética de máquinas", que tiene como objetivo darles a las máquinas la capacidad de tomar decisiones apropiadamente; en otras palabras, discernir el bien del mal.
Las pautas éticas para robots más conocidas son las tres leyes de la robótica creadas en 1942 por el escritor de ciencia ficción Isaac Asimov. Dichas reglas requieren que los robots protejan a los humanos, obedezcan sus órdenes y se protejan a sà mismos (en ese mismo orden). Lamentablemente, estas reglas no tienen mucho uso en el mundo real. Por ejemplo, los robots militares tendrÃan que violar la primera regla. Por tanto, se necesita profundizar en tres áreas en particular:
Primero, las leyes deben determinar quién es el responsable (el diseñador, el programador, el fabricante o el operador) cuando un robot toma una mala decisión. En segundo lugar, los juicios éticos de los robots deberÃan de parecerles correctos a la mayorÃa de las personas. Aquà deberÃa entrar en juego la filosofÃa experimental. Finalmente, se necesita una mayor cooperación entre ingenieros, filósofos, abogados y legisladores, pues cada uno de estos gremios escribirÃa reglas muy diferentes si lo hicieran aisladamente.
|
Este es el resumen del artículo "Moral y máquinas" publicado en Junio 02, 2012 en la revista The Economist.
Vea otros artículos publicados en The Economist u otros artículos sobre Ética.
deRevistas.com traduce y resume los mejores artículos publicados por las revistas más prestigiosas de Negocios y Gerencia. Cada quincena, le enviamos a nuestros suscriptores un nuevo ejemplar con unos 30 resúmenes.
|