x
1

Ética de las máquinas



La ética de las máquinas (o moral de las máquinas) es la parte de la ética de la inteligencia artificial que trata el comportamiento moral de los seres con inteligencia artificial.[1]​ La ética de las máquinas contrasta con la roboética, que se enfoca al comportamiento moral de los humanos mientras diseñan, construyen, usan y tratan a los seres con inteligencia artificial. La ética de las máquinas no debe ser confundida con la ética computacional, la cual se enfoca en el comportamiento profesional en el uso de las computadoras y la información.

Antes del siglo 21, la ética de las máquinas no había sido tomada en cuenta fuera de la literatura, debido principalmente a la computación y las limitaciones de la inteligencia artificial. Estas limitaciones están siendo superadas a través de la ley de Moore y un enfoque renovado en el campo de la inteligencia artificial. La ética de las máquinas se ha vuelto un campo realista desde que las computadoras comenzaron a manejar transacciones médicas y monetarias. El profesor James H. Moor está acreditado por haber acuñado la frase en su paper del 2006 La naturaleza, importancia y dificultad de la ética de las máquinas, así como por la definición.< el cual se anuncia como “el primer libro en examinar el reto de construir agentes morales artificiales, entrando profundamente en la naturaleza humana de la toma de decisiones y la ética.” Se citaron unas 450 fuentes, de las cuales, alrededor de 100 abordaron las principales preguntas sobre la ética de las máquinas. Pocas fueron escritas antes del siglo 21, principalmente porque cualquier forma de inteligencia artificial era inexistente.[2]

En 2011, Cambridge University Press publicó una colección de ensayos sobre la ética de las máquinas, editado por Michael y Susan Leigh Anderson,[3]​ quienes también editaron un número especial sobre el tema en la IEEE Sistemas Inteligentes en 2006.[4]

En 2014, la Oficina de Investigación Naval estadounidense anunció que distribuiría $ 7.5 millones en convenciones por cinco años a investigadores universitarios para estudiar cuestiones de la ética de las máquinas aplicadas a robots autónomos[5]​ y Nick Bostrom en su libro La superinteligencia: caminos, peligros, estrategias,elevó la ética de las máquinas como “el más importante… problema que ha enfrentado la humanidad”, además alcanzó el lugar #17 en la lista de los libros de ciencia ficción mejor vendidos del New York Times.[6]

Artículos sobre la ética de las máquinas aparecen regularmente en la revista Ética y Tecnologías de la Información.[7]

Moor distingue entre:[1]

En 2009, académicos y técnicos expertos asistieron a una conferencia para discutir sobre el impacto potencial de que las computadoras y robots, hipotéticamente, se vuelvan autosuficientes y capaces de tomar sus propias decisiones. Discutieron sobre la posibilidad y el nivel en el que las computadoras y robots sean capaces de adquirir un nivel de autonomía y a qué grado podrían utilizar dicha habilidad para significar un posible riesgo o amenaza. Notaron que algunas máquinas han adquirido distintas formas de semiautonomía, incluso siendo capaces de encontrar fuentes de energía y de elegir de manera independiente objetivos para atacar con armas. También encontraron que algunos virus de computadora son capaces de evadir el proceso de eliminación y han alcanzado una "inteligencia de cucaracha." Además señalaron que la autoconciencia, como se muestra en la ciencia ficción es muy poco probable, pero que existen otros riesgos y peligros potenciales.[8]

Algunos expertos y académicos han cuestionado el uso de robots para combate militar, especialmente cuando a estos robots se les da un grado de funciones autónomas.[9]​ La Armada de los Estados Unidos ha financiado un reporte en el que se señala que mientras más complejos se vuelvan los robots militares, debe de haber una mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[10][11]​ El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para examinar esta cuestión.[12]​ Se enfocan hacia programas como el dispositivo de adquisición del lenguaje, que puede emular la interacción humana.

Nick Bostrom y Eliezer Yudkowsky han argumentado a favor de los árboles de decisión (como el ID3) por encima de las redes neuronales y algoritmos genéticos, con la base de que los árboles de decisión obedecen a normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis),[13]​ mientras que Chris Santos-Lang alega en la dirección opuesta, con la justificación de que se debe permitir cambiar las normas de cualquier época y que el fallo natural satisfaga estas normas, lo cual ha sido esencial en hacer a los humanos menos vulnerables que las máquinas ante los "hackers".[14][15]

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Escuela Politécnica Federal de Lausana, en Suiza, robots que fueron programados para cooperar entre sí en la búsqueda de un recurso beneficioso y evitando uno dañino, eventualmente aprendieron a mentir entre ellos, con el fin de obtener el recurso que buscaban.[16]


Un problema en este caso puede haber sido que los objetivos eran terminales (es decir, en comparación, los motivos humanos tienen una calidad de que requieren un aprendizaje continuo). Los robots fueron agrupados en clanes y se utilizó el código genético digital de los miembros exitosos para la próxima generación. Después de 50 generaciones sucesivas, un miembro de los clanes descubrió cómo indicar la comida en vez del veneno. Además, hubo robots que señalaban el peligro y morían por salvar a otros. Estas adaptaciones pueden haber sido el resultado del código genético de sus creadores humanos.[14]

En Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots la diferencia entre el bien y el mal, nos ayudará a avanzar en el entendimiento de la ética humana, motivando a los humanos para acortar la brecha en la teoría normativa moderna y brindando una plataforma para la investigación experimental.[2]

Se han hecho varios intentos para hacer la ética, computable o al menos formal. Mientras que las tres leyes de la robótica de Isaac Asimov, usualmente no son consideradas como adecuadas para funcionar como agente moral artificial,[17]​ además, se ha estudiado que el imperativo categórico de Kant sí puede ser utilizado.[18]​ Sin embargo, se ha señalado que los valores humanos son muy complejos en algunos aspectos.[19]​ Una manera de superar esta dificultad es recibir los valores directamente de las personas a través de un mecanismo, por ejemplo, aprendiéndolos.[20][21][22]
Otro enfoque es basar las consideraciones éticas actuales en situaciones similares pasadas. A esto se le llama casuística y puede implementarse a través de la investigación en Internet. El consenso de millones puede llevar a una decisión que depende de la democracia.[23]

Un experimento mental se centra en Genie Golem, con poderes ilimitados y se presenta él mismo ante el lector. Genie afirma que volverá en 50 años y exige que se le entregue un conjunto definido de valores morales. El propósito de este experimento es iniciar un discurso sobre la mejor la manera de definir la ética para que sea entendible para las computadoras.[24]

En 1950, Isaac Asimov trató el asunto en su libro Yo, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las tres leyes de la robótica para regir los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces, a probar los límites de sus tres leyes, para así poder encontrar en dónde fallarían o dónde se comportarían de manera paradójica o imprevista. Su trabajo sugiere que no hay un conjunto de leyes establecidas que puedan anticiparse a todas las circunstancias.[25]



Escribe un comentario o lo que quieras sobre Ética de las máquinas (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!