Tecnologia

¿Por qué los científicos debaten la esperanza de vida de los robots?

31 de enero de 2017 (CNNMoney) – La semana pasada, los legisladores europeos propusieron exigir interruptores de matanza para prevenir que los robots realicen algún daño.

La propuesta también incluyó la creación de un estatus legal llamado “persona electrónica” para los robots inteligentes para ayudar a determinar la responsabilidad en caso de una conducta indebida por parte de los robots.

Es entendible por qué querríamos apagar a las armas inteligentes o maquinaria industrial. Donde se vuelve más complejo es cuando las personas generan un afecto por la tecnología.

Los robots inteligentes podrían funcionar mal o un auto sin conductor podría encerrar a su pasajero dentro. Hollywood ya ha presentado sus predicciones sobre las relaciones con robots en la película Her, pero ¿qué pasaría si desarrolláramos un apego emocional a una IA y este se tornara rebelde? (Hollywood exploró esto en Ex Machina).

Filósofos, ingenieros y científicos luchan con preguntas similares. Dado que los robots pueden, por diseño, vivir para siempre, ¿dónde se encuentran las éticas involucradas en el diseño de un interruptor de apagado?

«Los seres humanos han buscado la inmortalidad por mucho tiempo”, dijo Tenzin Priyadarshi, presidente y CEO del Dalai Lama Center for Ethics and Transformative Values del MIT. «Estamos más cerca que nunca de crear algo que sea inmortal. El reto es que simplemente no sabemos sobre la calidad de la inteligencia. No podemos garantizar si esta inteligencia…puede ser usada para la destrucción o no”.

Priyadarshi dice que los interruptores deben existir por dos motivos principales: para evitar que la información caiga en las manos equivocadas, y para prevenir que la IA o los robots se vuelvan rebeldes. El chatbot Tay de Microsoft es un buen ejemplo de qué tan rápido se pueden multiplicar los prejuicios en una IA. Fue sencillo apagar el bot adolescente de Twitter después de que sus usuarios le enseñaran a usar lenguaje racista, pero eso no siempre sería el caso.

Dado que la IA no experimenta las emociones humanas, toma decisiones y ejecuta tareas exclusivamente por su racionalidad. Teóricamente, esto podría ser prejudicial.

Priyadarshi, quien es director de la Iniciativa de Ética del MIT Media Lab, es parte del grupo que da forma al Fondo de Ética y Gobierno de la Inteligencia Artificial, una asociación de importantes universidades e inversionistas de tecnología que buscan resolver algunas de las preguntas que rodean la diversidad, prejuicios y normatividad de la inteligencia artificial. La fundación Knight Foundation anunció una inversión de 27 millones de dólares el 10 de enero.

«Si existe un algoritmo que decide que los humanos son lo más peligroso en el planeta, lo que estamos probando ser cierto, la elección racional para una IA sería que deberíamos destruir a los seres humanos pues son perjudiciales para el planeta”, dijo Priyadarshi.

Con información de: http://expansion.mx/

Botón volver arriba