La robótica humanoide, ¿conflicto moral?

 

Los eventos son valorados desde lo que somos, si todavía somos animales, es lógico que valoremos al humanoide como un producto.

Los conflictos aparecen cuando aparece una manera diferente de ver un evento. Anteceden a cambios de valores, en este caso nos lleva a definir un ser humano.
Es lógico que el planteamiento de este asunto surja ahora, pues la emocionalidad todavía persiste en nuestros enfoques, hasta que sea transformada en un sentimiento certero. Entramos en el concepto dando vida a objetos cotidianos. Por ejemplo, en alguna ocasión hemos visto un coche con un cartel que dice «me venden», el cual induce a un sentimiento de compasión por él, como si se tratara del abandono de un ser vivo.
En nuestras definiciones separamos el concepto de ser en vivo o inerte, y respetamos la vida que se manifiesta con un grado de complejidad alto (la vida animal más avanzada evolutivamente).
La tecnología nos ha revolucionado la existencia, ya os expliqué que hemos creado las máquinas para verificar, y si ello nos sirve hasta que nos demos cuenta que el método más exacto de verificación es uno mismo, vale, pero que no sea motivo para anular nuestro desarrollo.
Vamos a más, y nos planteamos dar inteligencia a ese reino inerte intentando imitar la creación de la vida. Es la manera de enfrentarnos al concepto de lo previsible y lo no-previsible. La materia viva empieza a ser menos misterio, las emociones no tardarán en ser producto de mercado, al conocerse perfectamente su manifestación y poderlas reproducir. Un ser humano es mucho más que eso, pero necesitamos el conflicto moral para entrar en su concepto, y definirlo. Considerar la inteligencia artificial como vida es limitarnos a la vida previsible. El cerebro es físico y podemos definir sus funciones y reproducirlas. Estamos desarrollando la mente en su aspecto más básico, nuestro concepto de inteligencia es atribuido a funciones perfectamente definidas, y por lo tanto previsibles para ser producto. Cuando lo hagamos, nos daremos cuenta de que eso no es ser humano. Pero tenemos que llegar a ese punto.
El conflicto moral ante los derechos de un ser artificial es producto de emocionalidad ante la falta de conocimiento, pero ha de ser así, son los mismos conflictos morales que han existido siempre adaptados a los eventos de la época. Por ejemplo, la considerada buena acción para no ser castigado, al hecho de comportarse «bien» por voluntad propia, característica de un ser evolucionado que siente respeto voluntariamente, con previa libertad de opción de hacerlo o no. Lo que cambia es el conocimiento, nada más, pues la libertad de opción siempre ha existido, aunque no sabíamos usarla.
Conocimiento no es inteligencia, es mucho más. Desde la percepción previsible podemos definir y hacer producto, pero no se puede hacer desde lo no-previsible. Es un tema de complejidad de substancias, por ello una máquina no es un ser humano, ni lo será nunca, aunque aparente serlo pues llegue a ser una reproducción exteriorizadamente exacta.
¿Entonces la diferencia substancial? Es el aspecto diferenciado entre humano y máquina, que ahora es difícil de entender puesto que lo que consideramos ser humano es todavía animal, y por lo tanto previsible. Es por ello que las conclusiones parten de este hecho y son así, pero no es así partiendo de un ser humano.
Un humanoide como materia, ha de tener el mismo respeto que cualquier otro ser. Desde la perspectiva animal se entiende que se valore como un producto. El conflicto de valores nos adentra en la evolución y el cambio hacia lo humano. A partir de aquí, todo en su sitio.

Posted by Meritxell Castells 9/5/2013

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: