Sei sulla pagina 1di 5

UNIVERSIDAD PONTIFICIA BOLIVARIANA

CUESTIONES DE DERECHO CANÓNICO Y MORAL


DOCENTE: PBRO. GUILLERMO LEON ZULETA
ESTUDIANTE: CESAR EMILIO HURTADO MOSQUERA
TEMA: YO ROBOT

Yo, robot es una colección de relatos basados en las tres leyes de la robótica que
son un compendio fijo e imprescindible de moral aplicable a supuestos robots
inteligentes, con las que supuestamente nunca debería haber un conflicto si se
cumplieran fielmente. Los relatos, no obstante, plantean diferentes situaciones en
las que dichas "tres leyes" se cumplen, y aun así plantean problemas, paradojas e
ingeniosos ejercicios intelectuales a los que tendrán que enfrentarse distintos
especialistas en robótica, en definitiva, el libro termina indagando sobre la situación
del hombre actual en el universo tecnológico.

Las tres famosas leyes de la robótica:

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser
humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano,
excepto cuando estas órdenes se oponen a la primera Ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no
entre en conflicto con la primera o segunda Leyes.

Si se detiene usted a estudiarlas, verá que las tres leyes de la robótica no son más
que los principios esenciales de una gran cantidad de sistemas éticos del mundo.
Todo ser humano se supone dotado de un instinto de conservación. Es la tercera
ley de la robótica. Todo ser humano bueno, con conciencia social y sentido de la
responsabilidad, deberá someterse a la autoridad constituida, aunque sean un
obstáculo a su comodidad y seguridad. Es la segunda ley de la robótica. Todo ser
humano bueno debe, además, amar a su prójimo como a sí mismo, arriesgar su
vida para salvar a los demás. Es la primera ley de la robótica (I. Asimov, Yo, robot,
pág. 306 de la edición española en ed. Edhasa). Y, desde luego, llevaba razón en
que el contenido de las tres leyes forma parte, de casi todas las morales conocidas.

los robots y los hombres que los controlaban tenían que vérselas con algunos
problemas clásicos de la ética como el de la relevancia moral de las omisiones, la
distinción entre medios y fines o la opción entre una ética de la responsabilidad y
una ética del deber, además de tener que resolver contradicciones y técnica
legislativa.

Entonces, ¿cuál es el lugar de los sentimientos en la moral? Es posible que sea el


lugar previo y externo del fundamento, entendido como impulso o disposición. La
acción moral parece exigir necesariamente una disposición sentimental previa, que
no trataré de identificar aquí y que quizá no sea siempre, o para todos, la misma. La
actitud moral sería así una actitud sentimental sin fundamento racional, una especie
de argucia antropológica cuyo fundamento material ¿la auto conservación de la
especie? parece contradecir paradójicamente el modo propio de ser de la moral: no
tengo razones para obrar moralmente, pero si obro moralmente he de hacerlo de
acuerdo con razones.

Pero, ¿es posible que una máquina pueda tomar una decisión moral? ¿No era la
moral una cualidad exclusivamente humana, algo que nos hacía únicos en el
universo? Si bien están las leyes en la robótica, surgen la pregunta que están arriba
las cuales ponen la pauta de nuestra reflexión moral sobre la conciencia, la decisión
y el libre albedrío, en la inteligencia artificial la cuales cargada de información de los
eventos cotidianos del hombre que permiten que las maquinas empiecen a
responder a estímulos que el hombre a cargado en ellos, es por eso que al ver la
película vemos muchos elementos que cargan la imagen de la maquina autora de
una conciencia y decisiones por sí misma, pero esto es por la acumulación de
información contenidas en ellas que permite que actúen.

La conciencia es un don dado al ser humano, (El hombre tiene una ley inscrita por
Dios en su corazón CIC.1776) dando la capacidad de realizar juicio sobre los actos
realizados, por tanto, las maquinas no tendrían una conciencia, sino una copia de
los actos que el hombre realiza, podemos decir entonces, que la maquina es una
copia del ser humano que riendo remplazarse así mismo. Esto moral mete no es
bien visto porque, en primer momento atenta contra la creación de Dios padre, a
cambado con la humanidad para llenar al mundo de máquinas, que no realizaran
juicios por su cuenta, sino que actuaran según la información que han puesto en
ella.

La conciencia moral es un juicio de la razón por el que la persona humana reconoce


la cualidad moral de un acto concreto que piensa hacer, está haciendo o ha hecho
CIC 1778. En este mismo sentido, los pasos de la conciencia para un juicio moral
vine del ser humano y no de la máquina que realiza lo que el ser humano quiere, ya
que es incapaz la máquina de por sí sola razonar sobre un objeto que debe elegir
para realizar el juicio o la acción, del cual debe aparecer en ella la intención por el
cual quiere realizar la acción o el juicio y peor razonara sobre los medios y las
consecuencias que vendrán por las acciones que realiza. Es por eso que desde
hablar de conciencia en una maquina o en este caso en un robot es ir en contra de
la ley de la creación y el don de Dios para el hombre la cual es el único sujeto con
conciencia de sus actos.

La decisión es, el punto de inflexión en que convergen, por una parte, la actividad
resolutoria que le había precedido al acto (no es casual que se llame a la decisión
también resolución) y, por otra parte, la composición de la acción en su totalidad
partiendo de aquéllos medios que la deliberación ha encontrado. Santo Tomás
denominaba a la decisión el voluntario perfecto cuando va respaldada por el
recorrido deliberativo. Las maquinas carecen de este aspecto de decidir sobre lo
que realizan, bien se sabe que las maquinas o robot tienen inteligencia artificial eso
no los dota de capacidad de decisión porque es un acto que realiza el ser humano
antes de realizar una acción,

De alguna forma cada uno de los aspectos anteriores de la decisión están


complicados en el ser-responsable: 1) la responsabilidad se contrae ante algún
valor, incluyendo aquí eminentemente el valor integral de aquellas otras personas
cara a las cuales debo responder de mi actuación; 2) la responsabilidad requiere un
sujeto que la haga propia, y ello no es posible sin la disposición moral a crecer en
la responsabilidad como virtud; 3º) la responsabilidad conlleva la identificación
externa de la acción por la que se responde, apta para ser imputada a su sujeto,
que ha deliberado antes lo que ha decidido hacer (adviértase que tanto la
responsabilidad como la deliberación sugieren etimológicamente la idea de peso),
y 4) la responsabilidad se dilata desde aquello que ha sido hecho hasta los efectos
indirectos, en la medida en que entran en el radio de lo previsto y asumido.

¿Cómo será nuestra conducta cuando nos encontremos con Robots insertos en
nuestras sociedades?

Habría una rivalidad, pues la relación humana – máquina nunca sería buena por el
simple hecho de que los humanos tenemos sentimientos y nos invadirían algunos
aspectos como lo es la envidia, pues en un mundo globalizado la competencia
laboral y profesional está a la orden del día. No estaríamos conformes sabiendo que
un Robot hace las cosas mejor que nosotros.

Aún más desde la ética tecnológica, la enseñanza que deja la película es que la
tecnología como todo se tiene que reñir por unos valores en los cuales se garantice
que la vida de un ser humano es más importante que un aparato electrónico y en el
cual se puedan ver las implicaciones negativas de abusar de este recurso.

Entra en juego la decisión del hombre en cuanto a las maquinas, ya que es el


hombre que toma la decisión sobre el desino y fin de la maquina ya que está
realizada para efectuar algunas acciones, que dirigida por el hombre la maquina la
simula dejando ver que es la máquina que toma las decisiones pero no ya que el
único dotado de esa faculta de saber que es lo bueno y la malo es el hombre, y aquí
es donde empieza a jugar un papel importante el libre albedrío es la facultad que
tiene cualquier ser humano para tomar cualquier decisión que le plazca sin
impedimento alguno a no ser la falta de capacidades. Teniendo en cuenta esta
definición podemos decir en las maquina o en este caso el robot no tiene la faculta
del libre albedrio, esto solo se lo podríamos aplicar al doctor que los crea en su
forma de querer elaborar una maquina con las capacidades humanas, que dotarían
a la máquina de sentidos que por sí misma no llegaría a tener, por eso podemos
decir que el hombre hace una prolongación de sus necesidades en las maquinas
sin medir las consecuencias que resultaran más adelante, por una acción deliberada
de sus decisiones, aquí toda responsabilidad cae en el hombre que crea a la
máquina.

En conclusión, el hombre es responsable de todo acto realizado por las maquinas


o robot ya que este es una extensión de sus capacidades, dotado por el hombre en
la máquina de forma que actué por si a partir de la información puesta por el hombre
en ella, esto lleva a que nosotros entendamos que es la maquina la que se auto
direcciona, pero en el fondo como ya lo decíamos es una prolongación del hombre
en el tiempo por tanto la maquina no tiene faculta moral de los actos realiza por
ella, sino el hombre que ha puesto su prolongación en la máquina.

Las maquinas quedas libre de actos morales ya que esta, solo es faculta del ser
humano de tomar decisión moral y ética de sus actos realizados, y las decisiones
están viciadas al interés de su creador por eso el acto moral sobre cae en el creador
y no en la maquina esto queriendo decir que la maquina no busca un bien o un mal
por si solo es neutra, pero la información que contenga en su memoria es la que la
inclina al fin último de su creador o fundador.

Cibergrafia:

-Catecismo De la iglesia católica librería editrice cittá del vaticano 1992

-https://es.catholic.net/op/articulos/44070/cat/415/decisiones-morales.html#modal

-Ricardo García Manrique. Profesor Titular de Filosofía del Derecho y Miembro del
Observatorio de Bioética y Derecho de la Univ. de Barcelona.
www.bioeticayderecho.ub.es

-José Manuel Muñoz Ortega Libre Albedrío Y Responsabilidad Moral: Una


Aproximación Desde La Neurociencia. En Mahón, noviembre de 2015.

Potrebbero piacerti anche