Sei sulla pagina 1di 9

CARTULA

ESCUELA SUPERIOR POLITCNICA AGROPECUARIA DE MANAB


MANUEL FLIX LPEZ

CARRERA INFORMTICA
SEMESTRE SEXTO

PERODO OCT-MARZ.2015

INTELIGENCIA ARTIFICIAL I

TEMA 2:
LA NATURALEZA DEL ENTORNO

AUTORA:
LUISA K. FARIAS CHICA

FACILITADORA:
ING. HIRAIDA SANTANA

CALCETA, NOVIEMBRE 2014

INTRODUCCION
A continuacin vamos a tratar acerca del entorno de trabajo del agente
adems de hablar sobre cada una de sus propiedad ya que se despliega
algunas propiedades e aqu ms a fondo de ellos y nos olvidarnos de lo
principal la especificacin del entorno de trabajo denominado REAS.
En resumen, los agentes tienen una gran variedad de componentes, y estos
componentes se pueden representar de muchas formas en los programas de
agentes, por lo que, parece haber una gran variedad de mtodos de
aprendizaje. Existe, sin embargo, una visin unificada sobre un tema
fundamental. El aprendizaje en el campo de los agentes inteligentes puede
definirse como el proceso de modificacin de cada componente del agente, lo
cual permite a cada componente comportarse ms en consonancia con la
informacin que se recibe, lo que por tanto permite mejorar el nivel medio de
actuacin del agente.

LA NATURALEZA DEL ENTORNO


Entorno de trabajo
El entorno de trabajo est conformado por cuatro elementos:
-Medida de rendimiento (METAS) Cualidades deseables del agente
medidas de rendimiento, objetivos, metas - Incluyen criterios que determinan el
xito en el comportamiento del agente. Como regla general, es mejor disear
medidas de utilidad de acuerdo con lo que se quiere para el entorno, ms que
de acuerdo con cmo se cree que el agente debe comportarse, por ejemplo en
el agente aspiradora, su meta principal o medida de rendimiento es: mantener
siempre el Suelo limpio. (R).
Antes de disear un agente hay que centrarse en el entorno de trabajo que
son esencialmente los problemas para los que los agentes son las soluciones-,
debe de especificarse de la forma ms completa posible.

Mantener
siempre el
Suelo
limpio. (R)

Sensores
Como
percibe el
ambiente el
agente, con
qu lo
percibe (S)

Entorno
sobre el
cual
actuar o
se mover
el agente
(E)

Actuadores
Herramientas
o elementos
para efectuar
el trabajo,
acciones a
realizar (A)

A estos cuatro elementos se les engloba con el acrnimo REAS (Rendimiento,


Entorno, Actuadores, Sensores) (libro: Stuart Russel y Pete Norving.
Inteligencia Artificial un enfoque moderno. Ed. Prentice-Hall) o PAAM
(Percepcin, Accin, Meta, Ambiente).

REAS= Rendimiento Entorno Actuadores Sensores


PAMA=Percepcin Accin Meta Ambiente
Ejemplos de descripcin REAS (O PAMA) de algunos agentes
Tipo agente

Sistema de
diagnstico
mdico

Rendimiento

Entorno

Actuadores

Sensores

(Metas)

(Ambiente)

(Acciones)

(Percepcione
s)

Paciente
saludable,
reduccin al
mnimo de
los costos y
de las
demandas.

Paciente,
hospital,
personal

Preguntas,
pruebas,
tratamientos
,
diagnsticos,
casos.

Sintoma,
evidencias y
respuestas
del paciente.

Impresora,
monitor

Teclado para
emitir dicha
informacin.

Especificacin del entorno de trabajo


El entorno de trabajo, para cuya denominacin se utiliza el acrnimo
REAS (Rendimiento, Entorno, Actuadores, Sensores). En el diseo de

un agente, el primer paso debe ser siempre especificar el entorno de


trabajo de la forma ms completa posible.
Propiedades de los entornos de trabajo
El rango de los entornos de trabajo en los que se utilizan tcnicas de
IA es obviamente muy grande. Sin embargo, se puede identificar un
pequeo nmero de dimensiones en las que categorizar estos
entornos. Estas dimensiones determinan, hasta cierto punto, el diseo
ms adecuado para el agente y la utilizacin de cada una de las
familias principales de tcnicas en la implementacin del agente.
Totalmente observable vs. Parcialmente observable.
Si los sensores del agente le proporcionan acceso al estado
completo del medio en cada momento, entonces se dice que el
entorno de trabajo es totalmente observable. Un entorno de
trabajo es, efectivamente, totalmente observable si los
sensores detectan todos los aspectos que son relevantes en la
toma de decisiones; la relevancia, en cada momento, depende
de las medidas de rendimiento.
Determinista vs. Estocstico.
Si el siguiente estado del medio est totalmente determinado
por el estado actual y la accin ejecutada por el agente,
entonces se dice que el entorno es determinista; de otra forma
es estocstico. En principio, un agente no se tiene que
preocupar de la incertidumbre en un medio totalmente
observable y determinista. Sin embargo, si el medio es
parcialmente observable entonces puede parecer estocstico.
Episdico vs. Secuencial.
En un entorno de trabajo episdico, la experiencia del agente se
divide en episodios atmicos. Cada episodio consiste en la
percepcin del agente y la realizacin de una nica accin
posterior. Es muy importante tener en cuenta que el siguiente
episodio no depende de las acciones que se realizaron en
episodios previos. En los medios episdicos la eleccin de la
accin en cada episodio depende slo del episodio en s mismo.
Muchas tareas de clasificacin son episdicas.

Esttico vs. Dinmico.


Si el entorno puede cambiar cuando el agente est deliberando,
entonces se dice que el entorno es dinmico para el agente; de
otra forma se dice que es esttico. Los medios estticos son
fciles de tratar ya que el agente no necesita estar pendiente
del mundo mientras est tomando una decisin sobre una
accin, ni necesita preocuparse sobre el paso del tiempo.
Discreto vs. Continuo.

La distincin entre discreto y continuo se puede aplicar al


estado del medio, a la forma en la que se maneja el tiempo y a
las percepciones y acciones del agente.
Agente individual vs. Multiagente.
La distincin entre el entorno de un agente individual y el de un
sistema multiagente puede parecer suficientemente simple. Sin
embargo hay algunas diferencias sutiles. Primero, se ha descrito
que una entidad puede percibirse como un agente, pero no se
ha explicado qu entidades se deben considerar agentes. La
distincin clave est en identificar si el comportamiento B est
mejor descrito por la maximizacin de una medida de
rendimiento cuyo valor depende del comportamiento de A.
De hecho, suele suceder que la mayora de las situaciones reales son
tan complejas que sera discutible clasificarlas como realmente
deterministas. A efectos prcticos, se deben tratar como estocsticas.
Hay que tener en cuenta que las respuestas no estn siempre
preparadas de antemano.
Otras entradas de la tabla dependen de cmo se haya definido el
entorno de trabajo. Ejemplos de entornos de trabajo y sus
caractersticas.

Entorno
de
trabajo

Observabl
e

Determinis
ta

Episdic
o

Esttic
o

Discret
o

Agente

Crucigra
ma

Totalment
e

Determinis
ta

Secuenci
al

Esttic
o

Discret
o

Individu
al

Ajedrez
con reloj

Totalment
e

Estratgic
o

Secuenci
al

Semi

Discret
o

Multi

Pker

Parcialmen
te

Estratgic
o

Secuenci
al

Esttic
o

Discret
o

Multi

Estructura de los agentes


El trabajo de la IA es disear el programa agente implemente la
funcin del agente que proyecta las percepciones en las acciones. Se
asume que este programa se ejecutar en algn tipo de computador
con sensores fsicos y actuadores, lo cual se conoce como
arquitectura:
Agente = arquitectura + programa

En general, la arquitectura hace que las percepciones de los sensores


estn disponibles para el programa, ejecuta los programas, y se
encarga de que los actuadores pongan en marcha las acciones
generadas.
Programas de los agentes
Los programas de los agentes tienen la misma estructura: reciben las
percepciones actuales como entradas de los sensores y devuelven
una accin a los actuadores. Hay que tener en cuenta la diferencia
entre los programas de los agentes, que toman la percepcin actual
como entrada, y la funcin del agente, que recibe la percepcin
histrica completa. Los programas de los agentes reciben slo la
percepcin actual como entrada porque no hay nada ms disponible
en el entorno; si las acciones del agente dependen de la secuencia
completa de percepciones, el agente tendra que recordar las
percepciones.
Los cuatro tipos bsicos de programas para agentes que encarnan los
principios que subyacen en casi todos los sistemas inteligentes.

Agentes reactivos simples.


Agentes reactivos basados en modelos.
Agentes basados en objetivos.
Agentes basados en utilidad. Despus se explica, en trminos
generales, cmo convertir todos ellos en agentes que aprendan.

Agentes reactivos simples


El tipo de agente ms sencillo es el agente reactivo simple. Estos
agentes seleccionan las acciones sobre la base de las percepciones
actuales, ignorando el resto de las percepciones histricas
Los agentes reactivos simples tienen la admirable propiedad de ser
simples, pero poseen una inteligencia muy limitada.
Los bucles infinitos son a menudo inevitables para los agentes
reactivos simples que operan en algunos entornos parcialmente
observables.
Agentes reactivos basados en modelos
La forma ms efectiva que tienen los agentes de manejar la
visibilidad parcial es almacenar informacin de las partes del mundo
que no pueden ver. O lo que es lo mismo, el agente debe mantener
algn tipo de estado interno que dependa de la historia percibida y
que de ese modo refleje por lo menos alguno de los aspectos no
observables del estado actual.
La actualizacin de la informacin de estado interno segn pasa el
tiempo requiere codificar dos tipos de conocimiento en el programa

del agente. Primero, se necesita alguna informacin acerca de cmo


evoluciona el mundo independientemente del agente. Segundo, se
necesita ms informacin sobre cmo afectan al mundo las acciones
del agente. Este conocimiento acerca de cmo funciona el mundo,
tanto si est implementado con un circuito booleano simple o con
teoras cientficas completas, se denomina modelo del mundo. Un
agente que utilice este modelo es un agente basado en modelos.
Agentes basados en objetivos
El conocimiento sobre el estado actual del mundo no es siempre
suficiente para decidir qu hacer. En otras palabras, adems de la
descripcin del estado actual, el agente necesita algn tipo de
informacin sobre su meta que describa las situaciones que son
deseables. El programa del agente se puede combinar con
informacin sobre los resultados de las acciones posibles (la misma
informacin que se utiliz para actualizar el estado interno en el caso
del agente reflexivo) para elegir las acciones que permitan alcanzar el
objetivo.
Hay que tener en cuenta que la toma de decisiones de este tipo es
fundamentalmente diferente de las reglas de condicin-accin
descritas anteriormente, en las que hay que tener en cuenta
consideraciones sobre el futuro. En los diseos de agentes reactivos,
esta informacin no est representada explcitamente, porque las
reglas que maneja el agente proyectan directamente las percepciones
en las acciones.
Aunque el agente basado en objetivos pueda parecer menos
eficiente, es ms flexible ya que el conocimiento que soporta su
decisin est representado explcitamente y puede modificarse.
Agentes basados en utilidad
Las metas por si solas no son realmente suficientes para generar
comportamiento de gran calidad en la mayora de los entornos. Las
metas slo proporcionan una cruda distincin binaria entre los
estados de felicidad y tristeza, mientras que una medida de
eficiencia ms general debera permitir una comparacin entre
estados del mundo diferentes de acuerdo al nivel exacto de felicidad
que el agente alcance cuando se llegue a un estado u otro. Como el
trmino felicidad no suena muy cientfico, la terminologa
tradicional utilizada en estos casos para indicar que se prefiere un
estado del mundo a otro es que un estado tiene ms utilidad que otro
para el agente.
Una funcin de utilidad proyecta un estado (o una secuencia de
estados) en un nmero real, que representa un nivel de felicidad. La
definicin completa de una funcin de utilidad permite tomar

decisiones racionales en dos tipos de casos en los que las metas son
inadecuadas. Primero, cuando haya objetivos conflictivos, y slo se
puedan alcanzar algunos de ellos (por ejemplo, velocidad y
seguridad), la funcin de utilidad determina el equilibrio adecuado.
Segundo, cuando haya varios objetivos por los que se pueda guiar el
agente, y ninguno de ellos se pueda alcanzar con certeza, la utilidad
proporciona un mecanismo para ponderar la probabilidad de xito en
funcin de la importancia de los objetivos.
Agentes que aprenden
Se han descrito programas para agentes que poseen varios mtodos
para seleccionar acciones. Hasta ahora no se ha explicado cmo
poner en marcha estos programas de agentes. Turing (1950), en su
temprano y famoso artculo, consider la idea de programar sus
mquinas inteligentes a mano. Estim cunto tiempo poda llevar y
concluy que Sera deseable utilizar algn mtodo ms rpido. El
mtodo que propone es construir mquinas que aprendan y despus
ensearlas. En muchas reas de IA, ste es ahora el mtodo ms
adecuado para crear sistemas novedosos. El aprendizaje tiene otras
ventajas, como se ha explicado anteriormente: permite que el agente
opere en medios inicialmente desconocidos y que sea ms
competente que si slo utilizase un conocimiento inicial.
Un agente que aprende se puede dividir en cuatro componentes
conceptuales. La distincin ms importante entre elemento de
aprendizaje y elemento de
actuacin es que el primero est
responsabilizado de hacer mejoras y el segundo se responsabiliza de
la seleccin de acciones externas. El diseo del elemento de
aprendizaje depende mucho del diseo del elemento de actuacin. La
crtica indica al elemento de aprendizaje qu tal lo est haciendo el
agente con respecto a un nivel de actuacin fijo. La crtica es
necesaria porque las percepciones por s mismas no prevn una
indicacin del xito del agente. Es por tanto muy importante fijar el
nivel de actuacin. Conceptualmente, se debe tratar con el como si
estuviese fuera del agente, ya que este no debe modificarlo para
satisfacer su propio inters. El ltimo componente del agente con
capacidad de aprendizaje es el generador de problemas. Es
responsable de sugerir acciones que lo guiaran hacia experiencias
nuevas e informativas. Lo interesante es que si el elemento de
actuacin sigue su camino, puede continuar llevando a cabo las
acciones que sean mejores, dado su conocimiento.
Los casos ms simples incluyen el aprendizaje directo a partir de la
secuencia percibida. La observacin de pares de estados sucesivos
del entorno puede permitir que el agente aprenda cmo evoluciona el
mundo, y la observacin de los resultados de sus acciones puede
permitir que el agente aprenda que hacen sus acciones.

CONCLUSION
En la IA el entorno de trabajo de un agente est determinado por las
REAS que significan Rendimiento, Entorno, Actuadores, y Sensores, en
el cual el diseo de un agente, debe ser siempre especificar el
entorno de trabajo, las propiedades de los entornos de trabajo que se
utilizan tcnicas de IA es muy grandes pero para poder identificarlas
existe un pequeo nmero de dimensiones en las que categorizar
estos entornos, las mismas que determinan, , el diseo ms adecuado
para el agente y la utilizacin de cada una de las familias principales
de tcnicas en la implementacin del agente, como son si el agente
es dinmico o esttico, determinista o estocstico, si es total o
parcialmente observable, etc.

BIBLIOGRAFA
Russell, S, y Norving P. 2004. Inteligencia Artificial Un Enfoque
Moderno. 2da ed. Cap. 2. Pg. 37-62.

http://poiritem.wordpress.com/2009/11/16/6-4-2-agentes-inteligentes-y-lanaturaleza-de-su-entorno/

Potrebbero piacerti anche